Pred tromi rokmi som navštívil celkom zaujímavú výstavu umenia. „Machine Memoirs“ od Refika Anadola ma zaujal od začiatku.
Je to obľúbené meno medzi tými, ktorí sa zaujímajú o prienik umenia a AI. Ale nebojte sa, tento blog nie je o umení. Ponoríme sa do hlbokých „vnímaní“ AI.
Na tejto výstave Anadol experimentoval Snímky vesmírneho prieskumu NASA. Výstava bola inšpirovaná myšlienkou, že teleskopy môžu „snívať“ pomocou svojich vizuálnych archívov, čím sa stierajú bariéry medzi skutočnosťou a predstavivosťou.
Skúmaním vzťahov medzi údajmi, pamäťou a históriou v kozmickom meradle nás Anadol požiadal, aby sme zvážili potenciál umelá inteligencia pozorovať a chápať svet okolo nás. A dokonca aj AI mať svoje vlastné sny...
Prečo je to teda pre nás relevantné?
Zvážte toto: rovnako ako Anadol skúmal koncept teleskopov snívajúcich z ich údajov, systémy AI majú svoj vlastný typ sna - alebo skôr halucinácie - vo svojich digitálnych pamäťových bankách.
Tieto halucinácie, podobne ako vizualizácie na výstave Anadol, nám môžu pomôcť dozvedieť sa viac o údajoch, AI a ich limitoch.
Čo presne sú halucinácie AI?
Keď veľký jazykový model, ako napríklad generatívny chatbot AI, produkuje výstupy so vzormi, ktoré buď neexistujú, alebo sú pre ľudských pozorovateľov neviditeľné, nazývame ich „AI halucinácie."
Tieto výstupy, ktoré sa líšia od očakávanej odpovede na základe vstupu do AI, môžu byť úplne chybné alebo nezmyselné.
V kontexte počítačov sa môže zdať pojem „halucinácia“ nezvyčajný, no presne vystihuje bizarný charakter týchto nesprávnych výstupov. Halucinácie AI sú spôsobené celým radom premenných, vrátane nadmerného vybavenia, zaujatosti v tréningových údajoch a zložitosti modelu AI.
Pre lepšie pochopenie je to koncepčne podobné tomu, ako ľudia vidia tvary v oblakoch alebo tváre na Mesiaci.
Príklad:
V tomto príklade som položil veľmi jednoduchú otázku ChatGPT. Mal som dostať odpoveď typu: „Autorom série kníh Duna je Frank Herbert.
Prečo sa to deje?
Napriek tomu, že sú vytvorené na písanie obsahu, ktorý je koherentný a plynulý, veľké jazykové modely v skutočnosti nedokážu pochopiť, čo hovoria. To je veľmi dôležité pri určovaní dôveryhodnosti obsahu generovaného AI.
Aj keď tieto modely môžu generovať reakcie, ktoré napodobňujú ľudské správanie, chýba im kontextové povedomie a schopnosti kritického myslenia ktoré podporujú skutočnú inteligenciu.
Výsledkom je, že výstupy generované AI sú vystavené nebezpečenstvu, že budú zavádzajúce alebo nesprávne, pretože uprednostňujú zhodné vzory pred faktickou správnosťou.
Aké by mohli byť ďalšie prípady halucinácií?
Nebezpečná dezinformácia: Povedzme, že generatívny chatbot s umelou inteligenciou vyrába dôkazy a svedectvá, aby falošne obvinil verejnú osobu z trestného činu. Tieto zavádzajúce informácie môžu poškodiť povesť danej osoby a spôsobiť neoprávnenú odvetu.
Divné alebo strašidelné odpovede: Ak chcete uviesť vtipný príklad, predstavte si, že chatbot dáva používateľovi otázku o počasí a odpovedá predpoveďou, ktorá hovorí, že bude pršať, mačky a psy, spolu s obrázkami dažďových kvapiek, ktoré vyzerajú ako mačky a psy. Aj keď sú vtipné, stále by to bola „halucinácia“.
Faktické nepresnosti: Predpokladajme, že chatbot založený na jazykovom modeli nepravdivo tvrdí, že Veľký čínsky múr možno vidieť z vesmíru bez toho, aby vysvetlil, že je viditeľný iba za určitých podmienok. Aj keď sa táto poznámka môže niekomu zdať hodnoverná, je nepresná a môže ľudí zavádzať, pokiaľ ide o pohľad na stenu z vesmíru.
Ako sa ako používateľ vyhnete halucináciám AI?
Vytvorte explicitné výzvy
S modelmi AI musíte komunikovať explicitne.
Pred písaním si premyslite svoje ciele a navrhnite si svoje výzvy.
Napríklad poskytnite konkrétne pokyny ako „Vysvetlite, ako funguje internet, a napíšte odsek o jeho význame v modernej spoločnosti“ namiesto všeobecnej otázky typu „Povedz mi o internete“.
Explicita pomáha modelu AI interpretovať váš zámer.
Príklad: Opýtajte sa AI otázky, ako sú tieto:
"Čo je cloud computing a ako funguje?"
"Vysvetlite vplyv posunu údajov na výkon modelu."
„Diskutujte o vplyve a potenciálnej budúcnosti technológie VR na IT biznis.“
Osvojte si silu príkladu
Uvádzanie príkladov vo výzvach pomáha modelom AI pochopiť kontext a generovať presné odpovede. Či už hľadáte historické poznatky alebo technické vysvetlenia, poskytnutie príkladov môže pomôcť zvýšiť presnosť obsahu generovaného AI.
Môžete napríklad povedať: „Spomeňte fantasy romány ako Harry Potter.“
Rozdelenie zložitých úloh
Zložité výzvy preťažujú algoritmy AI a môžu viesť k irelevantným výsledkom. Aby ste tomu zabránili, rozdeľte zložité činnosti na menšie, lepšie zvládnuteľné časti. Postupným usporiadaním výziev umožníte AI zamerať sa na každý komponent nezávisle, čo vedie k logickejším odpovediam.
Napríklad namiesto toho, aby ste požiadali AI, aby „vysvetlila proces vytvárania a neurónová sieť“ v jedinom dotaze rozdeľte priradenie do samostatných fáz, ako je definícia problému a zber údajov.
Overte výstupy a poskytnite spätnú väzbu
Vždy dvakrát skontrolujte výsledky vytvorené modelmi AI, najmä pri činnostiach založených na faktoch alebo dôležitých činnostiach. Porovnajte odpovede so spoľahlivými zdrojmi a všimnite si všetky rozdiely alebo chyby.
Poskytnite vstup do systému AI na zvýšenie budúceho výkonu a zníženie halucinácií.
Stratégie pre vývojárov, ako sa vyhnúť halucináciám AI
Implementujte rozšírenú generáciu získavania (RAG).
Integrujte techniky generovania s rozšíreným vyhľadávaním do systémov AI, aby ste mohli odpovede založiť na faktických faktoch zo spoľahlivých databáz.
Retrieval-augmented generation (RAG) spája štandardné generovanie prirodzeného jazyka so schopnosťou získavať a začleňovať relevantné informácie z obrovskej znalostnej základne, čo vedie k bohatšiemu výstupu.
Zlúčením obsahu generovaného AI s overenými zdrojmi údajov môžete zlepšiť spoľahlivosť a dôveryhodnosť výsledkov AI.
Nepretržite overujte a monitorujte výstupy AI
Nastavte prísne overovacie postupy na overenie správnosti a konzistentnosti výstupov AI v reálnom čase. Pozorne monitorujte výkon AI, hľadajte potenciálne halucinácie alebo chyby a opakujte tréning modelu a rýchlu optimalizáciu, aby ste časom zvýšili spoľahlivosť.
Napríklad použite automatizované overovacie rutiny na kontrolu faktickej správnosti obsahu vygenerovaného AI a zvýraznite prípady možných halucinácií na manuálne posúdenie.
Skontrolujte dátové posuny
Dátový drift je fenomén, pri ktorom sa štatistické vlastnosti údajov použitých na trénovanie modelu AI menia s časom. Ak model AI počas inferencie spĺňa údaje, ktoré sa značne líšia od jeho tréningových údajov, môže poskytnúť falošné alebo nelogické výsledky, čo vedie k halucináciám.
Napríklad, ak je model AI trénovaný na minulých údajoch, ktoré už nie sú relevantné alebo neindikujú súčasné prostredie, môže robiť nesprávne závery alebo predpovede.
V dôsledku toho je monitorovanie a riešenie posunov údajov rozhodujúce pre zabezpečenie výkonu a spoľahlivosti systému AI a zároveň znižuje možnosť halucinácií.
záver
Podľa údajov IBM sa halucinácie AI vyskytujú v približne 3 až 10 % odpovedí modelov AI.
Tak či onak ich zrejme budete pozorovať aj vy. Verím, že je to neuveriteľne zaujímavá téma, pretože je to fascinujúca pripomienka neustálej cesty k zvyšovaniu schopností AI.
Môžeme pozorovať a experimentovať so spoľahlivosťou AI, zložitosťou spracovania údajov a interakciami medzi človekom a AI.
Nechaj odpoveď