Před třemi lety jsem navštívil docela zajímavou výstavu umění. "Machine Memoirs" od Refik Anadol vzbudil můj zájem od začátku.
Je oblíbeným jménem mezi těmi, kdo se zajímají o průnik umění a AI. Ale nebojte, tento blog není o umění. Ponoříme se do hlubokých „vnímání“ AI.
Na této výstavě Anadol experimentoval Snímky z průzkumu vesmíru NASA. Výstava byla inspirována myšlenkou, že dalekohledy mohou „snít“ pomocí svých vizuálních archivů, čímž se stírají bariéry mezi skutečností a představivostí.
Zkoumáním vztahů mezi daty, pamětí a historií v kosmickém měřítku nás Anadol požádal, abychom zvážili potenciál umělá inteligence pozorovat a chápat svět kolem nás. A dokonce i AI mít své vlastní sny…
Proč je to pro nás tedy relevantní?
Zvažte toto: stejně jako Anadol zkoumal koncept teleskopů snících z jejich dat, systémy AI mají ve svých digitálních paměťových bankách svůj vlastní typ snu – nebo spíše halucinace.
Tyto halucinace, stejně jako vizualizace na výstavě Anadol, nám mohou pomoci dozvědět se více o datech, AI a jejich limitech.
Co přesně jsou halucinace AI?
Když velký jazykový model, jako je generativní chatbot AI, produkuje výstupy se vzory, které buď neexistují, nebo jsou pro lidské pozorovatele neviditelné, nazýváme je „AI halucinace."
Tyto výstupy, které se liší od očekávané odpovědi na základě vstupu poskytnutého AI, mohou být zcela chybné nebo nesmyslné.
V kontextu počítačů se termín „halucinace“ může zdát neobvyklý, ale přesně vystihuje bizarní charakter těchto nesprávných výstupů. Halucinace umělé inteligence jsou způsobeny řadou proměnných, včetně nadměrného přizpůsobení, zkreslení v trénovacích datech a složitosti modelu umělé inteligence.
Pro lepší pochopení je to koncepčně podobné tomu, jak lidé vidí tvary v oblacích nebo tváře na Měsíci.
Příklad:
V tomto příkladu jsem položil velmi snadnou otázku ChatGPT. Měl jsem dostat odpověď jako: "Autorem knižní série Duna je Frank Herbert.".
Proč se to stane?
Navzdory tomu, že jsou vytvořeny pro psaní obsahu, který je koherentní a plynulý, velké jazykové modely ve skutečnosti nejsou schopny porozumět tomu, co říkají. To je velmi důležité při určování důvěryhodnosti obsahu generovaného umělou inteligencí.
I když tyto modely mohou generovat reakce, které napodobují lidské chování, chybí jim kontextové povědomí a dovednosti kritického myšlení které podporují skutečnou inteligenci.
Výsledkem je, že výstupy generované umělou inteligencí se vystavují nebezpečí, že budou zavádějící nebo nesprávné, protože upřednostňují shodné vzory před faktickou správností.
Jaké by mohly být další případy halucinací?
Nebezpečné dezinformace: Řekněme, že generativní chatbot s umělou inteligencí vymýšlí důkazy a svědectví, aby falešně obvinil veřejnou osobu z trestného činu. Tyto zavádějící informace mají potenciál poškodit pověst dané osoby a způsobit neoprávněnou odvetu.
Divné nebo děsivé odpovědi: Abychom uvedli vtipný příklad, představte si, že chatbot dává uživateli otázku ohledně počasí a odpoví předpovědí, která říká, že bude pršet, kočky a psi, spolu s obrázky dešťových kapek, které vypadají jako kočky a psi. I když jsou vtipní, pořád by to byla „halucinace“.
Faktické nepřesnosti: Předpokládejme, že chatbot založený na jazykovém modelu falešně tvrdí, že Velkou čínskou zeď lze pozorovat z vesmíru, aniž by vysvětlil, že je viditelná pouze za určitých podmínek. I když se tato poznámka může někomu zdát věrohodná, je nepřesná a může lidi uvést v omyl ohledně pohledu na zeď z vesmíru.
Jak se jako uživatel vyhýbáte halucinacím AI?
Vytvářejte explicitní výzvy
S modely AI musíte komunikovat explicitně.
Než začnete psát, přemýšlejte o svých cílech a navrhněte své výzvy.
Například dejte konkrétní pokyny jako „Vysvětlete, jak funguje internet, a napište odstavec o jeho významu v moderní společnosti“ místo obecného dotazu typu „Řekni mi o internetu“.
Explicita pomáhá modelu AI interpretovat váš záměr.
Příklad: Zeptejte se AI otázky, jako jsou tyto:
"Co je cloud computing a jak funguje?"
"Vysvětlete dopad posunu dat na výkon modelu."
"Diskutujte o dopadu a potenciální budoucnosti technologie VR na IT podnikání."
Přijměte sílu příkladu
Uvádění příkladů ve výzvách pomáhá modelům umělé inteligence pochopit kontext a generovat přesné odpovědi. Ať už hledáte historické poznatky nebo technická vysvětlení, poskytnutí příkladů může pomoci zvýšit přesnost obsahu generovaného umělou inteligencí.
Můžete například říci: „Zmínit fantasy romány, jako je Harry Potter.“
Rozebrat složité úkoly
Složité výzvy přetěžují algoritmy AI a mohou vést k irelevantním výsledkům. Abyste tomu zabránili, rozdělte složité činnosti na menší, lépe zvládnutelné části. Uspořádáním výzev postupně umožníte AI soustředit se na každou komponentu nezávisle, což vede k logičtějším odpovědím.
Například namísto toho, abyste požádali AI, aby „vysvětlila proces vytváření a nervová síť" v jediném dotazu rozdělit přiřazení do samostatných fází, jako je definice problému a sběr dat.
Ověřte výstupy a poskytněte zpětnou vazbu
Vždy dvakrát zkontrolujte výsledky vytvořené modely umělé inteligence, zejména u činností založených na faktech nebo zásadních činností. Porovnejte odpovědi se spolehlivými zdroji a poznamenejte si případné rozdíly nebo chyby.
Poskytněte vstup do systému AI pro zvýšení budoucího výkonu a snížení halucinací.
Strategie pro vývojáře, jak se vyhnout halucinacím AI
Implementujte Retrieval-Augmented Generation (RAG).
Integrujte do systémů umělé inteligence techniky generování s rozšířeným vyhledáváním a založte odpovědi na faktických faktech ze spolehlivých databází.
Retrieval-augmented generation (RAG) kombinuje standardní generování přirozeného jazyka se schopností získávat a začleňovat relevantní informace z rozsáhlé znalostní báze, což má za následek více kontextově bohatý výstup.
Sloučením obsahu generovaného AI s ověřenými zdroji dat můžete zlepšit spolehlivost a důvěryhodnost výsledků AI.
Průběžně ověřujte a monitorujte výstupy AI
Nastavte přísné ověřovací postupy pro ověření správnosti a konzistence výstupů AI v reálném čase. Pozorně sledujte výkon AI, hledejte potenciální halucinace nebo chyby a opakujte trénování modelu a rychlou optimalizaci, abyste v průběhu času zvýšili spolehlivost.
Používejte například automatizované ověřovací rutiny ke kontrole faktické správnosti obsahu generovaného umělou inteligencí a zvýraznění případů možných halucinací pro manuální posouzení.
Zkontrolujte datové posuny
Datový drift je jev, při kterém se statistické vlastnosti dat používaných k trénování modelu AI mění v čase. Pokud model umělé inteligence během inference splňuje data, která se značně liší od jeho trénovacích dat, může poskytovat falešné nebo nelogické výsledky, což má za následek halucinace.
Pokud je například model umělé inteligence trénován na minulých datech, která již nejsou relevantní nebo nevypovídající o aktuálním prostředí, může dělat nesprávné závěry nebo předpovědi.
V důsledku toho je monitorování a řešení posunů dat zásadní pro zajištění výkonu a spolehlivosti systému AI a zároveň snižuje možnost halucinací.
Proč investovat do čističky vzduchu?
Podle IBM Data se halucinace umělé inteligence vyskytují u přibližně 3 až 10 % odpovědí z modelů umělé inteligence.
Tak či onak je pravděpodobně budete pozorovat také. Věřím, že se jedná o neuvěřitelně zajímavé téma, protože je to fascinující připomínka neustálé cesty ke zlepšování schopností AI.
Můžeme pozorovat a experimentovat se spolehlivostí AI, složitosti zpracování dat a interakcí mezi člověkem a AI.
Napsat komentář