Három évvel ezelőtt meglátogattam egy meglehetősen érdekes képzőművészeti kiállítást. Refik Anadol „Machine Memoirs” című könyve kezdettől fogva felkeltette az érdeklődésemet.
Népszerű név a művészet és az AI metszéspontja iránt érdeklődők körében. De ne aggódj, ez a blog nem a művészetről szól. Beleásunk az AI mély „érzékelésébe”.
Ezen a kiállításon az Anadol kísérletezett A NASA űrkutatási képei. A kiállítást az az ötlet ihlette, hogy a teleszkópok „álmodhatnak” vizuális archívumaik felhasználásával, elmosva a határokat a tények és a képzelet között.
Az adatok, a memória és a történelem közötti összefüggések kozmikus léptékű vizsgálatával az Anadol arra kért minket, hogy vegyük figyelembe a mesterséges intelligencia hogy megfigyeljük és megértsük a minket körülvevő világot. És még a mesterséges intelligencia is, hogy legyenek saját álmai…
Szóval, miért releváns ez számunkra?
Gondoljunk csak bele: amennyire az Anadol az adataikból álmodozó teleszkópok koncepcióját vizsgálta, az AI-rendszereknek megvannak a saját típusú álmai – vagy inkább hallucinációi – a digitális memóriabankjaikon belül.
Ezek a hallucinációk, akárcsak az Anadol kiállításának vizualizációi, segíthetnek nekünk többet megtudni az adatokról, az AI-ról és azok korlátairól.
Mik is pontosan az AI hallucinációk?
Amikor egy nagy nyelvi modell, például egy generatív mesterséges intelligencia chatbot, olyan kimeneteket produkál, amelyek vagy nem létező, vagy az emberi megfigyelők számára láthatatlan minták, ezeket nevezzük „AI hallucinációk."
Ezek a kimenetek, amelyek eltérnek az AI-nak adott bemenet alapján várt választól, teljesen hibásak vagy értelmetlenek lehetnek.
A számítógépekkel összefüggésben a „hallucináció” kifejezés szokatlannak tűnhet, de pontosan leírja e helytelen kimenetek bizarr jellegét. A mesterséges intelligencia hallucinációit számos változó okozza, beleértve a túlillesztést, a képzési adatok torzítását és az AI-modell összetettségét.
Hogy jobban megértsük, ez elvileg hasonló ahhoz, ahogyan az emberek a felhők alakzatait vagy az arcokat a Holdon látják.
Egy példa:
Ebben a példában egy nagyon egyszerű kérdést tettem fel ChatGPT. Olyan választ kellett volna kapnom, mint: „A Dune könyvsorozat szerzője Frank Herbert.”
Miért történik ez?
Annak ellenére, hogy koherens és gördülékeny tartalom írására készültek, a nagy nyelvi modellek valójában nem képesek megérteni, amit mondanak. Ez nagyon kritikus az AI által generált tartalom hitelességének meghatározásában.
Bár ezek a modellek olyan reakciókat generálhatnak, amelyek utánozzák az emberi viselkedést, hiányzik belőlük a kontextuális tudatosság és a kritikus gondolkodási készség amelyek megalapozzák a tényleges intelligenciát.
Ennek eredményeként a mesterséges intelligencia által generált kimenetek fennáll annak a veszélye, hogy félrevezetőek vagy tévesek lesznek, mivel előnyben részesítik az egyezési mintákat a tényszerűség helyett.
Mik lehetnek a hallucinációk egyéb esetei?
Veszélyes félretájékoztatás: Tegyük fel, hogy egy generatív AI chatbot bizonyítékokat és tanúvallomásokat gyárt, hogy hamisan megvádoljon egy közszereplőt bűnöző magatartással. Ez a félrevezető információ ronthatja a személy hírnevét és indokolatlan megtorlást okozhat.
Furcsa vagy hátborzongató válaszok: Hogy egy humoros példát hozzunk, képzeljünk el egy chatbotot, amely egy időjárási kérdést ad fel a felhasználónak, és egy olyan előrejelzéssel válaszol, amely szerint macskákat és kutyákat fog esni, valamint képeket a macskákra és kutyákra hasonlító esőcseppekről. Bár viccesek, ez akkor is „hallucináció” lenne.
Ténybeli pontatlanságok: Tételezzük fel, hogy egy nyelvi modellen alapuló chatbot hamisan állítja, hogy a Kínai Nagy Fal az űrből is látható anélkül, hogy elmagyarázná, hogy csak meghatározott körülmények között látható. Bár egyesek számára hihetőnek tűnik a megjegyzés, pontatlan, és félrevezetheti az embereket a fal űrből való látványával kapcsolatban.
Hogyan kerülheti el az AI-hallucinációkat felhasználóként?
Tegyen kifejezett felszólításokat
Kifejezetten kell kommunikálnia az AI modellekkel.
Gondolja át céljait, és tervezze meg az utasításokat, mielőtt ír.
Például adjon konkrét utasításokat, például „magyarázza el, hogyan működik az internet, és írjon egy bekezdést a modern társadalomban betöltött jelentőségéről”, ahelyett, hogy általános kérdőívet tenne fel, mint például: „Meséljen az internetről”.
Az explicititás segít az AI-modellnek értelmezni a szándékodat.
Példa: Tegyen fel kérdéseket a mesterséges intelligencia számára, például:
"Mi az a felhőalapú számítástechnika, és hogyan működik?"
„Magyarázza el az adatsodródás hatását a modell teljesítményére.”
„Megbeszéljük a VR-technológia IT-üzletágra gyakorolt hatását és lehetséges jövőjét.”
Fogadd el a példa erejét
Ha példákat ad meg a promptokban, az segít az AI-modelleknek megérteni a kontextust, és pontos válaszokat generálni. Akár történelmi betekintést, akár technikai magyarázatot keres, a példák segítségével javíthatja a mesterséges intelligencia által generált tartalmak pontosságát.
Például azt mondhatja: „Említsen fantasy regényeket, például a Harry Pottert.”
Bontsa le az összetett feladatokat
Az összetett felszólítások túlterhelik az AI-algoritmusokat, és irreleváns eredményekhez vezethetnek. Ennek megelőzése érdekében ossza fel az összetett tevékenységeket kisebb, jobban kezelhető darabokra. A promptok szekvenciális rendszerezésével lehetővé teszi az AI számára, hogy az egyes összetevőkre függetlenül összpontosítson, ami logikusabb válaszokat eredményez.
Például ahelyett, hogy megkérné az AI-t, hogy „magyarázza el a létrehozási folyamatot a neurális hálózat" egyetlen lekérdezésben bontsa szét a hozzárendelést olyan diszkrét fázisokra, mint a problémameghatározás és az adatgyűjtés.
Érvényesítse a kimeneteket és adjon visszajelzést
Mindig ellenőrizze kétszer az AI-modellek eredményeit, különösen a tényeken alapuló vagy döntő fontosságú tevékenységek esetében. Hasonlítsa össze a válaszokat megbízható forrásokkal, és jegyezze fel az esetleges eltéréseket vagy hibákat.
Adjon bemenetet az AI-rendszernek a jövőbeli teljesítmény fokozása és a hallucinációk csökkentése érdekében.
Stratégiák a fejlesztők számára az AI-hallucinációk elkerülésére
Retrieval-Augmented Generation (RAG) megvalósítása.
Integrálja a visszakereséssel kiegészített generálási technikákat az AI-rendszerekbe, hogy megbízható adatbázisokból származó tényekre alapozza a válaszokat.
A Retrieval-augmented Generation (RAG) a szabványos természetes nyelvgenerálást ötvözi a jelentős tudásbázisból származó releváns információk megszerzésének és beépítésének képességével, ami kontextuálisan gazdagabb kimenetet eredményez.
A mesterséges intelligencia által generált tartalom és az ellenőrzött adatforrás összevonásával javíthatja az AI-eredmények megbízhatóságát és megbízhatóságát.
Az AI kimenetek folyamatos ellenőrzése és ellenőrzése
Állítson be szigorú érvényesítési eljárásokat az AI-kimenetek helyességének és konzisztenciájának valós idejű ellenőrzéséhez. Figyelmesen figyelje az AI teljesítményét, keresse a lehetséges hallucinációkat vagy hibákat, és ismételje meg a modell betanítását és az azonnali optimalizálást a megbízhatóság idővel történő növelése érdekében.
Használjon például automatizált érvényesítési rutinokat az AI által generált tartalom tényszerűségének ellenőrzésére, és emelje ki a lehetséges hallucinációk eseteit a manuális értékeléshez.
Ellenőrizze az adatsodródást
Az adatsodródás olyan jelenség, amelyben az AI-modell betanításához használt adatok statisztikai jellemzői idővel változnak. Ha az AI-modell a következtetés során olyan adatokkal találkozik, amelyek jelentősen eltérnek a betanítási adatoktól, akkor hamis vagy logikátlan eredményeket adhat, ami hallucinációkat eredményezhet.
Például, ha egy AI-modellt olyan múltbeli adatokra tanítanak, amelyek már nem relevánsak vagy nem jelzik a jelenlegi környezetet, akkor helytelen következtetéseket vagy előrejelzéseket vonhat le.
Ennek eredményeként az adatsodródás figyelése és feloldása kritikus fontosságú az AI-rendszer teljesítményének és megbízhatóságának biztosításához, miközben csökkenti a hallucinációk lehetőségét is.
Következtetés
Az IBM Data szerint a mesterséges intelligencia-hallucinációk az AI-modellek válaszainak körülbelül 3-10%-ában fordulnak elő.
Így vagy úgy, valószínűleg te is megfigyelni fogod őket. Úgy gondolom, hogy ez egy hihetetlenül érdekes téma, mert lenyűgöző emlékeztető az AI képességeinek javítása felé vezető folyamatos útról.
Megfigyelhetjük és kísérletezhetjük a mesterséges intelligencia megbízhatóságát, az adatfeldolgozás bonyolultságát és az ember-AI interakciókat.
Hagy egy Válaszol