Prije tri godine posjetio sam prilično zanimljivu izložbu umjetnina. “Machine Memoirs” Refika Anadola pobudili su moje zanimanje od samog početka.
On je popularno ime među onima koji su zainteresirani za raskrižje umjetnosti i umjetne inteligencije. Ali ne brinite, ovaj blog nije o umjetnosti. Zaronit ćemo u duboke "percepcije" umjetne inteligencije.
Anadol je na ovoj izložbi eksperimentirao NASA-ine slike istraživanja svemira. Izložba je inspirirana idejom da teleskopi mogu "sanjati" koristeći svoje vizualne arhive, brišući barijere između činjenica i mašte.
Istražujući odnose između podataka, sjećanja i povijesti na kozmičkoj razini, Anadol je od nas tražio da razmotrimo potencijal umjetna inteligencija promatrati i poimati svijet oko sebe. Pa čak i AI da ima svoje snove...
Dakle, zašto je to relevantno za nas?
Razmislite o ovome: kao što je Anadol istraživao koncept teleskopa koji sanjaju iz svojih podataka, AI sustavi imaju vlastitu vrstu snova – ili bolje rečeno, halucinacije – unutar svojih digitalnih memorijskih banaka.
Ove halucinacije, poput vizualizacija na Anadolovoj izložbi, mogu nam pomoći da saznamo više o podacima, umjetnoj inteligenciji i njihovim ograničenjima.
Što su zapravo AI halucinacije?
Kada veliki jezični model, kao što je generativni AI chatbot, proizvodi rezultate s uzorcima koji ili ne postoje ili su nevidljivi ljudskim promatračima, to nazivamo "AI halucinacije."
Ti rezultati, koji se razlikuju od očekivanog odgovora na temelju ulaznih podataka danih AI-u, mogu biti potpuno pogrešni ili besmisleni.
U kontekstu računala, pojam "halucinacija" može se činiti neobičnim, ali on točno opisuje bizaran karakter ovih netočnih rezultata. Halucinacije umjetne inteligencije uzrokovane su nizom varijabli, uključujući prekomjerno opremanje, pristranosti u podacima o obuci i složenost modela umjetne inteligencije.
Da bismo bolje razumjeli, ovo je konceptualno slično načinu na koji ljudi vide oblike u oblacima ili lica na Mjesecu.
Primjer:
U ovom sam primjeru postavio vrlo jednostavno pitanje ChatGPT. Trebao sam dobiti odgovor poput: "Autor serije knjiga o Dini je Frank Herbert".
Zašto se ovo događa?
Unatoč tome što su izgrađeni za pisanje sadržaja koji je koherentan i fluidan, veliki jezični modeli zapravo ne mogu razumjeti što govore. Ovo je vrlo kritično u određivanju vjerodostojnosti sadržaja generiranog umjetnom inteligencijom.
Iako ti modeli mogu generirati reakcije koje oponašaju ljudsko ponašanje, nedostaje im kontekstualna svijest i vještine kritičkog mišljenja koji podupiru stvarnu inteligenciju.
Kao rezultat toga, izlazi generirani umjetnom inteligencijom izloženi su opasnosti da budu pogrešni ili pogrešni jer daju prednost uzorcima podudaranja u odnosu na točnost činjenica.
Što bi mogli biti neki drugi slučajevi halucinacija?
Opasne dezinformacije: Recimo da generativni AI chatbot izmišlja dokaze i svjedočanstva kako bi lažno optužio javnu osobu za kriminalno ponašanje. Ove pogrešne informacije mogu naštetiti ugledu osobe i izazvati neopravdanu odmazdu.
Čudni ili jezivi odgovori: Da damo duhovit primjer, zamislite chatbota koji korisniku postavlja pitanje o vremenu i odgovara prognozom koja kaže da će kišiti mačke i psi, zajedno sa slikama kišnih kapi koje izgledaju kao mačke i psi. Iako su smiješni, ovo bi ipak bila “halucinacija”.
Činjenične netočnosti: Pretpostavimo da chatbot koji se temelji na jezičnom modelu lažno tvrdi da se Kineski zid može vidjeti iz svemira bez objašnjenja da je vidljiv samo pod određenim uvjetima. Iako bi se primjedba nekima mogla činiti uvjerljivom, ona je netočna i može zavesti ljude u zabludu o pogledu na zid iz svemira.
Kako izbjeći AI halucinacije kao korisnik?
Napravite eksplicitne upite
Morate eksplicitno komunicirati s AI modelima.
Razmislite o svojim ciljevima i osmislite upute prije pisanja.
Na primjer, dajte konkretne upute poput "Objasnite kako Internet funkcionira i napišite odlomak o njegovom značaju u modernom društvu" umjesto postavljanja općeg upita poput "Pričajte mi o Internetu".
Eksplicitnost pomaže AI modelu da protumači vašu namjeru.
Primjer: postavite AI pitanja poput ovih:
"Što je računalstvo u oblaku i kako funkcionira?"
"Objasnite utjecaj pomicanja podataka na performanse modela."
"Razgovarajte o utjecaju i potencijalnoj budućnosti VR tehnologije na IT poslovanje."
Prigrlite moć primjera
Pružanje primjera u vašim upitima pomaže AI modelima da razumiju kontekst i generiraju precizne odgovore. Bilo da tražite povijesne uvide ili tehnička objašnjenja, pružanje primjera može pomoći u poboljšanju točnosti sadržaja generiranog umjetnom inteligencijom.
Na primjer, možete reći: "Spomenite fantastične romane kao što je Harry Potter."
Rastavite složene zadatke
Složene upute preopterećuju AI algoritme i mogu dovesti do nevažnih rezultata. Kako biste to spriječili, podijelite složene aktivnosti na manje dijelove kojima se lakše upravlja. Organiziranjem vaših upita u nizu, dopuštate umjetnoj inteligenciji da se usredotoči na svaku komponentu neovisno, što rezultira logičnijim odgovorima.
Na primjer, umjesto da od umjetne inteligencije tražimo da “objasni proces stvaranja a živčana mreža" u jednom upitu podijelite dodjelu na diskretne faze poput definiranja problema i prikupljanja podataka.
Potvrdite rezultate i dajte povratne informacije
Uvijek dvaput provjerite rezultate koje proizvode modeli umjetne inteligencije, osobito za aktivnosti temeljene na činjenicama ili ključne aktivnosti. Usporedite odgovore s pouzdanim izvorima i uočite razlike ili pogreške.
Pružite podatke u sustav umjetne inteligencije kako biste poboljšali buduće performanse i smanjili halucinacije.
Strategije za razvojne programere za izbjegavanje halucinacija umjetne inteligencije
Implementirajte Retrieval-Augmented Generation (RAG).
Integrirajte tehnike generiranja proširenog pretraživanja u sustave umjetne inteligencije kako biste odgovore temeljili na činjenicama iz pouzdanih baza podataka.
Retrieval-augmented Generation (RAG) kombinira standardno generiranje prirodnog jezika s mogućnošću dobivanja i uključivanja relevantnih informacija iz ogromne baze znanja, što rezultira kontekstualno bogatijim rezultatom.
Spajanjem sadržaja generiranog umjetnom inteligencijom s potvrđenim izvorima podataka možete poboljšati pouzdanost i pouzdanost rezultata umjetne inteligencije.
Kontinuirano provjeravajte i nadzirite rezultate umjetne inteligencije
Postavite rigorozne postupke provjere valjanosti kako biste provjerili ispravnost i dosljednost izlaza umjetne inteligencije u stvarnom vremenu. Pažljivo pratite izvedbu umjetne inteligencije, potražite potencijalne halucinacije ili pogreške i ponovite obuku modela i brzu optimizaciju kako biste s vremenom povećali pouzdanost.
Na primjer, upotrijebite automatizirane rutine provjere da biste provjerili činjeničnu točnost sadržaja generiranog umjetnom inteligencijom i istaknuli slučajeve mogućih halucinacija za ručnu procjenu.
Provjerite odstupanja podataka
Odstupanje podataka je fenomen u kojem se statističke značajke podataka koji se koriste za obuku AI modela mijenjaju s vremenom. Ako AI model tijekom zaključivanja naiđe na podatke koji se znatno razlikuju od njegovih podataka za obuku, može dati lažne ili nelogične rezultate, što rezultira halucinacijama.
Na primjer, ako se AI model obučava na prošlim podacima koji više nisu relevantni ili indikativni za trenutno okruženje, može donijeti netočne zaključke ili predviđanja.
Kao rezultat toga, praćenje i rješavanje driftova podataka je ključno za osiguravanje performansi i pouzdanosti sustava umjetne inteligencije, a istovremeno smanjuje mogućnost halucinacija.
Zaključak
Prema podacima IBM-a, AI halucinacije pojavljuju se u oko 3% do 10% odgovora iz AI modela.
Dakle, na ovaj ili onaj način, vjerojatno ćete ih i promatrati. Vjerujem da je ovo nevjerojatno zanimljiva tema jer je fascinantan podsjetnik na kontinuirani put prema poboljšanju sposobnosti umjetne inteligencije.
Možemo promatrati i eksperimentirati s pouzdanošću umjetne inteligencije, zamršenostima obrade podataka i interakcijama čovjeka i umjetne inteligencije.
Ostavi odgovor