Prije tri godine posjetio sam prilično zanimljivu umjetničku izložbu. “Mašinski memoari” Refika Anadola izazvali su moje interesovanje od samog početka.
On je popularno ime među onima koji su zainteresovani za ukrštanje umetnosti i veštačke inteligencije. Ali ne brinite, ovaj blog nije o umjetnosti. Udubićemo se u duboke „percepcije“ AI.
Na ovoj izložbi, Anadol je eksperimentirao NASA-ine slike istraživanja svemira. Izložba je inspirisana idejom da teleskopi mogu da „sanjaju” koristeći svoje vizuelne arhive, brišući barijere između činjenica i mašte.
Istražujući odnose između podataka, pamćenja i istorije na kosmičkom nivou, Anadol je tražio od nas da razmotrimo potencijal umjetne inteligencije da posmatramo i shvatamo svet oko nas. Pa čak i AI da ima svoje snove…
Dakle, zašto je ovo relevantno za nas?
Razmislite o ovome: kao što je Anadol istraživao koncept teleskopa koji sanjaju iz njihovih podataka, AI sistemi imaju svoj tip snova – ili bolje rečeno, halucinacije – unutar svojih digitalnih memorijskih banaka.
Ove halucinacije, poput vizualizacija u Anadolovoj izložbi, mogu nam pomoći da saznamo više o podacima, AI-u i njihovim granicama.
Šta su zapravo AI halucinacije?
Kada veliki jezički model, kao što je generativni AI chatbot, proizvodi rezultate sa obrascima koji ili nepostojeći ili nevidljivi ljudskim posmatračima, to nazivamo "AI halucinacije."
Ovi rezultati, koji se razlikuju od očekivanog odgovora na osnovu inputa datih AI, mogu biti potpuno pogrešni ili besmisleni.
U kontekstu kompjutera, termin "halucinacija" može izgledati neobično, ali tačno opisuje bizaran karakter ovih netačnih izlaza. AI halucinacije su uzrokovane nizom varijabli, uključujući prekomjerno prilagođavanje, predrasude u podacima o obuci i složenost AI modela.
Da bismo bolje razumjeli, ovo je konceptualno slično načinu na koji ljudi vide oblike u oblacima ili lica na Mjesecu.
Primjer:
U ovom primjeru postavio sam vrlo jednostavno pitanje Chat GPT. Trebalo je da dobijem odgovor poput: „Autor serije knjiga Dune je Frank Herbert.“.
Zašto se ovo događa?
Uprkos tome što su napravljeni za pisanje sadržaja koji je koherentan i fluidan, veliki jezički modeli zapravo nisu u stanju da shvate ono što govore. Ovo je veoma važno za određivanje kredibiliteta sadržaja generisanog veštačkom inteligencijom.
Iako ovi modeli mogu generirati reakcije koje oponašaju ljudsko ponašanje, nedostaje im kontekstualna svijest i vještine kritičkog mišljenja koji podupiru stvarnu inteligenciju.
Kao rezultat toga, izlazni podaci generirani umjetnom inteligencijom imaju opasnost da budu obmanjujući ili pogrešni jer daju prednost podudarnim obrascima u odnosu na tačnost činjenica.
Šta bi mogli biti neki drugi slučajevi halucinacija?
Opasne dezinformacije: Recimo da generativni AI chatbot izmišlja dokaze i svjedočenja kako bi lažno optužio javnu ličnost za kriminalno ponašanje. Ove obmanjujuće informacije mogu naštetiti ugledu osobe i uzrokovati neopravdanu osvetu.
Čudni ili jezivi odgovori: Da damo duhovit primjer, zamislite chatbot koji korisniku postavlja pitanje o vremenu i odgovara s prognozom koja kaže da će padati kiša mačaka i pasa, zajedno sa slikama kišnih kapi koje izgledaju kao mačke i psi. Iako su smiješni, ovo bi ipak bila “halucinacija”.
činjenične netačnosti: Pretpostavimo da chatbot zasnovan na jezičkom modelu lažno navodi da se Kineski zid može posmatrati iz svemira bez objašnjenja da je vidljiv samo pod određenim uslovima. Iako se ova primjedba nekima može činiti uvjerljivom, ona je netačna i može dovesti u zabludu ljude o pogledu na zid iz svemira.
Kako izbjeći AI halucinacije kao korisnik?
Napravite eksplicitne upite
Morate eksplicitno komunicirati sa AI modelima.
Razmislite o svojim ciljevima i osmislite svoje upute prije pisanja.
Na primjer, dajte konkretne upute poput „Objasnite kako internet funkcionira i napišite odlomak o njegovom značaju u modernom društvu“ umjesto da postavljate opći upit poput „Pričajte mi o internetu“.
Eksplicitnost pomaže AI modelu da protumači vašu namjeru.
Primjer: Postavite AI pitanja poput ovih:
„Šta je računarstvo u oblaku i kako funkcioniše?“
“Objasnite utjecaj pomaka podataka na performanse modela.”
“Razgovarajte o uticaju i potencijalnoj budućnosti VR tehnologije na IT poslovanje.”
Prihvatite moć primjera
Navođenje primjera u vašim upitima pomaže AI modelima da razumiju kontekst i generiraju precizne odgovore. Bilo da tražite povijesne uvide ili tehnička objašnjenja, pružanje primjera može pomoći u poboljšanju tačnosti sadržaja generiranog umjetnom inteligencijom.
Na primjer, možete reći: "Spomenite fantastične romane kao što je Harry Potter."
Rastavite složene zadatke
Složene upute preopterećuju AI algoritme i mogu dovesti do nebitnih rezultata. Da biste to spriječili, podijelite složene aktivnosti na manje dijelove kojima je lakše upravljati. Organiziranjem vaših upita uzastopno, dozvoljavate AI da se fokusira na svaku komponentu nezavisno, što rezultira logičnijim odgovorima.
Na primjer, umjesto da traži od AI da „objasni proces stvaranja a neuronska mreža” u jednom upitu, podijelite dodjelu na diskretne faze kao što su definicija problema i prikupljanje podataka.
Potvrdite izlaze i pružite povratne informacije
Uvijek dvaput provjerite rezultate koje proizvode AI modeli, posebno za aktivnosti zasnovane na činjenicama ili ključne aktivnosti. Uporedite odgovore sa pouzdanim izvorima i zabilježite sve razlike ili greške.
Omogućite ulaz AI sistemu kako biste poboljšali buduće performanse i smanjili halucinacije.
Strategije za programere da izbjegnu AI halucinacije
Implementirajte Retrieval-Augmented Generation (RAG).
Integrirajte tehnike generiranja s proširenim pronalaženjem u AI sisteme kako biste bazirali odgovore na činjeničnim činjenicama iz pouzdanih baza podataka.
Generacija sa proširenim pretraživanjem (RAG) kombinuje generisanje standardnog prirodnog jezika sa sposobnošću dobijanja i ugradnje relevantnih informacija iz ogromne baze znanja, što rezultira kontekstualno bogatijim rezultatom.
Spajanjem sadržaja generiranog umjetnom inteligencijom s provjerenim izvorima podataka, možete poboljšati pouzdanost i pouzdanost rezultata AI.
Provjera i praćenje AI izlaza kontinuirano
Postavite rigorozne procedure validacije kako biste provjerili ispravnost i konzistentnost AI izlaza u realnom vremenu. Pažljivo pratite performanse AI, tražite potencijalne halucinacije ili greške i ponovite obuku modela i brzu optimizaciju kako biste povećali pouzdanost tokom vremena.
Na primjer, koristite automatizirane rutine za provjeru valjanosti da provjerite činjeničnu ispravnost sadržaja generiranog umjetnom inteligencijom i istaknete slučajeve mogućih halucinacija za ručnu procjenu.
Provjerite ima li pomaka podataka
Drift podataka je fenomen u kojem statističke karakteristike podataka koji se koriste za obuku AI modela variraju s vremenom. Ako AI model zadovolji podatke koji se znatno razlikuju od njegovih podataka o obuci tokom zaključivanja, može dati lažne ili nelogične rezultate, što rezultira halucinacijama.
Na primjer, ako je AI model obučen na prošlim podacima koji više nisu relevantni ili indikativni za trenutno okruženje, on može donijeti pogrešne zaključke ili predviđanja.
Kao rezultat toga, praćenje i rješavanje odstupanja podataka ključno je za osiguranje performansi i pouzdanosti AI sistema, a istovremeno smanjuje mogućnost halucinacija.
zaključak
Prema IBM Data, halucinacije AI se javljaju u oko 3% do 10% odgovora iz AI modela.
Dakle, na ovaj ili onaj način, vjerovatno ćete ih i vi promatrati. Vjerujem da je ovo nevjerovatno zanimljiva tema jer je fascinantan podsjetnik na kontinuirani put ka poboljšanju sposobnosti umjetne inteligencije.
Možemo da posmatramo i eksperimentišemo sa pouzdanošću AI, zamršenosti obrade podataka i interakcijama između čoveka i veštačke inteligencije.
Ostavite odgovor