Pred tremi leti sem obiskal precej zanimivo likovno razstavo. »Machine Memoirs« Refika Anadola je že od začetka vzbudil moje zanimanje.
Je priljubljeno ime med tistimi, ki jih zanima presečišče umetnosti in umetne inteligence. Vendar ne skrbite, ta blog ni o umetnosti. Poglobili se bomo v globoke »zaznave« AI.
Na tej razstavi je Anadol eksperimentiral Nasini posnetki raziskovanja vesolja. Razstavo je navdihnila ideja, da bi teleskopi lahko "sanjali" z uporabo svojih vizualnih arhivov, s čimer bi zabrisali ovire med dejstvi in domišljijo.
Z raziskovanjem odnosov med podatki, spominom in zgodovino v vesoljskem merilu nas je Anadol prosil, da razmislimo o potencialu Umetna inteligenca opazovati in dojemati svet okoli sebe. In celo AI, da ima svoje sanje ...
Torej, zakaj je to pomembno za nas?
Razmislite o tem: podobno kot je Anadol raziskoval koncept teleskopov, ki sanjajo iz svojih podatkov, imajo sistemi AI svojo lastno vrsto sanj – ali bolje rečeno, halucinacije – znotraj svojih digitalnih pomnilniških bank.
Te halucinacije, tako kot vizualizacije na Anadolovi razstavi, nam lahko pomagajo izvedeti več o podatkih, AI in njihovih omejitvah.
Kaj pravzaprav so halucinacije AI?
Ko velik jezikovni model, kot je generativni AI chatbot, ustvari rezultate z vzorci, ki bodisi ne obstajajo ali so nevidni človeškim opazovalcem, jih imenujemo "AI halucinacije."
Ti rezultati, ki se razlikujejo od pričakovanega odgovora na podlagi vnosa, danega AI, so lahko popolnoma napačni ali nesmiselni.
V kontekstu računalnikov se lahko izraz "halucinacija" zdi nenavaden, vendar natančno opisuje bizaren značaj teh napačnih rezultatov. Halucinacije umetne inteligence povzroča vrsta spremenljivk, vključno s prekomernim opremljanjem, pristranskostjo podatkov o usposabljanju in kompleksnostjo modela umetne inteligence.
Za boljše razumevanje je to konceptualno podobno temu, kako ljudje vidijo oblike v oblakih ali obraze na Luni.
Primer:
V tem primeru sem postavil zelo enostavno vprašanje ChatGPT. Moral bi dobiti odgovor, kot je: "Avtor serije knjig Dune je Frank Herbert."
Zakaj se to zgodi?
Kljub temu, da so zgrajeni za pisanje vsebine, ki je koherentna in tekoča, veliki jezikovni modeli dejansko ne morejo razumeti, kaj govorijo. To je zelo pomembno pri določanju verodostojnosti vsebine, ustvarjene z umetno inteligenco.
Čeprav lahko ti modeli ustvarijo reakcije, ki posnemajo človeško vedenje, nimajo kontekstualnega zavedanja in sposobnosti kritičnega mišljenja ki podpirajo dejansko inteligenco.
Posledično obstaja nevarnost, da bodo rezultati, ki jih ustvari umetna inteligenca, zavajajoči ali napačni, saj dajejo prednost ujemajočim se vzorcem pred pravilnostjo dejstev.
Kateri bi lahko bili drugi primeri halucinacij?
Nevarne napačne informacije: Recimo, da generativni klepetalni robot z umetno inteligenco izmišlja dokaze in pričevanja, da javno osebnost lažno obtoži kriminalnega ravnanja. Te zavajajoče informacije lahko škodijo ugledu osebe in povzročijo neupravičeno maščevanje.
Čudni ali srhljivi odgovori: Če navedemo šaljiv primer, si predstavljajte klepetalnega robota, ki uporabniku postavi vprašanje o vremenu in odgovori z napovedjo, ki pravi, da bodo deževale mačke in psi, skupaj s slikami dežnih kapljic, ki izgledajo kot mačke in psi. Čeprav so smešni, bi bila to še vedno "halucinacija".
Dejanske netočnosti: Predpostavimo, da chatbot, ki temelji na jezikovnem modelu, napačno trdi, da je Kitajski zid mogoče videti iz vesolja, ne da bi pojasnil, da je viden le pod določenimi pogoji. Medtem ko se nekaterim zdi pripomba verjetna, je netočna in lahko ljudi zavede glede pogleda na zid iz vesolja.
Kako se kot uporabnik izognete halucinacijam AI?
Ustvarite izrecne pozive
Z modeli AI morate eksplicitno komunicirati.
Pred pisanjem razmislite o svojih ciljih in oblikujte svoje namige.
Na primer, dajte posebna navodila, kot je "Pojasnite, kako deluje internet, in napišite odstavek o njegovem pomenu v sodobni družbi", namesto da postavite splošno vprašanje, kot je "Povejte mi o internetu."
Eksplicitnost pomaga modelu AI razložiti vašo namero.
Primer: zastavite AI vprašanja, kot so ta:
"Kaj je računalništvo v oblaku in kako deluje?"
"Pojasnite vpliv premikanja podatkov na zmogljivost modela."
"Razpravljajte o vplivu in potencialni prihodnosti tehnologije VR na IT poslovanje."
Sprejmite moč zgleda
Zagotavljanje primerov v vaših pozivih pomaga modelom AI razumeti kontekst in ustvariti natančne odgovore. Ne glede na to, ali iščete zgodovinske vpoglede ali tehnične razlage, lahko podajanje primerov pomaga povečati natančnost vsebine, ustvarjene z umetno inteligenco.
Lahko na primer rečete: "Omenite domišljijske romane, kot je Harry Potter."
Razčlenite zapletene naloge
Zapleteni pozivi preobremenijo algoritme umetne inteligence in lahko vodijo do nepomembnih rezultatov. Da bi to preprečili, zapletene dejavnosti razdelite na manjše, bolj obvladljive dele. Če svoje pozive organizirate zaporedno, omogočite AI, da se osredotoči na vsako komponento neodvisno, kar ima za posledico bolj logične odgovore.
Na primer, namesto da bi AI zahteval, naj »razloži postopek ustvarjanja a zivcno omrezje" v eni sami poizvedbi razdelite dodelitev na ločene faze, kot sta opredelitev problema in zbiranje podatkov.
Potrdite rezultate in zagotovite povratne informacije
Vedno znova preverite rezultate, ki jih ustvarijo modeli umetne inteligence, zlasti za dejavnosti, ki temeljijo na dejstvih, ali ključne. Primerjajte odgovore z zanesljivimi viri in upoštevajte morebitne razlike ali napake.
Zagotovite vnos v sistem AI za izboljšanje prihodnje učinkovitosti in zmanjšanje halucinacij.
Strategije za razvijalce, da se izognejo halucinacijam umetne inteligence
Implementacija Retrieval-Augmented Generation (RAG).
Integrirajte tehnike generiranja z razširjenim iskanjem v sisteme umetne inteligence, da odgovori temeljijo na dejanskih dejstvih iz zanesljivih baz podatkov.
Retrieval-augmented Generation (RAG) združuje standardno ustvarjanje naravnega jezika z zmožnostjo pridobivanja in vključevanja ustreznih informacij iz ogromne baze znanja, kar ima za posledico bolj kontekstualno bogat izhod.
Z združitvijo vsebine, ustvarjene z umetno inteligenco, s preverjenimi viri podatkov lahko izboljšate zanesljivost in verodostojnost rezultatov umetne inteligence.
Nenehno preverjajte in spremljajte rezultate AI
Nastavite stroge postopke preverjanja za preverjanje pravilnosti in doslednosti izhodov umetne inteligence v realnem času. Pozorno spremljajte delovanje umetne inteligence, poiščite morebitne halucinacije ali napake ter ponovite usposabljanje modela in hitro optimizacijo, da sčasoma povečate zanesljivost.
Uporabite na primer samodejne rutine preverjanja, da preverite dejansko pravilnost vsebine, ustvarjene z umetno inteligenco, in poudarite primere možnih halucinacij za ročno oceno.
Preverite prehajanje podatkov
Odmik podatkov je pojav, pri katerem se statistične značilnosti podatkov, uporabljenih za usposabljanje modela AI, spreminjajo s časom. Če model umetne inteligence med sklepanjem naleti na podatke, ki se precej razlikujejo od njegovih podatkov o usposabljanju, lahko zagotovi lažne ali nelogične rezultate, kar povzroči halucinacije.
Na primer, če se model umetne inteligence usposablja na preteklih podatkih, ki niso več relevantni ali kažejo na trenutno okolje, lahko naredi napačne zaključke ali napovedi.
Posledično je spremljanje in razreševanje odmikov podatkov ključnega pomena za zagotavljanje delovanja in zanesljivosti sistema AI, hkrati pa zmanjšuje možnost halucinacij.
zaključek
Po podatkih IBM Data se halucinacije AI pojavljajo v približno 3 % do 10 % odgovorov modelov AI.
Tako ali drugače jih boste verjetno tudi opazovali. Verjamem, da je to neverjetno zanimiva tema, ker je fascinanten opomin na neprekinjeno pot k izboljšanju zmogljivosti AI.
Opazujemo in eksperimentiramo z zanesljivostjo umetne inteligence, zapletenostjo obdelave podatkov in interakcijami med človekom in umetno inteligenco.
Pustite Odgovori