Antaŭ tri jaroj, mi vizitis sufiĉe interesan artan ekspozicion. "Maŝinaj Memuaroj" de Refik Anadol vekis mian intereson ekde la komenco.
Li estas populara nomo inter tiuj, kiuj interesiĝas pri la intersekco de arto kaj AI. Sed ne maltrankviliĝu, ĉi tiu blogo ne temas pri arto. Ni enprofundiĝos en la profundajn "perceptojn" de AI.
En ĉi tiu ekspozicio, Anadol eksperimentis La kosmoesploro bildoj de NASA. La ekspozicio estis inspirita per la ideo ke teleskopoj povis "sonĝi" uzante siajn vidajn arkivojn, malklarigante la barojn inter fakto kaj imago.
Esplorante la rilatojn inter datumoj, memoro kaj historio sur kosma skalo, Anadol petis nin konsideri la potencialon de artefarita inteligento observi kaj kompreni la mondon ĉirkaŭ ni. Kaj eĉ AI havi siajn proprajn sonĝojn...
Do, kial ĉi tio rilatas al ni?
Konsideru ĉi tion: same kiel Anadol esploris la koncepton de teleskopoj sonĝantaj de siaj datumoj, AI-sistemoj havas sian propran specon de sonĝo - aŭ pli ĝuste, halucinojn - ene de siaj ciferecaj memorbankoj.
Ĉi tiuj halucinoj, kiel la bildigoj en la ekspozicio de Anadol, povas helpi nin lerni pli pri datumoj, AI kaj iliaj limoj.
Kio ĝuste estas AI-halucinoj?
Kiam granda lingvomodelo, kiel genera AI-babilejo, produktas produktaĵojn kun ŝablonoj aŭ neekzistantaj aŭ nevideblaj por homaj observantoj, ni nomas ĉi tiujn "AI halucinoj."
Ĉi tiuj produktaĵoj, kiuj diferencas de la atendata respondo bazita sur la enigo donita al la AI, povas esti tute eraraj aŭ sensencaj.
En la kunteksto de komputiloj, la esprimo "halucino" povas ŝajni nekutima, sed ĝi precize priskribas la bizaran karakteron de tiuj malĝustaj produktaĵoj. AI-halucinoj estas kaŭzitaj de gamo da variabloj, inkluzive de troagordado, biasoj en trejnaj datumoj kaj la komplekseco de la AI-modelo.
Por pli bone kompreni, ĉi tio estas koncipe simila al kiel homoj vidas formojn en nuboj aŭ vizaĝoj sur la luno.
Ekzemplo:
En ĉi tiu ekzemplo, mi faris tre facilan demandon al Babilado GPT. Mi devis ricevi respondon kiel, "La verkinto de la Dune libroserio estas Frank Herbert.".
Kial Ĉi tio Okazas?
Malgraŭ esti konstruitaj por skribi enhavon kiu estas kohera kaj fluida, grandaj lingvomodeloj fakte ne kapablas kompreni kion ili diras. Ĉi tio estas tre kritika por determini la kredindecon de AI-generita enhavo.
Dum ĉi tiuj modeloj povas generi reagojn kiuj imitas homan konduton, al ili mankas la kunteksta konscio kaj kritika pensado kapabloj kiuj subtenas realan inteligentecon.
Kiel rezulto, AI-generitaj produktaĵoj kuras la danĝeron esti misgvidaj aŭ malĝustaj ĉar ili preferas kongruajn ŝablonojn super fakta ĝusteco.
Kio povus esti iuj aliaj kazoj de halucinoj?
Danĝera Misinformo: Ni diru, ke generativa AI-babilejo fabrikas pruvojn kaj atestojn por false akuzi publikan figuron pri krima konduto. Ĉi tiu misgvida informo havas la eblecon damaĝi la reputacion de la persono kaj kaŭzi nepravigajn reprezaliojn.
Strangaj aŭ Teruraj Respondoj: Por doni humuran ekzemplon, imagu babilroton donantan al uzanto veterdemandon kaj respondante per prognozo, kiu diras, ke pluvos katojn kaj hundojn, kune kun bildoj de pluvgutoj, kiuj aspektas kiel katoj kaj hundoj. Kvankam ili estas amuzaj, ĉi tio ankoraŭ estus "halucino".
Faktaj eraroj: Supozu, ke lingva model-bazita babilejo malvere deklaras, ke la Ĉina Muro povas esti rigardata de spaco sen klarigi, ke ĝi estas videbla nur sub specifaj kondiĉoj. Kvankam la rimarko povas ŝajni kredinda al iuj, ĝi estas malpreciza kaj povas trompi homojn pri la vido de la muro de la spaco.
Kiel Vi Evitas AI-Halucinojn kiel Uzanto?
Faru Eksplicitajn Promptojn
Vi devas eksplicite komuniki kun AI-modeloj.
Pensu pri viaj celoj kaj desegnu viajn instigojn antaŭ ol skribi.
Ekzemple, donu specifajn instrukciojn kiel "Klarigu kiel la Interreto funkcias kaj skribu alineon pri ĝia signifo en moderna socio" anstataŭ prezenti ĝeneralan enketon kiel "Rakontu al mi pri Interreto".
Ekspliciteco helpas la AI-modelon interpreti vian intencon.
Ekzemplo: Demandu la AI-demandojn kiel ĉi tiuj:
"Kio estas nuba komputado, kaj kiel ĝi funkcias?"
"Klarigu la efikon de datuma drivo sur modela agado."
"Diskutu la efikon kaj eblan estontecon de VR-teknologio sur la IT-komerco."
Akceptu la Potencon de Ekzemplo
Provizi ekzemplojn en viaj instrukcioj helpas AI-modelojn kompreni la kuntekston kaj generi precizajn respondojn. Ĉu vi serĉas historiajn komprenojn aŭ teknikajn klarigojn, provizi ekzemplojn povas helpi plibonigi la precizecon de AI-generita enhavo.
Ekzemple, vi povas diri: "Menciu fantaziajn romanojn kiel Harry Potter."
Malkonstruu Kompleksajn Taskojn
Kompleksaj instigoj troŝarĝas AI-algoritmojn, kaj ili povas konduki al palaj rezultoj. Por malhelpi tion, dividu kompleksajn agadojn en pli malgrandajn, pli regeblajn pecojn. Organizante viajn instigojn sinsekve, vi permesas al la AI koncentriĝi sur ĉiu komponanto sendepende, rezultigante pli logikajn respondojn.
Ekzemple, prefere ol peti la AI "klarigi la procezon krei a neŭrala reto" en ununura demando, dividu la taskon en diskretajn fazojn kiel difino de problemo kaj kolekto de datumoj.
Valigi la Eligojn kaj Provizu Reago
Ĉiam duoble kontrolu la rezultojn produktitajn de AI-modeloj, precipe por fakto-bazitaj aŭ decidaj agadoj. Komparu la respondojn al fidindaj fontoj kaj notu ajnajn diferencojn aŭ erarojn.
Provizu enigaĵon al la AI-sistemo por plibonigi estontan agadon kaj redukti halucinojn.
Strategioj por programistoj por eviti AI-halucinojn
Realigi Retrieval-Augmented Generation (RAG).
Integri rehavig-pliigitajn generaciajn teknikojn en AI-sistemojn por bazigi respondojn sur faktaj faktoj de fidindaj datumbazoj.
Retrieval-augmented generation (RAG) kombinas norman naturlingvan generacion kun la kapablo akiri kaj asimili koncernajn informojn de grandega sciobazo, rezultigante pli kontekste riĉan produktaĵon.
Kunfandante enhavon generitan de AI kun validigitaj datumfontoj, vi povas plibonigi la fidindecon kaj fidindecon de AI-rezultoj.
Konfirmu kaj Monitoru AI-produktaĵojn Senĉese
Agordu rigorajn validigajn procedurojn por kontroli la ĝustecon kaj konsekvencon de AI-produktaĵoj en reala tempo. Monitoru AI-agadon atente, serĉu eblajn halucinojn aŭ erarojn, kaj ripetas modelan trejnadon kaj rapidan optimumigon por pliigi fidindecon laŭlonge de la tempo.
Ekzemple, uzu aŭtomatigitajn validigajn rutinojn por kontroli enhavon generitan de AI pri fakta ĝusteco kaj reliefigi okazojn de eblaj halucinoj por mana taksado.
Kontrolu Por Datumoj-Drivoj
Datendrivo estas fenomeno en kiu la statistikaj trajtoj de la datenoj uzitaj por trejni AI-modelon varias kun tempo. Se la AI-modelo renkontas datumojn, kiuj konsiderinde diferencas de siaj trejnaj datumoj dum inferenco, ĝi povas disponigi malverajn aŭ nelogikajn rezultojn, rezultigante halucinojn.
Ekzemple, se AI-modelo estas trejnita sur pasintaj datumoj, kiuj ne plu rilatas aŭ indikas la nunan medion, ĝi povas fari malĝustajn konkludojn aŭ prognozojn.
Kiel rezulto, monitorado kaj solvado de datumoj estas kritika por certigi AI-sisteman rendimenton kaj fidindecon samtempe reduktante la eblecon de halucinoj.
konkludo
Laŭ IBM Data, AI-halucinoj okazas en ĉirkaŭ 3% ĝis 10% de respondoj de AI-modeloj.
Do, iel aŭ alie, vi verŝajne ankaŭ observos ilin. Mi kredas, ke ĉi tio estas nekredeble interesa temo ĉar ĝi estas fascina memorigilo pri la kontinua vojo al plifortigo de la kapabloj de AI.
Ni povas observi kaj eksperimenti kun la fidindeco de AI, la komplikaĵoj de datumtraktado kaj homa-AI-interagoj.
Lasi Respondon