Prieš trejus metus aplankiau gana įdomią dailės parodą. Refik Anadol „Mašinų memuarai“ mane sudomino nuo pat pradžių.
Jis yra populiarus vardas tarp tų, kurie domisi meno ir AI sankirta. Bet nesijaudinkite, šis tinklaraštis nėra apie meną. Mes gilinsimės į gilų AI „suvokimą“.
Šioje parodoje Anadol eksperimentavo su NASA kosmoso tyrinėjimų vaizdai. Parodą įkvėpė idėja, kad teleskopai gali „svajoti“ naudodamiesi savo vizualiniais archyvais, panaikindami barjerus tarp fakto ir vaizduotės.
Nagrinėdamas ryšį tarp duomenų, atminties ir istorijos kosminiu mastu, Anadol paprašė mūsų apsvarstyti galimybę dirbtinis intelektas stebėti ir suvokti mus supantį pasaulį. Ir net dirbtinis intelektas turi savo svajonių…
Taigi, kodėl tai aktualu mums?
Apsvarstykite tai: Anadol tyrinėjo teleskopų, sapnuojančių iš savo duomenų, koncepciją, AI sistemos turi savo sapnų tipą, tiksliau, haliucinacijas, savo skaitmeninėse atminties bankuose.
Šios haliucinacijos, kaip ir Anadol parodos vizualizacijos, gali padėti mums sužinoti daugiau apie duomenis, AI ir jų ribas.
Kas tiksliai yra AI haliucinacijos?
Kai didelis kalbos modelis, pvz., generatyvus AI pokalbių robotas, sukuria išvestis, kurių šablonai arba neegzistuoja, arba nematomi stebėtojams, mes tai vadinameAI haliucinacijos."
Šie išėjimai, kurie skiriasi nuo laukiamo atsakymo pagal AI pateiktą įvestį, gali būti visiškai klaidingi arba beprasmiai.
Kompiuterių kontekste terminas „haliucinacijos“ gali atrodyti neįprastas, tačiau jis tiksliai apibūdina keistą šių neteisingų išėjimų pobūdį. Dirbtinio intelekto haliucinacijas sukelia daugybė kintamųjų, įskaitant pernelyg didelį pritaikymą, treniruočių duomenų paklaidas ir AI modelio sudėtingumą.
Norint geriau suprasti, tai konceptualiai panašu į tai, kaip žmonės mato formas debesyse ar veidus Mėnulyje.
Pavyzdys:
Šiame pavyzdyje aš uždaviau labai paprastą klausimą ChatGPT. Turėjau gauti tokį atsakymą: „Knygų serijos „Kopa“ autorius yra Frankas Herbertas.
Kodėl tai atsitinka?
Nepaisant to, kad jie sukurti taip, kad turinys būtų nuoseklus ir sklandus, dideli kalbiniai modeliai iš tikrųjų nesugeba suprasti, ką jie sako. Tai labai svarbu nustatant AI sukurto turinio patikimumą.
Nors šie modeliai gali sukelti reakcijas, imituojančias žmogaus elgesį, jiems trūksta konteksto suvokimo ir kritinio mąstymo įgūdžių kuriais grindžiamas tikrasis intelektas.
Dėl to dirbtinio intelekto sukurti rezultatai gali būti klaidinantys arba klaidingi, nes jie teikia pirmenybę atitikimo modeliams, o ne faktiniam teisingumui.
Kokie gali būti kiti haliucinacijų atvejai?
Pavojinga dezinformacija: Tarkime, generatyvus AI pokalbių robotas kuria įrodymus ir liudijimus, kad melagingai apkaltintų viešą asmenį nusikalstamu elgesiu. Ši klaidinanti informacija gali pakenkti asmens reputacijai ir sukelti nepagrįstą kerštą.
Keisti ar baisūs atsakymai: Norėdami pateikti humoristinį pavyzdį, pavaizduokite pokalbių robotą, pateikiantį vartotojui klausimą apie orą ir atsakantį pateikdamas prognozę, kad lys katės ir šunys, taip pat lietaus lašų, kurie atrodo kaip katės ir šunys, nuotraukas. Nors jie juokingi, tai vis tiek būtų „haliucinacija“.
Faktiniai netikslumai: Tarkime, kad kalbos modeliu pagrįstas pokalbių robotas klaidingai teigia, kad į Didžiąją kinų sieną galima žiūrėti iš kosmoso, nepaaiškinus, kad ji matoma tik tam tikromis sąlygomis. Nors kai kuriems ši pastaba gali pasirodyti tikėtina, ji netiksli ir gali suklaidinti žmones dėl sienos vaizdo iš kosmoso.
Kaip kaip vartotojas išvengti AI haliucinacijų?
Pateikite aiškius raginimus
Turite aiškiai bendrauti su AI modeliais.
Prieš rašydami pagalvokite apie savo tikslus ir suplanuokite savo raginimus.
Pavyzdžiui, duokite konkrečias instrukcijas, pvz., „Paaiškinkite, kaip internetas veikia, ir parašykite pastraipą apie jo reikšmę šiuolaikinėje visuomenėje“, o ne bendrai paklauskite, kaip „Papasakokite apie internetą“.
Aiškumas padeda AI modeliui suprasti jūsų ketinimus.
Pavyzdys: užduokite AI tokius klausimus:
„Kas yra debesų kompiuterija ir kaip ji veikia?
"Paaiškinkite duomenų dreifo poveikį modelio veikimui."
„Aptarkite VR technologijos poveikį ir galimą ateitį IT verslui.
Pasinaudokite pavyzdžio galia
Ragintuose pavyzdžiai padeda AI modeliams suprasti kontekstą ir generuoti tikslius atsakymus. Nesvarbu, ar ieškote istorinių įžvalgų, ar techninių paaiškinimų, pateikdami pavyzdžius galite padidinti AI sukurto turinio tikslumą.
Pavyzdžiui, galite pasakyti: „Paminėkite fantastinius romanus, tokius kaip Haris Poteris“.
Suskaidykite sudėtingas užduotis
Sudėtingi raginimai perkrauna AI algoritmus ir gali lemti nereikšmingus rezultatus. Norėdami to išvengti, padalinkite sudėtingą veiklą į mažesnes, lengviau valdomas dalis. Tvarkydami raginimus nuosekliai, leidžiate AI sutelkti dėmesį į kiekvieną komponentą atskirai, todėl atsakymai bus logiškesni.
Pavyzdžiui, užuot prašydami AI „paaiškinti, kaip sukurti a neuroninis tinklas“ vienoje užklausoje suskirstykite priskyrimą į atskiras fazes, pvz., problemos apibrėžimą ir duomenų rinkimą.
Patvirtinkite išvestis ir pateikite atsiliepimus
Visada dar kartą patikrinkite AI modelių gautus rezultatus, ypač jei tai yra faktais pagrįsta ar svarbi veikla. Palyginkite atsakymus su patikimais šaltiniais ir atkreipkite dėmesį į visus skirtumus ar klaidas.
Pateikite įvestį į AI sistemą, kad pagerintumėte būsimą našumą ir sumažintumėte haliucinacijas.
Kūrėjų strategijos, kaip išvengti AI haliucinacijų
Įdiekite paieškos papildytą kartą (RAG).
Integruokite paieškos papildytus generavimo metodus į AI sistemas, kad atsakymai būtų pagrįsti faktiniais faktais iš patikimų duomenų bazių.
Atnaujinta generacija (RAG) sujungia standartinę natūralios kalbos generavimą su galimybe gauti ir įtraukti svarbią informaciją iš didžiulės žinių bazės, todėl gaunama daugiau konteksto.
Sujungę dirbtinio intelekto sukurtą turinį su patvirtintais duomenų šaltiniais, galite padidinti AI rezultatų patikimumą ir patikimumą.
Nuolat patvirtinkite ir stebėkite AI išvestis
Nustatykite griežtas patvirtinimo procedūras, kad realiuoju laiku patikrintumėte AI išvesties teisingumą ir nuoseklumą. Atidžiai stebėkite AI veikimą, ieškokite galimų haliucinacijų ar klaidų ir kartokite modelio mokymą bei greitą optimizavimą, kad laikui bėgant padidintumėte patikimumą.
Pavyzdžiui, naudokite automatines patvirtinimo procedūras, kad patikrintumėte, ar dirbtinio intelekto sukurtas turinys yra teisingas, ir paryškinkite galimų haliucinacijų atvejus, kad būtų galima įvertinti rankiniu būdu.
Patikrinkite, ar nėra duomenų nukrypimų
Duomenų dreifas yra reiškinys, kai duomenų, naudojamų dirbtinio intelekto modeliui parengti, statistinės savybės kinta laikui bėgant. Jei išvados metu dirbtinio intelekto modelis atitinka duomenis, kurie labai skiriasi nuo mokymo duomenų, jis gali pateikti klaidingus arba nelogiškus rezultatus ir sukelti haliucinacijas.
Pavyzdžiui, jei dirbtinio intelekto modelis mokomas remiantis praeities duomenimis, kurie nebėra svarbūs arba nerodo dabartinės aplinkos, jis gali padaryti neteisingas išvadas ar prognozes.
Todėl duomenų nukrypimų stebėjimas ir sprendimas yra labai svarbus siekiant užtikrinti AI sistemos veikimą ir patikimumą, taip pat sumažinti haliucinacijų tikimybę.
Išvada
Remiantis IBM duomenimis, AI haliucinacijos atsiranda maždaug 3–10 % atsakymų iš AI modelių.
Taigi vienaip ar kitaip tikriausiai pastebėsite ir juos. Manau, kad tai nepaprastai įdomi tema, nes tai žavus priminimas apie nenutrūkstamą dirbtinio intelekto galimybių tobulinimo kelią.
Galime stebėti ir eksperimentuoti su dirbtinio intelekto patikimumu, duomenų apdorojimo sudėtingumu ir žmogaus bei AI sąveika.
Palikti atsakymą