Tatlong taon na ang nakalilipas, bumisita ako sa isang medyo kawili-wiling eksibisyon ng sining. Ang “Machine Memoirs” ni Refik Anadol ay pumukaw sa aking interes sa simula.
Siya ay isang tanyag na pangalan sa mga interesado sa intersection ng sining at AI. Ngunit huwag mag-alala, ang blog na ito ay hindi tungkol sa sining. Susuriin natin ang malalim na "mga pananaw" ng AI.
Sa eksibisyong ito, nag-eeksperimento si Anadol Ang imahe ng paggalugad sa kalawakan ng NASA. Ang eksibisyon ay inspirasyon ng ideya na ang mga teleskopyo ay maaaring "managinip" gamit ang kanilang mga visual na archive, na nagpapalabo sa mga hadlang sa pagitan ng katotohanan at imahinasyon.
Sa pamamagitan ng pagsisiyasat sa mga ugnayan sa pagitan ng data, memorya, at kasaysayan sa isang cosmic scale, hinihiling sa amin ni Anadol na isaalang-alang ang potensyal ng artificial intelligence upang obserbahan at maunawaan ang mundo sa paligid natin. At maging ang AI na magkaroon ng sarili nitong mga pangarap...
Kaya, bakit ito nauugnay sa atin?
Isaalang-alang ito: tulad ng pagsisiyasat ni Anadol sa konsepto ng mga teleskopyo na nangangarap mula sa kanilang data, ang mga AI system ay may sariling uri ng panaginip-o sa halip, mga guni-guni-sa loob ng kanilang mga digital memory bank.
Ang mga guni-guni na ito, tulad ng mga visualization sa eksibisyon ng Anadol, ay makakatulong sa amin na matuto nang higit pa tungkol sa data, AI, at mga limitasyon ng mga ito.
Ano nga ba ang AI hallucinations?
Kapag ang isang malaking modelo ng wika, tulad ng generative AI chatbot, ay gumagawa ng mga output na may mga pattern na alinman sa wala o hindi nakikita ng mga taong nagmamasid, tinatawag namin itong "Mga guni-guni ng AI."
Ang mga output na ito, na naiiba sa inaasahang sagot batay sa input na ibinigay sa AI, ay maaaring maging ganap na mali o walang katuturan.
Sa konteksto ng mga computer, ang terminong "hallucination" ay maaaring mukhang hindi pangkaraniwan, ngunit tumpak nitong inilalarawan ang kakaibang katangian ng mga maling output na ito. Ang mga guni-guni ng AI ay sanhi ng isang hanay ng mga variable, kabilang ang overfitting, mga bias sa data ng pagsasanay, at ang pagiging kumplikado ng modelo ng AI.
Upang mas maunawaan, ito ay katulad ng konsepto sa kung paano nakikita ng mga tao ang mga hugis sa mga ulap o mga mukha sa buwan.
Isang halimbawa:
Sa halimbawang ito, nagtanong ako ng napakadaling tanong Chat GPT. Ako ay dapat na makakuha ng isang sagot tulad ng, "Ang may-akda ng Dune libro serye ay Frank Herbert.".
Bakit Ito Nangyayari?
Sa kabila ng binuo upang magsulat ng nilalaman na magkakaugnay at tuluy-tuloy, ang mga modelo ng malalaking wika ay talagang hindi maunawaan kung ano ang kanilang sinasabi. Napakahalaga nito sa pagtukoy sa kredibilidad ng nilalamang binuo ng AI.
Habang ang mga modelong ito ay maaaring makabuo ng mga reaksyon na gayahin ang pag-uugali ng tao, kulang sila sa contextual awareness at critical thinking skills na nagpapatibay sa aktwal na katalinuhan.
Bilang resulta, ang mga output na binuo ng AI ay nanganganib na maging mapanlinlang o mali dahil mas pinapaboran nila ang pagtutugma ng mga pattern kaysa sa katotohanang kawastuhan.
Ano ang maaaring iba pang mga kaso ng guni-guni?
Mapanganib na Maling Impormasyon: Sabihin nating ang isang generative AI chatbot ay gumagawa ng ebidensya at testimonya upang maling akusahan ang isang pampublikong pigura ng kriminal na pag-uugali. Ang mapanlinlang na impormasyong ito ay may potensyal na makasira sa reputasyon ng tao at magdulot ng hindi makatarungang paghihiganti.
Mga Kakaiba o Nakakatakot na Sagot: Upang magbigay ng nakakatawang halimbawa, isipin ang isang chatbot na nagbibigay sa isang user ng tanong tungkol sa lagay ng panahon at tumugon sa isang hula na nagsasabing uulan ito ng mga pusa at aso, kasama ang mga larawan ng mga patak ng ulan na mukhang pusa at aso. Kahit na sila ay nakakatawa, ito ay magiging isang "hallucination."
Mga Katotohanang Pagkakamali: Ipagpalagay na ang isang chatbot na nakabatay sa modelo ng wika ay maling nagsasabi na ang Great Wall of China ay maaaring tingnan mula sa kalawakan nang hindi ipinapaliwanag na ito ay makikita lamang sa ilalim ng mga partikular na kundisyon. Bagama't ang pangungusap ay maaaring mukhang kapani-paniwala sa ilan, ito ay hindi tumpak at maaaring iligaw ang mga tao tungkol sa paningin ng pader mula sa kalawakan.
Paano Mo Maiiwasan ang AI Hallucinations bilang User?
Gumawa ng Mga Tahasang Prompt
Kailangan mong makipag-usap nang tahasan sa mga modelo ng AI.
Isipin ang iyong mga layunin at idisenyo ang iyong mga senyas bago magsulat.
Halimbawa, magbigay ng mga partikular na tagubilin tulad ng "Ipaliwanag kung paano gumagana ang Internet at magsulat ng isang talata tungkol sa kahalagahan nito sa modernong lipunan" sa halip na mag-pose ng pangkalahatang pagtatanong tulad ng "Sabihin sa akin ang tungkol sa Internet."
Ang pagiging malinaw ay tumutulong sa modelo ng AI na bigyang-kahulugan ang iyong layunin.
Halimbawa: Itanong sa AI ang mga tanong tulad ng mga ito:
"Ano ang cloud computing, at paano ito gumagana?"
"Ipaliwanag ang epekto ng data drift sa performance ng modelo."
"Talakayin ang epekto at potensyal na hinaharap ng teknolohiya ng VR sa negosyong IT."
Yakapin ang Kapangyarihan ng Halimbawa
Ang pagbibigay ng mga halimbawa sa iyong mga senyas ay nakakatulong sa mga modelo ng AI na maunawaan ang konteksto at makabuo ng mga tumpak na tugon. Naghahanap ka man ng mga makasaysayang insight o teknikal na paliwanag, ang pagbibigay ng mga halimbawa ay makakatulong na mapahusay ang katumpakan ng nilalamang binuo ng AI.
Halimbawa, maaari mong sabihin, "Banggitin ang mga nobelang pantasya gaya ng Harry Potter."
Hatiin ang mga Masalimuot na Gawain
Ang kumplikado ay nag-uudyok sa mga overload na algorithm ng AI, at maaari silang humantong sa mga hindi nauugnay na resulta. Upang maiwasan ito, hatiin ang mga kumplikadong aktibidad sa mas maliliit, mas madaling pamahalaan. Sa pamamagitan ng pag-aayos ng iyong mga prompt nang sunud-sunod, pinapayagan mo ang AI na tumuon sa bawat bahagi nang nakapag-iisa, na nagreresulta sa mas lohikal na mga tugon.
Halimbawa, sa halip na hilingin sa AI na "ipaliwanag ang proseso ng paglikha ng isang neural network" sa isang query, hatiin ang assignment sa mga discrete phase tulad ng pagtukoy ng problema at pangongolekta ng data.
Patunayan ang Mga Output at Magbigay ng Feedback
Palaging i-double check ang mga resultang ginawa ng mga modelo ng AI, lalo na para sa nakabatay sa katotohanan o mahahalagang aktibidad. Ihambing ang mga tugon sa mga mapagkakatiwalaang mapagkukunan at tandaan ang anumang mga pagkakaiba o error.
Magbigay ng input sa AI system para mapahusay ang performance sa hinaharap at mabawasan ang mga guni-guni.
Mga Istratehiya para sa Mga Nag-develop para Makaiwas sa AI Hallucinations
Ipatupad ang Retrieval-Augmented Generation (RAG).
Isama ang retrieval-augmented generation techniques sa mga AI system para ibase ang mga tugon sa mga makatotohanang katotohanan mula sa mga mapagkakatiwalaang database.
Pinagsasama-sama ng Retrieval-augmented generation (RAG) ang karaniwang henerasyon ng natural na wika na may kakayahang makakuha at magsama ng may-katuturang impormasyon mula sa isang malaking base ng kaalaman, na nagreresulta sa mas mayaman na output ayon sa konteksto.
Sa pamamagitan ng pagsasama ng content na binuo ng AI sa mga validated na data source, maaari mong pagbutihin ang pagiging maaasahan at pagiging mapagkakatiwalaan ng mga resulta ng AI.
Patunayan at Subaybayan ang mga output ng AI
Mag-set up ng mahigpit na mga pamamaraan sa pagpapatunay upang i-verify ang kawastuhan at pagkakapare-pareho ng mga output ng AI sa real-time. Subaybayan nang mabuti ang performance ng AI, hanapin ang mga potensyal na guni-guni o pagkakamali, at ulitin ang pagsasanay sa modelo at agarang pag-optimize upang mapataas ang pagiging maaasahan sa paglipas ng panahon.
Halimbawa, gumamit ng mga naka-automate na gawain sa pagpapatunay upang suriin ang nilalamang binuo ng AI para sa makatotohanang kawastuhan at i-highlight ang mga pagkakataon ng posibleng mga guni-guni para sa manu-manong pagtatasa.
Suriin Para sa Data Drift
Ang data drift ay isang phenomenon kung saan ang mga istatistikal na feature ng data na ginamit upang sanayin ang isang AI model ay nag-iiba sa paglipas ng panahon. Kung ang modelo ng AI ay nakakatugon sa data na malaki ang pagkakaiba sa data ng pagsasanay nito sa panahon ng hinuha, maaari itong magbigay ng mali o hindi makatwiran na mga resulta, na magreresulta sa mga guni-guni.
Halimbawa, kung ang isang modelo ng AI ay sinanay sa nakaraang data na hindi na nauugnay o nagpapahiwatig ng kasalukuyang kapaligiran, maaari itong gumawa ng mga maling konklusyon o hula.
Bilang resulta, ang pagsubaybay at paglutas ng mga drift ng data ay kritikal sa pagtiyak sa pagganap at pagiging maaasahan ng AI system habang binabawasan din ang posibilidad ng mga guni-guni.
Konklusyon
Ayon sa IBM Data, ang AI hallucinations ay nangyayari sa humigit-kumulang 3% hanggang 10% ng mga sagot mula sa mga modelo ng AI.
Kaya, sa isang paraan o iba pa, malamang na obserbahan mo rin sila. Naniniwala ako na ito ay isang hindi kapani-paniwalang kawili-wiling paksa dahil ito ay isang kamangha-manghang paalala ng patuloy na daan patungo sa pagpapahusay ng mga kakayahan ng AI.
Nagagawa nating mag-obserba at mag-eksperimento sa pagiging maaasahan ng AI, ang mga masalimuot ng pagproseso ng data, at mga pakikipag-ugnayan ng tao-AI.
Mag-iwan ng Sagot