Trije jier lyn haw ik in nochal nijsgjirrige keunsttentoanstelling besocht. "Machine Memoirs" fan Refik Anadol wekker myn belangstelling fan it begjin ôf.
Hy is in populêre namme ûnder dyjingen dy't ynteressearre binne yn 'e krusing fan keunst en AI. Mar meitsje jo gjin soargen, dit blog giet net oer keunst. Wy sille ferdjipje yn 'e djippe "persepsjes" fan AI.
Yn dizze eksposysje eksperimintearre Anadol mei NASA's romteferkenningsbylden. De tentoanstelling waard ynspirearre troch it idee dat teleskopen koenen "dreame" mei help fan harren fisuele argiven, waziging de barriêres tusken feit en ferbylding.
Troch de relaasjes tusken gegevens, ûnthâld en skiednis op kosmyske skaal te ûndersykjen, frege Anadol ús om it potensjeel te beskôgjen fan keunstmjittige yntelliginsje om de wrâld om ús hinne te observearjen en te begripen. En sels AI om syn eigen dreamen te hawwen ...
Dus, wêrom is dit relevant foar ús?
Beskôgje dit: in protte lykas Anadol ûndersocht it konsept fan teleskopen dy't dreamden fan har gegevens, hawwe AI-systemen har eigen type dream - of leaver, hallusinaasjes - binnen har digitale ûnthâldbanken.
Dizze hallusinaasjes, lykas de fisualisaasjes yn 'e tentoanstelling fan Anadol, kinne ús helpe mear te learen oer gegevens, AI en har grinzen.
Wat binne AI-hallusinaasjes krekt?
As in grut taalmodel, lykas in generative AI-chatbot, útgongen produseart mei patroanen dy't net bestean of ûnsichtber binne foar minsklike waarnimmers, neame wy dizze "AI hallusinaasjes."
Dizze útgongen, dy't ferskille fan it ferwachte antwurd basearre op 'e ynput jûn oan' e AI, kinne folslein ferkeard of ûnsin wêze.
Yn 'e kontekst fan kompjûters kin de term "hallusinaasje" ûngewoan lykje, mar it beskriuwt krekt it bizarre karakter fan dizze ferkearde útgongen. AI-hallusinaasjes wurde feroarsake troch in ferskaat oan fariabelen, ynklusyf overfitting, foaroardielen yn trainingsgegevens, en de kompleksiteit fan it AI-model.
Om better te begripen, is dit konseptueel fergelykber mei hoe't minsken foarmen sjogge yn wolken of gesichten op 'e moanne.
In foarbyld:
Yn dit foarbyld haw ik in heul maklike fraach steld Chat GPT. Ik soe in antwurd krije as: "De skriuwer fan 'e Dune-boeksearje is Frank Herbert."
Wêrom bart dit?
Nettsjinsteande it feit dat se boud binne om ynhâld te skriuwen dy't gearhingjend en floeiend is, binne grutte taalmodellen eins net yn steat om te begripen wat se sizze. Dit is heul kritysk by it bepalen fan de leauwensweardigens fan AI-generearre ynhâld.
Wylst dizze modellen reaksjes kinne generearje dy't minsklik gedrach mimike, se misse it kontekstuele bewustwêzen en krityske tinkfeardigens dy't wirklike yntelliginsje stypje.
As resultaat rinne AI-genereare útgongen it gefaar om misleidend of ferkeard te wêzen, om't se oerienkommende patroanen favorisearje boppe feitlike korrektheid.
Wat kinne oare gefallen fan hallusinaasjes wêze?
Gefaarlike ferkearde ynformaasje: Litte wy sizze dat in generative AI chatbot bewiis en tsjûgenissen makket om in iepenbiere figuer falsk te beskuldigjen fan krimineel gedrach. Dizze misliedende ynformaasje hat it potinsjeel om de reputaasje fan 'e persoan te beskeadigjen en ûnrjochtfeardige ferjilding te feroarsaakjen.
Nuvere of skriklike antwurden: Om in humoristysk foarbyld te jaan, ôfbylding in chatbot dy't in brûker in waarfraach jout en antwurdzje mei in prognose dy't seit dat it katten en hûnen reine sil, tegearre mei foto's fan reindruppels dy't op katten en hûnen lykje. Ek al binne se grappich, dit soe noch altyd in "hallusinaasje" wêze.
Feitlike ûnkrektens: Stel dat in op taalmodel basearre chatbot falsk stelt dat de Grutte Muorre fan Sina út 'e romte kin wurde besjoen sûnder út te lizzen dat it allinich sichtber is ûnder spesifike betingsten. Hoewol de opmerking foar guon oannimlik liket te wêzen, is it net krekt en kin it minsken misleide oer it sicht fan 'e muorre út' e romte.
Hoe kinne jo AI-hallusinaasjes as brûker foarkomme?
Meitsje eksplisite oanfragen
Jo moatte eksplisyt kommunisearje mei AI-modellen.
Tink oer jo doelen en ûntwerp jo prompts foardat jo skriuwe.
Jou bygelyks spesifike ynstruksjes lykas "Ferklearje hoe't it ynternet wurket en skriuw in paragraaf oer syn betsjutting yn 'e moderne maatskippij" ynstee fan in algemien ûndersyk te stellen lykas "Fertel my oer it ynternet."
Eksplisiteit helpt it AI-model jo bedoeling te ynterpretearjen.
Foarbyld: Stel de AI-fragen lykas dizze:
"Wat is cloud computing, en hoe wurket it?"
"Ferklearje de ynfloed fan gegevensdrift op modelprestaasjes."
"Beprate de ynfloed en potensjele takomst fan VR-technology op it IT-bedriuw."
Omearmje de krêft fan foarbyld
It leverjen fan foarbylden yn jo prompts helpt AI-modellen de kontekst te begripen en presys antwurden te generearjen. Oft jo op syk binne nei histoaryske ynsjoch as technyske ferklearrings, it leverjen fan foarbylden kin helpe om de krektens fan AI-generearre ynhâld te ferbetterjen.
Jo kinne bygelyks sizze: "Neem fantasyromans lykas Harry Potter."
Komplekse taken ôfbrekke
Komplekse prompts oerladen AI-algoritmen, en se kinne liede ta irrelevante resultaten. Om dit foar te kommen, ferdiele komplekse aktiviteiten yn lytsere, mear behearbere stikken. Troch jo prompts sequentieel te organisearjen, kinne jo de AI selsstannich op elke komponint fokusje, wat resulteart yn logyskere antwurden.
Bygelyks, ynstee fan de AI te freegjen om "it proses fan it meitsjen fan in neural netwurk" yn ien fraach, brek de opdracht del yn diskrete fazen lykas probleemdefinysje en gegevenssammeling.
Validearje de útgongen en leverje feedback
Kontrolearje altyd de resultaten produsearre troch AI-modellen, foaral foar feit-basearre as krúsjale aktiviteiten. Fergelykje de antwurden mei betroubere boarnen en notearje alle ferskillen of flaters.
Jou ynput oan it AI-systeem om takomstige prestaasjes te ferbetterjen en hallusinaasjes te ferminderjen.
Strategyen foar ûntwikkelders om AI-hallusinaasjes te foarkommen
Implementearje Retrieval-Augmented Generation (RAG).
Yntegrearje opheljen-augmented generaasjetechniken yn AI-systemen om antwurden te basearjen op feitlike feiten út betroubere databases.
Retrieval-augmented generation (RAG) kombinearret standert generaasje fan natuerlike talen mei de kapasiteit om relevante ynformaasje te krijen en op te nimmen fan in enoarme kennisbasis, wat resulteart yn mear kontekstueel rike útfier.
Troch AI-generearre ynhâld te fusearjen mei falidearre gegevensboarnen, kinne jo de betrouberens en betrouberens fan AI-resultaten ferbetterje.
Validearje en kontrolearje AI-útgongen kontinu
Stel strange falidaasjeprosedueres yn om de krektens en konsistinsje fan AI-útgongen yn realtime te kontrolearjen. Monitor AI-prestaasjes oandachtich, sykje nei potinsjele hallusinaasjes of flaters, en iterearje op modeltraining en prompt optimisaasje om de betrouberens oer de tiid te fergrutsjen.
Brûk bygelyks automatyske falidaasjeroutines om AI-generearre ynhâld te kontrolearjen op feitlike korrektheid en markearje gefallen fan mooglike hallusinaasjes foar hânmjittich beoardieling.
Kontrolearje foar gegevensdriften
Gegevensdrift is in ferskynsel wêryn de statistyske skaaimerken fan 'e gegevens dy't brûkt wurde om in AI-model te trenen, fariearje mei de tiid. As it AI-model gegevens foldocht dy't signifikant ferskille fan har trainingsgegevens tidens konklúzjes, kin it falske as illogyske resultaten leverje, wat resulteart yn hallusinaasjes.
Bygelyks, as in AI-model wurdt oplaat op gegevens út it ferline dy't net mear relevant of yndikatyf binne foar de hjoeddeistige omjouwing, kin it ferkearde konklúzjes of foarsizzings meitsje.
As resultaat is it kontrolearjen en oplossen fan gegevensdrift kritysk om AI-systeemprestaasjes en betrouberens te garandearjen, wylst ek de mooglikheid fan hallusinaasjes ferminderje.
Konklúzje
Neffens IBM Data komme AI-hallusinaasjes foar yn sawat 3% oant 10% fan antwurden fan AI-modellen.
Dat, op ien of oare manier, sille jo se wierskynlik ek observearje. Ik leau dat dit in ongelooflijk ynteressant ûnderwerp is, om't it in fassinearjende herinnering is oan 'e trochgeande wei nei it ferbetterjen fan de mooglikheden fan AI.
Wy kinne observearje en eksperimintearje mei de betrouberens fan AI, de kompleksjes fan gegevensferwurking, en minske-AI-ynteraksjes.
Leave a Reply