For tre år siden besøkte jeg en ganske interessant kunstutstilling. "Machine Memoirs" av Refik Anadol vekket interessen min fra starten.
Han er et populært navn blant de som er interessert i skjæringspunktet mellom kunst og AI. Men ikke bekymre deg, denne bloggen handler ikke om kunst. Vi vil fordype oss i de dype "oppfatningene" av AI.
I denne utstillingen eksperimenterte Anadol med NASAs romutforskningsbilder. Utstillingen var inspirert av ideen om at teleskoper kunne "drømme" ved å bruke deres visuelle arkiver, og viske ut barrierene mellom fakta og fantasi.
Ved å undersøke forholdet mellom data, hukommelse og historie på en kosmisk skala, ba Anadol oss vurdere potensialet til kunstig intelligens å observere og forstå verden rundt oss. Og til og med AI for å ha sine egne drømmer...
Så hvorfor er dette relevant for oss?
Tenk på dette: På samme måte som Anadol undersøkte konseptet med teleskoper som drømmer fra dataene deres, har AI-systemer sin egen type drøm – eller rettere sagt, hallusinasjoner – innenfor deres digitale minnebanker.
Disse hallusinasjonene, som visualiseringene i Anadols utstilling, kan hjelpe oss med å lære mer om data, AI og deres grenser.
Hva er egentlig AI-hallusinasjoner?
Når en stor språkmodell, for eksempel en generativ AI-chatbot, produserer utdata med mønstre som enten er ikke-eksisterende eller usynlige for menneskelige observatører, kaller vi disse "AI hallusinasjoner."
Disse utgangene, som avviker fra det forventede svaret basert på input gitt til AI, kan være helt feilaktige eller meningsløse.
I forbindelse med datamaskiner kan begrepet "hallusinasjon" virke uvanlig, men det beskriver nøyaktig den bisarre karakteren til disse ukorrekte utdataene. AI-hallusinasjoner er forårsaket av en rekke variabler, inkludert overtilpasning, skjevheter i treningsdata og kompleksiteten til AI-modellen.
For å forstå bedre, er dette konseptuelt likt hvordan mennesker ser former i skyer eller ansikter på månen.
Et eksempel:
I dette eksemplet stilte jeg et veldig enkelt spørsmål til ChatGPT. Jeg skulle få et svar som: "Forfatteren av bokserien Dune er Frank Herbert."
Hvorfor skjer dette?
Til tross for at de er bygget for å skrive innhold som er sammenhengende og flytende, er store språkmodeller faktisk ikke i stand til å forstå hva de sier. Dette er svært kritisk for å avgjøre troverdigheten til AI-generert innhold.
Selv om disse modellene kan generere reaksjoner som etterligner menneskelig atferd, de mangler kontekstuell bevissthet og kritisk tenkning som underbygger faktisk intelligens.
Som et resultat risikerer AI-genererte utdata å være villedende eller feil siden de favoriserer matchende mønstre fremfor faktisk korrekthet.
Hva kan være noen andre tilfeller av hallusinasjoner?
Farlig feilinformasjon: La oss si at en generativ AI-chatbot lager bevis og vitnesbyrd for å feilaktig anklage en offentlig person for kriminell oppførsel. Denne villedende informasjonen har potensial til å skade personens omdømme og forårsake uberettiget gjengjeldelse.
Rare eller skumle svar: For å gi et humoristisk eksempel, se for deg en chatbot som gir en bruker et værspørsmål og svarer med et værvarsel som sier at det vil regne katter og hunder, sammen med bilder av regndråper som ser ut som katter og hunder. Selv om de er morsomme, vil dette fortsatt være en "hallusinasjon".
Faktiske unøyaktigheter: Anta at en språkmodellbasert chatbot feilaktig sier at Den kinesiske mur kan sees fra verdensrommet uten å forklare at den bare er synlig under spesifikke forhold. Selv om bemerkningen kan virke plausibel for noen, er den unøyaktig og kan villede folk om veggens syn fra verdensrommet.
Hvordan unngår du AI-hallusinasjoner som bruker?
Lag eksplisitte meldinger
Du må kommunisere med AI-modeller eksplisitt.
Tenk på målene dine og utform instruksjonene dine før du skriver.
Gi for eksempel spesifikke instruksjoner som "Forklar hvordan Internett fungerer og skriv et avsnitt om dets betydning i det moderne samfunn" i stedet for å stille en generell forespørsel som "Fortell meg om Internett."
Eksplisitet hjelper AI-modellen med å tolke intensjonen din.
Eksempel: Still AI-spørsmål som disse:
"Hva er cloud computing, og hvordan fungerer det?"
"Forklar virkningen av datadrift på modellens ytelse."
"Diskuter virkningen og den potensielle fremtiden til VR-teknologi på IT-virksomheten."
Omfavn kraften i eksemplet
Ved å gi eksempler i spørsmålene dine hjelper AI-modeller å forstå konteksten og generere presise svar. Enten du leter etter historisk innsikt eller tekniske forklaringer, kan det å gi eksempler bidra til å forbedre nøyaktigheten til AI-generert innhold.
Du kan for eksempel si: "Nevn fantasyromaner som Harry Potter."
Bryt ned komplekse oppgaver
Komplekse spørsmål overbelaster AI-algoritmer, og de kan føre til irrelevante resultater. For å forhindre dette, del komplekse aktiviteter i mindre, mer håndterbare deler. Ved å organisere spørsmålene dine sekvensielt, lar du AI-en fokusere på hver komponent uavhengig, noe som resulterer i mer logiske svar.
For eksempel, i stedet for å be AI om å "forklare prosessen med å lage en nevrale nettverket" i en enkelt spørring, del opp oppgaven i diskrete faser som problemdefinisjon og datainnsamling.
Valider utdataene og gi tilbakemelding
Dobbeltsjekk alltid resultatene produsert av AI-modeller, spesielt for faktabaserte eller avgjørende aktiviteter. Sammenlign svarene med pålitelige kilder og noter eventuelle forskjeller eller feil.
Gi innspill til AI-systemet for å forbedre fremtidig ytelse og redusere hallusinasjoner.
Strategier for utviklere for å unngå AI-hallusinasjoner
Implementer Retrieval-Augmented Generation (RAG).
Integrer gjenvinningsutvidede generasjonsteknikker i AI-systemer for å basere svar på fakta fra pålitelige databaser.
Retrieval-augmented generation (RAG) kombinerer standard naturlig språkgenerering med kapasiteten til å innhente og inkorporere relevant informasjon fra en enorm kunnskapsbase, noe som resulterer i mer kontekstuelt rik produksjon.
Ved å slå sammen AI-generert innhold med validerte datakilder, kan du forbedre påliteligheten og påliteligheten til AI-resultater.
Valider og overvåk AI-utganger kontinuerlig
Sett opp strenge valideringsprosedyrer for å verifisere riktigheten og konsistensen til AI-utdata i sanntid. Overvåk AI-ytelsen nøye, se etter potensielle hallusinasjoner eller feil, og gjenta modelltrening og rask optimalisering for å øke påliteligheten over tid.
Bruk for eksempel automatiserte valideringsrutiner for å sjekke AI-generert innhold for faktisk korrekthet og fremheve tilfeller av mulige hallusinasjoner for manuell vurdering.
Se etter datadrift
Datadrift er et fenomen der de statistiske egenskapene til dataene som brukes til å trene en AI-modell varierer over tid. Hvis AI-modellen møter data som avviker betydelig fra treningsdataene under inferens, kan den gi falske eller ulogiske resultater, noe som resulterer i hallusinasjoner.
For eksempel, hvis en AI-modell er trent på tidligere data som ikke lenger er relevante eller indikative for det nåværende miljøet, kan den komme med uriktige konklusjoner eller spådommer.
Som et resultat er overvåking og løsning av datadrift avgjørende for å sikre AI-systemytelse og pålitelighet, samtidig som det reduserer muligheten for hallusinasjoner.
konklusjonen
I følge IBM Data forekommer AI-hallusinasjoner i rundt 3 % til 10 % av svarene fra AI-modeller.
Så, på en eller annen måte, vil du sannsynligvis også observere dem. Jeg tror dette er et utrolig interessant emne fordi det er en fascinerende påminnelse om den kontinuerlige veien mot å forbedre AIs evner.
Vi får observere og eksperimentere med påliteligheten til AI, forviklingene ved databehandling og menneske-AI-interaksjoner.
Legg igjen en kommentar