För tre år sedan besökte jag en ganska intressant konstutställning. "Machine Memoirs" av Refik Anadol väckte mitt intresse från början.
Han är ett populärt namn bland dem som är intresserade av skärningspunkten mellan konst och AI. Men oroa dig inte, den här bloggen handlar inte om konst. Vi kommer att fördjupa oss i de djupa "uppfattningarna" av AI.
I den här utställningen experimenterade Anadol med NASA:s rymdutforskningsbilder. Utställningen inspirerades av idén att teleskop kunde "drömma" med hjälp av deras visuella arkiv, och sudda ut barriärerna mellan fakta och fantasi.
Genom att undersöka sambanden mellan data, minne och historia på en kosmisk skala, bad Anadol oss att överväga potentialen hos artificiell intelligens att observera och förstå världen omkring oss. Och även AI att ha sina egna drömmar...
Så varför är detta relevant för oss?
Tänk på detta: ungefär som Anadol undersökte konceptet med teleskop som drömmer från deras data, har AI-system sin egen typ av dröm – eller snarare hallucinationer – inom sina digitala minnesbanker.
Dessa hallucinationer, som visualiseringarna i Anadols utställning, kan hjälpa oss att lära oss mer om data, AI och deras gränser.
Vad exakt är AI-hallucinationer?
När en stor språkmodell, som en generativ AI-chattbot, producerar utdata med mönster som antingen är obefintliga eller osynliga för mänskliga observatörer, kallar vi dessa "AI hallucinationer."
Dessa utdata, som skiljer sig från det förväntade svaret baserat på input som ges till AI:n, kan vara helt felaktiga eller meningslösa.
I datorsammanhang kan termen "hallucination" verka ovanlig, men den beskriver exakt den bisarra karaktären hos dessa felaktiga utdata. AI-hallucinationer orsakas av en rad variabler, inklusive överanpassning, fördomar i träningsdata och komplexiteten i AI-modellen.
För att förstå bättre liknar detta konceptuellt hur människor ser former i moln eller ansikten på månen.
Ett exempel:
I det här exemplet ställde jag en mycket enkel fråga till ChatGPT. Jag skulle få ett svar som, "Författaren till bokserien Dune är Frank Herbert."
Varför händer detta?
Trots att de är byggda för att skriva innehåll som är sammanhängande och flytande, kan stora språkmodeller faktiskt inte förstå vad de säger. Detta är mycket viktigt för att avgöra trovärdigheten hos AI-genererat innehåll.
Även om dessa modeller kan generera reaktioner som efterliknar mänskligt beteende, de saknar kontextuell medvetenhet och kritiskt tänkande som underbygger faktisk intelligens.
Som ett resultat riskerar AI-genererade utdata att vara vilseledande eller felaktiga eftersom de föredrar matchningsmönster framför faktariktighet.
Vilka andra fall av hallucinationer kan vara?
Farlig desinformation: Låt oss säga att en generativ AI-chatbot tillverkar bevis och vittnesmål för att felaktigt anklaga en offentlig person för kriminellt beteende. Denna vilseledande information har potential att skada personens rykte och orsaka omotiverade repressalier.
Konstiga eller läskiga svar: För att ge ett humoristiskt exempel, se en chatbot som ger en användare en väderfråga och svarar med en prognos som säger att det kommer att regna katter och hundar, tillsammans med bilder på regndroppar som ser ut som katter och hundar. Även om de är roliga skulle detta fortfarande vara en "hallucination".
Faktiska felaktigheter: Antag att en språkmodellbaserad chatbot felaktigt säger att Kinesiska muren kan ses från rymden utan att förklara att den bara är synlig under specifika förhållanden. Även om anmärkningen kan verka rimlig för vissa, är den felaktig och kan vilseleda människor om väggens syn från rymden.
Hur undviker du AI-hallucinationer som användare?
Gör explicita uppmaningar
Du måste kommunicera med AI-modeller uttryckligen.
Tänk på dina mål och utforma dina uppmaningar innan du skriver.
Till exempel, ge specifika instruktioner som "Förklara hur Internet fungerar och skriv ett stycke om dess betydelse i det moderna samhället" istället för att ställa en allmän förfrågan som "Berätta om Internet."
Explicitet hjälper AI-modellen att tolka din avsikt.
Exempel: Ställ AI-frågor som dessa:
"Vad är cloud computing och hur fungerar det?"
"Förklara effekten av datadrift på modellens prestanda."
"Diskutera inverkan och potentiell framtid för VR-teknik på IT-verksamheten."
Omfamna kraften i exemplet
Genom att tillhandahålla exempel i dina uppmaningar hjälper AI-modeller att förstå sammanhanget och generera exakta svar. Oavsett om du letar efter historiska insikter eller tekniska förklaringar kan exemplen bidra till att förbättra noggrannheten hos AI-genererat innehåll.
Till exempel kan du säga, "Nämn fantasyromaner som Harry Potter."
Bryt ner komplexa uppgifter
Komplexa uppmaningar överbelasta AI-algoritmer och de kan leda till irrelevanta resultat. För att förhindra detta, dela upp komplexa aktiviteter i mindre, mer hanterbara delar. Genom att organisera dina meddelanden sekventiellt låter du AI fokusera på varje komponent oberoende, vilket resulterar i mer logiska svar.
Till exempel, istället för att be AI:n att "förklara processen att skapa en neuralt nätverk" i en enda fråga, dela upp uppdraget i diskreta faser som problemdefiniering och datainsamling.
Validera utdata och ge feedback
Dubbelkolla alltid resultaten som produceras av AI-modeller, särskilt för faktabaserade eller avgörande aktiviteter. Jämför svaren med tillförlitliga källor och notera eventuella skillnader eller fel.
Ge input till AI-systemet för att förbättra framtida prestanda och minska hallucinationer.
Strategier för utvecklare för att undvika AI-hallucinationer
Implementera Retrieval-Augmented Generation (RAG).
Integrera hämtningsförstärkta generationstekniker i AI-system för att basera svar på fakta från tillförlitliga databaser.
Retrieval-augmented generation (RAG) kombinerar standardgenerering av naturligt språk med förmågan att erhålla och införliva relevant information från en enorm kunskapsbas, vilket resulterar i mer kontextuellt rik produktion.
Genom att slå samman AI-genererat innehåll med validerade datakällor kan du förbättra tillförlitligheten och trovärdigheten för AI-resultat.
Validera och övervaka AI-utgångar kontinuerligt
Ställ in rigorösa valideringsprocedurer för att verifiera riktigheten och konsistensen av AI-utgångar i realtid. Övervaka AI-prestanda uppmärksamt, leta efter potentiella hallucinationer eller misstag, och upprepa modellträning och snabb optimering för att öka tillförlitligheten över tiden.
Använd till exempel automatiserade valideringsrutiner för att kontrollera AI-genererat innehåll för faktisk korrekthet och lyfta fram fall av möjliga hallucinationer för manuell bedömning.
Kontrollera efter datadrift
Datadrift är ett fenomen där de statistiska egenskaperna hos de data som används för att träna en AI-modell varierar med tiden. Om AI-modellen möter data som skiljer sig avsevärt från dess träningsdata under slutledning, kan den ge falska eller ologiska resultat, vilket resulterar i hallucinationer.
Till exempel, om en AI-modell tränas på tidigare data som inte längre är relevant eller indikativ för den nuvarande miljön, kan den göra felaktiga slutsatser eller förutsägelser.
Som ett resultat är övervakning och lösning av datadrift avgörande för att säkerställa AI-systemets prestanda och pålitlighet samtidigt som risken för hallucinationer minskar.
Slutsats
Enligt IBM Data förekommer AI-hallucinationer i cirka 3 % till 10 % av svaren från AI-modeller.
Så, på ett eller annat sätt, kommer du förmodligen att observera dem också. Jag tror att detta är ett otroligt intressant ämne eftersom det är en fascinerande påminnelse om den kontinuerliga vägen mot att förbättra AI:s kapacitet.
Vi får observera och experimentera med AI:s tillförlitlighet, databehandlingens krångligheter och interaktioner mellan människa och AI.
Kommentera uppropet