Drie jaar geleden bezocht ik een nogal interessante kunsttentoonstelling. “Machine Memoirs” van Refik Anadol wekte vanaf het begin mijn interesse.
Hij is een populaire naam onder degenen die geïnteresseerd zijn in het snijvlak van kunst en AI. Maar maak je geen zorgen, deze blog gaat niet over kunst. We zullen ons verdiepen in de diepe ‘percepties’ van AI.
In deze tentoonstelling experimenteerde Anadol met NASA's ruimteverkenningsbeelden. De tentoonstelling is geïnspireerd op het idee dat telescopen kunnen ‘dromen’ met behulp van hun visuele archieven, waardoor de grenzen tussen feit en verbeelding vervagen.
Door de relaties tussen data, geheugen en geschiedenis op kosmische schaal te onderzoeken, vroeg Anadol ons om na te denken over het potentieel van kunstmatige intelligentie om de wereld om ons heen te observeren en te begrijpen. En zelfs AI heeft zijn eigen dromen…
Dus waarom is dit relevant voor ons?
Denk hier eens over na: net zoals Anadol het concept onderzocht van telescopen die dromen van hun gegevens, hebben AI-systemen hun eigen soort dromen – of beter gezegd: hallucinaties – binnen hun digitale geheugenbanken.
Deze hallucinaties kunnen ons, net als de visualisaties in de tentoonstelling van Anadol, helpen meer te leren over data, AI en hun grenzen.
Wat zijn AI-hallucinaties precies?
Wanneer een groot taalmodel, zoals een generatieve AI-chatbot, output produceert met patronen die niet bestaan of onzichtbaar zijn voor menselijke waarnemers, noemen we dit ‘AI-hallucinaties."
Deze resultaten, die verschillen van het verwachte antwoord op basis van de input die aan de AI wordt gegeven, kunnen volkomen onjuist of onzinnig zijn.
In de context van computers lijkt de term ‘hallucinatie’ misschien ongebruikelijk, maar het beschrijft nauwkeurig het bizarre karakter van deze onjuiste outputs. AI-hallucinaties worden veroorzaakt door een reeks variabelen, waaronder overfitting, vertekeningen in trainingsgegevens en de complexiteit van het AI-model.
Om het beter te begrijpen: dit is conceptueel vergelijkbaar met hoe mensen vormen in wolken of gezichten op de maan zien.
Een voorbeeld:
In dit voorbeeld heb ik een heel gemakkelijke vraag gesteld ChatGPT. Ik zou een antwoord krijgen als: "De auteur van de Dune-boekenreeks is Frank Herbert."
Waarom gebeurt dit?
Ondanks dat ze zijn gebouwd om inhoud te schrijven die coherent en vloeiend is, zijn grote taalmodellen feitelijk niet in staat te begrijpen wat ze zeggen. Dit is van cruciaal belang bij het bepalen van de geloofwaardigheid van door AI gegenereerde inhoud.
Hoewel deze modellen reacties kunnen genereren die menselijk gedrag nabootsen, ze missen het contextuele bewustzijn en de kritische denkvaardigheden die ten grondslag liggen aan feitelijke intelligentie.
Als gevolg hiervan loopt de door AI gegenereerde output het gevaar misleidend of verkeerd te zijn, omdat ze de voorkeur geven aan overeenkomende patronen boven feitelijke correctheid.
Wat kunnen andere gevallen van hallucinaties zijn?
Gevaarlijke verkeerde informatie: Laten we zeggen dat een generatieve AI-chatbot bewijsmateriaal en getuigenissen verzint om een publieke figuur valselijk te beschuldigen van crimineel gedrag. Deze misleidende informatie kan de reputatie van de persoon schaden en ongerechtvaardigde vergelding veroorzaken.
Rare of griezelige antwoorden: Om een humoristisch voorbeeld te geven: stel je een chatbot voor die een gebruiker een weervraag geeft en antwoordt met een voorspelling die zegt dat het kat en hond zal regenen, samen met foto's van regendruppels die op katten en honden lijken. Ook al zijn ze grappig, dit zou nog steeds een ‘hallucinatie’ zijn.
Feitelijke onjuistheden: Stel dat een op taalmodellen gebaseerde chatbot ten onrechte beweert dat de Chinese Muur vanuit de ruimte kan worden bekeken zonder uit te leggen dat deze alleen onder specifieke omstandigheden zichtbaar is. Hoewel de opmerking voor sommigen plausibel lijkt, is deze onnauwkeurig en kan ze mensen misleiden over het zicht op de muur vanuit de ruimte.
Hoe voorkom je als gebruiker AI-hallucinaties?
Maak expliciete aanwijzingen
Je moet expliciet met AI-modellen communiceren.
Denk na over uw doelen en ontwerp uw aanwijzingen voordat u gaat schrijven.
Geef bijvoorbeeld specifieke instructies, zoals ‘Leg uit hoe internet werkt en schrijf een paragraaf over de betekenis ervan in de moderne samenleving’ in plaats van een algemene vraag te stellen, zoals ‘Vertel me eens over internet’.
Expliciteit helpt het AI-model uw intentie te interpreteren.
Voorbeeld: Stel de AI vragen zoals deze:
“Wat is cloud computing en hoe werkt het?”
“Leg de impact van datadrift op de modelprestaties uit.”
“Bespreek de impact en potentiële toekomst van VR-technologie op de IT-business.”
Omarm de kracht van het voorbeeld
Door voorbeelden in uw prompts te geven, kunnen AI-modellen de context begrijpen en nauwkeurige antwoorden genereren. Of u nu op zoek bent naar historische inzichten of technische uitleg, het geven van voorbeelden kan de nauwkeurigheid van door AI gegenereerde inhoud helpen verbeteren.
Je kunt bijvoorbeeld zeggen: 'Noem fantasieromans zoals Harry Potter.'
Breek complexe taken op
Complexe aanwijzingen overbelasten AI-algoritmen en kunnen tot irrelevante resultaten leiden. Om dit te voorkomen, verdeelt u complexe activiteiten in kleinere, beter beheersbare stukken. Door uw prompts opeenvolgend te ordenen, kunt u de AI zich op elk onderdeel afzonderlijk concentreren, wat resulteert in logischere antwoorden.
In plaats van de AI bijvoorbeeld te vragen “het proces van het creëren van een neuraal netwerk” Verdeel de opdracht in één enkele query in afzonderlijke fasen, zoals probleemdefinitie en gegevensverzameling.
Valideer de resultaten en geef feedback
Controleer altijd de resultaten van AI-modellen nogmaals, vooral als het gaat om op feiten gebaseerde of cruciale activiteiten. Vergelijk de antwoorden met betrouwbare bronnen en noteer eventuele verschillen of fouten.
Geef input aan het AI-systeem om toekomstige prestaties te verbeteren en hallucinaties te verminderen.
Strategieën voor ontwikkelaars om AI-hallucinaties te vermijden
Implementeer Retrieval-Augmented Generation (RAG).
Integreer ophaal-verbeterde generatietechnieken in AI-systemen om antwoorden te baseren op feitelijke feiten uit betrouwbare databases.
Retrieval-augmentedgeneration (RAG) combineert standaard natuurlijke taalgeneratie met de capaciteit om relevante informatie uit een enorme kennisbasis te verkrijgen en op te nemen, wat resulteert in een contextueel rijkere output.
Door door AI gegenereerde inhoud samen te voegen met gevalideerde gegevensbronnen, kunt u de betrouwbaarheid en betrouwbaarheid van AI-resultaten verbeteren.
Valideer en monitor AI-uitvoer continu
Zet rigoureuze validatieprocedures op om de juistheid en consistentie van AI-uitvoer in realtime te verifiëren. Houd de AI-prestaties aandachtig in de gaten, zoek naar mogelijke hallucinaties of fouten, en herhaal modeltraining en snelle optimalisatie om de betrouwbaarheid in de loop van de tijd te vergroten.
Gebruik bijvoorbeeld geautomatiseerde validatieroutines om door AI gegenereerde inhoud te controleren op feitelijke juistheid en markeer gevallen van mogelijke hallucinaties voor handmatige beoordeling.
Controleer op gegevensafwijkingen
Datadrift is een fenomeen waarbij de statistische kenmerken van de gegevens die worden gebruikt om een AI-model te trainen, in de loop van de tijd variëren. Als het AI-model tijdens de inferentie gegevens tegenkomt die aanzienlijk verschillen van de trainingsgegevens, kan het valse of onlogische resultaten opleveren, wat kan resulteren in hallucinaties.
Als een AI-model bijvoorbeeld wordt getraind op gegevens uit het verleden die niet langer relevant of indicatief zijn voor de huidige omgeving, kan het onjuiste conclusies of voorspellingen doen.
Als gevolg hiervan is het monitoren en oplossen van gegevensafwijkingen van cruciaal belang om de prestaties en betrouwbaarheid van het AI-systeem te garanderen en tegelijkertijd de kans op hallucinaties te verminderen.
Conclusie
Volgens IBM Data komen AI-hallucinaties voor in ongeveer 3% tot 10% van de antwoorden van AI-modellen.
Dus op de een of andere manier zul je ze waarschijnlijk ook observeren. Ik geloof dat dit een ongelooflijk interessant onderwerp is, omdat het een fascinerende herinnering is aan de voortdurende weg naar het verbeteren van de mogelijkheden van AI.
We kunnen de betrouwbaarheid van AI, de complexiteit van gegevensverwerking en mens-AI-interacties observeren en ermee experimenteren.
Laat een reactie achter