Drie jaar gelede het ek 'n nogal interessante kunsuitstalling besoek. “Machine Memoirs” deur Refik Anadol het van meet af aan my belangstelling geprikkel.
Hy is 'n gewilde naam onder diegene wat belangstel in die kruising van kuns en KI. Maar moenie bekommerd wees nie, hierdie blog gaan nie oor kuns nie. Ons sal delf in die diep "persepsies" van KI.
In hierdie uitstalling het Anadol geëksperimenteer NASA se ruimteverkenningsbeelde. Die uitstalling is geïnspireer deur die idee dat teleskope kan "droom" deur hul visuele argiewe te gebruik, wat die grense tussen feit en verbeelding vervaag.
Deur die verband tussen data, geheue en geskiedenis op 'n kosmiese skaal te ondersoek, het Anadol ons gevra om die potensiaal van kunsmatige intelligensie om die wêreld rondom ons waar te neem en te begryp. En selfs KI om sy eie drome te hê ...
So, hoekom is dit vir ons relevant?
Oorweeg dit: net soos Anadol die konsep van teleskope wat uit hul data droom, ondersoek het, het KI-stelsels hul eie soort droom—of eerder hallusinasies—binne hul digitale geheuebanke.
Hierdie hallusinasies, soos die visualiserings in Anadol se uitstalling, kan ons help om meer te wete te kom oor data, KI en hul grense.
Wat presies is KI hallusinasies?
Wanneer 'n groot taalmodel, soos 'n generatiewe KI-kletsbot, uitsette lewer met patrone wat óf nie-bestaande óf onsigbaar is vir menslike waarnemers, noem ons dit "KI hallusinasies."
Hierdie uitsette, wat verskil van die verwagte antwoord gebaseer op die insette wat aan die KI gegee word, kan heeltemal foutief of onsinnig wees.
In die konteks van rekenaars kan die term "hallusinasie" ongewoon lyk, maar dit beskryf die bisarre karakter van hierdie verkeerde uitsette akkuraat. KI-hallusinasies word veroorsaak deur 'n reeks veranderlikes, insluitend ooraanpassing, vooroordele in opleidingsdata en die kompleksiteit van die KI-model.
Om beter te verstaan, is dit konseptueel soortgelyk aan hoe mense vorms in wolke of gesigte op die maan sien.
N voorbeeld:
In hierdie voorbeeld het ek 'n baie maklike vraag gevra Klets GPT. Ek was veronderstel om 'n antwoord te kry soos: "Die skrywer van die Dune-boekreeks is Frank Herbert."
Waarom gebeur dit?
Ten spyte daarvan dat hulle gebou is om inhoud te skryf wat samehangend en vloeiend is, is groot taalmodelle eintlik nie in staat om te begryp wat hulle sê nie. Dit is baie krities om die geloofwaardigheid van KI-gegenereerde inhoud te bepaal.
Terwyl hierdie modelle reaksies kan genereer wat menslike gedrag naboots, hulle het nie die kontekstuele bewustheid en kritiese denkvaardighede nie wat werklike intelligensie onderlê.
Gevolglik loop KI-gegenereerde uitsette die gevaar om misleidend of verkeerd te wees, aangesien hulle bypassende patrone bo feitelike korrektheid verkies.
Wat kan sommige ander gevalle van hallusinasies wees?
Gevaarlike verkeerde inligting: Kom ons sê 'n generatiewe KI-kletsbot vervaardig bewyse en getuienisse om 'n openbare figuur vals van kriminele gedrag te beskuldig. Hierdie misleidende inligting het die potensiaal om die persoon se reputasie te beskadig en ongeregverdigde vergelding te veroorsaak.
Vreemde of grillerige antwoorde: Om 'n humoristiese voorbeeld te gee, stel 'n kletsbot voor wat 'n gebruiker 'n weervraag gee en antwoord met 'n voorspelling wat sê dit sal katte en honde reën, saam met foto's van reëndruppels wat soos katte en honde lyk. Al is hulle snaaks, sal dit steeds 'n "hallusinasie" wees.
Feitelike onakkuraathede: Gestel 'n taalmodel-gebaseerde kletsbot stel valslik dat die Groot Muur van China vanuit die ruimte bekyk kan word sonder om te verduidelik dat dit slegs onder spesifieke omstandighede sigbaar is. Alhoewel die opmerking vir sommige aanneemlik kan lyk, is dit onakkuraat en kan dit mense mislei oor die muur se sig vanuit die ruimte.
Hoe vermy jy KI-hallusinasies as 'n gebruiker?
Maak eksplisiete opdragte
Jy moet eksplisiet met KI-modelle kommunikeer.
Dink aan jou doelwitte en ontwerp jou aanwysings voordat jy skryf.
Gee byvoorbeeld spesifieke instruksies soos "Verduidelik hoe die internet werk en skryf 'n paragraaf oor die betekenis daarvan in die moderne samelewing" in plaas daarvan om 'n algemene navraag te stel soos "Vertel my van die internet."
Eksplisiteit help die KI-model om jou voorneme te interpreteer.
Voorbeeld: Vra die KI-vrae soos hierdie:
"Wat is wolkrekenaarkunde, en hoe werk dit?"
"Verduidelik die impak van dataverskuiwing op modelprestasie."
"Bespreek die impak en potensiële toekoms van VR-tegnologie op die IT-besigheid."
Omhels die krag van voorbeeld
Die verskaffing van voorbeelde in jou aanwysings help KI-modelle om die konteks te verstaan en presiese antwoorde te genereer. Of jy nou op soek is na historiese insigte of tegniese verduidelikings, die verskaffing van voorbeelde kan help om die akkuraatheid van KI-gegenereerde inhoud te verbeter.
Byvoorbeeld, jy kan sê: "Noem fantasie romans soos Harry Potter."
Breek komplekse take af
Komplekse aansporings oorlaai KI-algoritmes, en dit kan lei tot irrelevante resultate. Om dit te voorkom, verdeel komplekse aktiwiteite in kleiner, meer hanteerbare stukke. Deur u aanwysings opeenvolgend te organiseer, laat u die KI toe om onafhanklik op elke komponent te fokus, wat meer logiese antwoorde tot gevolg het.
Byvoorbeeld, eerder as om die KI te vra om "die proses om 'n neurale netwerk" in 'n enkele navraag, verdeel die opdrag in diskrete fases soos probleemdefinisie en data-insameling.
Valideer die uitsette en gee terugvoer
Kontroleer altyd die resultate wat deur KI-modelle geproduseer word, veral vir feitegebaseerde of belangrike aktiwiteite. Vergelyk die antwoorde met betroubare bronne en let op enige verskille of foute.
Verskaf insette aan die KI-stelsel om toekomstige prestasie te verbeter en hallusinasies te verminder.
Strategieë vir ontwikkelaars om KI-hallusinasies te vermy
Implementeer Retrieval-Augmented Generation (JOOL).
Integreer herwinning-vergrote generasietegnieke in KI-stelsels om antwoorde op feitelike feite van betroubare databasisse te baseer.
Herwinning-vergrote generasie (JOOL) kombineer standaard natuurlike taalgenerering met die vermoë om relevante inligting uit 'n groot kennisbasis te verkry en in te sluit, wat lei tot meer kontekstueel ryk uitset.
Deur KI-gegenereerde inhoud met gevalideerde databronne saam te voeg, kan jy die betroubaarheid en betroubaarheid van KI-resultate verbeter.
Valideer en monitor KI-uitsette deurlopend
Stel streng valideringsprosedures op om die korrektheid en konsekwentheid van KI-uitsette intyds te verifieer. Monitor KI-prestasie aandagtig, soek moontlike hallusinasies of foute, en herhaal modelopleiding en vinnige optimalisering om betroubaarheid met verloop van tyd te verhoog.
Gebruik byvoorbeeld outomatiese valideringsroetines om KI-gegenereerde inhoud na te gaan vir feitelike korrektheid en beklemtoon gevalle van moontlike hallusinasies vir handmatige assessering.
Kyk vir datadrywings
Datadrywing is 'n verskynsel waarin die statistiese kenmerke van die data wat gebruik word om 'n KI-model op te lei, wissel met tyd. As die KI-model data ontmoet wat aansienlik verskil van sy opleidingsdata tydens afleiding, kan dit vals of onlogiese resultate lewer, wat hallusinasies tot gevolg het.
Byvoorbeeld, as 'n KI-model opgelei word op vorige data wat nie meer relevant of 'n aanduiding van die huidige omgewing is nie, kan dit verkeerde gevolgtrekkings of voorspellings maak.
Gevolglik is die monitering en oplossing van dataverskuiwings van kritieke belang om KI-stelselwerkverrigting en betroubaarheid te verseker, terwyl dit ook die moontlikheid van hallusinasies verminder.
Gevolgtrekking
Volgens IBM Data kom KI-hallusinasies in ongeveer 3% tot 10% van antwoorde van KI-modelle voor.
So, op een of ander manier, sal jy hulle waarskynlik ook waarneem. Ek glo dit is 'n ongelooflike interessante onderwerp, want dit is 'n fassinerende herinnering aan die voortdurende pad na die verbetering van KI se vermoëns.
Ons kan die betroubaarheid van KI, die ingewikkeldhede van dataverwerking en mens-KI-interaksies waarneem en eksperimenteer.
Lewer Kommentaar