Tre anni fa ho visitato una mostra d'arte piuttosto interessante. “Machine Memoirs” di Refik Anadol ha suscitato il mio interesse fin dall'inizio.
È un nome popolare tra coloro che sono interessati all'intersezione tra arte e intelligenza artificiale. Ma non preoccuparti, questo blog non parla di arte. Approfondiremo le “percezioni” profonde dell’IA.
In questa mostra, Anadol stava sperimentando Le immagini dell'esplorazione spaziale della NASA. La mostra è stata ispirata dall’idea che i telescopi potessero “sognare” utilizzando i loro archivi visivi, offuscando le barriere tra fatto e immaginazione.
Indagando le relazioni tra dati, memoria e storia su scala cosmica, Anadol ci ha chiesto di considerare il potenziale di intelligenza artificiale osservare e comprendere il mondo che ci circonda. E anche l’intelligenza artificiale per avere i propri sogni…
Quindi, perché questo è rilevante per noi?
Considera questo: proprio come Anadol ha studiato il concetto dei telescopi che sognano partendo dai loro dati, i sistemi di intelligenza artificiale hanno il loro tipo di sogno – o meglio, allucinazioni – all’interno delle loro banche di memoria digitale.
Queste allucinazioni, come le visualizzazioni nella mostra di Anadol, possono aiutarci a saperne di più sui dati, sull'intelligenza artificiale e sui loro limiti.
Cosa sono esattamente le allucinazioni dell'intelligenza artificiale?
Quando un modello linguistico di grandi dimensioni, come un chatbot AI generativo, produce output con modelli che sono inesistenti o invisibili agli osservatori umani, li chiamiamo “Allucinazioni dell'IA."
Questi risultati, che differiscono dalla risposta attesa in base all'input fornito all'IA, possono essere completamente errati o privi di senso.
Nel contesto dei computer, il termine “allucinazione” può sembrare insolito, ma descrive accuratamente il carattere bizzarro di questi risultati errati. Le allucinazioni dell’intelligenza artificiale sono causate da una serie di variabili, tra cui l’overfitting, i bias nei dati di addestramento e la complessità del modello di intelligenza artificiale.
Per capirci meglio, questo è concettualmente simile a come gli esseri umani vedono le forme nelle nuvole o i volti sulla Luna.
Un esempio:
In questo esempio, ho posto una domanda molto semplice ChatGPT. Avrei dovuto ricevere una risposta del tipo: "L'autore della serie di libri Dune è Frank Herbert".
Perché succede?
Nonostante siano costruiti per scrivere contenuti coerenti e fluidi, i modelli linguistici di grandi dimensioni non sono in realtà in grado di comprendere ciò che dicono. Questo è molto fondamentale nel determinare la credibilità dei contenuti generati dall’intelligenza artificiale.
Sebbene questi modelli possano generare reazioni che imitano il comportamento umano, mancano della consapevolezza contestuale e delle capacità di pensiero critico che sono alla base dell’intelligenza reale.
Di conseguenza, i risultati generati dall’intelligenza artificiale corrono il pericolo di essere fuorvianti o sbagliati poiché preferiscono modelli di corrispondenza rispetto alla correttezza fattuale.
Quali potrebbero essere altri casi di allucinazioni?
Disinformazione pericolosa: Supponiamo che un chatbot con intelligenza artificiale generativa fabbrica prove e testimonianze per accusare falsamente una figura pubblica di condotta criminale. Tali informazioni fuorvianti possono potenzialmente danneggiare la reputazione della persona e provocare ritorsioni ingiustificate.
Risposte strane o inquietanti: Per fare un esempio divertente, immagina un chatbot che pone a un utente una domanda sul meteo e risponde con una previsione che dice che pioverà a dirotto, insieme a immagini di gocce di pioggia che sembrano cani e gatti. Anche se sono divertenti, questa sarebbe comunque una “allucinazione”.
Inesattezze fattuali: Supponiamo che un chatbot basato su un modello linguistico affermi falsamente che la Grande Muraglia Cinese può essere vista dallo spazio senza spiegare che è visibile solo in condizioni specifiche. Sebbene l'osservazione possa sembrare plausibile ad alcuni, è imprecisa e può fuorviare le persone riguardo alla vista del muro dallo spazio.
Come evitare le allucinazioni dell'intelligenza artificiale come utente?
Effettua suggerimenti espliciti
È necessario comunicare esplicitamente con i modelli di intelligenza artificiale.
Pensa ai tuoi obiettivi e progetta i tuoi suggerimenti prima di scrivere.
Ad esempio, dai istruzioni specifiche come "Spiega come funziona Internet e scrivi un paragrafo sul suo significato nella società moderna" invece di porre una domanda generale come "Parlami di Internet".
L'esplicitezza aiuta il modello di intelligenza artificiale a interpretare le tue intenzioni.
Esempio: fai domande all'IA come queste:
"Cos'è il cloud computing e come funziona?"
"Spiegare l'impatto della deriva dei dati sulle prestazioni del modello."
"Discutere l'impatto e il potenziale futuro della tecnologia VR sul business IT."
Abbraccia il potere dell'esempio
Fornire esempi nei prompt aiuta i modelli di intelligenza artificiale a comprendere il contesto e a generare risposte precise. Che tu stia cercando approfondimenti storici o spiegazioni tecniche, fornire esempi può aiutare a migliorare la precisione dei contenuti generati dall'intelligenza artificiale.
Ad esempio, puoi dire: "Menziona romanzi fantasy come Harry Potter".
Suddividi compiti complessi
I suggerimenti complessi sovraccaricano gli algoritmi dell’intelligenza artificiale e possono portare a risultati irrilevanti. Per evitare ciò, dividi le attività complesse in parti più piccole e più gestibili. Organizzando i tuoi suggerimenti in sequenza, consenti all'intelligenza artificiale di concentrarsi su ciascun componente in modo indipendente, ottenendo risposte più logiche.
Ad esempio, invece di chiedere all’IA di “spiegare il processo di creazione di un rete neurale" in un'unica query, suddividi l'assegnazione in fasi distinte come la definizione del problema e la raccolta dei dati.
Convalidare gli output e fornire feedback
Ricontrolla sempre i risultati prodotti dai modelli di intelligenza artificiale, in particolare per attività basate sui fatti o cruciali. Confronta le risposte con fonti affidabili e nota eventuali differenze o errori.
Fornire input al sistema di intelligenza artificiale per migliorare le prestazioni future e ridurre le allucinazioni.
Strategie per gli sviluppatori per evitare le allucinazioni dell'intelligenza artificiale
Implementare la generazione aumentata di recupero (RAG).
Integrare tecniche di generazione aumentata con recupero nei sistemi di intelligenza artificiale per basare le risposte su fatti reali provenienti da database affidabili.
La generazione aumentata di recupero (RAG) combina la generazione standard del linguaggio naturale con la capacità di ottenere e incorporare informazioni rilevanti da un'enorme base di conoscenza, ottenendo risultati più ricchi dal punto di vista contestuale.
Unendo i contenuti generati dall'intelligenza artificiale con origini dati convalidate, puoi migliorare l'affidabilità e l'affidabilità dei risultati dell'intelligenza artificiale.
Convalida e monitora continuamente gli output dell'intelligenza artificiale
Impostare rigorose procedure di convalida per verificare la correttezza e la coerenza dei risultati dell'intelligenza artificiale in tempo reale. Monitora attentamente le prestazioni dell'intelligenza artificiale, cerca potenziali allucinazioni o errori e ripeti l'addestramento del modello e l'ottimizzazione tempestiva per aumentare l'affidabilità nel tempo.
Ad esempio, utilizzare routine di convalida automatizzate per verificare la correttezza fattuale dei contenuti generati dall’intelligenza artificiale ed evidenziare casi di possibili allucinazioni per la valutazione manuale.
Controlla le derive dei dati
La deriva dei dati è un fenomeno in cui le caratteristiche statistiche dei dati utilizzati per addestrare un modello di intelligenza artificiale variano nel tempo. Se il modello di intelligenza artificiale incontra dati che differiscono notevolmente dai dati di addestramento durante l'inferenza, può fornire risultati falsi o illogici, provocando allucinazioni.
Ad esempio, se un modello di intelligenza artificiale viene addestrato su dati passati che non sono più rilevanti o indicativi dell’ambiente attuale, potrebbe giungere a conclusioni o previsioni errate.
Di conseguenza, il monitoraggio e la risoluzione delle derive dei dati sono fondamentali per garantire le prestazioni e l’affidabilità del sistema di intelligenza artificiale, riducendo al tempo stesso la possibilità di allucinazioni.
Conclusione
Secondo IBM Data, le allucinazioni legate all’intelligenza artificiale si verificano in circa il 3%-10% delle risposte dei modelli di intelligenza artificiale.
Quindi, in un modo o nell'altro, probabilmente li osserverai anche tu. Credo che questo sia un argomento incredibilmente interessante perché ricorda in modo affascinante il percorso continuo verso il miglioramento delle capacità dell'intelligenza artificiale.
Possiamo osservare e sperimentare l'affidabilità dell'intelligenza artificiale, le complessità dell'elaborazione dei dati e le interazioni uomo-intelligenza artificiale.
Lascia un Commento