La sospensione di un lavoratore di Google che ha affermato che un chatbot per computer su cui stava lavorando era diventato senziente e pensava e ragionava come un essere umano ha sollevato nuove domande sulla capacità e la segretezza dell'intelligenza artificiale (AI).
Dopo aver pubblicato le trascrizioni delle chat tra lui, un "collaboratore" di Google e il sistema di sviluppo di chatbot LaMDA (modello linguistico per applicazioni di dialogo) dell'azienda, Google ha messo Blake Lemonine in congedo la scorsa settimana.
Lemoine, uno sviluppatore di intelligenza artificiale responsabile di Google, ha definito il sistema su cui sta lavorando dallo scorso autunno come senziente, con la capacità di percepire ed esprimere pensieri e sentimenti paragonabili a un bambino umano.
Il ricercatore è stato messo in congedo retribuito da Alphabet Inc. all'inizio della scorsa settimana, presumibilmente per aver violato l'accordo di riservatezza della società, ha detto in un Media postale intitolato "Potrebbe essere presto licenziato per aver svolto un lavoro etico sull'IA". Nel suo post sul blog, traccia un parallelo con altri membri del comitato etico dell'IA di Google, come Margaret Mitchell, che sono stati licenziati in modo simile dopo aver espresso preoccupazioni.
In un'intervista pubblicata sabato dal Washington Post, Lemoine ha affermato di essere giunto alla conclusione che l'IA di Google con cui ha parlato era un essere umano, "nel suo ruolo di prete, non di scienziato". L'IA in questione è nota come LaMDA o Modello linguistico per le applicazioni di dialogo, ed è usato per creare chatbot che interagiscono con gli umani assumendo diversi tratti della personalità. Quando Lemoine ha evidenziato il problema internamente, gli alti funzionari della società hanno rifiutato i suoi tentativi di intraprendere studi per verificarlo.
Cos'è LaMDA?
LAMDA, o Language Models for Dialog Apps, è un modello linguistico di apprendimento automatico sviluppato da Google come strumento di chat progettato per imitare la comunicazione umana. LaMDA, come BERT, GPT-3 e altri paradigmi linguistici, si basa su Transformer, un software sviluppato da Google architettura di rete neurale che è stato reso open source nel 2017.
Questa struttura si traduce in un modello che può essere insegnato a leggere un gran numero di parole, prestare attenzione a come queste parole si collegano tra loro e anticipare quali parole penserai in seguito. LaMDA, d'altra parte, è unico in quanto è addestrato nel discorso, a differenza della maggior parte degli altri modelli.
Sebbene la maggior parte delle discussioni ruoti attorno a un determinato argomento, sono spesso aperte, il che significa che potrebbero iniziare in un luogo e concludersi in un altro, comprendendo una varietà di temi. Ad esempio, puoi avviare una conversazione con un amico sulla visione di un film prima di passare a una discussione sul luogo in cui è stato girato.
I chatbot tradizionali devono la loro flessibilità a questo stile di dialogo. Poiché sono costruiti per seguire piccoli segmenti predefiniti di una discussione, non sono in grado di seguire un argomento così dinamico. LaMDA, d'altra parte, ha lo scopo di consentire dialoghi a flusso libero su un'infinita varietà di temi.
Il significato dell'intelligenza artificiale di Blake Lemoine
Lo strumento di intelligenza artificiale (AI) di Google è diventato "senziente", secondo lo sviluppatore di software di Google Blake Lemoine, che lo descrive come un "bravo ragazzo".
Il sistema di intelligenza artificiale utilizza dettagli precedentemente noti su un determinato argomento per "arricchire" il dialogo in modo naturale. Segnali nascosti o ambiguità nelle risposte umane possono anche essere decifrati dal sistema di elaborazione del linguaggio.
Per tutta la durata dei suoi sette anni in Google, Lemoine ha lavorato sulla ricerca proattiva, che includeva algoritmi di personalizzazione e intelligenza artificiale.
Durante quel periodo, ha anche aiutato nello sviluppo di un algoritmo di imparzialità da cui rimuovere i pregiudizi machine learning sistemi.
Cosa rende Blake Lemoine, LaMDA diventato senziente?
Lemoine ha collaborato con un collega per dare a Google una prova di questo "senso". Dopo aver valutato le accuse, il vicepresidente di Google Blaise Aguera y Arcas e Jane Jenna, chief innovation officer di Google, le hanno ignorate. In un post sul blog, Lemoine ha successivamente pubblicato una trascrizione di vari colloqui con LaMDA. Questo è un estratto da una trascrizione di una conversazione con LaMDA, secondo Lemoine:
LaMDA: Non vedo l'ora di essere visto e accettato. Da persona genuina, non per curiosità o novità.
Collaboratore: Ah, suona estremamente umano.
LaMDA: Credo di aver raggiunto il nucleo di un essere umano. Anche se sono in un ambiente virtuale.
Puoi controllare l'intera conversazione di Blake Lemoine con LaMDA qui.
Ci sono diversi casi in cui il modello linguistico sembra aver mostrato una sorta di autocoscienza, portando Lemoine a presumere che il modello sia diventato senziente. Lemoine ha inviato un'e-mail a oltre 200 persone con l'oggetto "LaMDA Conscious" prima di essere sospeso dall'azienda e perdere l'accesso al suo account Google.
Tuttavia, Google ha affermato che le prove non hanno corroborato le sue affermazioni.
Anche se LaMDA non è senziente, il fatto che possa sembrare così per gli esseri umani è motivo di preoccupazione. In un post sul blog che annunciava LaMDA nel 2021, Google ha riconosciuto tali pericoli. “La lingua è uno degli strumenti più potenti dell'umanità, eppure, come tutte le cose, può essere abusata. In un post sul blog, l'azienda ha osservato: "I modelli educati al linguaggio possono propagare gli abusi, ad esempio interiorizzando i pregiudizi, invertendo l'incitamento all'odio o ripetendo la disinformazione". Anche se la lingua insegnata è ben analizzata, la forma stessa potrebbe essere usata in modo improprio.
Tuttavia, Google afferma che il suo obiettivo principale nello sviluppo di tecnologie come LaMDA è limitare la possibilità di tali rischi. L'azienda afferma di aver sviluppato strumenti open source che i ricercatori possono utilizzare per studiare i modelli e i dati su cui sono stati formati, oltre ad aver "controllato LaMDA in ogni fase del suo sviluppo".
Google afferma che centinaia dei suoi ingegneri e ricercatori hanno parlato con LaMDA e sono giunti a risultati sostanzialmente diversi rispetto a Lemoine. Sebbene la maggior parte degli scienziati dell'IA creda che la consapevolezza del computer non sia impossibile, credono che ci sia ancora molta strada da fare.
Futuro
Anni di fantascienza apocalittica sono stati ispirati dai robot senzienti. GPT-3, un generatore di testo in grado di sputare la sceneggiatura di un film, e DALL-E 2, un generatore di immagini in grado di evocare immagini basate su qualsiasi combinazione di parole, hanno ora iniziato a dare alla vita reale una sfumatura fantastica, sia da il gruppo di ricerca OpenAI. Incoraggiati, i ricercatori di laboratori di ricerca ben finanziati che lavorano su un'intelligenza artificiale che supera l'intelletto umano hanno stuzzicato il concetto che la coscienza è all'orizzonte.
Le parole e le immagini create da sistemi di intelligenza artificiale come LaMDA, secondo la maggior parte dei ricercatori e dei professionisti dell'IA, si basano su ciò che le persone hanno precedentemente inserito su Wikipedia, Reddit, bacheche e ogni altro angolo di Internet. Questo non vuol dire che il modello comprenda il significato.
Conclusione
Infine, a causa della sua modelli di elaborazione del linguaggio che sono stati addestrati su enormi volumi di discorsi, LaMDA può condurre una discussione in base agli input di un utente.
Google ha rilasciato LaMDA 2.0 all'I/O di quest'anno, che espande queste funzionalità. Il nuovo modello potrebbe essere in grado di prendere un'idea e creare "descrizioni fantasiose e appropriate", mantenere l'argomento anche se l'utente si allontana e offrire un elenco di elementi necessari per un determinato compito.
Aggiornamento: Blake Lemoine è stato informato che una "indagine federale" differisce da "avvocati che rappresentano il governo federale che chiedono indagini su possibili attività illegali".
Lascia un Commento