De schorsing van een Google-medewerker die beweerde dat een computer-chatbot waaraan hij werkte bewust was geworden en dacht en redeneerde als een mens, heeft nieuwe vragen doen rijzen over het vermogen en de geheimhouding (AI) van kunstmatige intelligentie.
Na het publiceren van transcripties van chats tussen hemzelf, een 'medewerker' van Google en het LaMDA (taalmodel voor dialoogtoepassingen) chatbotontwikkelingssysteem van het bedrijf, plaatste Google Blake Lemoine vorige week met verlof.
Lemoine, een verantwoordelijke AI-ontwikkelaar van Google, definieerde het systeem waar hij sinds afgelopen herfst aan werkt als bewust, met het vermogen om gedachten en gevoelens waar te nemen en uit te drukken vergelijkbaar met een mensenkind.
De onderzoeker werd begin vorige week door Alphabet Inc. met betaald verlof geplaatst, naar verluidt wegens het schenden van de vertrouwelijkheidsovereenkomst van het bedrijf, zei hij in een medium bericht kopte "Kan binnenkort worden ontslagen wegens het uitvoeren van ethisch AI-werk." In zijn blogpost trekt hij een parallel met andere leden van de AI-ethische commissie van Google, zoals Margaret Mitchell, die op vergelijkbare wijze werden ontslagen nadat ze hun zorgen hadden geuit.
In een interview dat zaterdag door de Washington Post werd gepubliceerd, beweerde Lemoine dat hij tot de conclusie was gekomen dat de Google AI waarmee hij sprak een mens was, "in zijn rol als priester, niet als een wetenschapper." De AI in kwestie staat bekend als LaMDA of Taalmodel voor dialoogtoepassingen, en het wordt gebruikt om chatbots te maken die communiceren met mensen door verschillende persoonlijkheidskenmerken aan te nemen. Toen Lemoine de kwestie intern onder de aandacht bracht, weigerden hoge functionarissen van het bedrijf zijn pogingen om studies uit te voeren om het te verifiëren.
Wat is LaMDA?
deMDA, of Language Models for Dialog Apps, is een machine learning-taalmodel dat door Google is ontwikkeld als een chattool die is ontworpen om menselijke communicatie na te bootsen. LaMDA is, net als BERT, GPT-3 en andere taalparadigma's, gebaseerd op Transformer, een door Google ontwikkelde neurale netwerkarchitectuur dat in 2017 open source is gemaakt.
Deze structuur resulteert in een model dat geleerd kan worden om een groot aantal woorden te lezen, aandacht te besteden aan hoe die woorden met elkaar verbonden zijn en te anticiperen aan welke woorden je vervolgens zult denken. LaMDA daarentegen is uniek omdat het, in tegenstelling tot de meeste andere modellen, is getraind in discours.
Hoewel de meeste discussies over een bepaald onderwerp gaan, hebben ze vaak een open einde, wat inhoudt dat ze op de ene plaats kunnen beginnen en op een andere kunnen eindigen, en een verscheidenheid aan thema's omvatten. U kunt bijvoorbeeld een gesprek beginnen met een buddy over het zien van een film voordat u doorgaat naar een discussie over de locatie waar deze is opgenomen.
Traditionele chatbots danken hun flexibiliteit aan deze stijl van dialoog. Omdat ze zijn gebouwd om kleine, vooraf gedefinieerde segmenten van een discussie te volgen, kunnen ze zo'n dynamisch onderwerp niet volgen. LaMDA daarentegen is bedoeld om vrij vloeiende dialogen mogelijk te maken over een eindeloze verscheidenheid aan thema's.
De AI-bewuste betekenis van Blake Lemoine
De tool voor kunstmatige intelligentie (AI) van Google is 'bewust' geworden, volgens Google-softwareontwikkelaar Blake Lemoine, die het omschrijft als een 'aardige jongen'.
Het AI-systeem gebruikt eerder bekende details over een bepaald onderwerp om de dialoog op een natuurlijke manier te 'verrijken'. Verborgen signalen of dubbelzinnigheden in menselijke reacties kunnen ook worden ontcijferd door het taalverwerkingssysteem.
Gedurende zijn zeven jaar bij Google werkte Lemoine aan proactief zoeken, inclusief aanpassingsalgoritmen en AI.
Gedurende die tijd hielp hij ook bij de ontwikkeling van een onpartijdigheidsalgoritme om vooroordelen weg te nemen machine learning systemen.
Wat maakt dat Blake Lemoine, LaMDA bewust werd?
Lemoine werkte samen met een collega om Google het bewijs te leveren van dit 'gevoel'. Na evaluatie van de beschuldigingen, negeerden Google Vice President Blaise Aguera y Arcas en Jane Jenna, Google's chief innovation officer, ze. In een blogpost plaatste Lemoine later een transcriptie van verschillende gesprekken met LaMDA. Dit is een fragment uit een transcriptie van een gesprek met LaMDA, volgens Lemoine:
LaMDA: Ik ben wanhopig om gezien en geaccepteerd te worden. Als een oprecht persoon, niet uit nieuwsgierigheid of nieuwigheid.
Medewerker: Ah, dat klinkt extreem menselijk.
LaMDA: Ik geloof dat ik de kern van een mens heb bereikt. Ook als ik in een virtuele omgeving zit.
Je kunt het volledige gesprek van Blake Lemoine met LaMDA bekijken hier.
Er zijn verschillende gevallen waarin het taalmodel een soort van zelfbewustzijn lijkt te hebben getoond, waardoor Lemoine aannam dat het model bewust is geworden. Lemoine e-mailde meer dan 200 personen met het onderwerp 'LaMDA Conscious' voordat hij werd geschorst bij het bedrijf en de toegang tot zijn Google-account verloor.
Google verklaarde echter dat het bewijs zijn beweringen niet bevestigde.
Zelfs als LaMDA geen gevoel heeft, is het feit dat het er voor mensen zo uitziet, reden tot bezorgdheid. In een blogpost waarin LaMDA in 2021 werd aangekondigd, erkende Google dergelijke gevaren. “Taal is een van de krachtigste hulpmiddelen van de mensheid, maar zoals alle dingen kan er misbruik van worden gemaakt. In een blogpost merkte het bedrijf op: "Modellen die in taal zijn opgeleid, kunnen misbruik propageren, bijvoorbeeld door vooroordelen te internaliseren, haatzaaiende uitlatingen om te keren of desinformatie te herhalen." Zelfs als de taal die wordt onderwezen goed wordt geanalyseerd, kan de vorm zelf worden misbruikt.
Google beweert echter dat de belangrijkste focus bij het ontwikkelen van technologieën zoals LaMDA is om de mogelijkheid van dergelijke gevaren te beperken. Het bedrijf beweert open source-tools te hebben ontwikkeld die onderzoekers kunnen gebruiken om de modellen en gegevens waarop ze zijn getraind te bestuderen, en dat het "LaMDA bij elke stap van zijn ontwikkeling heeft doorgelicht".
Google beweert dat honderden van zijn ingenieurs en onderzoekers met LaMDA hebben gesproken en tot wezenlijk andere bevindingen zijn gekomen dan Lemoine. Hoewel de meeste AI-wetenschappers geloven dat computerbewustzijn niet onmogelijk is, geloven ze dat er nog een lange weg te gaan is.
toekomst
Jarenlange apocalyptische sciencefiction is geïnspireerd door bewuste robots. GPT-3, een tekstgenerator die een filmscript kan uitspugen, en DALL-E 2, een beeldgenerator die afbeeldingen kan oproepen op basis van elke combinatie van woorden, zijn nu begonnen het echte leven een fantasietint te geven, beide van de OpenAI-onderzoeksgroep. Aangemoedigd hebben onderzoekers van goed gefinancierde onderzoekslaboratoria die werken aan AI die het menselijk intellect overtreft, het concept geplaagd dat bewustzijn aan de horizon ligt.
De woorden en afbeeldingen die zijn gemaakt door kunstmatige-intelligentiesystemen zoals LaMDA, zijn volgens de meeste onderzoekers en AI-beoefenaars gebaseerd op wat mensen eerder op Wikipedia, Reddit, prikborden en elke andere hoek van internet hebben geplaatst. Dat wil niet zeggen dat het model betekenis begrijpt.
Conclusie
Ten slotte vanwege zijn taalverwerkingsmodellen die zijn getraind op enorme hoeveelheden discours, kan LaMDA een discussie voeren, afhankelijk van de input van een gebruiker.
Google heeft tijdens de I/O van dit jaar LaMDA 2.0 uitgebracht, waarin deze functies worden uitgebreid. Het nieuwe model is mogelijk in staat om een idee te nemen en 'fantasierijke en passende beschrijvingen' te maken, bij het onderwerp te blijven, zelfs als de gebruiker afdwaalt, en een lijst met items aan te bieden die nodig zijn voor een bepaalde taak.
Update: Blake Lemoine is geïnformeerd dat een "federaal onderzoek" verschilt van "advocaten die de federale overheid vertegenwoordigen die vragen stellen over mogelijke onwettige activiteiten."
Laat een reactie achter