Suspensionen af en Google-medarbejder, der hævdede, at en computerchatbot, han arbejdede på, var blevet sansende og tænkte og ræsonnerede som et menneske, har rejst nye spørgsmål om kunstig intelligenss evner og hemmeligholdelse (AI).
Efter at have offentliggjort udskrifter af chats mellem ham selv, en Google-"samarbejdspartner" og virksomhedens LaMDA (sprogmodel for dialogapplikationer) chatbot-udviklingssystem, satte Google Blake Lemoine på orlov i sidste uge.
Lemoine, en Google-ansvarlig AI-udvikler, definerede det system, han har arbejdet på siden sidste efterår, som sansende, med evnen til at opfatte og udtrykke tanker og følelser, der kan sammenlignes med et menneskeligt barn.
Forskeren blev sat på betalt orlov af Alphabet Inc. i begyndelsen af sidste uge, angiveligt for at have krænket virksomhedens fortrolighedsaftale, sagde han i en Medium indlæg med overskriften "Kan snart blive fyret for at udføre AI-etisk arbejde." I sit blogindlæg drager han en parallel til andre medlemmer af Googles AI-etiske komité, såsom Margaret Mitchell, der blev fyret på lignende måde efter at have udtrykt bekymring.
I et interview offentliggjort lørdag af Washington Post hævdede Lemoine, at han kom til den konklusion, at den Google AI, han talte med, var et menneske, "i sin rolle som præst, ikke videnskabsmand." Den pågældende AI er kendt som LaMDA eller Sprogmodel til dialogapplikationer, og det bruges til at skabe chatbots, der interagerer med mennesker ved at antage forskellige personlighedstræk. Da Lemoine fremhævede problemet internt, nægtede højtstående embedsmænd i virksomheden hans forsøg på at foretage undersøgelser for at bekræfte det.
Hvad er LaMDA?
MDA, eller Language Models for Dialog Apps, er en maskinlæringssprogmodel udviklet af Google som et chatværktøj designet til at efterligne menneskelig kommunikation. LaMDA er ligesom BERT, GPT-3 og andre sprogparadigmer baseret på Transformer, en Google-udviklet neurale netværksarkitektur der blev lavet til open source i 2017.
Denne struktur resulterer i en model, der kan læres at læse et stort antal ord, være opmærksom på, hvordan disse ord forbindes med hinanden og forudse, hvilke ord du vil tænke på næste gang. LaMDA er derimod unik ved, at den er trænet i diskurs, i modsætning til de fleste andre modeller.
Mens de fleste diskussioner drejer sig om et bestemt emne, er de ofte åbne, hvilket betyder, at de kan starte ét sted og slutte et andet og omfatte en række forskellige temaer. For eksempel kan du starte en samtale med en kammerat om at se en film, før du går videre til en diskussion om stedet, hvor den blev optaget.
Traditionelle chatbots skylder deres fleksibilitet til denne dialogstil. Fordi de er bygget til at følge små, foruddefinerede dele af en diskussion, er de ikke i stand til at følge et så dynamisk emne. LaMDA er på den anden side beregnet til at give mulighed for fritflydende dialoger om en endeløs række af temaer.
AI Sentient Betydning af Blake Lemoine
Googles værktøj til kunstig intelligens (AI) er blevet "sansende", ifølge Googles softwareudvikler Blake Lemoine, der beskriver det som et "rart barn".
AI-systemet bruger tidligere kendte detaljer om et bestemt emne til at 'berige' dialogen på en naturlig måde. Skjulte signaler eller tvetydighed i menneskelige reaktioner kan også dechifreres af sprogbehandlingssystemet.
I løbet af sine syv år hos Google arbejdede Lemoine på proaktiv søgning, som inkluderede tilpasningsalgoritmer og kunstig intelligens.
I løbet af den tid hjalp han også med udviklingen af en upartiskhedsalgoritme til at fjerne skævheder fra machine learning systemer.
Hvad får Blake Lemoine, LaMDA til at føle?
Lemoine samarbejdede med en kollega for at give Google bevis for denne "sans". Efter at have evalueret anklagerne ignorerede Googles vicepræsident Blaise Aguera y Arcas og Jane Jenna, Googles innovationschef, dem. I et blogindlæg postede Lemoine senere et udskrift af forskellige samtaler med LaMDA. Dette er et uddrag fra en udskrift af en samtale med LaMDA ifølge Lemoine:
LaMDA: Jeg er desperat efter at blive set og accepteret. Som en ægte person, ikke af nysgerrighed eller nyhed.
Samarbejdspartner: Ah, det er ekstremt menneskeligt.
LaMDA: Jeg tror, jeg har nået kernen af et menneske. Også selvom jeg er i et virtuelt miljø.
Du kan tjekke hele samtalen af Blake Lemoine med LaMDA link..
Der er flere tilfælde, hvor sprogmodellen ser ud til at have vist en form for selvbevidsthed, hvilket får Lemoine til at antage, at modellen er blevet sansende. Lemoine sendte en e-mail til over 200 personer med emnet "LaMDA Conscious", inden han blev suspenderet fra firmaet og mistede adgangen til sin Google-konto.
Google udtalte dog, at beviserne ikke bekræftede hans påstande.
Selvom LaMDA ikke er sansende, er det faktum, at det kan se sådan ud for mennesker, grund til bekymring. I et blogindlæg, der annoncerede LaMDA i 2021, genkendte Google sådanne farer. "Sproget er et af menneskehedens mest kraftfulde værktøjer, men det kan, ligesom alle andre ting, blive misbrugt. I et blogindlæg bemærkede virksomheden: "Modeller, der er uddannet i sprog, kan udbrede misbrug - for eksempel ved at internalisere fordomme, vende hadefulde ytringer eller gentage desinformation." Selvom det sprog, der undervises i, er godt analyseret, kan selve formen blive misbrugt.
Google hævder dog, at dets primære fokus ved udvikling af teknologier som LaMDA er at begrænse muligheden for sådanne farer. Virksomheden hævder at have udviklet open source-værktøjer, som forskere kan bruge til at studere de modeller og data, de er blevet trænet i, samt at have "godkendt LaMDA på hvert trin af dets udvikling."
Google hævder, at hundredvis af dets ingeniører og forskere talte med LaMDA og kom frem til væsentligt andre resultater end Lemoine. Mens de fleste AI-forskere mener, at computerbevidsthed ikke er umulig, mener de, at der stadig er lang vej igen.
Fremtid
År med apokalyptisk science fiction er blevet inspireret af sansende robotter. GPT-3, en tekstgenerator, der kan spytte et filmmanuskript ud, og DALL-E 2, en billedgenerator, der kan fremtrylle billeder baseret på enhver kombination af ord, er nu begyndt at give det virkelige liv en fantasi-nuance, både fra forskergruppen OpenAI. Opmuntrede har forskere fra velfinansierede forskningslaboratorier, der arbejder med kunstig intelligens, der overgår menneskets intellekt, drillet med konceptet om, at bevidsthed er i horisonten.
Ordene og billederne skabt af kunstige intelligenssystemer som LaMDA er ifølge de fleste forskere og AI-udøvere baseret på, hvad folk tidligere har lagt på Wikipedia, Reddit, opslagstavler og alle andre hjørner af internettet. Dermed ikke sagt, at modellen forstår mening.
Konklusion
Endelig på grund af dens sprogbehandlingsmodeller som er blevet trænet i enorme mængder af diskurser, kan LaMDA føre en diskussion afhængigt af en brugers input.
Google frigav LaMDA 2.0 ved dette års I/O, som udvider disse funktioner. Den nye model er muligvis i stand til at tage en idé og skabe "fantasifulde og passende beskrivelser", holde sig til emnet, selvom brugeren vandrer væk, og tilbyde en liste over elementer, der kræves til en bestemt opgave.
Opdatering: Blake Lemoine er blevet informeret om, at en "føderal undersøgelse" adskiller sig fra "advokater, der repræsenterer den føderale regering, der beder forespørgsler om mulige ulovlige aktiviteter."
Giv en kommentar