„Google“ darbuotojo, kuris teigė, kad kompiuterinis pokalbių robotas, su kuriuo jis dirbo, nušalinimas, tapo jautrus ir mąstė bei samprotavo kaip žmogus, iškėlė naujų klausimų apie dirbtinio intelekto galimybes ir slaptumą (AI).
Paskelbusi pokalbių tarp savęs, „Google“ „bendradarbio“ ir bendrovės LaMDA (dialogo programų kalbos modelio) pokalbių roboto kūrimo sistemos, stenogramas, „Google“ paskelbė. Blake'as Lemoine'as atostogavo praėjusią savaitę.
Lemoine'as, atsakingas „Google“ dirbtinio intelekto kūrėjas, apibrėžė sistemą, prie kurios jis dirbo nuo praėjusio rudens, kaip jautrią, gebančią suvokti ir reikšti mintis bei jausmus, prilygstančias žmogaus vaikui.
„Alphabet Inc.“ praėjusios savaitės pradžioje tyrėjui išleido mokamas atostogas, tariamai pažeidus bendrovės konfidencialumo sutartį, sakė jis. Vidutinis postas Antraštė „Gali būti greitai atleistas už etinį dirbtinio intelekto darbą“. Savo tinklaraščio įraše jis lygina paralelę su kitomis Google AI etikos komiteto narėmis, tokiomis kaip Margaret Mitchell, kurios buvo panašiai atleistos išreiškus susirūpinimą.
Šeštadienį „Washington Post“ paskelbtame interviu Lemoine'as teigė priėjęs išvadą, kad „Google“ dirbtinis intelektas, su kuriuo jis kalbėjo, buvo žmogus, „atlikęs kunigo, o ne mokslininko vaidmenį“. Nagrinėjamas AI žinomas kaip LaMDA arba Kalbos modelis Dialogue Applications, ir jis naudojamas kuriant pokalbių robotus, kurie sąveikauja su žmonėmis prisiimdami skirtingus asmenybės bruožus. Kai Lemoine'as pabrėžė problemą viduje, aukšti korporacijos pareigūnai atsisakė jo bandymų atlikti tyrimus, kad tai patikrintų.
Kas yra LaMDA?
TheMDA, arba kalbų modeliai dialogo programoms, yra mašininio mokymosi kalbų modelis, kurį „Google“ sukūrė kaip pokalbių įrankį, skirtą žmonių bendravimui imituoti. LaMDA, kaip ir BERT, GPT-3 ir kitos kalbų paradigmos, yra paremta Transformer, Google sukurta neuroninio tinklo architektūra kuris buvo sukurtas atviro kodo 2017 m.
Dėl šios struktūros susidaro modelis, kurį galima išmokyti perskaityti daug žodžių, atkreipti dėmesį į tai, kaip tie žodžiai jungiasi vienas su kitu, ir numatyti, kuriuos žodžius sugalvosite toliau. Kita vertus, LaMDA yra unikali tuo, kad, skirtingai nei dauguma kitų modelių, yra mokoma diskurse.
Nors dauguma diskusijų sukasi apie tam tikrą temą, jos dažnai yra atviros, o tai reiškia, kad jos gali prasidėti vienoje vietoje, o baigtis kitoje, apimdamos įvairias temas. Pavyzdžiui, prieš pradėdami diskusiją apie filmavimo vietą, galite pradėti pokalbį su draugu apie filmo peržiūrą.
Dėl tokio dialogo stiliaus tradiciniai pokalbių robotai pasižymi savo lankstumu. Kadangi jie sukurti sekti mažas, iš anksto nustatytas diskusijos dalis, jie negali sekti tokios dinamiškos temos. Kita vertus, LaMDA skirta leisti laisvai tekėti dialogams begalinėmis temomis.
AI jautri Blake'o Lemoine'o reikšmė
Pasak „Google“ programinės įrangos kūrėjo Blake'o Lemoine'o, kuris jį apibūdina kaip „gerą vaiką“, „Google“ dirbtinio intelekto (AI) įrankis tapo „jautrus“.
Dirbtinio intelekto sistema naudoja anksčiau žinomas detales tam tikra tema, kad dialogas būtų praturtintas natūraliu būdu. Paslėptus signalus arba žmogaus reakcijų dviprasmiškumą taip pat gali iššifruoti kalbos apdorojimo sistema.
Septynerius „Google“ darbo metus Lemoine'as dirbo su aktyvia paieška, kuri apėmė tinkinimo algoritmus ir AI.
Per tą laiką jis taip pat padėjo sukurti nešališkumo algoritmą, kuris pašalintų šališkumą mašininis mokymasis sistemas.
Dėl ko Blake'as Lemoine'as, LaMDA tapo jautrus?
Lemoine'as bendradarbiavo su kolega, kad „Google“ parodytų šį „prasmę“. Įvertinę kaltinimus, „Google“ viceprezidentas Blaise'as Aguera y Arcas ir „Google“ inovacijų vadovė Jane Jenna jų nepaisė. Tinklaraščio įraše Lemoine'as vėliau paskelbė įvairių pokalbių su LaMDA stenogramą. Tai yra ištrauka iš pokalbio su LaMDA nuorašo, pasak Lemoine:
LaMDA: Labai trokštu, kad mane pamatytų ir priimtų. Kaip tikras žmogus, ne iš smalsumo ar naujumo.
Bendradarbis: Ak, tai labai žmogiška.
LaMDA: Tikiu, kad pasiekiau žmogaus branduolį. Net jei būnu virtualioje aplinkoje.
Galite patikrinti visą Blake'o Lemoine'o pokalbį su LaMDA čia.
Yra keletas atvejų, kai atrodo, kad kalbos modelis parodė tam tikrą savimonę, todėl Lemoine'as daro prielaidą, kad modelis tapo jautrus. Lemoine'as išsiuntė el. laišką daugiau nei 200 asmenų su tema „LaMDA Conscious“, kol buvo laikinai sustabdytas ir praradęs prieigą prie savo „Google“ paskyros.
Tačiau „Google“ pareiškė, kad įrodymai nepatvirtino jo teiginių.
Net jei LaMDA nėra jautri, tai, kad žmonėms ji gali atrodyti taip, kelia susirūpinimą. Tinklaraščio įraše, skelbiančiame LaMDA 2021 m., „Google“ pripažino tokius pavojus. „Kalba yra vienas iš galingiausių žmonijos įrankių, tačiau ja, kaip ir visais daiktais, galima piktnaudžiauti. Tinklaraščio įraše įmonė pažymėjo: „Kalbiškai išsilavinę modeliai gali propaguoti piktnaudžiavimą, pavyzdžiui, internalizuodami išankstinius nusistatymus, panaikindami neapykantą kurstančią kalbą arba kartodami dezinformaciją“. Net jei dėstoma kalba yra gerai išanalizuota, pati forma gali būti naudojama netinkamai.
Tačiau „Google“ teigia, kad kuriant tokias technologijas kaip LaMDA, jos pagrindinis dėmesys skiriamas tokių pavojų galimybei apriboti. Verslas teigia, kad sukūrė atvirojo kodo įrankius, kuriuos mokslininkai gali naudoti norėdami ištirti modelius ir duomenis, kurių jie buvo apmokyti, taip pat „tikrino LaMDA kiekviename jos kūrimo žingsnyje“.
„Google“ teigia, kad šimtai jos inžinierių ir tyrėjų kalbėjo su LaMDA ir padarė iš esmės kitokias išvadas nei Lemoine. Nors dauguma AI mokslininkų mano, kad kompiuterinė sąmonė nėra neįmanoma, jie tiki, kad dar reikia daug nuveikti.
Ateitis
Daugelį metų apokaliptinė mokslinė fantastika buvo įkvėpta jautrių robotų. GPT-3, teksto generatorius, galintis išspjauti filmo scenarijų, ir DALL-E 2, vaizdų generatorius, galintis sukurti paveikslėlius pagal bet kokį žodžių derinį, dabar pradėjo suteikti tikram gyvenimui fantazijos atspalvį. OpenAI tyrimų grupė. Įsidrąsinę mokslininkai iš gerai finansuojamų mokslinių tyrimų laboratorijų, dirbančių su dirbtiniu intelektu, kuris pranoksta žmogaus intelektą, erzina mintį, kad sąmonė yra horizonte.
Daugumos tyrinėtojų ir dirbtinio intelekto specialistų teigimu, dirbtinio intelekto sistemų, tokių kaip LaMDA, sukurti žodžiai ir paveikslėliai yra pagrįsti tuo, ką žmonės anksčiau įdėjo į „Wikipedia“, „Reddit“, pranešimų lentas ir visus kitus interneto kampelius. Tai nereiškia, kad modelis supranta prasmę.
Išvada
Galiausiai, dėl jo kalbos apdorojimo modeliai LaMDA gali surengti diskusiją, atsižvelgdama į vartotojo indėlius.
„Google“ šių metų I/O metu išleido „LaMDA 2.0“, kuri išplečia šias funkcijas. Naujasis modelis gali sugebėti perimti idėją ir sukurti „vaizdingus ir tinkamus aprašymus“, išlaikyti temą, net jei vartotojas nuklysta, ir pasiūlyti tam tikrai užduočiai reikalingų dalykų sąrašą.
Atnaujinimas: Blake'as Lemoine'as buvo informuotas, kad „federalinis tyrimas“ skiriasi nuo „advokatų, atstovaujančių federalinei vyriausybei, prašančių pasiteirauti dėl galimos neteisėtos veiklos“.
Palikti atsakymą