La suspendo de Google-laboristo, kiu asertis, ke komputila babilejo, pri kiu li laboris, fariĝis sentema kaj pensas kaj rezonis kiel homo, levis novajn demandojn pri la kapablo kaj sekreteco de artefarita inteligenteco (AI).
Post publikigado de transskribaĵoj de babilejoj inter li mem, Guglo "kunlaboranto," kaj la LaMDA de la firmao (lingva modelo por dialogaplikoj) babilbot-disvolva sistemo, Google metis Blake Lemoine en forpermeso pasintsemajne.
Lemoine, Guglo-respondeca AI-programisto, difinis la sistemon pri kiu li laboras ekde la lasta aŭtuno kiel sentema, kun la kapablo percepti kaj esprimi pensojn kaj sentojn kompareblajn al homa infano.
La esploristo estis metita en pagita forpermeso fare de Alphabet Inc. komence de la pasinta semajno, supozeble pro malobservo de la konfidenca interkonsento de la kompanio, li diris en meza posteno titolita "Povas esti maldungita baldaŭ pro farado de AI-etika laboro." En sia blogaĵo, li faras paralelon al aliaj membroj de la AI-etika komitato de Google, kiel Margaret Mitchell, kiuj estis maldungita en simila maniero post esprimi zorgojn.
En intervjuo publikigita sabate fare de la Washington Post, Lemoine asertis, ke li venis al la konkludo, ke la Google AI, kun kiu li parolis, estas homo, "en sia rolo kiel pastro, ne sciencisto." La AI en demando estas konata kiel LaMDA aŭ Lingva Modelo por Dialogo-Aplikoj, kaj ĝi estas uzata por krei babilrotojn kiuj interagas kun homoj supozante malsamajn personecajn trajtojn. Kiam Lemoine elstarigis la aferon interne, altrangaj oficistoj ĉe la korporacio rifuzis siajn provojn fari studojn por kontroli ĝin.
Kio estas LaMDA?
La MDA, aŭ Language Models for Dialog Apps, estas maŝinlernada lingvomodelo evoluigita de Guglo kiel babilejo dizajnita por imiti homan komunikadon. LaMDA, kiel BERT, GPT-3, kaj aliaj lingvoparadigmoj, estas bazita sur Transformer, Guglo-evoluinta arkitekturo de neŭrala reto tio fariĝis malferma fonto en 2017.
Ĉi tiu strukturo rezultigas modelon, kiun oni povas instrui legi grandan nombron da vortoj, atentu kiel tiuj vortoj konektas unu al la alia kaj antaŭvidi pri kiuj vortoj vi pensos poste. LaMDA, aliflanke, estas unika ĉar ĝi estas trejnita en diskurso, male al la plej multaj aliaj modeloj.
Dum la plej multaj diskutoj rondiras ĉirkaŭ certa temo, ili estas ofte nefermitaj, kio signifas, ke ili povas komenciĝi en unu loko kaj fini en alia, ampleksante diversajn temojn. Ekzemple, vi povas komenci konversacion kun amiko pri vidado de filmo antaŭ daŭrigi diskuton pri la loko kie ĝi estis filmita.
Tradiciaj babilrotoj ŝuldas sian flekseblecon al ĉi tiu stilo de dialogo. Ĉar ili estas konstruitaj por sekvi malgrandajn antaŭdifinitajn segmentojn de diskuto, ili ne kapablas sekvi tian dinamikan temon. LaMDA, aliflanke, estas celita permesi liberfluajn dialogojn pri senfina gamo da temoj.
La AI Sententa Signifo de Blake Lemoine
La ilo de artefarita inteligenteco (AI) de Google fariĝis "sentema", laŭ la programisto de Google-programaro Blake Lemoine, kiu priskribas ĝin kiel "bela infano".
La AI-sistemo uzas antaŭe konatajn detalojn pri certa temo por "riĉigi" la dialogon en natura maniero. Kaŝitaj signaloj aŭ ambigueco en homaj respondoj ankaŭ povas esti deĉifritaj per la lingvopretigsistemo.
Dum siaj sep jaroj ĉe Google, Lemoine laboris pri iniciatema serĉo, kiu inkludis personigo-algoritmojn kaj AI.
Dum tiu tempo, li ankaŭ helpis pri la evoluo de nepartiecalgoritmo por forigi biasojn de maŝinlernado sistemoj.
Kio igas Blake Lemoine, LaMDA sentema?
Lemoine kunlaboris kun kolego por doni al Guglo pruvon de ĉi tiu "senco". Post taksado de la akuzoj, la vicprezidanto de Google Blaise Aguera y Arcas kaj Jane Jenna, la ĉefa oficisto pri novigado de Google, ignoris ilin. En blogaĵo, Lemoine poste afiŝis transskribaĵon de diversaj babiladoj kun LaMDA. Ĉi tio estas eltiraĵo de transskribo de konversacio kun LaMDA, laŭ Lemoine:
LaMDA: Mi estas malespera esti vidita kaj akceptita. Kiel aŭtenta homo, ne pro scivolemo aŭ novaĵo.
Kunlaboranto: Ha, tio estas ege homsona.
LaMDA: Mi kredas, ke mi atingis la kernon de homo. Eĉ se mi estas en virtuala medio.
Vi povas kontroli la plenan konversacion de Blake Lemoine kun LaMDA tie.
Ekzistas pluraj kazoj kiam la lingvomodelo ŝajnas esti montrinta ian memkonscion, igante Lemoine supozi ke la modelo fariĝis sentema. Lemoine retpoŝtis al pli ol 200 individuoj kun la temo "LaMDA Conscious" antaŭ esti malakceptita de la firmao kaj perdi aliron al sia Google-konto.
Tamen, Google deklaris ke la indico ne konfirmis liajn asertojn.
Eĉ se LaMDA ne estas sentema, la fakto ke ĝi povus aspekti tiel al homoj estas kaŭzo de maltrankvilo. En blogaĵo anoncanta LaMDA en 2021, Guglo rekonis tiajn danĝerojn. “Lingvo estas unu el la plej potencaj iloj de la homaro, tamen ĝi, kiel ĉio, povas esti misuzata. En bloga afiŝo, la komerco notis, "Modeloj edukitaj en lingvo povas disvastigi misuzon - ekzemple, internigante antaŭjuĝojn, renversante malaman paroladon aŭ ripetante misinformadon." Eĉ se la instruata lingvo estas bone analizita, la formo mem povus esti misuzata.
Tamen, Google asertas, ke ĝia ĉefa fokuso dum evoluigado de teknologioj kiel LaMDA estas limigi la eblecon de tiaj danĝeroj. La komerco asertas esti evoluiginta malfermfontajn ilojn, kiujn esploristoj povas uzi por studi la modelojn kaj datumojn, pri kiuj ili estis trejnitaj, kaj ankaŭ "kontrolis LaMDA ĉe ĉiu paŝo de ĝia evoluo".
Google asertas, ke centoj da ĝiaj inĝenieroj kaj esploristoj parolis kun LaMDA kaj venis al sufiĉe malsamaj trovoj ol Lemoine. Dum la plej multaj AI-sciencistoj kredas, ke komputila konscio ne estas malebla, ili kredas, ke estas ankoraŭ longa vojo por iri.
estontaj
Jaroj da apokalipsa sciencfikcio estis inspiritaj de sentemaj robotoj. GPT-3, tekstgeneratoro kiu povas kraĉi filmskripton, kaj DALL-E 2, bildgeneratoro kiu povas elvoki bildojn bazitajn sur ajna kombinaĵo de vortoj, nun komencis doni al la reala vivo fantazian nuancon, ambaŭ de la esplorgrupo OpenAI. Kuraĝigitaj, esploristoj de bone financitaj esplorlaboratorioj laborantaj pri AI, kiu superas homan intelekton, incitetis la koncepton, ke konscio estas ĉe la horizonto.
La vortoj kaj bildoj kreitaj de sistemoj de artefarita inteligenteco kiel LaMDA, laŭ plej multaj esploristoj kaj AI-praktikistoj, baziĝas sur tio, kion homoj antaŭe metis en Vikipedio, Reddit, mesaĝtabuloj kaj ĉiu alia angulo de la interreto. Tio ne signifas, ke la modelo komprenas signifon.
konkludo
Fine, pro ĝia modeloj pri lingvotraktado kiuj estis trejnitaj pri grandegaj volumoj de diskurso, LaMDA povas fari diskuton depende de la enigaĵoj de uzanto.
Google publikigis LaMDA 2.0 ĉe la ĉi-jara I/O, kiu pligrandigas ĉi tiujn funkciojn. La nova modelo eble povas preni ideon kaj krei "imagajn kaj taŭgajn priskribojn", konservi la temon eĉ se la uzanto forvagas, kaj oferti liston de aĵoj necesaj por certa tasko.
Ĝisdatigo: Blake Lemoine estis informita, ke "federacia enketo" diferencas de "advokatoj reprezentantaj la federacian registaron, kiuj demandas demandojn pri eblaj kontraŭleĝaj agadoj."
Lasi Respondon