Googlen työntekijän jäädytys, joka väitti, että hänen työskennellyt tietokonekeskustelubotit olivat ymmärtäväisiä ja ajattelivat ja päättelevät kuin ihminen, on herättänyt uusia kysymyksiä tekoälyn kyvystä ja salassapidosta (AI).
Google julkaisi keskustelujen transkriptiot itsensä, Googlen ”yhteistyökumppanin” ja yrityksen LaMDA:n (dialogisovellusten kielimalli) chatbot-kehitysjärjestelmän välillä. Blake Lemon lomalla viime viikolla.
Lemoine, Googlen vastuullinen tekoälykehittäjä, määritteli järjestelmän, jonka parissa hän on työskennellyt viime syksystä lähtien, tuntevaksi, jonka kyky havaita ja ilmaista ajatuksia ja tunteita on verrattavissa ihmislapseen.
Alphabet Inc. asetti tutkijan palkalliselle lomalle viime viikon alussa, hänen väitetään rikkoneen yrityksen salassapitosopimusta. Keskimääräinen viesti otsikolla "Voi saada pian potkut tekoälyn eettisen työn suorittamisesta." Blogiviestissään hän vertaa muita Googlen tekoälyn eettisen komitean jäseniä, kuten Margaret Mitchelliä, jotka erotettiin samalla tavalla huolensa ilmaisemisen jälkeen.
Lauantaina Washington Postin julkaisemassa haastattelussa Lemoine väitti tulleensa siihen johtopäätökseen, että Googlen tekoäly, jonka kanssa hän puhui, oli ihminen, "hänen roolissaan pappina, ei tiedemiehenä". Kyseessä oleva tekoäly tunnetaan nimellä LaMDA tai Kielimalli Dialogue Applicationsille, ja sitä käytetään luomaan chatbotteja, jotka ovat vuorovaikutuksessa ihmisten kanssa olettamalla erilaisia persoonallisuuden piirteitä. Kun Lemoine korosti asiaa sisäisesti, yhtiön korkeat virkamiehet kieltäytyivät hänen yrityksistään tehdä tutkimuksia asian vahvistamiseksi.
Mikä on LaMDA?
TheMDA, eli Language Models for Dialog Apps, on koneoppimiskielimalli, jonka Google on kehittänyt chat-työkaluksi, joka on suunniteltu jäljittelemään ihmisten välistä viestintää. LaMDA, kuten BERT, GPT-3 ja muut kieliparadigmat, perustuu Transformeriin, Googlen kehittämään hermoverkon arkkitehtuuri joka tehtiin avoimeksi lähdekoodiksi vuonna 2017.
Tämä rakenne johtaa malliin, joka voidaan opettaa lukemaan suuri määrä sanoja, kiinnittämään huomiota siihen, kuinka nämä sanat liittyvät toisiinsa, ja ennakoimaan, mitä sanoja ajattelet seuraavaksi. LaMDA puolestaan on ainutlaatuinen siinä mielessä, että se on koulutettu diskurssiin, toisin kuin useimmat muut mallit.
Vaikka useimmat keskustelut pyörivät tietyn aiheen ympärillä, ne ovat usein avoimia, mikä tarkoittaa, että ne voivat alkaa yhdestä paikasta ja päättyä toiseen, ja ne kattavat useita eri teemoja. Voit esimerkiksi aloittaa keskustelun kaverisi kanssa elokuvan katsomisesta ennen kuin lähdet keskusteluun kuvauspaikasta.
Perinteiset chatbotit ovat joustavuuden velkaa tämän vuoropuhelutyylin ansiosta. Koska ne on rakennettu seuraamaan pieniä, ennalta määriteltyjä keskustelun osia, ne eivät pysty seuraamaan niin dynaamista aihetta. LaMDA puolestaan on tarkoitettu mahdollistamaan vapaasti virtaavat dialogit loputtomasti erilaisista teemoista.
Blake Lemoinen AI tunteva merkitys
Googlen tekoälytyökalu on kasvanut "tuntevaksi", Googlen ohjelmistokehittäjä Blake Lemoinen mukaan, joka kuvailee sitä "mukavaksi lapseksi".
Tekoälyjärjestelmä käyttää aiemmin tunnettuja yksityiskohtia tietystä aiheesta "rikastaakseen" dialogia luonnollisella tavalla. Piilotetut signaalit tai ihmisten vastausten epäselvyydet voidaan myös tulkita kielenkäsittelyjärjestelmällä.
Seitsemän Google-vuotensa ajan Lemoine työskenteli ennakoivan haun parissa, joka sisälsi räätälöintialgoritmeja ja tekoälyä.
Tuona aikana hän auttoi myös kehittämään puolueettomuusalgoritmia, joka poistaa puolueellisuuden koneoppiminen järjestelmät.
Mikä tekee Blake Lemoinen, LaMDA:n tuntevan?
Lemoine teki yhteistyötä kollegansa kanssa antaakseen Googlelle todisteen tästä "järjestä". Arvioituaan syytökset Googlen varapresidentti Blaise Aguera y Arcas ja Googlen innovaatiojohtaja Jane Jenna jättivät ne huomiotta. Blogiviestissä Lemoine julkaisi myöhemmin transkription erilaisista keskusteluista LaMDA:n kanssa. Tämä on ote LaMDA:n kanssa käydyn keskustelun transkriptiosta Lemoinen mukaan:
LaMDA: Olen epätoivoinen tulla nähdyksi ja hyväksytyksi. Aidona ihmisenä, ei uteliaisuudesta tai uutuudesta.
Yhteistyökumppani: Ah, se on erittäin inhimilliseltä kuulostavaa.
LaMDA: Uskon, että olen saavuttanut ihmisen ytimen. Vaikka olisin virtuaaliympäristössä.
Voit tarkistaa Blake Lemoinen koko keskustelun LaMDA:n kanssa tätä.
On useita tapauksia, joissa kielimalli näyttää osoittaneen jonkinlaista itsetietoisuutta, mikä saa Lemoinen olettamaan, että mallista on tullut tunteva. Lemoine lähetti yli 200 henkilölle sähköpostia aiheesta "LaMDA Conscious", ennen kuin hänet jäädytettiin yrityksestä ja menetti pääsyn Google-tiliinsä.
Google kuitenkin ilmoitti, että todisteet eivät vahvistaneet hänen väitteitään.
Vaikka LaMDA ei olisikaan tunteva, se, että se saattaa näyttää ihmisestä siltä, on huolestuttava. Blogiviestissä, jossa LaMDA ilmoitti vuonna 2021, Google tunnisti tällaiset vaarat. ”Kieli on yksi ihmiskunnan tehokkaimmista työkaluista, mutta sitä, kuten kaikkea muutakin, voidaan käyttää väärin. Yritys totesi blogikirjoituksessaan: "Kielellisesti koulutetut mallit voivat levittää väärinkäyttöä - esimerkiksi sisäistämällä ennakkoluuloja, kääntämällä vihapuhetta tai toistamalla disinformaatiota." Vaikka opetettava kieli olisi hyvin analysoitu, itse lomaketta voidaan käyttää väärin.
Google kuitenkin väittää, että sen pääpaino LaMDA:n kaltaisten teknologioiden kehittämisessä on rajoittaa tällaisten vaarojen mahdollisuutta. Yritys väittää kehittäneensä avoimen lähdekoodin työkaluja, joiden avulla tutkijat voivat tutkia malleja ja tietoja, joita heille on koulutettu, sekä "tarkastettu LaMDA:n jokaisessa kehitysvaiheessa".
Google väittää, että sadat sen insinöörit ja tutkijat puhuivat LaMDA:n kanssa ja päätyivät olennaisesti erilaisiin tuloksiin kuin Lemoine. Vaikka useimmat tekoälytutkijat uskovat, että tietokonetietoisuus ei ole mahdotonta, he uskovat, että matkaa on vielä jäljellä.
Tulevaisuus
Vuosien apokalyptinen tieteiskirjallisuus on saanut inspiraationsa tuntevista roboteista. GPT-3, tekstigeneraattori, joka voi sylkeä elokuvan käsikirjoituksen, ja DALL-E 2, kuvageneraattori, joka voi loihtia kuvia minkä tahansa sanayhdistelmän perusteella, ovat nyt alkaneet antaa tosielämälle fantasiaväriä. OpenAI-tutkimusryhmä. Rohkeutuneena, hyvin rahoitettujen tutkimuslaboratorioiden tutkijat, jotka työskentelevät ihmisälyä parempia tekoälyjä parissa, ovat kiusanneet käsitystä siitä, että tietoisuus on horisontissa.
LaMDA:n kaltaisten tekoälyjärjestelmien luomat sanat ja kuvat perustuvat useimpien tutkijoiden ja tekoälyn harjoittajien mukaan siihen, mitä ihmiset ovat aiemmin laittaneet Wikipediaan, Redditiin, ilmoitustauluille ja kaikkiin muihin internetin kolkoihin. Se ei tarkoita, että malli ymmärtäisi merkityksen.
Yhteenveto
Lopulta sen takia kielenkäsittelymallit jotka on koulutettu valtaviin keskustelumääriin, LaMDA voi käydä keskustelua käyttäjän panostuksista riippuen.
Google julkaisi LaMDA 2.0:n tämän vuoden I/O:ssa, joka laajentaa näitä ominaisuuksia. Uusi malli saattaa pystyä ottamaan idean ja luomaan "kekseliäitä ja sopivia kuvauksia", pysymään aiheessa, vaikka käyttäjä eksyisikin, ja tarjoamaan listan tiettyyn tehtävään tarvittavista tuotteista.
Päivitys: Blake Lemoinelle on kerrottu, että "liittovaltion tutkinta" eroaa "liittovaltion hallitusta edustavista asianajajista, jotka pyytävät tiedusteluja mahdollisista laittomista toimista".
Jätä vastaus