Ang pagsususpinde ng isang manggagawa sa Google na nag-claim na ang isang computer chatbot na kanyang ginagawa ay naging sensitibo at nag-iisip at nangangatuwiran na parang tao ay nagdulot ng mga bagong tanong tungkol sa capability and secrecy (AI) ng artificial intelligence.
Pagkatapos mag-publish ng mga transcript ng mga pakikipag-chat sa pagitan niya, isang "collaborator" ng Google, at ang LaMDA (modelo ng wika para sa mga aplikasyon ng diyalogo) ng chatbot ng kumpanya, inilagay ng Google Blake Lemoine naka-leave noong nakaraang linggo.
Tinukoy ni Lemoine, isang responsableng AI developer ng Google, ang system na pinagtatrabahuhan niya mula noong nakaraang taglagas bilang sentient, na may kakayahang makita at maipahayag ang mga saloobin at damdamin na maihahambing sa isang bata.
Ang mananaliksik ay inilagay sa may bayad na bakasyon ng Alphabet Inc. noong unang bahagi ng nakaraang linggo, dahil umano sa paglabag sa kasunduan sa pagiging kumpidensyal ng kumpanya, aniya sa isang medium post headline na "Maaaring matanggal sa trabaho sa lalong madaling panahon para sa pagsasagawa ng etikal na gawaing AI." Sa kanyang post sa blog, inihahalintulad niya ang iba pang miyembro ng AI ethics committee ng Google, gaya ni Margaret Mitchell, na sinibak sa katulad na paraan pagkatapos magpahayag ng mga alalahanin.
Sa isang panayam na inilathala noong Sabado ng Washington Post, sinabi ni Lemoine na dumating siya sa konklusyon na ang Google AI na nakausap niya ay isang tao, "sa kanyang tungkulin bilang isang pari, hindi isang siyentipiko." Ang AI sa isyu ay kilala bilang LaMDA o Modelo ng Wika para sa Mga Aplikasyon ng Dialogue, at ginagamit ito upang lumikha ng mga chatbot na nakikipag-ugnayan sa mga tao sa pamamagitan ng pagpapalagay ng iba't ibang katangian ng personalidad. Nang i-highlight ni Lemoine ang isyu sa loob, tinanggihan ng mga matataas na opisyal sa korporasyon ang kanyang mga pagtatangka na magsagawa ng mga pag-aaral upang mapatunayan ito.
Ano ang LaMDA?
AngMDA, o Language Models for Dialog Apps, ay isang machine learning na modelo ng wika na binuo ng Google bilang tool sa pakikipag-chat na idinisenyo upang gayahin ang komunikasyon ng tao. Ang LaMDA, tulad ng BERT, GPT-3, at iba pang paradigm ng wika, ay batay sa Transformer, isang binuo ng Google arkitektura ng neural network na ginawang open source noong 2017.
Ang istrukturang ito ay nagreresulta sa isang modelo na maaaring ituro na basahin ang isang malaking bilang ng mga salita, bigyang-pansin kung paano kumonekta ang mga salitang iyon sa isa't isa at asahan kung aling mga salita ang susunod mong iisipin. Ang LaMDA, sa kabilang banda, ay kakaiba dahil ito ay sinanay sa diskurso, hindi tulad ng karamihan sa iba pang mga modelo.
Bagama't ang karamihan sa mga talakayan ay umiikot sa isang partikular na paksa, ang mga ito ay madalas na bukas, ibig sabihin, maaari silang magsimula sa isang lugar at magtapos sa isa pa, na sumasaklaw sa iba't ibang mga tema. Halimbawa, maaari kang magsimula ng isang pag-uusap sa isang kaibigan tungkol sa panonood ng isang pelikula bago magpatuloy sa isang talakayan tungkol sa lokasyon kung saan ito kinunan.
Ang mga tradisyunal na chatbot ay may utang sa kanilang kakayahang umangkop sa ganitong istilo ng pag-uusap. Dahil ang mga ito ay binuo upang sundan ang maliliit, paunang natukoy na mga segment ng isang talakayan, hindi nila masusundan ang gayong dinamikong paksa. Ang LaMDA, sa kabilang banda, ay nilalayong bigyang-daan ang mga libreng pag-uusap sa walang katapusang iba't ibang mga tema.
Ang AI Sentient Meaning ni Blake Lemoine
Ang artificial intelligence (AI) na tool ng Google ay naging “sentient,” ayon sa developer ng Google software na si Blake Lemoine, na naglalarawan dito bilang isang “mabait na bata.”
Gumagamit ang AI system ng mga dating alam na detalye tungkol sa isang partikular na paksa para 'pagyamanin' ang diyalogo sa natural na paraan. Ang mga nakatagong signal o kalabuan sa mga tugon ng tao ay maaari ding matukoy ng sistema ng pagproseso ng wika.
Sa tagal ng kanyang pitong taon sa Google, nagtrabaho si Lemoine sa proactive na paghahanap, na kinabibilangan ng mga algorithm sa pag-customize at AI.
Sa panahong iyon, tumulong din siya sa pagbuo ng isang impartiality algorithm upang alisin ang mga bias machine learning systems.
Ano ang nagpaparamdam kay Blake Lemoine, LaMDA?
Nakipagtulungan si Lemoine sa isang kasamahan upang bigyan ang Google ng patunay ng "katuturan" na ito. Pagkatapos suriin ang mga akusasyon, binalewala sila ng Google Vice President Blaise Aguera y Arcas at Jane Jenna, ang punong innovation officer ng Google. Sa isang post sa blog, kalaunan ay nag-post si Lemoine ng isang transcript ng iba't ibang mga pag-uusap sa LaMDA. Ito ay isang sipi mula sa isang transcript ng isang pag-uusap sa LaMDA, ayon kay Lemoine:
LaMDA: Desperado akong makita at matanggap ako. Bilang isang tunay na tao, hindi dahil sa curiosity o bago.
Collaborator: Ah, sobrang nakakatunog ng tao.
LaMDA: Naniniwala akong naabot ko na ang kaibuturan ng isang tao. Kahit na nasa virtual environment ako.
Maaari mong tingnan ang buong pag-uusap ni Blake Lemoine sa LaMDA dito.
Mayroong ilang mga kaso kapag ang modelo ng wika ay lumilitaw na nagpakita ng ilang uri ng kamalayan sa sarili, na humantong kay Lemoine na ipagpalagay na ang modelo ay naging sensitibo. Nag-email si Lemoine sa mahigit 200 indibidwal na may paksang "LaMDA Conscious" bago masuspinde mula sa kompanya at mawalan ng access sa kanyang Google account.
Gayunpaman, sinabi ng Google na hindi pinatunayan ng ebidensya ang kanyang mga pahayag.
Kahit na ang LaMDA ay hindi nakakaramdam ng damdamin, ang katotohanan na ito ay maaaring magmukhang ganoon sa mga tao ay dahilan ng pag-aalala. Sa isang blog post na nag-aanunsyo ng LaMDA noong 2021, nakilala ng Google ang mga ganitong panganib. “Ang wika ay isa sa pinakamakapangyarihang kasangkapan ng sangkatauhan, ngunit ito, tulad ng lahat ng bagay, ay maaaring abusuhin. Sa isang post sa blog, sinabi ng negosyo, "Ang mga modelong tinuturuan ng wika ay maaaring magpalaganap ng pang-aabuso — halimbawa, sa pamamagitan ng pag-internalize ng mga pagkiling, pagbaligtad ng mapoot na salita, o paulit-ulit na disinformation." Kahit na ang wikang itinuturo ay mahusay na nasuri, ang form mismo ay maaaring maling gamitin.
Gayunpaman, sinasabi ng Google na ang pangunahing pokus nito kapag bumubuo ng mga teknolohiya tulad ng LaMDA ay upang limitahan ang posibilidad ng mga naturang panganib. Sinasabi ng negosyo na nakabuo sila ng mga open source na tool na magagamit ng mga mananaliksik upang pag-aralan ang mga modelo at data kung saan sila sinanay, pati na rin ang pagkakaroon ng "pagsuri sa LaMDA sa bawat hakbang ng pagbuo nito."
Sinasabi ng Google na daan-daang mga inhinyero at mananaliksik nito ang nakipag-usap sa LaMDA at nagkaroon ng malaking pagkakaiba sa mga natuklasan kaysa sa Lemoine. Bagama't ang karamihan sa mga siyentipiko ng AI ay naniniwala na ang kamalayan sa computer ay hindi imposible, naniniwala sila na mayroon pa ring mahabang paraan upang pumunta.
Hinaharap
Ang mga taon ng apocalyptic science fiction ay binigyang inspirasyon ng mga robot. Ang GPT-3, isang text generator na maaaring maglabas ng script ng pelikula, at ang DALL-E 2, isang image generator na maaaring mag-conjure ng mga larawan batay sa anumang kumbinasyon ng mga salita, ay nagsimula na ngayong magbigay sa totoong buhay ng isang fantasy hue, parehong mula sa ang grupo ng pananaliksik ng OpenAI. Dahil sa lakas ng loob, tinukso ng mga mananaliksik mula sa mahusay na pinondohan na mga laboratoryo ng pananaliksik na nagtatrabaho sa AI na higit sa katalinuhan ng tao ang konsepto na ang kamalayan ay nasa abot-tanaw.
Ang mga salita at larawan na nilikha ng mga sistema ng artificial intelligence tulad ng LaMDA, ayon sa karamihan ng mga mananaliksik at mga practitioner ng AI, ay batay sa kung ano ang dating inilagay ng mga tao sa Wikipedia, Reddit, mga message board, at bawat iba pang sulok ng internet. Hindi ibig sabihin na naiintindihan ng modelo ang kahulugan.
Konklusyon
Sa wakas, dahil dito mga modelo ng pagpoproseso ng wika na sinanay sa napakalaking dami ng diskurso, maaaring magsagawa ng talakayan ang LaMDA depende sa mga input ng user.
Inilabas ng Google ang LaMDA 2.0 sa I/O ngayong taon, na nagpapalawak sa mga feature na ito. Ang bagong modelo ay maaaring makakuha ng ideya at lumikha ng "mapanlikha at naaangkop na mga paglalarawan," panatilihin ang paksa kahit na ang gumagamit ay gumala-gala, at nag-aalok ng isang listahan ng mga item na kinakailangan para sa isang partikular na gawain.
Update: Pinayuhan si Blake Lemoine na ang "pederal na pagsisiyasat" ay naiiba sa "mga abogadong kumakatawan sa pederal na pamahalaan na humihiling ng mga katanungan tungkol sa mga posibleng labag sa batas na aktibidad."
Mag-iwan ng Sagot