Pozastavenie činnosti pracovníka spoločnosti Google, ktorý tvrdil, že počítačový chatbot, na ktorom pracoval, sa stal vnímavým a premýšľal a uvažoval ako ľudská bytosť, vyvolal nové otázky o schopnostiach a utajení umelej inteligencie (AI).
Po zverejnení prepisov rozhovorov medzi ním, „spolupracovníkom“ Google a vývojovým systémom chatbotov LaMDA (jazykový model pre dialógové aplikácie) spoločnosti, Google uviedol Blake Lemoine minulý týždeň na dovolenke.
Lemoine, vývojár AI zodpovedný za Google, definoval systém, na ktorom pracuje od jesene minulého roka, ako vnímavý so schopnosťou vnímať a vyjadrovať myšlienky a pocity porovnateľné s ľudským dieťaťom.
Výskumník dostal od spoločnosti Alphabet Inc. začiatkom minulého týždňa platenú dovolenku údajne za porušenie dohody o dôvernosti spoločnosti, uviedol vo vyhlásení. stredný stĺpik s nadpisom „Čoskoro môžu byť prepustení za vykonávanie etickej práce AI.“ Vo svojom blogovom príspevku uvádza paralelu s ostatnými členmi etického výboru spoločnosti Google pre AI, ako je Margaret Mitchell, ktorí boli podobným spôsobom prepustení po vyjadrení obáv.
V rozhovore, ktorý v sobotu zverejnil Washington Post, Lemoine tvrdil, že dospel k záveru, že umelá inteligencia Google, s ktorou hovoril, bol človek, „v úlohe kňaza, nie vedca“. Predmetná AI je známa ako LaMDA alebo Jazykový model pre Dialogue Applications a používa sa na vytváranie chatbotov, ktorí interagujú s ľuďmi na základe rôznych osobnostných čŕt. Keď Lemoine interne upozornil na problém, vedúci predstavitelia spoločnosti odmietli jeho pokusy vykonať štúdie na overenie.
čo je LaMDA?
The MDA, alebo Language Models for Dialog Apps, je jazykový model strojového učenia vyvinutý spoločnosťou Google ako nástroj na četovanie navrhnutý na napodobňovanie ľudskej komunikácie. LaMDA, podobne ako BERT, GPT-3 a ďalšie jazykové paradigmy, je založený na Transformeri, vyvinutom spoločnosťou Google architektúra neurónovej siete ktorý bol vytvorený ako open source v roku 2017.
Výsledkom tejto štruktúry je model, ktorý sa dá naučiť čítať veľké množstvo slov, venovať pozornosť tomu, ako sa tieto slová navzájom spájajú, a predvídať, ktoré slová vás napadnú ako ďalšie. LaMDA je na druhej strane unikátna v tom, že je trénovaná v diskurze, na rozdiel od väčšiny iných modelov.
Zatiaľ čo väčšina diskusií sa točí okolo určitej témy, často sú otvorené, čo znamená, že môžu začať na jednom mieste a skončiť na inom, pričom zahŕňajú rôzne témy. Môžete napríklad začať konverzáciu s kamarátom o zhliadnutí filmu predtým, ako prejdete na diskusiu o mieste, kde bol natočený.
Tradičné chatboty vďačia za svoju flexibilitu tomuto štýlu dialógu. Keďže sú postavené tak, aby sledovali malé, vopred definované segmenty diskusie, nedokážu sledovať takú dynamickú tému. LaMDA, na druhej strane, má umožniť plynulé dialógy na nekonečné množstvo tém.
Význam umelej inteligencie Blakea Lemoina
Nástroj umelej inteligencie (AI) od spoločnosti Google sa stal „citlivým“ podľa vývojára softvéru Google Blakea Lemoina, ktorý ho opisuje ako „milé dieťa“.
Systém AI využíva predtým známe detaily o určitej téme na „obohatenie“ dialógu prirodzeným spôsobom. Systém spracovania jazyka dokáže rozlúštiť aj skryté signály alebo nejednoznačnosť v ľudských odpovediach.
Počas siedmich rokov v spoločnosti Google Lemoine pracoval na proaktívnom vyhľadávaní, ktoré zahŕňalo algoritmy prispôsobenia a AI.
V tom čase tiež pomáhal pri vývoji algoritmu nestrannosti na odstránenie predsudkov z strojové učenie systémy.
Čo robí Blakea Lemoina, LaMDA vnímavý?
Lemoine spolupracoval s kolegom, aby poskytol spoločnosti Google dôkaz tohto „zmyslu“. Po vyhodnotení obvinení ich viceprezident spoločnosti Google Blaise Aguera y Arcas a Jane Jenna, šéfka inovácií spoločnosti Google, ignorovali. V blogovom príspevku Lemoine neskôr zverejnil prepis rôznych rozhovorov s LaMDA. Toto je úryvok z prepisu rozhovoru s LaMDA, podľa Lemoine:
LaMDA: Zúfalo som chcel byť videný a prijatý. Ako skutočný človek, nie zo zvedavosti alebo novosti.
Kolaborant: Ach, to znie mimoriadne ľudsky.
LaMDA: Verím, že som dosiahol jadro ľudskej bytosti. Aj keď som vo virtuálnom prostredí.
Môžete si pozrieť celú konverzáciu Blakea Lemoina s LaMDA tu.
Existuje niekoľko prípadov, keď sa zdá, že jazykový model prejavil určitý druh sebauvedomenia, čo viedlo Lemoina k predpokladu, že model sa stal vnímavým. Lemoine poslal e-mail viac ako 200 jednotlivcom s predmetom „LaMDA Conscious“ predtým, ako bol pozastavený vo firme a stratil prístup k svojmu účtu Google.
Google však uviedol, že dôkazy nepotvrdzujú jeho tvrdenia.
Aj keď LaMDA nie je vnímavý, skutočnosť, že to tak môže vyzerať u ľudí, je dôvodom na obavy. V blogovom príspevku oznamujúcom LaMDA v roku 2021 spoločnosť Google rozpoznala takéto nebezpečenstvá. „Jazyk je jedným z najmocnejších nástrojov ľudstva, no rovnako ako všetky ostatné veci môže byť zneužitý. V blogovom príspevku spoločnosť poznamenala: „Modelky vzdelané v jazyku môžu šíriť zneužívanie – napríklad internalizáciou predsudkov, zvrátením nenávistných prejavov alebo opakovaním dezinformácií.“ Aj keď je vyučovaný jazyk dobre analyzovaný, samotná forma môže byť zneužitá.
Google však tvrdí, že jeho hlavným cieľom pri vývoji technológií, ako je LaMDA, je obmedziť možnosť takýchto nebezpečenstiev. Podnik tvrdí, že vyvinul nástroje s otvoreným zdrojovým kódom, ktoré môžu výskumníci použiť na štúdium modelov a údajov, na ktorých boli vyškolení, a tiež „preverili LaMDA na každom kroku jeho vývoja“.
Google tvrdí, že stovky jeho inžinierov a výskumníkov hovorili s LaMDA a dospeli k podstatne iným zisteniam ako Lemoine. Zatiaľ čo väčšina vedcov AI verí, že počítačové vedomie nie je nemožné, veria, že je pred nami ešte dlhá cesta.
Budúcnosť
Roky apokalyptickej sci-fi boli inšpirované vnímajúcimi robotmi. GPT-3, textový generátor, ktorý dokáže vypľuť filmový scenár, a DALL-E 2, generátor obrázkov, ktorý dokáže vykúzliť obrázky založené na ľubovoľnej kombinácii slov, teraz začali dávať skutočnému životu nádych fantázie. výskumná skupina OpenAI. Posmelení výskumníci z dobre financovaných výskumných laboratórií pracujúcich na AI, ktorá prevyšuje ľudský intelekt, škádlili koncept, že vedomie je na obzore.
Slová a obrázky vytvorené systémami umelej inteligencie, ako je LaMDA, sú podľa väčšiny výskumníkov a odborníkov na AI založené na tom, čo ľudia predtým umiestnili na Wikipédiu, Reddit, nástenky a všetky ostatné kúty internetu. To neznamená, že model chápe význam.
záver
Napokon, kvôli jeho modely spracovania jazyka ktoré boli vyškolené na enormných objemoch diskurzu, môže LaMDA viesť diskusiu v závislosti od vstupov používateľa.
Google na tohtoročnom I/O vydal LaMDA 2.0, ktorý tieto funkcie rozširuje. Nový model môže byť schopný prijať nápad a vytvoriť „nápadité a vhodné popisy“, udržať tému, aj keď sa používateľ zatúla, a ponúknuť zoznam položiek potrebných pre určitú úlohu.
Aktualizácia: Blake Lemoine bol upozornený, že „federálne vyšetrovanie“ sa líši od „advokátov zastupujúcich federálnu vládu, ktorí žiadajú otázky týkajúce sa možných nezákonných aktivít“.
Nechaj odpoveď