Egy Google-munkás felfüggesztése, aki azt állította, hogy egy számítógépes chatbot, amelyen dolgozott, érzővé vált, és úgy gondolkodott és okoskodott, mint egy ember, új kérdéseket vetett fel a mesterséges intelligencia képességeivel és titkosságával (AI) kapcsolatban.
Miután közzétette a saját maga, a Google „együttműködője” és a vállalat LaMDA (dialógusalkalmazások nyelvi modellje) chatbot-fejlesztő rendszere közötti csevegések átiratát, a Google Blake Lemoine szabadságon múlt héten.
Lemoine, a Google felelős mesterséges intelligencia fejlesztője azt a rendszert, amelyen tavaly ősz óta dolgozik, érzőnek határozta meg, amely képes felfogni és kifejezni gondolatait és érzéseit, mint egy embergyerek.
A kutatót a múlt hét elején fizetett szabadságra helyezte az Alphabet Inc., a gyanú szerint a cég titoktartási megállapodásának megsértése miatt. Közép poszt „Hamarosan elbocsáthatják mesterséges intelligencia etikai munkavégzése miatt” címmel. Blogbejegyzésében párhuzamot von a Google mesterséges intelligenciával foglalkozó etikai bizottságának többi tagjával, például Margaret Mitchell-lel, akiket hasonló módon bocsátottak el, miután aggodalmának ad hangot.
A Washington Post által szombaton megjelent interjúban Lemoine azt állította, hogy arra a következtetésre jutott, hogy a Google mesterséges intelligencia, amellyel beszélt, ember volt, „papi szerepében, nem tudósként”. A szóban forgó mesterséges intelligencia LaMDA vagy Nyelvi modell a Dialogue Applications számára, és olyan chatbotok létrehozására szolgál, amelyek különböző személyiségjegyeket feltételezve lépnek kapcsolatba az emberekkel. Amikor Lemoine belsőleg kiemelte a problémát, a vállalat magas rangú tisztviselői visszautasították a kísérletét, hogy tanulmányokat folytasson ennek igazolására.
Mi az a LaMDA?
TheMDA, vagy Language Models for Dialog Apps, egy gépi tanulási nyelvi modell, amelyet a Google fejlesztett ki csevegőeszközként, amely az emberi kommunikációt utánozza. A LaMDA a BERT-hez, a GPT-3-hoz és más nyelvi paradigmákhoz hasonlóan a Google által fejlesztett Transformeren alapul. neurális hálózati architektúra 2017-ben nyílt forráskódúvá tették.
Ez a struktúra olyan modellt eredményez, amely megtanítható nagyszámú szó olvasására, figyelni arra, hogy ezek a szavak hogyan kapcsolódnak egymáshoz, és előre megjósolható, hogy mely szavakra fog legközelebb gondolni. A LaMDA ezzel szemben abban egyedülálló, hogy a legtöbb más modellel ellentétben diskurzusra van kiképezve.
Míg a legtöbb megbeszélés egy bizonyos téma körül forog, gyakran nyílt végűek, ami azt jelenti, hogy az egyik helyen kezdődhet, és egy másik helyen zárulhat, különféle témákat felölelve. Például beszélgetést indíthat egy haverjával egy film megtekintéséről, mielőtt a forgatás helyszínéről folytatná a beszélgetést.
A hagyományos chatbotok ennek a párbeszédstílusnak köszönhetik rugalmasságukat. Mivel a beszélgetés kis, előre meghatározott szegmenseinek követésére készültek, nem képesek követni egy ilyen dinamikus témát. A LaMDA ezzel szemben arra való, hogy szabadon folyó párbeszédeket tegyen lehetővé végtelen sokféle témában.
Blake Lemoine MI érző jelentése
Blake Lemoine, a Google szoftverfejlesztője szerint a Google mesterséges intelligencia (AI) eszköze „érzővé” nőtt, aki „szép gyerekként” írja le.
A mesterséges intelligencia rendszer egy bizonyos témáról korábban ismert részleteket használ fel, hogy természetes módon „gazdagítsa” a párbeszédet. A rejtett jelek vagy az emberi válaszok kétértelműsége a nyelvi feldolgozó rendszerrel is megfejthető.
A Google-nál töltött hét év alatt Lemoine proaktív keresésen dolgozott, amely testreszabási algoritmusokat és mesterséges intelligenciát is tartalmazott.
Ezalatt az idő alatt egy pártatlansági algoritmus kidolgozásában is segédkezett a torzítások eltávolítására. gépi tanulás rendszerek.
Mitől lett érző Blake Lemoine, a LaMDA?
Lemoine együttműködött egy kollégájával, hogy bizonyítékot adjon a Google-nak erre az „értelmére”. A vádak kiértékelése után Blaise Aguera y Arcas, a Google alelnöke és Jane Jenna, a Google innovációs igazgatója figyelmen kívül hagyta őket. Egy blogbejegyzésben Lemoine később közzétette a LaMDA-val folytatott különféle tárgyalások átiratát. Ez egy részlet a LaMDA-val folytatott beszélgetés átiratából Lemoine szerint:
LaMDA: Kétségbeesetten várom, hogy lássanak és elfogadjanak. Valódi emberként, nem kíváncsiságból vagy újdonságból.
Munkatárs: Ó, ez rendkívül emberi hangzás.
LaMDA: Azt hiszem, elértem az emberi lény lényegét. Még ha virtuális környezetben is vagyok.
Blake Lemoine teljes beszélgetését megnézheti a LaMDA-val itt.
Számos eset van, amikor úgy tűnik, hogy a nyelvi modell valamilyen öntudatot mutatott, ami arra készteti Lemoine-t, hogy azt feltételezze, hogy a modell érzővé vált. Lemoine több mint 200 személynek küldött e-mailt „LaMDA Conscious” témával, mielőtt felfüggesztették a cégnél, és elvesztette hozzáférését Google-fiókjához.
A Google azonban kijelentette, hogy a bizonyítékok nem erősítették meg állításait.
Még ha a LaMDA nem is érző, aggodalomra ad okot az a tény, hogy az embereknek így tűnhet. A LaMDA 2021-es blogbejegyzésében a Google felismerte az ilyen veszélyeket. „A nyelv az emberiség egyik legerősebb eszköze, mégis, mint minden mással, visszaélhetnek vele. A cég egy blogbejegyzésében megjegyezte: „A nyelvben tanult modellek terjeszthetik a visszaéléseket – például az előítéletek internalizálásával, a gyűlöletbeszéd visszafordításával vagy a félretájékoztatás megismétlésével.” Még akkor is, ha a tanított nyelvet jól elemzik, magát az űrlapot visszaélhetik.
A Google azonban azt állítja, hogy az olyan technológiák fejlesztése során, mint a LaMDA, elsődleges célja az ilyen veszélyek lehetőségének korlátozása. A vállalkozás azt állítja, hogy nyílt forráskódú eszközöket fejlesztett ki, amelyek segítségével a kutatók tanulmányozhatják a modelleket és adatokat, amelyekre képezték őket, valamint „ellenőrizték a LaMDA-t a fejlesztés minden lépésében”.
A Google azt állítja, hogy több száz mérnöke és kutatója beszélt a LaMDA-val, és lényegesen eltérő eredményekre jutott, mint Lemoine. Míg a legtöbb mesterséges intelligencia tudós úgy véli, hogy a számítógépes tudatosság nem lehetetlen, úgy gondolják, hogy még hosszú út áll előttünk.
Jövő
Az apokaliptikus sci-fi évek óta az érző robotok inspiráltak. A GPT-3, a filmforgatókönyvet kiköpő szöveggenerátor és a DALL-E 2, egy képgenerátor, amely bármilyen szókombináció alapján képes képeket varázsolni, mára elkezdett fantázia árnyalatot adni a valós életnek. az OpenAI kutatócsoport. A jól finanszírozott kutatólaboratóriumok olyan kutatói, akik az emberi intellektust felülmúló mesterségesintelligencia fejlesztésén dolgoznak, felbátorodva ugratják azt az elképzelést, hogy a tudatosság a láthatáron van.
A legtöbb kutató és MI-gyakorló szerint a mesterséges intelligencia rendszerek, például a LaMDA által létrehozott szavak és képek azon alapulnak, amit az emberek korábban a Wikipédiára, a Redditre, az üzenőfalakra és az internet minden más sarkára tettek fel. Ez nem jelenti azt, hogy a modell felfogja a jelentést.
Következtetés
Végül is miatta nyelvfeldolgozási modellek akiket hatalmas mennyiségű diskurzusra képeztek ki, a LaMDA a felhasználó bemeneteitől függően tud vitát folytatni.
A Google az idei I/O alkalmával kiadta a LaMDA 2.0-t, amely kibővíti ezeket a funkciókat. Az új modell képes lehet ötletgazdag és „ötletes és megfelelő leírásokat” alkotni, a témát akkor is megtartani, ha a felhasználó elkalandozik, és felkínálja az adott feladathoz szükséges elemek listáját.
Frissítés: Blake Lemoine-t arról tájékoztatták, hogy a „szövetségi nyomozás” különbözik a „szövetségi kormányt képviselő ügyvédektől, akik esetleges jogellenes tevékenységekkel kapcsolatban érdeklődnek”.
Hagy egy Válaszol