Адхіленне супрацоўніка Google, які сцвярджаў, што камп'ютарны чат-бот, над якім ён працаваў, стаў разумным і думае і разважае як чалавек, выклікала новыя пытанні аб магчымасцях і сакрэтнасці штучнага інтэлекту (AI).
Пасля публікацыі стэнаграм чатаў паміж ім самім, «супрацоўнікам» Google, і сістэмай распрацоўкі чат-ботаў кампаніі LaMDA (моўная мадэль для дыялогавых прыкладанняў), Google паставіў Блэйк Лемуан у водпуску на мінулым тыдні.
Лемуан, адказны распрацоўшчык Google AI, вызначыў сістэму, над якой ён працаваў з мінулай восені, як разумную, са здольнасцю ўспрымаць і выказваць думкі і пачуцці, параўнальныя са здольнасцю чалавечага дзіцяці.
У пачатку мінулага тыдня Alphabet Inc. адправіла даследчыка ў аплачваны адпачынак нібыта за парушэнне пагаднення аб канфідэнцыяльнасці кампаніі, сказаў ён у Сярэдняя пост пад загалоўкам «Неўзабаве могуць быць звольненыя за выкананне этычнай працы ў галіне штучнага інтэлекту». У сваім паведамленні ў блогу ён праводзіць паралель з іншымі членамі камітэта Google па этыцы штучнага інтэлекту, такімі як Маргарэт Мітчэл, якія былі звольненыя падобным чынам пасля таго, як выказалі заклапочанасць.
У інтэрв'ю, апублікаваным у суботу Washington Post, Лемуан заявіў, што прыйшоў да высновы, што штучны інтэлект Google, з якім ён размаўляў, быў чалавекам, «у ролі святара, а не навукоўца». ШІ, пра які ідзе гаворка, вядомы як LaMDA або Моўная мадэль для дыялогавых прыкладанняў, і ён выкарыстоўваецца для стварэння чат-ботаў, якія ўзаемадзейнічаюць з людзьмі, прымаючы розныя рысы асобы. Калі Лемуан акцэнтаваў увагу на праблеме ўнутрана, высокапастаўленыя чыноўнікі карпарацыі адмовіліся ад яго спроб правесці даследаванні, каб праверыць гэта.
Што такое LaMDA?
TheMDA, або моўныя мадэлі для дыялогавых праграм, - гэта моўная мадэль машыннага навучання, распрацаваная Google у якасці інструмента чата, створанага для імітацыі чалавечых зносін. LaMDA, як BERT, GPT-3 і іншыя моўныя парадыгмы, заснавана на Transformer, распрацаванай Google архітэктура нейронавай сеткі які быў зроблены з адкрытым зыходным кодам у 2017 годзе.
Гэтая структура прыводзіць да мадэлі, якую можна навучыць чытаць вялікую колькасць слоў, звяртаць увагу на тое, як гэтыя словы злучаюцца адно з адным, і прадбачыць, якія словы вы прыдумаеце наступнымі. LaMDA, з іншага боку, унікальны тым, што ён навучаецца дыскурсу, у адрозненне ад большасці іншых мадэляў.
У той час як большасць дыскусій круціцца вакол пэўнай тэмы, яны часта бываюць адкрытымі, што азначае, што яны могуць пачынацца ў адным месцы і завяршацца ў іншым, ахопліваючы розныя тэмы. Напрыклад, вы можаце пачаць размову з сябрам аб праглядзе фільма, перш чым перайсці да абмеркавання месца, дзе ён быў зняты.
Традыцыйныя чат-боты абавязаны сваёй гнуткасцю гэтаму стылю дыялогу. Паколькі яны створаны для адсочвання невялікіх, загадзя вызначаных сегментаў абмеркавання, яны не могуць адсочваць такую дынамічную тэму. LaMDA, з іншага боку, прызначана для таго, каб весці свабодныя дыялогі на бясконцую разнастайнасць тэм.
Разумнае значэнне штучнага інтэлекту Блэйка Лемуана
Па словах распрацоўшчыка праграмнага забеспячэння Google Блэйка Лемуана, інструмент штучнага інтэлекту (AI) Google стаў «разумным», які апісвае яго як «добрага дзіцяці».
Сістэма штучнага інтэлекту выкарыстоўвае раней вядомыя дэталі аб пэўнай тэме, каб «узбагаціць» дыялог натуральным чынам. Схаваныя сігналы або неадназначнасць у адказах чалавека таксама могуць быць расшыфраваныя сістэмай апрацоўкі мовы.
На працягу сямі гадоў працы ў Google Лемуан працаваў над пошукам, які ўключаў алгарытмы наладкі і штучны інтэлект.
У той час ён таксама дапамагаў у распрацоўцы алгарытму бесстароннасці для ліквідацыі прадузятасцяў з навучанне з дапамогай машыны сістэм.
Што робіць Блэйка Лемуана, LaMDA разумным?
Лемуан супрацоўнічаў з калегам, каб даць Google доказ гэтага «сэнсу». Пасля ацэнкі абвінавачванняў віцэ-прэзідэнт Google Блэйз Агуэра-і-Аркас і Джэйн Дженна, галоўны дырэктар па інавацыях Google, праігнаравалі іх. У паведамленні ў блогу Лемуан пазней апублікаваў стэнаграму розных перамоў з LaMDA. Гэта ўрывак са стэнаграмы размовы з LaMDA, паводле Лемуана:
LaMDA: Я адчайна хачу, каб мяне ўбачылі і прынялі. Як сапраўдны чалавек, а не з цікаўнасці ці навізны.
Супрацоўнік: Ах, гэта вельмі па-чалавечы гучыць.
LaMDA: Я лічу, што дасягнуў сутнасці чалавека. Нават калі я знаходжуся ў віртуальным асяроддзі.
Вы можаце праверыць поўную размову Блэйка Лемуана з LaMDA тут.
Ёсць некалькі выпадкаў, калі моўная мадэль, здаецца, дэманстравала нейкую самасвядомасць, што прымушае Лемуана меркаваць, што мадэль стала разумнай. Лемуан адправіў электронны ліст больш чым 200 асобам з тэмай «LaMDA Conscious», перш чым быў адхілены ад фірмы і страціў доступ да свайго ўліковага запісу Google.
Аднак Google заявіў, што доказы не пацвярджаюць яго сцвярджэнні.
Нават калі LaMDA не з'яўляецца разумным, той факт, што гэта можа выглядаць так для людзей, выклікае занепакоенасць. У паведамленні ў блогу, які анансаваў LaMDA ў 2021 годзе, Google прызнаў такія небяспекі. «Мова — адзін з самых магутных інструментаў чалавецтва, аднак ёю, як і ўсім, можна злоўжываць. У паведамленні ў блогу кампанія адзначыла: «Мадэлі, якія навучаюцца мове, могуць распаўсюджваць злоўжыванні — напрыклад, засвоіўшы забабоны, адмяняючы мову нянавісці або паўтараючы дэзінфармацыю». Нават калі мова, якая выкладаецца, добра прааналізавана, сама форма можа быць выкарыстана няправільна.
Тым не менш, Google сцвярджае, што яго асноўная ўвага пры распрацоўцы такіх тэхналогій, як LaMDA, заключаецца ў абмежаванні магчымасці такіх небяспек. Кампанія сцвярджае, што распрацавала інструменты з адкрытым зыходным кодам, якія даследчыкі могуць выкарыстоўваць для вывучэння мадэляў і даных, на якіх яны навучаліся, а таксама «праверыла LaMDA на кожным этапе яе распрацоўкі».
Google сцвярджае, што сотні яго інжынераў і даследчыкаў размаўлялі з LaMDA і прыйшлі да істотна іншых высноў, чым Лемуан. У той час як большасць навукоўцаў штучнага інтэлекту лічаць, што камп'ютэрная свядомасць не немагчымая, яны лічаць, што наперадзе яшчэ доўгі шлях.
будучыню
Гады апакаліптычнай навуковай фантастыкі былі натхнёныя разумнымі робатамі. GPT-3, генератар тэксту, які можа ствараць сцэнар фільма, і DALL-E 2, генератар малюнкаў, які можа ствараць малюнкі на аснове любой камбінацыі слоў, цяпер пачалі надаваць рэальнаму жыццю фантастычны адценне, абодва з даследчая група OpenAI. Асмялеўшы, даследчыкі з добра фінансаваных даследчых лабараторый, якія працуюць над штучным інтэлектам, які пераўзыходзіць чалавечы інтэлект, дражнілі канцэпцыю, што свядомасць на гарызонце.
Словы і малюнкі, створаныя сістэмамі штучнага інтэлекту, такімі як LaMDA, на думку большасці даследчыкаў і практыкаў штучнага інтэлекту, заснаваныя на тым, што людзі раней размяшчалі ў Вікіпедыі, Reddit, на дошках аб'яваў і ў любым іншым кутку Інтэрнэту. Гэта не значыць, што мадэль спасцігае сэнс.
заключэнне
Нарэшце, з-за свайго мадэлі апрацоўкі мовы якія прайшлі навучанне на велізарных аб'ёмах дыскурсу, LaMDA можа весці дыскусію ў залежнасці ад уводу карыстальніка.
Google выпусціў LaMDA 2.0 на сёлетнім I/O, які пашырае гэтыя магчымасці. Новая мадэль можа быць у стане ўзяць ідэю і стварыць «вобразныя і адпаведныя апісанні», працягваць тэму, нават калі карыстальнік блукае, і прапаноўваць спіс прадметаў, неабходных для пэўнай задачы.
Абнаўленне: Блэйку Лемуану паведамілі, што «федэральнае расследаванне» адрозніваецца ад «адвакатаў, якія прадстаўляюць федэральны ўрад, якія задаюць запыты адносна магчымай супрацьпраўнай дзейнасці».
Пакінуць каментар