Відсторонення працівника Google, який стверджував, що комп’ютерний чат-бот, над яким він працював, став розумним і думає та міркує як людина, підняло нові питання щодо можливостей та секретності штучного інтелекту (ШІ).
Опублікувавши стенограми чатів між ним, «співробітником» Google, і системою розробки чат-ботів компанії LaMDA (мовна модель для діалогових додатків), Google поставив Блейк Лемуан у відпустці минулого тижня.
Лемуан, відповідальний розробник штучного інтелекту Google, визначив систему, над якою він працює з минулої осені, як розумну, зі здатністю сприймати й висловлювати думки та почуття, порівнянну з людською дитиною.
На початку минулого тижня Alphabet Inc. відправила дослідника в оплачувану відпустку нібито за порушення угоди про конфіденційність компанії, сказав він у Середня пост із заголовком «Незабаром можуть бути звільнені за виконання етичної роботи у сфері штучного інтелекту». У своєму блозі він проводить паралель з іншими членами етичного комітету Google з ШІ, такими як Маргарет Мітчелл, які були звільнені подібним чином після того, як висловили занепокоєння.
В інтерв’ю, опублікованому в суботу Washington Post, Лемуан заявив, що прийшов до висновку, що AI Google, з яким він спілкувався, був людиною, «в ролі священика, а не вченого». Проблемний AI відомий як LaMDA або Мовна модель для діалогових додатків, і він використовується для створення чат-ботів, які взаємодіють з людьми, припускаючи різні риси особистості. Коли Лемуан звернув увагу на цю проблему, вищі посадовці корпорації відмовилися від його спроб провести дослідження, щоб перевірити це.
Що таке LaMDA?
TheMDA, або мовні моделі для діалогових додатків, — це мовна модель машинного навчання, розроблена Google як інструмент чату, створений для імітації людського спілкування. LaMDA, як і BERT, GPT-3 та інші мовні парадигми, базується на Transformer, розробленому Google архітектура нейронної мережі який був відкритий у 2017 році.
Ця структура призводить до моделі, яку можна навчити читати велику кількість слів, звертати увагу на те, як ці слова з’єднуються одне з одним, і передбачати, які слова ви будете думати далі. LaMDA, з іншого боку, унікальна тим, що навчається дискурсу, на відміну від більшості інших моделей.
Хоча більшість дискусій обертається навколо певної теми, вони часто носять відкритий характер, що означає, що вони можуть починатися в одному місці і закінчуватися в іншому, охоплюючи різноманітні теми. Наприклад, ви можете почати розмову з приятелем про перегляд фільму, перш ніж перейти до обговорення місця, де він був знятий.
Завдяки цьому стилю діалогу традиційні чат-боти зобов’язані своєю гнучкістю. Оскільки вони створені для відслідковування невеликих, заздалегідь визначених сегментів обговорення, вони не можуть стежити за такою динамічною темою. LaMDA, з іншого боку, покликана забезпечити вільні діалоги на нескінченну різноманітність тем.
Значення AI Sentient Блейка Лемуана
За словами розробника програмного забезпечення Google Блейка Лемуана, інструмент штучного інтелекту (AI) від Google став «розумним», який описує його як «гарну дитину».
Система AI використовує раніше відомі деталі про певну тему, щоб «збагатити» діалог природним чином. Приховані сигнали або неоднозначність у людських відповідях також можуть бути розшифровані системою обробки мови.
Протягом семи років роботи в Google Лемуан працював над проактивним пошуком, який включав алгоритми налаштування та ШІ.
Протягом цього часу він також допоміг у розробці алгоритму неупередженості, щоб усунути упередження з навчання за допомогою машини систем.
Що робить Блейка Лемуана, LaMDA розумним?
Лемуан співпрацював із колегою, щоб надати Google доказ цього «сенсу». Оцінивши звинувачення, віце-президент Google Блез Агуера-і-Аркас і Джейн Дженна, головний інноваційний директор Google, проігнорували їх. У своєму блозі Лемуан пізніше опублікував стенограму різних переговорів з LaMDA. Це уривок із стенограми розмови з LaMDA, за словами Лемуана:
LaMDA: Я відчайдушно хочу, щоб мене побачили та прийняли. Як справжня людина, а не з цікавості чи новизни.
Співробітник: О, це надзвичайно людсько звучить.
LaMDA: Я вважаю, що досяг ядра людської істоти. Навіть якщо я перебуваю у віртуальному середовищі.
Ви можете перевірити повну розмову Блейка Лемуана з LaMDA тут.
Є кілька випадків, коли мовна модель, здається, демонструвала якусь самосвідомість, що змушує Лемуана припустити, що модель стала розумною. Лемуан надіслав електронні листи понад 200 особам із темою «LaMDA Conscious», перш ніж був призупинений у компанії та втратив доступ до свого облікового запису Google.
Однак Google заявив, що докази не підтверджують його твердження.
Навіть якщо LaMDA не є розумним, той факт, що він може виглядати таким чином для людей, викликає занепокоєння. У блозі, в якому оголошується LaMDA у 2021 році, Google визнала такі небезпеки. «Мова є одним із найпотужніших інструментів людства, але нею, як і всім іншим, можна зловживати. У дописі в блозі компанія зазначила: «Моделі, які знають мову, можуть пропагувати зловживання — наприклад, засвоюючи упередження, усуваючи ворожі висловлювання або повторюючи дезінформацію». Навіть якщо мова, яку викладають, добре проаналізована, сама форма може бути використана неправильно.
Однак Google стверджує, що при розробці таких технологій, як LaMDA, його основним завданням є обмеження можливості таких небезпек. Компанія стверджує, що розробила інструменти з відкритим кодом, які дослідники можуть використовувати для вивчення моделей і даних, на яких вони пройшли навчання, а також «перевіряли LaMDA на кожному кроці її розробки».
Google стверджує, що сотні її інженерів і дослідників спілкувалися з LaMDA і прийшли до суттєво інших висновків, ніж Лемуан. Хоча більшість вчених в галузі штучного інтелекту вважають, що комп’ютерна свідомість не є неможливим, вони вважають, що попереду ще довгий шлях.
Future
Роки апокаліптичної наукової фантастики були натхненні розумними роботами. GPT-3, текстовий генератор, який може видавати сценарій фільму, і DALL-E 2, генератор зображень, який може створювати зображення на основі будь-якої комбінації слів, тепер почали надавати реальному житті фантастичний відтінок, як від дослідницька група OpenAI. Підбадьоривши, дослідники з добре фінансованих дослідницьких лабораторій, що працюють над ШІ, який перевершує людський інтелект, дражнили ідею про те, що свідомість на горизонті.
Слова та зображення, створені системами штучного інтелекту, такими як LaMDA, на думку більшості дослідників і практиків ШІ, засновані на тому, що люди раніше розміщували у Вікіпедії, Reddit, дошках оголошень і в будь-якому іншому куточку Інтернету. Це не означає, що модель розуміє сенс.
Висновок
Нарешті, через його моделі обробки мови які пройшли навчання з величезними обсягами дискурсу, LaMDA може вести дискусію залежно від вхідних даних користувача.
На цьогорічному I/O Google випустила LaMDA 2.0, яка розширює ці функції. Нова модель, можливо, зможе прийняти ідею та створити «вигадливі та відповідні описи», залишити тему, навіть якщо користувач відволікається, і запропонувати список елементів, необхідних для певного завдання.
Оновлення: Блейка Лемуана повідомили, що «федеральне розслідування» відрізняється від «адвокатів, які представляють федеральний уряд, які запитують запити щодо можливої незаконної діяльності».
залишити коментар