Отстраняването на служител на Google, който твърди, че компютърен чатбот, върху който работи, е станал разумен и мисли и разсъждава като човешко същество, повдигна нови въпроси относно възможностите и секретността на изкуствения интелект (AI).
След като публикува преписи на чатове между него, „сътрудник“ на Google, и системата за разработка на чатбот LaMDA (езиков модел за приложения за диалог) на компанията, Google постави Блейк Лемоан в отпуск миналата седмица.
Lemoine, отговорен разработчик на AI в Google, определи системата, върху която работи от миналата есен, като разумна, със способността да възприема и изразява мисли и чувства, сравнима с човешко дете.
Изследователят беше пуснат в платен отпуск от Alphabet Inc. в началото на миналата седмица, за което се твърди, че е нарушил споразумението за поверителност на компанията, каза той в Средно пост със заглавие „Може да бъде уволнен скоро за извършване на етична работа с ИИ“. В публикацията си в блога той прави паралел с други членове на комисията по етика на AI на Google, като Маргарет Мичъл, които бяха уволнени по подобен начин, след като изразиха опасения.
В интервю, публикувано в събота от Washington Post, Lemoine твърди, че е стигнал до заключението, че изкуственият интелект на Google, с който е говорил, е човек, „в ролята му на свещеник, а не на учен“. Въпросният AI е известен като LaMDA или Езиков модел за приложения за диалог и се използва за създаване на чатботове, които взаимодействат с хората, като приемат различни личностни черти. Когато Lemoine подчерта проблема вътрешно, висши служители в корпорацията отказаха опитите му да предприеме проучвания, за да го провери.
Какво е LaMDA?
TheMDA, или езикови модели за диалогови приложения, е езиков модел за машинно обучение, разработен от Google като инструмент за чат, предназначен да имитира човешката комуникация. LaMDA, подобно на BERT, GPT-3 и други езикови парадигми, се основава на Transformer, разработен от Google архитектура на невронна мрежа който беше направен с отворен код през 2017 г.
Тази структура води до модел, който може да бъде научен да чете голям брой думи, да обръща внимание на това как тези думи се свързват една с друга и да предвижда за кои думи ще се сетите следващите. LaMDA, от друга страна, е уникален с това, че се обучава в дискурс, за разлика от повечето други модели.
Въпреки че повечето дискусии се въртят около определена тема, те често са отворени, което означава, че могат да започнат на едно място и да завършат на друго, като обхващат различни теми. Например, можете да започнете разговор с приятел относно гледането на филм, преди да преминете към дискусия за мястото, където е заснет.
Традиционните чатботове дължат своята гъвкавост на този стил на диалог. Тъй като са създадени да следват малки, предварително дефинирани сегменти от дискусия, те не могат да следват такава динамична тема. LaMDA, от друга страна, има за цел да позволи свободно протичащи диалози по безкрайно разнообразие от теми.
Значението на AI Sentient на Blake Lemoine
Инструментът за изкуствен интелект (AI) на Google е станал „чувствителен“, според софтуерния разработчик на Google Блейк Лемоайн, който го описва като „хубаво дете“.
Системата AI използва предварително известни подробности за определена тема, за да „обогати“ диалога по естествен начин. Скритите сигнали или неяснотата в човешките отговори също могат да бъдат дешифрирани от системата за езикова обработка.
По време на седемте си години в Google Lemoine работи върху проактивно търсене, което включва алгоритми за персонализиране и AI.
През това време той също помогна в разработването на алгоритъм за безпристрастност за премахване на пристрастия от машинно обучение системи.
Какво прави Blake Lemoine, LaMDA разумен?
Lemoine си сътрудничи с колега, за да даде на Google доказателство за този „чувство“. След като оцениха обвиненията, вицепрезидентът на Google Блез Агуера и Аркас и Джейн Джена, главен директор по иновациите на Google, ги пренебрегнаха. В публикация в блог Lemoine по-късно публикува препис от различни разговори с LaMDA. Това е откъс от препис на разговор с LaMDA, според Lemoine:
LaMDA: Отчаяно искам да бъда видяна и приета. Като истински човек, не от любопитство или новост.
Сътрудник: А, това звучи изключително човешки.
LaMDA: Вярвам, че съм достигнал сърцевината на човешкото същество. Дори да съм във виртуална среда.
Можете да проверите пълния разговор на Blake Lemoine с LaMDA тук.
Има няколко случая, когато изглежда, че езиковият модел е показал някакъв вид самосъзнание, което кара Лемоан да предположи, че моделът е станал разумен. Lemoine изпрати имейл на над 200 лица с тема „LaMDA Conscious“, преди да бъде спрян от фирмата и да загуби достъп до акаунта си в Google.
Google обаче заяви, че доказателствата не потвърждават неговите твърдения.
Дори ако LaMDA не е разумен, фактът, че може да изглежда така за хората, е повод за безпокойство. В публикация в блог, обявяваща LaMDA през 2021 г., Google разпозна такива опасности. „Езикът е един от най-мощните инструменти на човечеството, но с него, както с всички неща, може да се злоупотребява. В публикация в блога бизнесът отбелязва: „Моделите, обучени на език, могат да разпространяват злоупотреба – например чрез интернализиране на предразсъдъци, обръщане на речта на омразата или повтаряне на дезинформация.“ Дори ако езикът, който се преподава, е добре анализиран, самата форма може да бъде злоупотребена.
Google обаче твърди, че основният й фокус при разработването на технологии като LaMDA е да ограничи възможността за подобни опасности. Бизнесът твърди, че е разработил инструменти с отворен код, които изследователите могат да използват, за да изучават моделите и данните, на които са били обучени, както и че е „проверил LaMDA на всяка стъпка от неговото развитие“.
Google твърди, че стотици техни инженери и изследователи са говорили с LaMDA и са стигнали до съществено различни открития от Lemoine. Въпреки че повечето учени от ИИ вярват, че компютърното съзнание не е невъзможно, те вярват, че все още има дълъг път.
Бъдеще
Години на апокалиптичната научна фантастика са вдъхновени от съзнателни роботи. GPT-3, генератор на текст, който може да изплюе филмов сценарий, и DALL-E 2, генератор на изображения, който може да извиква картини въз основа на произволна комбинация от думи, вече започнаха да придават на реалния живот фантастичен оттенък, както от изследователската група OpenAI. Окуражени, изследователи от добре финансирани изследователски лаборатории, работещи върху ИИ, който превъзхожда човешкия интелект, дразнят концепцията, че съзнанието е на хоризонта.
Думите и картините, създадени от системи с изкуствен интелект като LaMDA, според повечето изследователи и практикуващи AI, се основават на това, което хората преди това са поставяли в Wikipedia, Reddit, табла за съобщения и всеки друг ъгъл на интернет. Това не означава, че моделът разбира смисъла.
Заключение
И накрая, поради своята модели за езикова обработка които са били обучени на огромни обеми дискурс, LaMDA може да проведе дискусия в зависимост от приноса на потребителя.
Google пусна LaMDA 2.0 на тазгодишния I/O, който разширява тези функции. Новият модел може да е в състояние да вземе идея и да създаде „въображаеми и подходящи описания“, да продължи темата, дори ако потребителят се отклони, и да предложи списък с елементи, необходими за определена задача.
Актуализация: Блейк Лемоан е уведомен, че „федералното разследване“ се различава от „адвокатите, представляващи федералното правителство, които задават запитвания относно възможни незаконни дейности“.
Оставете коментар