Як переконатися, що ми використовуємо ШІ відповідально?
Прогрес у машинному навчанні показує, що моделі можуть швидко масштабуватися та впливати на велику частину суспільства.
Алгоритми контролюють стрічку новин на телефонах кожного. Уряди та корпорації починають використовувати ШІ для прийняття рішень на основі даних.
Оскільки ШІ все більше вкорінюється в тому, як працює світ, як ми переконаємося, що ШІ діє справедливо?
У цій статті ми розглянемо етичні проблеми використання ШІ та побачимо, що ми можемо зробити, щоб забезпечити відповідальне використання ШІ.
Що таке Етичний ШІ?
Етичний штучний інтелект відноситься до штучного інтелекту, який дотримується певного набору етичних принципів.
Іншими словами, це спосіб для окремих осіб і організацій працювати з ШІ відповідально.
В останні роки корпорації почали дотримуватися законів про конфіденційність даних після того, як з’явилися докази зловживання та порушення. Подібним чином рекомендуються рекомендації щодо етичного ШІ, щоб переконатися, що ШІ не впливає негативно на суспільство.
Наприклад, деякі типи ШІ працюють упереджено або зберігають уже існуючі упередження. Давайте розглянемо алгоритм, який допомагає рекрутерам сортувати тисячі резюме. Якщо алгоритм навчено на наборі даних із переважно чоловіками або білими працівниками, можливо, що алгоритм віддаватиме перевагу кандидатам, які підпадають під ці категорії.
Встановлення принципів етичного ШІ
Ми подумали про те, щоб встановити набір правил штучний інтелект протягом десятиліть.
Навіть у 1940-х роках, коли найпотужніші комп’ютери могли виконувати лише найспеціальніші наукові обчислення, письменники-фантасти розмірковували над ідеєю керування розумними роботами.
Айзек Азімов відомий автором «Трьох законів робототехніки», які він запропонував включити в програмування роботів у своїх оповіданнях як функцію безпеки.
Ці закони стали пробним каменем для багатьох майбутніх науково-фантастичних історій і навіть послужили основою для реальних досліджень етики ШІ.
У сучасних дослідженнях дослідники штучного інтелекту шукають більш обґрунтовані джерела, щоб скласти список принципів етичного штучного інтелекту.
Оскільки штучний інтелект зрештою вплине на людські життя, ми повинні мати фундаментальне розуміння того, що ми повинні, а що не повинні робити.
Звіт Белмонта
Для орієнтиру дослідники етики розглядають Звіт Белмонта як путівник. The Звіт Белмонта був документ, опублікований Національним інститутом охорони здоров’я США в 1979 році. Біомедичні звірства, скоєні під час Другої світової війни, призвели до поштовху до законодавчого введення етичних принципів для дослідників, які практикують медицину.
Ось три основні принципи, згадані у звіті:
- Повага до людей
- Вигода
- юстиція
Перший принцип спрямований на підтримку гідності та автономії всіх суб’єктів. Наприклад, дослідники повинні звести до мінімуму обман учасників і вимагати від кожної особи своєї чіткої згоди.
Другий принцип, благодійність, зосереджується на обов’язку дослідника мінімізувати потенційну шкоду для учасників. Цей принцип дає дослідникам обов'язок збалансувати співвідношення індивідуальних ризиків і потенційних соціальних вигод.
Справедливість, останній принцип, викладений у звіті Бельмонта, зосереджується на рівному розподілі ризиків і вигод між групами, які можуть отримати користь від дослідження. Дослідники мають обов’язок обирати суб’єктів дослідження серед широких верств населення. Це зведе до мінімуму індивідуальні та системні упередження, які можуть негативно вплинути на суспільство.
Розміщення етики в дослідженнях ШІ
Хоча звіт Бельмонта в основному був спрямований на дослідження за участю людей, принципи були достатньо широкими, щоб застосовувати їх до сфери етики ШІ.
Великі дані стали цінним ресурсом у сфері штучного інтелекту. Процеси, які визначають, як дослідники збирають дані, повинні відповідати етичним принципам.
Запровадження законів про конфіденційність даних у більшості країн дещо обмежує те, які дані компанії можуть збирати та використовувати. Однак більшість країн все ще мають елементарний набір законів, які запобігають використанню ШІ для заподіяння шкоди.
Як етично працювати з ШІ
Ось кілька ключових концепцій, які можуть допомогти працювати над більш етичним і відповідальним використанням ШІ.
Контроль упередженості
Штучний інтелект за своєю суттю не нейтральний. Алгоритми завжди вразливі до вставлених зміщень і дискримінації, оскільки дані, які вони вивчають, містять зміщення.
Типовим прикладом дискримінаційного ШІ є тип, який часто з’являється в системах розпізнавання обличчя. Цим моделям часто вдається розпізнати обличчя білих чоловіків, але менш успішно впізнати людей із темнішою шкірою.
Інший приклад з’являється в DALL-E 2 від OpenAI. Користувачі мають відкритий що певні підказки часто відтворюють гендерні та расові упередження, які модель підібрала зі свого набору даних онлайн-зображень.
Наприклад, якщо отримати запит на зображення юристів, DALL-E 2 повертає зображення юристів-чоловіків. З іншого боку, запити про фотографії бортпровідників повертають переважно жінок-стюардес.
Хоча неможливо повністю усунути упередження систем ШІ, ми можемо вжити заходів, щоб мінімізувати його вплив. Дослідники та інженери можуть досягти кращого контролю над упередженнями, розуміючи навчальні дані та найнявши різноманітну команду, яка надасть інформацію про те, як має працювати система ШІ.
Людиноорієнтований підхід до проектування
Алгоритми вашої улюбленої програми можуть негативно вплинути на вас.
Такі платформи, як Facebook і TikTok, можуть дізнаватися, який контент надавати, щоб утримувати користувачів на своїх платформах.
Навіть без наміру заподіяти шкоду, мета якомога довше утримувати користувачів у своєму додатку може призвести до проблем із психічним здоров’ям. Термін «doomscrolling» набув популярності як загальний термін для витрачання надмірної кількості часу на читання негативних новин на таких платформах, як Twitter і Facebook.
В інших випадках вміст, що пропагує ненависть, і дезінформація отримують ширшу платформу, оскільки це сприяє підвищенню залучення користувачів. А 2021 дослідження Дослідники з Нью-Йоркського університету показують, що дописи з джерел, відомих своєю дезінформацією, отримують у шість разів більше лайків, ніж дописи з авторитетних джерел новин.
Ці алгоритми відсутні в людиноорієнтованому підході до проектування. Інженери, які розробляють, як штучний інтелект виконує дію, повинні завжди пам’ятати про досвід користувача.
Дослідники та інженери завжди повинні задаватися питанням: «Яку користь це приносить користувачеві?»
Більшість моделей штучного інтелекту використовують модель чорного ящика. Чорний ящик в навчання за допомогою машини відноситься до ШІ, де жодна людина не може пояснити, чому ШІ прийшов до певного результату.
Чорні скриньки є проблематичними, оскільки вони зменшують рівень довіри до машин.
Наприклад, уявімо сценарій, коли Facebook випустив алгоритм, який допомагає урядам вистежувати злочинців. Якщо система ШІ помітить вас, ніхто не зможе пояснити, чому вона прийняла таке рішення. Цей тип системи не повинен бути єдиною причиною, чому вас мають заарештувати.
Пояснювальний AI або XAI має повертати список факторів, які вплинули на кінцевий результат. Повертаючись до нашого гіпотетичного трекера злочинців, ми можемо налаштувати систему штучного інтелекту, щоб повертати список публікацій із підозрілими словами чи термінами. Звідти людина може перевірити, чи варто досліджувати позначеного користувача.
XAI забезпечує більшу прозорість і довіру до систем ШІ та може допомогти людям приймати кращі рішення.
Висновок
Як і всі винаходи людини, штучний інтелект за своєю суттю не є добрим чи поганим. Має значення те, як ми використовуємо ШІ.
Унікальним у штучному інтелекті є темпи його розвитку. Протягом останніх п’яти років ми щодня бачили нові та захоплюючі відкриття у сфері машинного навчання.
Однак закон не такий швидкий. Оскільки корпорації та уряди продовжують використовувати штучний інтелект для максимізації прибутків або контролю над громадянами, ми повинні знайти способи сприяти прозорості та справедливості у використанні цих алгоритмів.
Як ви думаєте, чи можливий справді етичний ШІ?
залишити коментар