Как да сме сигурни, че използваме AI отговорно?
Напредъкът в машинното обучение показва, че моделите могат бързо да се мащабират и да повлияят на голяма част от обществото.
Алгоритми контролират новинарския поток на телефоните на всички. Правителствата и корпорациите започват да използват AI, за да вземат решения, базирани на данни.
Тъй като ИИ става все по-вкоренен в начина, по който работи светът, как да сме сигурни, че ИИ действа справедливо?
В тази статия ще разгледаме етичните предизвикателства при използването на AI и ще видим какво можем да направим, за да гарантираме отговорното използване на AI.
Какво е етичен AI?
Етичният AI се отнася до изкуствен интелект, който се придържа към определен набор от етични насоки.
С други думи, това е начин за хората и организациите да работят с ИИ по отговорен начин.
През последните години корпорациите започнаха да се придържат към законите за поверителност на данните, след като излязоха наяве доказателства за злоупотреби и нарушения. По подобен начин се препоръчват насоки за етичен ИИ, за да се гарантира, че ИИ няма да повлияе отрицателно на обществото.
Например, някои видове AI работят по предубеден начин или поддържат вече съществуващи пристрастия. Нека разгледаме един алгоритъм, който помага на специалистите по подбор на персонал да сортират хиляди автобиографии. Ако алгоритъмът е обучен върху набор от данни с предимно мъже или бели служители, тогава е възможно алгоритъмът да облагодетелства кандидатите, които попадат в тези категории.
Установяване на принципи за етичен ИИ
Помислихме за установяване на набор от правила, които да наложим изкуствен интелект за десетилетия.
Дори през 1940-те години на миналия век, когато най-мощните компютри можеха да правят само най-специализирани научни изчисления, писателите на научна фантастика размишляваха върху идеята за управление на интелигентни роботи.
Айзък Азимов прочуто измисли Трите закона на роботиката, които той предложи да бъдат вградени в програмирането на роботите в неговите разкази като функция за безопасност.
Тези закони са се превърнали в пробен камък за много бъдещи научно-фантастични истории и дори са допринесли за действителни проучвания върху етиката на ИИ.
В съвременните изследвания изследователите на ИИ търсят по-обосновани източници, за да създадат списък с принципи за етичен ИИ.
Тъй като изкуственият интелект в крайна сметка ще повлияе на човешкия живот, трябва да имаме фундаментално разбиране какво трябва и какво не трябва да правим.
Докладът на Белмонт
За отправна точка, изследователите на етиката разглеждат доклада Белмонт като ръководство. The Доклад на Белмонт е документ, публикуван от Националния институт по здравеопазване на САЩ през 1979 г. Биомедицинските жестокости, извършени през Втората световна война, доведоха до тласък за законодателни етични насоки за изследователи, практикуващи медицина.
Ето трите основни принципа, споменати в доклада:
- Уважение към хората
- Благодеяние
- Правосъдие
Първият принцип има за цел да поддържа достойнството и автономията на всички човешки субекти. Например, изследователите трябва да сведат до минимум измамните участници и трябва да изискват от всеки човек да даде изричното си съгласие.
Вторият принцип, благотворителността, се фокусира върху задължението на изследователя да сведе до минимум потенциалната вреда за участниците. Този принцип дава на изследователите задължението да балансират съотношението между индивидуалните рискове и потенциалните социални ползи.
Справедливостта, последният принцип, изложен от доклада Белмонт, се фокусира върху равното разпределение на рисковете и ползите между групите, които биха могли да се възползват от изследването. Изследователите имат задължението да избират обекти на изследване от по-широкото население. Това ще сведе до минимум индивидуалните и системните пристрастия, които биха могли да повлияят негативно на обществото.
Поставяне на етиката в изследванията на ИИ
Докато докладът Белмонт беше насочен предимно към изследвания, включващи хора, принципите бяха достатъчно широки, за да се приложат в областта на етиката на ИИ.
Големите данни се превърнаха в ценен ресурс в областта на изкуствения интелект. Процесите, които определят как изследователите събират данни, трябва да следват етичните указания.
Прилагането на законите за поверителност на данните в повечето нации донякъде ограничава какви данни компаниите могат да събират и използват. Въпреки това, по-голямата част от нациите все още разполагат с въведен елементарен набор от закони, за да се предотврати използването на ИИ за причиняване на вреда.
Как да работим етично с AI
Ето няколко ключови концепции, които могат да помогнат за по-етично и отговорно използване на AI.
Контрол за отклонение
Изкуственият интелект по своята същност не е неутрален. Алгоритмите винаги са податливи на вмъкнати пристрастия и дискриминация, тъй като данните, от които се учат, включват пристрастия.
Често срещан пример за дискриминационен AI е типът, който често се появява в системите за разпознаване на лица. Тези модели често успяват да идентифицират белите мъжки лица, но са по-малко успешни при разпознаването на хора с по-тъмна кожа.
Друг пример се появява в DALL-E 2 на OpenAI. Потребителите имат открит че определени подкани често възпроизвеждат полови и расови пристрастия, които моделът е разбрал от своя набор от данни от онлайн изображения.
Например, когато получи подкана за изображения на адвокати, DALL-E 2 връща изображения на мъже адвокати. От друга страна, искането за снимки на стюардеси връща предимно жени стюардеси.
Въпреки че може да е невъзможно напълно да премахнем пристрастията от AI системите, ние можем да предприемем стъпки, за да сведем до минимум ефектите му. Изследователите и инженерите могат да постигнат по-голям контрол върху пристрастията, като разберат данните от обучението и наемат разнообразен екип, който да предложи принос за това как трябва да работи AI системата.
Дизайнерски подход, ориентиран към човека
Алгоритмите на любимото ви приложение могат да ви повлияят негативно.
Платформи като Facebook и TikTok могат да научат какво съдържание да сервират, за да задържат потребителите на своите платформи.
Дори без намерението да се причини вреда, целта потребителите да бъдат приковани към тяхното приложение възможно най-дълго може да доведе до проблеми с психичното здраве. Терминът „doomscrolling“ нарасна в популярност като общоприет термин за прекарване на прекалено много време в четене на негативни новини в платформи като Twitter и Facebook.
В други случаи съдържанието, насаждащо омраза, и дезинформацията получават по-широка платформа, защото спомагат за увеличаване на ангажираността на потребителите. А 2021 проучване от изследователи от Нюйоркския университет показва, че публикации от източници, известни с дезинформация, получават шест пъти повече харесвания от реномирани източници на новини.
Тези алгоритми липсват в ориентирания към човека дизайнерски подход. Инженерите, които проектират как AI извършва действие, трябва винаги да имат предвид потребителското изживяване.
Изследователите и инженерите винаги трябва да си задават въпроса: „каква е ползата от това за потребителя?“
Повечето AI модели следват модел на черна кутия. Вътре черна кутия машинно обучение се отнася до AI, където никой човек не може да обясни защо AI е стигнал до конкретен резултат.
Черните кутии са проблематични, защото намаляват доверието, което можем да имаме в машините.
Например, нека си представим сценарий, при който Facebook пусна алгоритъм, който помага на правителствата да проследят престъпниците. Ако AI системата ви маркира, никой няма да може да обясни защо е взела това решение. Този тип система не трябва да бъде единствената причина да бъдете арестуван.
Обяснимият AI или XAI трябва да върне списък с фактори, допринесли за крайния резултат. Връщайки се към нашия хипотетичен криминален инструмент за проследяване, можем да настроим AI системата, за да върне списък с публикации, показващи подозрителен език или термини. Оттам човек може да провери дали маркираният потребител си струва да бъде проучен или не.
XAI осигурява повече прозрачност и доверие в AI системите и може да помогне на хората да вземат по-добри решения.
Заключение
Като всички създадени от човека изобретения, изкуственият интелект по своята същност не е добър или лош. Важен е начинът, по който използваме AI.
Това, което е уникално за изкуствения интелект, е темпото, с което той расте. През последните пет години всеки ден сме свидетели на нови и вълнуващи открития в областта на машинното обучение.
Законът обаче не е толкова бърз. Тъй като корпорациите и правителствата продължават да използват изкуствения интелект, за да увеличат максимално печалбите си или да поемат контрола над гражданите, ние трябва да намерим начини да настояваме за прозрачност и справедливост при използването на тези алгоритми.
Мислите ли, че е възможен наистина етичен AI?
Оставете коментар