Како да се погрижиме одговорно да користиме вештачка интелигенција?
Напредокот во машинското учење покажува дека моделите можат брзо да се размерат и да влијаат на голем дел од општеството.
Алгоритмите го контролираат вестите на сите телефони. Владите и корпорациите почнуваат да користат вештачка интелигенција за да донесуваат одлуки информирани за податоци.
Како што вештачката интелигенција дополнително се вкоренува во начинот на кој функционира светот, како да се осигураме дека вештачката интелигенција постапува праведно?
Во оваа статија, ќе ги разгледаме етичките предизвици за користење на вештачката интелигенција и ќе видиме што можеме да направиме за да обезбедиме одговорна употреба на вештачката интелигенција.
Што е етичка вештачка интелигенција?
Етичката вештачка интелигенција се однесува на вештачка интелигенција која се придржува до одреден сет на етички упатства.
Со други зборови, тоа е начин поединците и организациите да работат со вештачката интелигенција на одговорен начин.
Во последниве години, корпорациите почнаа да се држат до законите за приватност на податоците откако се појавија докази за злоупотреба и прекршување. Слично на тоа, се препорачуваат упатства за етичка вештачка интелигенција за да се осигураме дека вештачката интелигенција нема негативно влијание врз општеството.
На пример, некои видови вештачка интелигенција работат на пристрасен начин или ги овековечуваат веќе постоечките предрасуди. Ајде да разгледаме алгоритам кој им помага на регрутерите да сортираат илјадници резимеа. Ако алгоритмот е обучен за база на податоци со претежно машки или бели вработени, тогаш можно е алгоритмот да ги фаворизира апликантите кои спаѓаат во тие категории.
Воспоставување на принципи за етичка вештачка интелигенција
Размислувавме да воспоставиме сет на правила кои ќе ги наметнеме вештачка интелигенција со децении.
Дури и во 1940-тите, кога најмоќните компјутери можеа да ги прават само најспецијализираните научни пресметки, писателите на научна фантастика размислуваа за идејата за контрола на интелигентни роботи.
Исак Асимов славно ги измислил Трите закони на роботиката, кои тој предложил да бидат вградени во програмирањето на роботите во неговите раскази како безбедносна карактеристика.
Овие закони станаа камен-темелник за многу идни научно-фантастични приказни и дури ги информираа вистинските студии за етиката на вештачката интелигенција.
Во современото истражување, истражувачите на вештачката интелигенција бараат повеќе втемелени извори за да воспостават листа на принципи за етичка вештачка интелигенција.
Бидејќи вештачката интелигенција на крајот ќе влијае на човечките животи, мора да имаме фундаментално разбирање за тоа што треба и што не треба да правиме.
Извештајот Белмонт
Како референтна точка, етичките истражувачи го разгледуваат Извештајот Белмонт како водич. На Извештај на Белмонт беше документ објавен од Американскиот национален институт за здравје во 1979 година. Биомедицинските злосторства извршени во Втората светска војна доведоа до притисок да се донесат законски етички упатства за истражувачите кои практикуваат медицина.
Еве ги трите основни принципи споменати во извештајот:
- Почит кон личности
- Благодет
- правда
Првиот принцип има за цел да го поддржи достоинството и автономијата на сите човечки субјекти. На пример, истражувачите треба да го минимизираат измамувањето на учесниците и треба да бараат од секое лице да даде своја експлицитна согласност.
Вториот принцип, добротворноста, се фокусира на должноста на истражувачот да ја минимизира потенцијалната штета за учесниците. Овој принцип им дава на истражувачите должност да го балансираат односот на индивидуалните ризици и потенцијалните социјални придобивки.
Правдата, последниот принцип поставен во Извештајот Белмонт, се фокусира на еднаква распределба на ризиците и придобивките меѓу групите кои би можеле да имаат корист од истражувањето. Истражувачите имаат должност да избираат истражувачки субјекти од пошироката популација. Со тоа ќе се минимизираат индивидуалните и системските предрасуди кои може негативно да влијаат на општеството.
Поставување етика во истражувањето на вештачката интелигенција
Додека Извештајот Белмонт првенствено беше насочен кон истражувања кои вклучуваат човечки субјекти, принципите беа доволно широки за да се применат на полето на етиката на вештачката интелигенција.
Големите податоци станаа вреден ресурс во областа на вештачката интелигенција. Процесите кои одредуваат како истражувачите собираат податоци треба да ги следат етичките упатства.
Имплементацијата на законите за приватност на податоците во повеќето нации донекаде поставува ограничување на тоа што компаниите можат да собираат и користат податоци. Сепак, мнозинството нации сè уште имаат елементарен збир на закони за да се спречи употребата на вештачка интелигенција за да предизвика штета.
Како етички да работите со вештачка интелигенција
Еве неколку клучни концепти кои можат да помогнат да се работи кон поетичко и поодговорно користење на вештачката интелигенција.
Контрола за пристрасност
Вештачката интелигенција не е инхерентно неутрална. Алгоритмите се секогаш подложни на вметната пристрасност и дискриминација бидејќи податоците од кои учи вклучуваат пристрасност.
Чест пример за дискриминаторска вештачка интелигенција е типот што често се појавува во системите за препознавање лица. Овие модели често успеваат да ги идентификуваат белите машки лица, но се помалку успешни во препознавањето на луѓето со потемна кожа.
Друг пример се појавува во DALL-E 2 на OpenAI. Корисниците имаат Откриени дека одредени инструкции често репродуцираат родови и расни предрасуди што моделот ги открил од неговата база на слики на интернет.
На пример, кога добиваат барање за слики од адвокати, DALL-E 2 враќа слики од машки адвокати. Од друга страна, со барање за слики од стјуардеси се враќаат главно жени стјуардеси.
Иако можеби е невозможно целосно да се отстрани пристрасноста од системите за вештачка интелигенција, можеме да преземеме чекори за да ги минимизираме нејзините ефекти. Истражувачите и инженерите можат да постигнат поголема контрола на пристрасноста со разбирање на податоците за обуката и ангажирање разновиден тим за да понудат информации за тоа како треба да функционира системот за вештачка интелигенција.
Човеково-центриран дизајн пристап
Алгоритмите на вашата омилена апликација може негативно да влијаат на вас.
Платформите како Facebook и TikTok можат да научат каква содржина треба да служат за да ги задржат корисниците на нивните платформи.
Дури и без намера да се предизвика штета, целта да се задржат корисниците залепени на нивната апликација колку што е можно подолго може да доведе до проблеми со менталното здравје. Терминот „doomscrolling“ стана популарен како популарен термин за трошење прекумерно време за читање негативни вести на платформи како што се Твитер и Фејсбук.
Во други случаи, содржината со омраза и дезинформациите добиваат поширока платформа бидејќи помага да се зголеми ангажманот на корисниците. А студија 2021 од истражувачите од Универзитетот во Њујорк покажува дека објавите од извори познати по дезинформации добиваат шест пати повеќе лајкови од реномирани извори на вести.
Овие алгоритми недостигаат во пристапот на дизајн во центарот на човекот. Инженерите кои дизајнираат како вештачката интелигенција врши дејство мора секогаш да го имаат на ум корисничкото искуство.
Истражувачите и инженерите мора секогаш да го поставуваат прашањето: „Како тоа има корист за корисникот?
Повеќето модели со вештачка интелигенција го следат моделот на црна кутија. Црна кутија во машинско учење се однесува на вештачка интелигенција каде што ниту еден човек не може да објасни зошто вештачката интелигенција дошла до одреден резултат.
Црните кутии се проблематични бидејќи ја намалуваат довербата што можеме да ја ставиме во машините.
На пример, да замислиме сценарио каде што Фејсбук објави алгоритам што им помага на владите да ги пронајдат криминалците. Ако ве означи системот за вештачка интелигенција, никој нема да може да објасни зошто ја донел таа одлука. Овој тип на систем не треба да биде единствената причина зошто треба да бидете уапсени.
Објаснива вештачка интелигенција или XAI треба да вратат список на фактори кои придонеле за конечниот резултат. Враќајќи се на нашиот хипотетички криминален тракер, можеме да го прилагодиме системот за вештачка интелигенција за да вратиме листа на објави што покажуваат сомнителен јазик или термини. Оттука, човекот може да потврди дали означениот корисник вреди да се истражува или не.
XAI обезбедува поголема транспарентност и доверба во системите за вештачка интелигенција и може да им помогне на луѓето да донесат подобри одлуки.
Заклучок
Како и сите вештачки пронајдоци, вештачката интелигенција не е инхерентно добра или лоша. Важен е начинот на кој користиме вештачка интелигенција.
Она што е уникатно за вештачката интелигенција е темпото со кое таа расте. Во изминатите пет години, секојдневно гледаме нови и возбудливи откритија во областа на машинското учење.
Сепак, законот не е толку брз. Додека корпорациите и владите продолжуваат да ја користат вештачката интелигенција за да го максимизираат профитот или да ја преземат контролата врз граѓаните, мора да најдеме начини да се залагаме за транспарентност и правичност во користењето на овие алгоритми.
Дали мислите дека е можна вистинска етичка вештачка интелигенција?
Оставете Одговор