Як пераканацца, што мы выкарыстоўваем AI адказна?
Дасягненні машыннага навучання паказваюць, што мадэлі могуць хутка маштабавацца і ўплываць на вялікую частку грамадства.
Алгарытмы кантралююць стужку навін на тэлефонах усіх. Урады і карпарацыі пачынаюць выкарыстоўваць ІІ для прыняцця рашэнняў на аснове даных.
Як мы можам пераканацца, што штучны інтэлект дзейнічае справядліва?
У гэтым артыкуле мы разгледзім этычныя праблемы выкарыстання ІІ і паглядзім, што мы можам зрабіць, каб забяспечыць адказнае выкарыстанне ІІ.
Што такое этычны штучны інтэлект?
Этычны ІІ адносіцца да штучнага інтэлекту, які прытрымліваецца пэўнага набору этычных прынцыпаў.
Іншымі словамі, гэта спосаб для прыватных асоб і арганізацый працаваць з ІІ адказна.
У апошнія гады карпарацыі пачалі прытрымлівацца законаў аб канфідэнцыяльнасці даных пасля таго, як выявіліся доказы злоўжыванняў і парушэнняў. Аналагічным чынам рэкамендуюцца рэкамендацыі па этычным ІІ, каб пераканацца, што ІІ не ўплывае негатыўна на грамадства.
Напрыклад, некаторыя тыпы штучнага інтэлекту працуюць прадузята або ўвекавечваюць ужо існуючыя прадузятасці. Давайце разгледзім алгарытм, які дапамагае рекрутерам сартаваць тысячы рэзюмэ. Калі алгарытм навучаецца на наборы дадзеных з пераважна мужчынамі або белымі супрацоўнікамі, магчыма, што алгарытм аддасць перавагу заяўнікам, якія падпадаюць пад гэтыя катэгорыі.
Устанаўленне прынцыпаў этычнага штучнага інтэлекту
Мы падумалі аб усталяванні шэрагу правілаў, якія трэба навязваць штучны інтэлект на працягу дзесяцігоддзяў.
Нават у 1940-я гады, калі самыя магутныя кампутары маглі выконваць толькі самыя спецыяльныя навуковыя разлікі, пісьменнікі-фантасты разважалі над ідэяй кіравання разумнымі робатамі.
Айзек Азімаў славута прыдумаў Тры законы робататэхнікі, якія ён прапанаваў убудаваць у праграмаванне робатаў у сваіх апавяданнях у якасці функцыі бяспекі.
Гэтыя законы сталі пробным каменем для многіх будучых навукова-фантастычных гісторый і нават паслужылі падставай для рэальных даследаванняў па этыцы ІІ.
У сучасных даследаваннях даследчыкі ІІ шукаюць больш абгрунтаваныя крыніцы, каб скласці спіс прынцыпаў этычнага ІІ.
Паколькі штучны інтэлект у канчатковым выніку паўплывае на чалавечыя жыцці, мы павінны мець фундаментальнае разуменне таго, што мы павінны і не павінны рабіць.
Справаздача Белманта
Для арыентыру даследчыкі этыкі звяртаюцца да справаздачы Белманта ў якасці кіраўніцтва. The Справаздача Белмонта быў дакументам, апублікаваным Нацыянальным інстытутам аховы здароўя ЗША ў 1979 г. Біямедыцынскія зверствы, учыненыя падчас Другой сусветнай вайны, прывялі да штуршка да заканадаўчага прыняцця этычных прынцыпаў для даследчыкаў, якія займаюцца медыцынай.
Вось тры асноўныя прынцыпы, згаданыя ў справаздачы:
- Павага да асобы
- Дабразычлівасць
- юстыцыя
Першы прынцып накіраваны на захаванне годнасці і аўтаноміі ўсіх суб'ектаў. Напрыклад, даследчыкі павінны звесці да мінімуму падман удзельнікаў і павінны патрабаваць ад кожнага чалавека выразнай згоды.
Другі прынцып, дабрачыннасць, засяроджаны на абавязку даследчыка мінімізаваць патэнцыйную шкоду ўдзельнікам. Гэты прынцып дае даследчыкам абавязак збалансаваць суадносіны індывідуальных рызык і патэнцыйных сацыяльных выгод.
Справядлівасць, апошні прынцып, выкладзены ў справаздачы Белманта, засяроджваецца на роўным размеркаванні рызык і выгод паміж групамі, якія маглі б атрымаць выгаду з даследавання. Даследчыкі абавязаны выбіраць суб'ектаў даследавання сярод больш шырокіх колаў насельніцтва. Гэта звядзе да мінімуму індывідуальныя і сістэмныя прадузятасці, якія могуць негатыўна паўплываць на грамадства.
Размяшчэнне этыкі ў даследаваннях штучнага інтэлекту
Нягледзячы на тое, што справаздача Белманта ў асноўным была накіравана на даследаванні з удзелам людзей, прынцыпы былі дастаткова шырокімі, каб прымяняцца да этыкі штучнага інтэлекту.
Вялікія дадзеныя сталі каштоўным рэсурсам у галіне штучнага інтэлекту. Працэсы, якія вызначаюць, як даследчыкі збіраюць даныя, павінны адпавядаць этычным прынцыпам.
Рэалізацыя законаў аб канфідэнцыяльнасці даных у большасці краін у пэўнай ступені абмяжоўвае тое, якія даныя кампаніі могуць збіраць і выкарыстоўваць. Тым не менш, у большасці краін па-ранейшаму дзейнічае элементарны набор законаў, якія прадухіляюць выкарыстанне ШІ для нанясення шкоды.
Як этычна працаваць з штучным інтэлектам
Вось некалькі ключавых паняццяў, якія могуць дапамагчы працаваць над больш этычным і адказным выкарыстаннем штучнага інтэлекту.
Кантроль для Bias
Штучны інтэлект па сваёй сутнасці не нейтральны. Алгарытмы заўсёды адчувальныя да ўстаўленых зрушэнняў і дыскрымінацыі, таму што даныя, якія яны вывучаюць, уключаюць зрушэнне.
Распаўсюджаным прыкладам дыскрымінацыйнага ІІ з'яўляецца тып, які часта з'яўляецца ў сістэмах распазнання твараў. Гэтым мадэлям часта ўдаецца распазнаць белыя мужчынскія твары, але менш паспяхова распазнаюць людзей з цёмнай скурай.
Іншы прыклад з'яўляецца ў DALL-E 2 OpenAI. Карыстальнікі маюць выяўлены што некаторыя падказкі часта прайграваюць гендэрныя і расавыя прадузятасці, якія мадэль выявіла са свайго набору даных онлайн-выяў.
Напрыклад, пры запыце выявы юрыстаў DALL-E 2 вяртае выявы юрыстаў-мужчын. З іншага боку, запыт на фатаграфіі бортправаднікоў вяртае ў асноўным жанчын.
Нягледзячы на тое, што немагчыма цалкам пазбавіцца ад прадузятасці ў сістэмах штучнага інтэлекту, мы можам прыняць меры, каб мінімізаваць яе наступствы. Даследчыкі і інжынеры могуць дасягнуць большага кантролю над прадузятасцю, разумеючы навучальныя даныя і наймаючы разнастайную каманду, якая прапануе інфармацыю аб тым, як павінна працаваць сістэма штучнага інтэлекту.
Чалавекаарыентаваны падыход да праектавання
Алгарытмы вашай любімай праграмы могуць негатыўна паўплываць на вас.
Такія платформы, як Facebook і TikTok, могуць даведацца, які кантэнт падаваць, каб утрымліваць карыстальнікаў на сваіх платформах.
Нават без намеру прычынення шкоды мэта ўтрымаць карыстальнікаў як мага даўжэй прывязанымі да іх праграмы можа прывесці да праблем з псіхічным здароўем. Папулярнасць тэрміна «думскроллінг» узрасла як усеагульны тэрмін для марнавання празмернай колькасці часу на чытанне негатыўных навін на такіх платформах, як Twitter і Facebook.
У іншых выпадках змесціва, якое выклікае нянавісць, і дэзінфармацыя атрымліваюць больш шырокую платформу, таму што гэта дапамагае павялічыць узаемадзеянне карыстальнікаў. А 2021 даследаванне Даследчыкі з Універсітэта Нью-Ёрка паказваюць, што паведамленні з крыніц, вядомых дэзінфармацыяй, атрымліваюць у шэсць разоў больш лайкаў, чым аўтарытэтныя крыніцы навін.
Гэтым алгарытмам не хапае падыходу да праектавання, арыентаванага на чалавека. Інжынеры, якія распрацоўваюць, як штучны інтэлект выконвае дзеянне, павінны заўсёды памятаць пра карыстацкі досвед.
Даследчыкі і інжынеры заўсёды павінны задаваць пытанне: "Якую карысць гэта прыносіць карыстальніку?"
Большасць мадэляў штучнага інтэлекту прытрымліваюцца мадэлі чорнай скрыні. Чорная скрыня ў навучанне з дапамогай машыны адносіцца да штучнага інтэлекту, дзе ні адзін чалавек не можа растлумачыць, чаму штучны інтэлект дасягнуў пэўнага выніку.
Чорныя скрыні праблематычныя, таму што яны зніжаюць давер, які мы можам аказаць машынам.
Напрыклад, давайце ўявім сабе сцэнар, калі Facebook выпусціў алгарытм, які дапамагае ўрадам высочваць злачынцаў. Калі сістэма штучнага інтэлекту пазначыць вас, ніхто не зможа растлумачыць, чаму яна прыняла такое рашэнне. Такая сістэма не павінна быць адзінай прычынай, чаму вы павінны быць арыштаваныя.
Вытлумачальны штучны інтэлект або XAI павінны вяртаць спіс фактараў, якія спрыялі канчатковаму выніку. Вяртаючыся да нашага гіпатэтычнага трэкера злачынцаў, мы можам наладзіць сістэму штучнага інтэлекту, каб вярнуць спіс паведамленняў, якія паказваюць падазроныя выразы або тэрміны. Адтуль чалавек можа праверыць, ці варты пазначаны карыстальнік расследавання ці не.
XAI забяспечвае большую празрыстасць і давер да сістэм штучнага інтэлекту і можа дапамагчы людзям прымаць лепшыя рашэнні.
заключэнне
Як і ўсе створаныя чалавекам вынаходніцтвы, штучны інтэлект па сваёй сутнасці не добры ці дрэнны. Важна тое, як мы выкарыстоўваем штучны інтэлект.
Унікальнасць штучнага інтэлекту - гэта тэмпы яго росту. За апошнія пяць гадоў кожны дзень мы бачым новыя і захапляльныя адкрыцці ў галіне машыннага навучання.
Аднак закон не такі хуткі. Паколькі карпарацыі і ўрады працягваюць выкарыстоўваць штучны інтэлект, каб максымізаваць прыбытак або захапіць кантроль над грамадзянамі, мы павінны знайсці спосабы дамагчыся празрыстасці і справядлівасці пры выкарыстанні гэтых алгарытмаў.
Як вы лічыце, ці магчымы па-сапраўднаму этычны ІІ?
Пакінуць каментар