Како да будемо сигурни да користимо АИ одговорно?
Напредак у машинском учењу показује да модели могу брзо да се скалирају и утичу на велики део друштва.
Алгоритми контролишу вести на свачијим телефонима. Владе и корпорације почињу да користе вештачку интелигенцију за доношење одлука заснованих на подацима.
Како вештачка интелигенција постаје све више укорењена у томе како свет функционише, како да се уверимо да АИ делује праведно?
У овом чланку ћемо размотрити етичке изазове коришћења вештачке интелигенције и видети шта можемо да урадимо да обезбедимо одговорну употребу вештачке интелигенције.
Шта је етичка вештачка интелигенција?
Етичка АИ се односи на вештачку интелигенцију која се придржава одређеног скупа етичких смерница.
Другим речима, то је начин да појединци и организације раде са вештачком интелигенцијом на одговоран начин.
Последњих година, корпорације су почеле да се придржавају закона о приватности података након што су се појавили докази о злоупотреби и кршењу података. Слично томе, препоручују се смернице за етичку вештачку интелигенцију како би се осигурало да вештачка интелигенција не утиче негативно на друштво.
На пример, неке врсте вештачке интелигенције раде на пристрасан начин или одржавају већ постојеће предрасуде. Хајде да размотримо алгоритам који помаже регрутерима да сортирају хиљаде животописа. Ако је алгоритам обучен на скупу података са претежно мушким или белим запосленима, онда је могуће да ће алгоритам фаворизовати кандидате који потпадају под те категорије.
Успостављање принципа за етичку вештачку интелигенцију
Размишљали смо о успостављању скупа правила за наметање вештачка интелигенција деценијама.
Чак и током 1940-их, када су најмоћнији рачунари могли да врше само најспецијализованије научне прорачуне, писци научне фантастике размишљали су о идеји контроле интелигентних робота.
Исак Асимов је чувено сковао Три закона роботике, за које је предложио да буду уграђени у програмирање робота у његовим кратким причама као безбедносна карактеристика.
Ови закони су постали камен темељац за многе будуће научно-фантастичне приче и чак су дали информације о стварним студијама о етици АИ.
У савременим истраживањима, истраживачи вештачке интелигенције траже утемељеније изворе како би успоставили листу принципа за етичку вештачку интелигенцију.
Пошто ће вештачка интелигенција на крају утицати на људске животе, морамо имати фундаментално разумевање шта треба, а шта не треба да радимо.
Белмонтов извештај
Као референтну тачку, истраживачи етике гледају у Белмонтов извештај као водич. Тхе Белмонт Репорт био је документ који су 1979. године објавили амерички национални институти за здравље. Биомедицинска злодела почињена у Другом светском рату довела је до гурања да се донесу законске етичке смернице за истраживаче који се баве медицином.
Ево три основна принципа поменута у извештају:
- Поштовање особа
- Доброчинство
- правда
Први принцип има за циљ да подржи достојанство и аутономију свих људских субјеката. На пример, истраживачи би требало да минимизирају обмањивање учесника и да захтевају од сваке особе да да свој изричит пристанак.
Други принцип, доброчинство, фокусира се на дужност истраживача да минимизира потенцијалну штету учесницима. Овај принцип даје истраживачима дужност да уравнотеже однос индивидуалних ризика и потенцијалних друштвених користи.
Правда, коначни принцип који је постављен у Белмонтовом извештају, фокусира се на једнаку расподелу ризика и користи међу групама које би могле имати користи од истраживања. Истраживачи су дужни да изаберу субјекте истраживања из шире популације. То би смањило индивидуалне и системске предрасуде које би могле негативно утицати на друштво.
Постављање етике у истраживање вештачке интелигенције
Док је Белмонтов извештај првенствено био усмерен на истраживања која су укључивала људе, принципи су били довољно широки да се примењују на поље етике вештачке интелигенције.
Велики подаци су постали вредан ресурс у области вештачке интелигенције. Процеси који одређују како истраживачи прикупљају податке треба да прате етичке смернице.
Примена закона о приватности података у већини земаља донекле поставља ограничење на то које компаније података могу да прикупљају и користе. Међутим, већина нација још увек има рудиментарни сет закона који спречавају употребу вештачке интелигенције за наношење штете.
Како етички радити са АИ
Ево неколико кључних концепата који могу помоћи у раду на етичнијој и одговорнијој употреби АИ.
Контрола за пристрасност
Вештачка интелигенција није сама по себи неутрална. Алгоритми су увек подложни уметнутој пристрасности и дискриминацији јер подаци из којих учи укључују пристрасност.
Уобичајени пример дискриминаторне АИ је тип који се често појављује у системима за препознавање лица. Ови модели често успевају да идентификују бела мушка лица, али су мање успешни у препознавању људи са тамнијом кожом.
Други пример се појављује у ОпенАИ-јевом ДАЛЛ-Е 2. Корисници имају открио да одређени подстицаји често репродукују родне и расне предрасуде које је модел покупио из свог скупа података онлајн слика.
На пример, када се добије упит за слике адвоката, ДАЛЛ-Е 2 враћа слике мушких адвоката. С друге стране, тражењем слика стјуардеса враћају се углавном жене стјуардесе.
Иако је можда немогуће потпуно уклонити пристрасност из система вештачке интелигенције, можемо предузети кораке да минимизирамо његове ефекте. Истраживачи и инжењери могу постићи већу контролу пристрасности тако што ће разумети податке о обуци и ангажовати разноврстан тим који ће понудити информације о томе како систем вештачке интелигенције треба да функционише.
Приступ дизајну усредсређен на човека
Алгоритми у вашој омиљеној апликацији могу негативно утицати на вас.
Платформе као што су Фацебоок и ТикТок су у могућности да науче који садржај да служе како би кориснике задржали на својим платформама.
Чак и без намере да се нанесе штета, циљ да корисници остану приковани за своју апликацију што је дуже могуће може довести до проблема са менталним здрављем. Термин 'доомсцроллинг' постао је све популарнији као свеобухватни термин за трошење прекомерне количине времена читајући негативне вести на платформама као што су Твиттер и Фацебоок.
У другим случајевима, садржај мржње и дезинформације добијају ширу платформу јер помажу у повећању ангажовања корисника. А КСНУМКС студија Истраживачи са Универзитета у Њујорку показују да објаве из извора познатих по дезинформацијама добијају шест пута више лајкова од реномираних извора вести.
Ови алгоритми недостају у приступу дизајна усредсређеном на човека. Инжењери који дизајнирају начин на који АИ изводи акцију морају увек имати на уму корисничко искуство.
Истраживачи и инжењери морају увек да постављају питање: 'како ово користи кориснику?'
Већина АИ модела прати модел црне кутије. Црна кутија унутра Машина учење односи се на АИ где ниједан човек не може да објасни зашто је АИ дошао до одређеног резултата.
Црне кутије су проблематичне јер смањују количину поверења које можемо да уложимо у машине.
На пример, замислимо сценарио где је Фејсбук објавио алгоритам који је помогао владама да уђу у траг криминалцима. Ако вас систем вештачке интелигенције означи, нико неће моћи да објасни зашто је донео ту одлуку. Ова врста система не би требало да буде једини разлог зашто би требало да будете ухапшени.
Објашњива АИ или КСАИ треба да врати листу фактора који су допринели коначном резултату. Враћајући се на наш хипотетички трагач криминала, можемо да подесимо систем вештачке интелигенције да врати листу постова који показују сумњив језик или термине. Одатле, човек може да провери да ли је означени корисник вредан истраге или не.
КСАИ пружа више транспарентности и поверења у системе вештачке интелигенције и може помоћи људима да донесу боље одлуке.
Zakljucak
Као и сви изуми које је направио човек, вештачка интелигенција није сама по себи ни добра ни лоша. Важан је начин на који користимо АИ.
Оно што је јединствено у вези са вештачком интелигенцијом је темпо којим расте. У протеклих пет година свакодневно смо виђали нова и узбудљива открића у области машинског учења.
Међутим, закон није тако брз. Како корпорације и владе настављају да користе вештачку интелигенцију да максимизирају профит или преузму контролу над грађанима, морамо пронаћи начине да подстакнемо транспарентност и правичност у коришћењу ових алгоритама.
Да ли мислите да је истински етичка вештачка интелигенција могућа?
Ostavite komentar