AI-ны жауапкершілікпен пайдаланатынымызға қалай көз жеткіземіз?
Машиналық оқытудағы жетістіктер модельдер қоғамның үлкен бөлігіне жылдам масштабтауға және әсер етуге қабілетті екенін көрсетеді.
Алгоритмдер әр адамның телефонындағы жаңалықтар арнасын басқарады. Үкіметтер мен корпорациялар деректерге негізделген шешімдер қабылдау үшін AI қолдана бастайды.
AI әлемнің қалай жұмыс істейтініне одан әрі сіңген сайын, AI әділ әрекет ететініне қалай көз жеткіземіз?
Бұл мақалада біз AI пайдаланудың этикалық мәселелерін қарастырамыз және AI-ны жауапкершілікпен пайдалануды қамтамасыз ету үшін не істей алатынымызды көреміз.
Этикалық AI дегеніміз не?
Этикалық AI белгілі бір этикалық нұсқаулар жинағын ұстанатын жасанды интеллектке жатады.
Басқаша айтқанда, бұл жеке адамдар мен ұйымдардың AI-мен жауапкершілікпен жұмыс істеу тәсілі.
Соңғы жылдары корпорациялар теріс пайдалану және бұзу фактілері анықталғаннан кейін деректердің құпиялылығы туралы заңдарды ұстана бастады. Сол сияқты, AI қоғамға теріс әсер етпейтініне көз жеткізу үшін этикалық AI бойынша нұсқаулар ұсынылады.
Мысалы, АИ-нің кейбір түрлері объективті түрде жұмыс істейді немесе бұрыннан бар бұрмалануларды сақтайды. Жалдаушыларға мыңдаған түйіндемелерді сұрыптауға көмектесетін алгоритмді қарастырайық. Егер алгоритм негізінен ер адамдар немесе ақ нәсілді қызметкерлер бар деректер жиынында оқытылатын болса, алгоритм сол санаттарға жататын өтініш берушілерге қолайлы болуы мүмкін.
Этикалық АИ үшін принциптерді орнату
Біз таңу үшін ережелер жинағын құру туралы ойладық жасанды интеллект ондаған жылдар бойы.
Тіпті 1940-шы жылдары, ең қуатты компьютерлер тек ең арнайы ғылыми есептеулерді жасай алатын кезде, фантаст жазушылар интеллектуалды роботтарды басқару идеясын ойластырды.
Исаак Азимов робототехниканың үш заңын атақты ойлап тапты, ол қауіпсіздік элементі ретінде өзінің қысқа әңгімелеріне роботтарды бағдарламалауға енгізуді ұсынды.
Бұл заңдар көптеген болашақ ғылыми-фантастикалық оқиғаларға тірек болды және тіпті AI этикасы бойынша нақты зерттеулерді де хабардар етті.
Заманауи зерттеулерде AI зерттеушілері этикалық AI принциптерінің тізімін жасау үшін неғұрлым негізделген дереккөздерді іздейді.
AI ақыр соңында адам өміріне әсер ететіндіктен, біз не істеу керек және не істеу керек еместігі туралы түбегейлі түсінікке ие болуымыз керек.
Белмонт есебі
Анықтамалық нүкте үшін этика зерттеушілері нұсқаулық ретінде Белмонт есебін қарастырады. The Белмонт есебі 1979 жылы АҚШ Ұлттық денсаулық сақтау институты жариялаған құжат болды. Екінші дүниежүзілік соғыста жасалған биомедициналық қатыгездіктер медицинамен айналысатын зерттеушілер үшін этикалық нұсқауларды заңдастыруға түрткі болды.
Міне, баяндамада айтылған үш негізгі қағида:
- Адамдарға құрмет
- Қайырымдылық
- әділеттілік
Бірінші принцип барлық адам субъектілерінің қадір-қасиеті мен автономиясын қолдауға бағытталған. Мысалы, зерттеушілер алдамшы қатысушыларды азайтуы керек және әр адамнан олардың нақты келісімін талап етуі керек.
Екінші принцип, игілік, зерттеушінің қатысушыларға ықтимал зиянын барынша азайту міндетіне бағытталған. Бұл принцип зерттеушілерге жеке тәуекелдердің әлеуетті әлеуметтік пайдаға қатынасын теңестіру міндетін береді.
Белмонт баяндамасында тұжырымдалған түпкілікті қағида болып табылатын әділеттілік зерттеуден пайда алатын топтар арасында тәуекелдер мен пайдаларды тең бөлуге бағытталған. Зерттеушілер зерттеу субъектілерін кеңірек халық арасынан таңдауға міндетті. Бұл қоғамға теріс әсер етуі мүмкін жеке және жүйелік көзқарастарды барынша азайтады.
AI зерттеулерінде этиканы орналастыру
Белмонт баяндамасы негізінен адам субъектілерін қамтитын зерттеулерге бағытталған болса да, принциптер AI этикасы саласына қолдану үшін жеткілікті кең болды.
Үлкен деректер жасанды интеллект саласындағы құнды ресурсқа айналды. Зерттеушілердің деректерді қалай жинайтынын анықтайтын процестер этикалық нұсқауларды орындауы керек.
Көптеген елдерде деректердің құпиялылығы туралы заңдардың орындалуы компаниялардың қандай деректерді жинап, пайдалана алатындығына біршама шектеу қояды. Дегенмен, көптеген елдерде AI-ны зиян келтіру үшін қолдануға жол бермеу үшін әлі де қарапайым заңдар жиынтығы бар.
AI-мен этикалық тұрғыдан қалай жұмыс істеу керек
Міне, AI-ны этикалық және жауапкершілікпен пайдалануға көмектесетін бірнеше негізгі тұжырымдамалар.
Бағалауды бақылау
Жасанды интеллект бейтарап емес. Алгоритмдер әрқашан кірістірілген қиғаштық пен кемсітушілікке сезімтал, өйткені ол үйренетін деректер қиғаштықты қамтиды.
Кемсітушілік AI-ның жалпы мысалы - бет-әлпетті тану жүйелерінде жиі пайда болатын түрі. Бұл модельдер ақ ер адамдардың бет-әлпетін анықтауда жиі табысқа жетеді, бірақ терісі қараңғы адамдарды тануда сәтті болмайды.
Басқа мысал OpenAI компаниясының DALL-E 2 бағдарламасында бар. Пайдаланушыларда бар Табылды Белгілі бір сұраулар көбінесе модель онлайн суреттер деректер жинағынан таңдаған гендерлік және нәсілдік бейімділіктерді жаңғыртады.
Мысалы, адвокаттардың суреттерін сұрағанда, DALL-E 2 ер адвокаттардың суреттерін қайтарады. Екінші жағынан, стюардессалардың суреттерін сұрау негізінен әйелдер стюардессаларын қайтарады.
Жасанды интеллект жүйелерінен қиғаштықты толығымен жою мүмкін болмаса да, біз оның әсерін азайту үшін қадамдар жасай аламыз. Зерттеушілер мен инженерлер оқыту деректерін түсіну және AI жүйесінің қалай жұмыс істеуі керектігі туралы мәліметтерді ұсыну үшін әртүрлі топты жалдау арқылы біржақтылықты бақылауға қол жеткізе алады.
Адамға бағытталған дизайн тәсілі
Таңдаулы қолданбадағы алгоритмдер сізге теріс әсер етуі мүмкін.
Facebook және TikTok сияқты платформалар пайдаланушыларды өз платформаларында ұстау үшін қандай мазмұнға қызмет көрсету керектігін біле алады.
Тіпті зиян келтіру ниеті болмаса да, пайдаланушыларды мүмкіндігінше ұзақ уақыт бойы қолданбаға жабыстыру мақсаты психикалық денсаулық мәселелеріне әкелуі мүмкін. Twitter және Facebook сияқты платформаларда жағымсыз жаңалықтарды оқуға шамадан тыс уақыт жұмсауға арналған «қиянат» термині танымалдылыққа ие болды.
Басқа жағдайларда, жеккөрінішті мазмұн мен жалған ақпарат кеңірек платформаға ие болады, себебі ол пайдаланушының қатысуын арттыруға көмектеседі. А 2021 зерттеу Нью-Йорк университетінің зерттеушілері жалған ақпаратпен танымал дереккөздердің жазбалары беделді ақпарат көздеріне қарағанда алты есе көп лайк жинайтынын көрсетеді.
Бұл алгоритмдер адамға бағытталған дизайн тәсілінде жетіспейді. AI әрекетті қалай орындайтынын жобалайтын инженерлер әрқашан пайдаланушы тәжірибесін есте ұстауы керек.
Зерттеушілер мен инженерлер әрқашан сұрақ қоюы керек: «бұл пайдаланушыға қандай пайда әкеледі?»
Көптеген AI модельдері қара жәшік үлгісін ұстанады. Ішінде қара жәшік машина оқыту Бұл AI-ға қатысты, мұнда ешкім AI-ның белгілі бір нәтижеге неліктен келгенін түсіндіре алмайды.
Қара жәшіктер проблемалы, өйткені бұл машиналарға деген сенім көлемін азайтады.
Мысалы, Facebook үкіметтерге қылмыскерлерді іздеуге көмектесетін алгоритм шығарған сценарийді елестетіп көрейік. Егер AI жүйесі сізді белгілесе, оның неге мұндай шешім қабылдағанын ешкім түсіндіре алмайды. Жүйенің бұл түрі сізді қамауға алудың жалғыз себебі болмауы керек.
Түсіндірілетін AI немесе XAI соңғы нәтижеге ықпал еткен факторлардың тізімін қайтаруы керек. Біздің гипотетикалық қылмыстық трекерге оралсақ, біз күдікті тіл немесе терминдерді көрсететін жазбалар тізімін қайтару үшін AI жүйесін өзгерте аламыз. Сол жерден адам жалауша қойылған пайдаланушының зерттеуге тұрарлық немесе жоқ екенін тексере алады.
XAI AI жүйелеріне көбірек ашықтық пен сенімді қамтамасыз етеді және адамдарға жақсырақ шешім қабылдауға көмектеседі.
қорытынды
Барлық адам жасаған өнертабыстар сияқты, жасанды интеллект жақсы немесе жаман емес. Бұл AI-ны қалай пайдалануымыз маңызды.
Жасанды интеллекттің ерекшелігі - оның өсу қарқыны. Соңғы бес жылда біз күн сайын машиналық оқыту саласындағы жаңа және қызықты жаңалықтарды көрдік.
Алайда заң тез емес. Корпорациялар мен үкіметтер пайданы ұлғайту немесе азаматтарды бақылауға алу үшін AI-ны қолдануды жалғастыра отырып, біз осы алгоритмдерді пайдалануда ашықтық пен әділеттілікті қамтамасыз ету жолдарын табуымыз керек.
Сіз шынымен этикалық AI мүмкін деп ойлайсыз ба?
пікір қалдыру