AIdan mas'uliyat bilan foydalanishimizga qanday ishonch hosil qilishimiz mumkin?
Mashinani o'rganishdagi yutuqlar shuni ko'rsatadiki, modellar tezda kengayishi va jamiyatning katta qismiga ta'sir qilishi mumkin.
Algoritmlar barchaning telefonlarida yangiliklar tasmasini boshqaradi. Hukumatlar va korporatsiyalar ma'lumotlarga asoslangan qarorlar qabul qilish uchun AIdan foydalanishni boshlaydilar.
AI dunyo qanday ishlashiga yanada chuqurroq kirib borar ekan, biz AI adolatli ishlayotganiga qanday ishonch hosil qilishimiz mumkin?
Ushbu maqolada biz AIdan foydalanishning axloqiy muammolarini ko'rib chiqamiz va AIdan mas'uliyatli foydalanishni ta'minlash uchun nima qilishimiz mumkinligini ko'rib chiqamiz.
Etik AI nima?
Axloqiy AI ma'lum bir axloqiy ko'rsatmalarga rioya qiladigan sun'iy intellektni anglatadi.
Boshqacha qilib aytganda, bu shaxslar va tashkilotlar uchun sun'iy intellekt bilan mas'uliyatli ishlash usulidir.
So'nggi yillarda korporatsiyalar ma'lumotlar maxfiyligi to'g'risidagi qonunlarga suiiste'mollik va huquqbuzarlik dalillari paydo bo'lgandan keyin amal qila boshladilar. Xuddi shunday, AI jamiyatga salbiy ta'sir ko'rsatmasligiga ishonch hosil qilish uchun axloqiy AI bo'yicha ko'rsatmalar tavsiya etiladi.
Masalan, sun'iy intellektning ba'zi turlari noxolis ishlaydi yoki mavjud bo'lgan noto'g'ri qarashlarni davom ettiradi. Keling, ishga yollovchilarga minglab rezyumelarni saralashga yordam beradigan algoritmni ko'rib chiqaylik. Agar algoritm asosan erkak yoki oq tanli xodimlardan iborat ma'lumotlar to'plamida o'qitilgan bo'lsa, algoritm ushbu toifalarga kiruvchi abituriyentlarni qo'llab-quvvatlashi mumkin.
Axloqiy AI uchun tamoyillarni o'rnatish
Biz o'rnatish uchun bir qator qoidalarni o'rnatish haqida o'yladik sun'iy intellekt o'nlab yillar davomida.
Hatto 1940-yillarda ham, eng kuchli kompyuterlar faqat eng ixtisoslashgan ilmiy hisob-kitoblarni amalga oshirishi mumkin bo'lganida, fantast yozuvchilar aqlli robotlarni boshqarish g'oyasi haqida o'ylashgan.
Isaak Asimov robototexnikaning uchta qonunini mashhur qilib yaratgan va u o'zining qisqa hikoyalarida xavfsizlik elementi sifatida robotlarni dasturlashda kiritishni taklif qilgan.
Ushbu qonunlar ko'plab kelajakdagi ilmiy-fantastik hikoyalar uchun poydevor bo'lib qoldi va hatto AI etikasi bo'yicha dolzarb tadqiqotlarni ham ma'lum qildi.
Zamonaviy tadqiqotlarda AI tadqiqotchilari axloqiy AI tamoyillari ro'yxatini yaratish uchun ko'proq asosli manbalarni qidirmoqdalar.
AI oxir-oqibat inson hayotiga ta'sir qilishi sababli, biz nima qilishimiz va nima qilmasligimiz haqida asosiy tushunchaga ega bo'lishimiz kerak.
Belmont hisoboti
Malumot uchun, axloqshunoslar Belmont hisobotiga qo'llanma sifatida qarashadi. The Belmont hisoboti 1979 yilda AQSh Milliy Sog'liqni saqlash instituti tomonidan chop etilgan hujjat edi. Ikkinchi jahon urushida amalga oshirilgan biotibbiyot vahshiyliklari tibbiyot bilan shug'ullanuvchi tadqiqotchilar uchun axloqiy ko'rsatmalarni qonunlashtirishga turtki bo'ldi.
Hisobotda qayd etilgan uchta asosiy tamoyil:
- Shaxslarga hurmat
- Foyda
- adolatlilik
Birinchi tamoyil barcha insoniy sub'ektlarning qadr-qimmati va avtonomiyasini qo'llab-quvvatlashga qaratilgan. Misol uchun, tadqiqotchilar aldamchi ishtirokchilarni minimallashtirishlari va har bir kishidan o'zlarining aniq roziligini talab qilishlari kerak.
Ikkinchi tamoyil, xayrixohlik, tadqiqotchining ishtirokchilarga mumkin bo'lgan zararni minimallashtirish vazifasiga qaratilgan. Ushbu tamoyil tadqiqotchilarga individual xavflarning potentsial ijtimoiy imtiyozlarga nisbatini muvozanatlash majburiyatini beradi.
Belmont hisobotida belgilangan yakuniy tamoyil bo'lgan adolat tadqiqotdan foyda ko'rishi mumkin bo'lgan guruhlar o'rtasida xavf va foydalarni teng taqsimlashga qaratilgan. Tadqiqotchilar kengroq aholi orasidan tadqiqot mavzularini tanlash majburiyatiga ega. Bu jamiyatga salbiy ta'sir ko'rsatishi mumkin bo'lgan individual va tizimli qarashlarni minimallashtiradi.
AI tadqiqotlarida axloqni joylashtirish
Belmont hisoboti birinchi navbatda inson sub'ektlari ishtirokidagi tadqiqotlarga qaratilgan bo'lsa-da, printsiplar AI axloqi sohasiga tatbiq etish uchun etarlicha keng edi.
Big Data sun'iy intellekt sohasida qimmatli manbaga aylandi. Tadqiqotchilar ma'lumotlarni qanday to'plashini aniqlaydigan jarayonlar axloqiy ko'rsatmalarga amal qilishi kerak.
Ko'pgina mamlakatlarda ma'lumotlarning maxfiyligi to'g'risidagi qonunlarning amalga oshirilishi kompaniyalar qanday ma'lumotlarni to'plashi va foydalanishi mumkinligiga cheklov qo'yadi. Biroq, aksariyat mamlakatlarda AIdan zarar etkazish uchun foydalanishning oldini olish uchun hali ham oddiy qonunlar mavjud.
AI bilan axloqiy jihatdan qanday ishlash kerak
AIdan yanada axloqiy va mas'uliyatli foydalanishga yordam beradigan bir nechta asosiy tushunchalar.
Noqonuniylikni nazorat qilish
Sun'iy intellekt tabiatan neytral emas. Algoritmlar har doim kiritilgan noto'g'ri va kamsitishlarga moyil bo'ladi, chunki u o'rganadigan ma'lumotlar tarafkashlikni o'z ichiga oladi.
Diskriminatsion AIning keng tarqalgan namunasi - bu yuzni aniqlash tizimlarida tez-tez paydo bo'ladigan tur. Ushbu modellar ko'pincha oq erkak yuzlarini aniqlashda muvaffaqiyat qozonadi, ammo qorong'i teriga ega odamlarni tanib olishda kamroq muvaffaqiyat qozonadi.
Yana bir misol OpenAI ning DALL-E 2 da ko'rinadi. Foydalanuvchilar bor Kashf etilgan Ba'zi takliflar ko'pincha model onlayn tasvirlar ma'lumotlar to'plamidan olgan jins va irqiy qarashlarni takrorlaydi.
Misol uchun, advokatlarning rasmlari so'ralsa, DALL-E 2 erkak advokatlarning rasmlarini qaytaradi. Boshqa tomondan, styuardessalarning rasmlarini so'rash asosan ayollar styuardessalarni qaytaradi.
AI tizimlaridan noto'g'rilikni butunlay olib tashlashning iloji bo'lmasa-da, biz uning ta'sirini kamaytirish uchun choralar ko'rishimiz mumkin. Tadqiqotchilar va muhandislar ta'lim ma'lumotlarini tushunish va sun'iy intellekt tizimi qanday ishlashi kerakligi haqida ma'lumot berish uchun turli xil jamoani yollash orqali tarafkashlikni ko'proq nazorat qilishlari mumkin.
Insonga asoslangan dizayn yondashuvi
Sevimli ilovangizdagi algoritmlar sizga salbiy ta'sir ko'rsatishi mumkin.
Facebook va TikTok kabi platformalar foydalanuvchilarni o'z platformalarida ushlab turish uchun qanday tarkibga xizmat qilishni o'rganishga qodir.
Zarar yetkazish niyati bo‘lmasa ham, foydalanuvchilarni iloji boricha uzoq vaqt davomida o‘z ilovasiga yopishib qolish maqsadi ruhiy salomatlik bilan bog‘liq muammolarga olib kelishi mumkin. “Doomscrolling” atamasi Twitter va Facebook kabi platformalarda salbiy yangiliklarni o‘qish uchun ko‘p vaqt sarflash uchun mashhur atama sifatida ommalashdi.
Boshqa hollarda, nafratlangan kontent va noto'g'ri ma'lumotlar kengroq platformani oladi, chunki u foydalanuvchilarning faolligini oshirishga yordam beradi. A 2021 o'rganish Nyu-York universiteti tadqiqotchilari noto'g'ri ma'lumot bilan ma'lum bo'lgan manbalarning postlari nufuzli yangiliklar manbalariga qaraganda olti baravar ko'proq yoqtirishlarini ko'rsatdi.
Ushbu algoritmlar insonga yo'naltirilgan dizayn yondashuvida etishmaydi. AI harakatni qanday bajarishini loyihalashtirayotgan muhandislar doimo foydalanuvchi tajribasini yodda tutishlari kerak.
Tadqiqotchilar va muhandislar doimo savol berishlari kerak: "Bu foydalanuvchiga qanday foyda keltiradi?"
Aksariyat AI modellari qora quti modeliga amal qiladi. Ichkarida qora quti kompyuterni o'rganish AI nima uchun ma'lum bir natijaga erishganini hech kim tushuntira olmaydigan AIga ishora qiladi.
Qora qutilar muammoli, chunki bu bizning mashinalarga bo'lgan ishonchimizni kamaytiradi.
Misol uchun, Facebook hukumatlarga jinoyatchilarni kuzatishga yordam beradigan algoritm chiqargan stsenariyni tasavvur qilaylik. Agar AI tizimi sizni belgilasa, hech kim nima uchun bunday qarorga kelganini tushuntira olmaydi. Ushbu turdagi tizim sizni hibsga olishning yagona sababi bo'lmasligi kerak.
Tushuntiriladigan AI yoki XAI yakuniy natijaga hissa qo'shgan omillar ro'yxatini qaytarishi kerak. Bizning gipotetik jinoiy kuzatuvchiga qaytsak, biz shubhali til yoki atamalarni ko'rsatadigan xabarlar ro'yxatini qaytarish uchun AI tizimini o'zgartirishimiz mumkin. U yerdan odam bayroqcha qo'yilgan foydalanuvchini tekshirishga arziydimi yoki yo'qligini tekshirishi mumkin.
XAI AI tizimlarida ko'proq shaffoflik va ishonchni ta'minlaydi va odamlarga yaxshiroq qarorlar qabul qilishga yordam beradi.
Xulosa
Inson tomonidan yaratilgan barcha ixtirolar singari, sun'iy intellekt ham tabiatan yaxshi yoki yomon emas. AIdan qanday foydalanishimiz muhim.
Sun'iy intellektning o'ziga xos jihati uning o'sish sur'atidir. So'nggi besh yil ichida biz har kuni mashinani o'rganish sohasida yangi va qiziqarli kashfiyotlarni ko'rdik.
Biroq, qonun unchalik tez emas. Korporatsiyalar va hukumatlar foydani ko‘paytirish yoki fuqarolar ustidan nazoratni qo‘lga kiritish uchun sun’iy intellektdan foydalanishda davom etar ekan, biz ushbu algoritmlardan foydalanishda shaffoflik va tenglikni ta’minlash yo‘llarini topishimiz kerak.
Sizningcha, chinakam axloqiy AI mumkinmi?
Leave a Reply