AI biznes va sog'liqni saqlash kabi turli sohalarda samaradorlikni oshirish qudratiga ega. Biroq, tushuntirishning yo'qligi bizning qaror qabul qilishda foydalanishga ishonishimizga to'sqinlik qiladi.
Algoritmning hukmiga ishonishimiz kerakmi?
Har qanday sohada qaror qabul qiluvchilar uchun cheklovlar va potentsial noto'g'ri tomonlarni tushunish muhimdir mashinani o'rganish modellari. Ushbu modellar maqsadga muvofiq harakat qilishini ta'minlash uchun har qanday AI tizimining chiqishi insonga tushunarli bo'lishi kerak.
Ushbu maqolada biz AIda tushuntirishning ahamiyatini ko'rib chiqamiz. Biz mashinani o'rganish modellaridan tushuntirishlar olish uchun ishlatiladigan usullarning qisqacha ko'rinishini taqdim etamiz.
Tushuntiriladigan AI nima?
Tushuntirish mumkin sun'iy intellekt yoki XAI odamlarga mashinani o'rganish modellari qanday qilib ma'lum bir natijaga erishganini tushunishga imkon beradigan texnika va usullarni anglatadi.
Ko'pchilik mashhur mashinada o'rganish algoritmlari xuddi "qora quti" kabi ishlang. Mashinani o'rganishda, qora quti algoritmlari ML modellariga murojaat qiling, bu erda ma'lum bir kirish ma'lum bir chiqishga qanday olib kelishini tekshirish mumkin emas. Hatto sun'iy intellektni ishlab chiquvchisi ham algoritm qanday ishlashini to'liq tushuntirib bera olmaydi.
Masalan, chuqur o'rganish algoritmlari qo'llaniladi neyron tarmoqlari tonna ma'lumotlardan naqshlarni aniqlash uchun. AI tadqiqotchilari va ishlab chiquvchilari neyron tarmoqlar texnik nuqtai nazardan qanday ishlashini tushunishsa ham, hatto ular neyron tarmoq qanday natijaga erishganini to'liq tushuntira olmaydi.
Ba'zi neyron tarmoqlar millionlab parametrlarni boshqaradi, ularning barchasi yakuniy natijani qaytarish uchun birgalikda ishlaydi.
Qarorlar muhim bo'lgan holatlarda, tushuntirishning etishmasligi muammoga aylanishi mumkin.
Nima uchun tushuntirish mumkinligi muhim
Tushuntirish qobiliyati modellar qanday qaror qabul qilishlari haqida tushuncha beradi. Qaror qabul qilish uchun sun'iy intellektni moslashtirishni rejalashtirgan korxonalar AI eng yaxshi qarorga kelish uchun to'g'ri ma'lumotlardan foydalanganligini aniqlashlari kerak.
Tushuntirib bo'lmaydigan modellar bir nechta sohalarda muammo hisoblanadi. Misol uchun, agar kompaniya ishga qabul qilish to'g'risida qaror qabul qilish uchun algoritmdan foydalansa, algoritm arizachini qanday rad etishga qaror qilgani shaffof bo'lishi hamma uchun yaxshi bo'ladi.
Boshqa maydon qaerda chuqur o'rganish algoritmlar sog'liqni saqlashda ko'proq qo'llaniladi. Algoritmlar saratonning mumkin bo'lgan belgilarini aniqlashga harakat qilgan hollarda, shifokorlar modelning ma'lum bir tashxisga qanday etib kelganini tushunishlari muhimdir. Mutaxassislar sun'iy intellektdan to'liq foydalanishlari va unga ko'r-ko'rona amal qilmasliklari uchun ma'lum darajadagi tushuntirish talab etiladi
Tushuntiriladigan AI algoritmlariga umumiy nuqtai
Tushuntiriladigan AI algoritmlari ikkita keng toifaga bo'linadi: o'z-o'zidan talqin qilinadigan modellar va post-hoc tushuntirishlar.
O'z-o'zidan talqin qilinadigan modellar
O'z-o'zidan talqin qilinadigan modellar inson to'g'ridan-to'g'ri o'qishi va sharhlashi mumkin bo'lgan algoritmlar. Bunday holda, modelning o'zi tushuntirishdir.
Eng keng tarqalgan o'z-o'zidan talqin qilinadigan modellardan ba'zilari qaror daraxtlari va regressiya modellarini o'z ichiga oladi.
Misol uchun, uy-joy narxlarini bashorat qiluvchi chiziqli regressiya modelini ko'rib chiqaylik. Chiziqli regressiya shuni anglatadiki, ba'zi bir x qiymati bilan biz ma'lum bir chiziqli f funktsiyani qo'llash orqali maqsadli qiymatimizni y taxmin qilishimiz mumkin.
Faraz qilaylik, bizning modelimiz uy narxini aniqlash uchun asosiy ko'rsatkich sifatida lot o'lchamidan foydalanadi. Chiziqli regressiyadan foydalanib, biz y = 5000 * x funktsiyasini ishlab chiqdik, bu erda x - kvadrat fut yoki lot hajmi.
Ushbu model inson tomonidan o'qilishi mumkin va butunlay shaffofdir.
Post-hoc tushuntirishlari
Post-hoc tushuntirishlar boshqa algoritmlarga tushuntirish qobiliyatini qo'shish uchun ishlatilishi mumkin bo'lgan algoritm va texnikalar guruhidir.
Ko'pgina post-hoc tushuntirish texnikasi algoritm qanday ishlashini tushunishi shart emas. Foydalanuvchi faqat maqsadli algoritmning kirish va natijaviy chiqishini belgilashi kerak.
Bu tushuntirishlar yana ikki turga bo'linadi: mahalliy tushuntirishlar va global tushuntirishlar.
Mahalliy tushuntirishlar kirishlarning bir qismini tushuntirishga qaratilgan. Masalan, ma'lum bir natijani hisobga olgan holda, mahalliy tushuntirish ushbu qarorni qabul qilishga qaysi parametrlar hissa qo'shganini aniqlay oladi.
Global tushuntirishlar butun algoritmning post-hoc tushuntirishlarini ishlab chiqarishga qaratilgan. Ushbu turdagi tushuntirishni qilish odatda qiyinroq. Algoritmlar murakkab va yakuniy natijaga erishishda muhim bo'lgan son-sanoqsiz parametrlar bo'lishi mumkin.
Mahalliy tushuntirish algoritmlariga misollar
XAIga erishish uchun ishlatiladigan ko'plab texnikalar orasida mahalliy tushuntirishlar uchun ishlatiladigan algoritmlar ko'pchilik tadqiqotchilar e'tiborini qaratadi.
Ushbu bo'limda biz ba'zi mashhur mahalliy tushuntirish algoritmlarini va ularning har biri qanday ishlashini ko'rib chiqamiz.
LIME
LIME (mahalliy talqin qilinadigan model - agnostik tushuntirish) har qanday mashinani o'rganish algoritmining bashoratlarini tushuntira oladigan algoritmdir.
Nomidan ko'rinib turibdiki, LIME model-agnostikdir. Bu LIME har qanday turdagi modellar uchun ishlashi mumkinligini anglatadi. Model, shuningdek, mahalliy talqin qilinishi mumkin, ya'ni biz modelni butun modelni tushuntirishdan ko'ra, mahalliy natijalardan foydalangan holda tushuntirishimiz mumkin.
Agar tushuntirilayotgan model qora quti bo'lsa ham, LIME ma'lum bir pozitsiyaga yaqin nuqtalar atrofida mahalliy chiziqli modelni yaratadi.
LIMe chiziqli modelni taqdim etadi, u bashorat yaqinidagi modelni taxmin qiladi, lekin global miqyosda emas.
Ushbu ochiq manbali omborga tashrif buyurib, ushbu algoritm haqida ko'proq bilib olishingiz mumkin.
SHAP
Shapley qo'shimcha tushuntirishlari (SHAP) individual bashoratlarni tushuntirish usuli hisoblanadi. SHAP qanday ishlashini tushunish uchun Shapley qadriyatlari nima ekanligini tushuntirishimiz kerak.
Shapley qiymati o'yin nazariyasidagi tushuncha bo'lib, o'yindagi har bir o'yinchiga "qiymat" belgilashni o'z ichiga oladi. Bu shunday taqsimlanadiki, har bir o'yinchiga berilgan qiymat o'yinchining o'yinga qo'shgan hissasiga asoslanadi.
Qanday murojaat qilamiz o'yin nazariyasidan mashinani o'rganishga modellar?
Aytaylik, bizning modelimizdagi har bir xususiyat "o'yinchi" va "o'yin" bashoratni chiqaradigan funktsiyadir.
SHAP usuli turli xil xususiyatlarga Shapley qiymatlarini belgilaydigan vaznli chiziqli modelni yaratadi. Shapley qiymatlari yuqori bo'lgan xususiyatlar model natijasiga ko'proq ta'sir qiladi, past Shapley qiymatlari esa kamroq ta'sir qiladi.
Xulosa
AIning tushuntirilishi nafaqat AI tizimlarining adolatliligi va javobgarligini ta'minlash, balki umuman AI texnologiyasiga ishonchni mustahkamlash uchun ham muhimdir.
Sun'iy intellektni tushuntirish sohasida hali ko'p tadqiqotlar olib borilishi kerak, ammo bugungi kunda keng qo'llaniladigan murakkab qora quti AI tizimlarini tushunishga yordam beradigan ba'zi istiqbolli yondashuvlar mavjud.
Keyingi tadqiqot va ishlanmalar bilan biz yanada shaffof va tushunish oson bo'lgan AI tizimlarini yaratishga umid qilishimiz mumkin. Shu bilan birga, sog'liqni saqlash kabi sohalardagi korxonalar va mutaxassislar AIni tushuntirishning cheklovlaridan xabardor bo'lishlari kerak.
Leave a Reply