Жасанды интеллект бизнес пен денсаулық сақтау сияқты әртүрлі салаларда тиімділікті арттыруға мүмкіндік береді. Дегенмен, түсіндірменің болмауы оны шешім қабылдау үшін пайдалануымызға кедергі келтіреді.
Алгоритмнің шешіміне сену керек пе?
Кез келген саладағы шешім қабылдаушылар үшін шектеулер мен ықтимал қиғаштықтарды түсіну маңызды машиналық оқыту модельдері. Бұл модельдердің мақсатына сай әрекет ететініне көз жеткізу үшін кез келген AI жүйесінің нәтижесі адамға түсінікті болуы керек.
Бұл мақалада біз AI-дағы түсіндірудің маңыздылығын қарастырамыз. Біз машиналық оқыту үлгілерінен түсініктеме алу үшін қолданылатын әдістер түрлеріне қысқаша шолу жасаймыз.
Түсіндірілетін AI дегеніміз не?
Түсіндірілетін жасанды интеллект немесе XAI адамдарға машиналық оқыту үлгілерінің белгілі бір нәтижеге жету жолын түсінуге мүмкіндік беретін әдістер мен әдістерді білдіреді.
Көптеген танымал машинаны оқыту алгоритмдері ол «қара жәшік» сияқты жұмыс істейді. Машиналық оқытуда, қара жәшік алгоритмдері белгілі бір кірістің белгілі бір шығысқа қалай әкелетінін тексеру мүмкін емес ML үлгілеріне сілтеме жасаңыз. Тіпті AI әзірлеушісі алгоритмнің қалай жұмыс істейтінін толық түсіндіре алмайды.
Мысалы, терең оқыту алгоритмдері қолданылады нейрондық желілер тонна деректерден үлгілерді анықтау. AI зерттеушілері мен әзірлеушілері нейрондық желілердің техникалық тұрғыдан қалай жұмыс істейтінін түсінсе де, олар нейрондық желінің белгілі бір нәтижеге қалай келгенін толық түсіндіре алмайды.
Кейбір нейрондық желілер түпкілікті нәтижені қайтару үшін барлығы үйлесімді жұмыс істейтін миллиондаған параметрлерді өңдейді.
Шешімдер маңызды болған жағдайда, түсіндірудің болмауы проблемаға айналуы мүмкін.
Түсіндіру неге маңызды?
Түсіндіру модельдердің шешім қабылдауы туралы түсінік береді. Шешім қабылдау үшін AI бейімдеуді жоспарлайтын компаниялар ең жақсы шешімге келу үшін AI дұрыс енгізуді пайдаланғанын анықтауы керек.
Түсініксіз модельдер бірнеше салалардағы мәселе болып табылады. Мысалы, егер компания жұмысқа қабылдау туралы шешім қабылдау үшін алгоритмді пайдаланатын болса, алгоритм өтініш берушіні қабылдамау туралы шешімді қалай қабылдайтынының ашықтығы барлығына пайдалы болар еді.
Тағы бір өріс терең білім алу алгоритмдер денсаулық сақтауда жиірек қолданылуда. Алгоритмдер қатерлі ісіктің ықтимал белгілерін анықтауға тырысатын жағдайларда, дәрігерлер модельдің нақты диагнозға қалай келгенін түсінуі маңызды. Сарапшыларға AI мүмкіндіктерін толық пайдалану және оны соқыр ұстанбау үшін түсіндірудің белгілі бір деңгейі қажет
Түсіндірілетін AI алгоритмдеріне шолу
Түсіндірілетін AI алгоритмдері екі кең санатқа бөлінеді: өзін-өзі түсіндіретін модельдер және кейінгі түсініктемелер.
Өздігінен түсіндірілетін модельдер
Өздігінен түсіндірілетін модельдер адам тікелей оқи алатын және түсіндіре алатын алгоритмдер. Бұл жағдайда модельдің өзі түсініктеме болып табылады.
Ең кең тараған өзін-өзі түсіндіретін модельдердің кейбірі шешім ағаштары мен регрессия үлгілерін қамтиды.
Мысалы, үй бағасын болжайтын сызықтық регрессия моделін қарастырайық. Сызықтық регрессия дегеніміз, қандай да бір x мәнімен, белгілі бір сызықтық f функциясын қолдану арқылы мақсатты y мәнін болжай алатынымызды білдіреді.
Біздің модель үй бағасын анықтау үшін негізгі кіріс ретінде лот өлшемін пайдаланады делік. Сызықтық регрессияны пайдалана отырып, біз y = 5000 * x функциясын шығардық, мұнда x - шаршы фут немесе лот өлшемі.
Бұл модель адам оқи алады және толығымен мөлдір.
Кейінгі түсініктемелер
Пост-хок түсініктемелері басқа алгоритмдерге түсіндіру мүмкіндігін қосу үшін қолданылатын алгоритмдер мен әдістер тобы болып табылады.
Көптеген кейінгі түсіндіру әдістері алгоритмнің қалай жұмыс істейтінін түсінудің қажеті жоқ. Пайдаланушы тек мақсатты алгоритмнің кірісін және нәтижесін көрсетуі керек.
Бұл түсініктемелер одан әрі екі түрге бөлінеді: жергілікті түсіндірулер және ғаламдық түсіндірулер.
Жергілікті түсініктемелер кірістер жиынын түсіндіруге бағытталған. Мысалы, белгілі бір нәтижені ескере отырып, жергілікті түсініктеме сол шешімді қабылдауға қандай параметрлер ықпал еткенін анықтай алады.
Ғаламдық түсініктемелер барлық алгоритмнің кейінгі түсініктемелерін шығаруға бағытталған. Түсіндірудің бұл түрі әдетте орындау қиынырақ. Алгоритмдер күрделі және түпкілікті нәтижеге жетуде маңызды болатын сансыз параметрлер болуы мүмкін.
Жергілікті түсіндіру алгоритмдерінің мысалдары
XAI-ге қол жеткізу үшін қолданылатын көптеген әдістердің ішінде жергілікті түсіндірулер үшін қолданылатын алгоритмдер зерттеушілердің көпшілігіне назар аударады.
Бұл бөлімде біз кейбір танымал жергілікті түсіндіру алгоритмдерін және олардың әрқайсысы қалай жұмыс істейтінін қарастырамыз.
ӘК
LIME (Жергілікті түсіндірілетін модель-агностикалық түсіндіруші) кез келген машиналық оқыту алгоритмінің болжамдарын түсіндіре алатын алгоритм болып табылады.
Аты айтып тұрғандай, LIME модельдік-агностикалық болып табылады. Бұл LIME кез келген үлгі түрі үшін жұмыс істей алатынын білдіреді. Модель сонымен қатар жергілікті түрде түсіндіріледі, яғни біз модельді бүкіл модельді түсіндірмей, жергілікті нәтижелер арқылы түсіндіре аламыз.
Түсіндірілетін үлгі қара жәшік болса да, LIME белгілі бір позицияға жақын нүктелердің айналасында жергілікті сызықтық модель жасайды.
LIMe болжамға жақын жерде модельді жақындататын, бірақ міндетті түрде ғаламдық деңгейде емес сызықтық модельді ұсынады.
Осы ашық бастапқы репозиторийге кіру арқылы осы алгоритм туралы көбірек біле аласыз.
SHAP
Shapley Additive Explanations (SHAP) жеке болжамдарды түсіндіру әдісі болып табылады. SHAP қалай жұмыс істейтінін түсіну үшін Shapley мәндерінің не екенін түсіндіруіміз керек.
Shapley мәні - ойын теориясындағы тұжырымдама, ол ойындағы әрбір ойыншыға «құнды» тағайындауды қамтиды. Бұл әрбір ойыншыға тағайындалған мән ойыншының ойынға қосқан үлесіне негізделетіндей етіп бөлінеді.
Біз қалай жүгінеміз ойын теориясын машиналық оқытуға модельдер?
Біздің модельдегі әрбір мүмкіндік «ойыншы» және «ойын» болжамды шығаратын функция делік.
SHAP әдісі әртүрлі мүмкіндіктерге Shapley мәндерін тағайындайтын салмақты сызықтық модель жасайды. Shapley мәндері жоғары мүмкіндіктер модель нәтижесіне көбірек әсер етеді, ал төмен Shapley мәндері бар мүмкіндіктер азырақ әсер етеді.
қорытынды
AI түсіндірмелілігі AI жүйелерінің әділдігі мен жауапкершілігін қамтамасыз ету үшін ғана емес, сонымен қатар жалпы AI технологиясына сенімді қалыптастыру үшін де маңызды.
AI түсіндірмесі саласында әлі де көптеген зерттеулер жасалуы керек, бірақ бүгінгі күні кеңінен қолданылып жүрген күрделі AI жүйелерін түсінуге көмектесетін кейбір перспективалы тәсілдер бар.
Әрі қарай зерттеулер мен әзірлемелердің арқасында біз ашық және түсінуге оңай AI жүйелерін құруға үміттене аламыз. Сонымен қатар, денсаулық сақтау сияқты салалардағы бизнес пен сарапшылар AI түсіндірмелілігінің шектеулерін білуі керек.
пікір қалдыру