AI သည် စီးပွားရေးနှင့် ကျန်းမာရေးစောင့်ရှောက်မှုကဲ့သို့သော ကဏ္ဍအသီးသီးတွင် စွမ်းဆောင်ရည်မြှင့်တင်ရန် စွမ်းအားရှိသည်။ သို့သော်၊ ရှင်းပြနိုင်စွမ်းမရှိခြင်းသည် ဆုံးဖြတ်ချက်ချရန်အတွက် ၎င်းကိုအသုံးပြုခြင်းအပေါ် ကျွန်ုပ်တို့၏မှီခိုအားထားမှုကို အဟန့်အတားဖြစ်စေသည်။
algorithm တစ်ခု၏ အဆုံးအဖြတ်ကို ကျွန်ုပ်တို့ ယုံကြည်သင့်ပါသလား။
မည်သည့်လုပ်ငန်းနယ်ပယ်တွင်မဆို ဆုံးဖြတ်ချက်ချမှတ်သူများအတွက် အကန့်အသတ်များနှင့် ဖြစ်နိုင်ချေရှိသော ဘက်လိုက်မှုများကို နားလည်ရန် အရေးကြီးပါသည်။ စက်သင်ယူမှုပုံစံများ. ဤမော်ဒယ်များသည် ရည်ရွယ်ထားသည့်အတိုင်း ပြုမူနေကြောင်း သေချာစေရန်အတွက် မည်သည့် AI စနစ်၏ ရလဒ်ကိုမဆို လူသားတစ်ဦးအား ရှင်းပြသင့်သည်။
ဤဆောင်းပါးတွင်၊ AI တွင်ရှင်းပြနိုင်မှု၏အရေးပါမှုကိုကျွန်ုပ်တို့တင်ပြပါမည်။ စက်သင်ယူမှုမော်ဒယ်များမှ ရှင်းလင်းချက်ရယူရန် အသုံးပြုသည့် နည်းလမ်းအမျိုးအစားများ၏ အကျဉ်းချုပ်ကို ကျွန်ုပ်တို့ ပေးပါမည်။
ရှင်းပြနိုင်သော AI ဆိုတာဘာလဲ။
ရှင်းပြစရာ ဉာဏ်ရည်တု သို့မဟုတ် XAI သည် စက်ပစ္စည်း သင်ယူမှု မော်ဒယ်များသည် အချို့သော အထွက်တစ်ခုသို့ မည်ကဲ့သို့ ရောက်ရှိကြောင်းကို လူသားများ နားလည်ခွင့်ပြုရန် အသုံးပြုသည့် နည်းစနစ်များနှင့် နည်းလမ်းများကို ရည်ညွှန်းသည်။
လူကြိုက်များအများအပြား စက်သင်ယူမှု algorithms ၎င်းသည် "အနက်ရောင်သေတ္တာ" ကဲ့သို့အလုပ်လုပ်သည်။ machine learning တွင်၊ black box algorithms အချို့သော input သည် သီးခြား output ကိုမည်သို့ပို့ဆောင်သည်ကို စစ်ဆေးရန် မဖြစ်နိုင်သည့် ML မော်ဒယ်များကို ကိုးကားပါ။ AI ၏ developer သည်ပင် algorithm အလုပ်လုပ်ပုံကို အပြည့်အဝ ရှင်းပြနိုင်မည်မဟုတ်ပေ။
ဥပမာအားဖြင့်၊ deep learning algorithms ကိုသုံးတယ်။ အာရုံကြောကွန်ရက်များ ဒေတာတစ်တန်မှ ပုံစံများကို ခွဲခြားသတ်မှတ်ရန်။ AI သုတေသီများနှင့် developer များသည် နည်းပညာဆိုင်ရာရှုထောင့်မှ အာရုံကြောကွန်ရက်များ မည်သို့အလုပ်လုပ်သည်ကို နားလည်သော်လည်း၊ အာရုံကြောကွန်ရက်တစ်ခုသည် သီးခြားရလဒ်တစ်ခုဖြစ်ပေါ်လာပုံကို အပြည့်အဝရှင်းပြနိုင်ခြင်းမရှိပါ။
အချို့သော အာရုံကြောကွန်ရက်များသည် နောက်ဆုံးရလဒ်ကို ပြန်ပေးရန်အတွက် သန်းပေါင်းများစွာသော ကန့်သတ်ဘောင်များကို ကိုင်တွယ်လုပ်ဆောင်ကြသည်။
ဆုံးဖြတ်ချက်များ အရေးကြီးသည့် အခြေအနေများတွင် ရှင်းပြနိုင်စွမ်းမရှိခြင်းသည် ပြဿနာဖြစ်လာနိုင်သည်။
အဘယ်ကြောင့် ရှင်းလင်းချက်သည် အရေးကြီးသနည်း။
ရှင်းပြနိုင်မှု မော်ဒယ်များ ဆုံးဖြတ်ချက်များ မည်သို့ချသည်ကို ထိုးထွင်းသိမြင်စေသည်။ ဆုံးဖြတ်ချက်များချရန် AI ကို လိုက်လျောညီထွေဖြစ်အောင် စီစဉ်သော စီးပွားရေးလုပ်ငန်းများသည် အကောင်းဆုံးဆုံးဖြတ်ချက်ကိုရောက်ရှိရန် AI သည် မှန်ကန်သောထည့်သွင်းမှုကို အသုံးပြုခဲ့ခြင်းရှိမရှိ ဆုံးဖြတ်ရမည်ဖြစ်ပါသည်။
နားမလည်နိုင်သော မော်ဒယ်များသည် လုပ်ငန်းအများအပြားတွင် ပြဿနာတစ်ရပ်ဖြစ်သည်။ ဥပမာအားဖြင့်၊ ကုမ္ပဏီတစ်ခုသည် အလုပ်ခန့်ထားရန် ဆုံးဖြတ်ချက်များချရန် algorithm ကိုအသုံးပြုမည်ဆိုပါက၊ လျှောက်ထားသူအား ငြင်းပယ်ရန် algorithm က မည်ကဲ့သို့ဆုံးဖြတ်သည်တွင် ပွင့်လင်းမြင်သာမှုရှိရန် လူတိုင်းအတွက် အကောင်းဆုံးဖြစ်လိမ့်မည်။
နောက်အကွက်က ဘယ်မှာလဲ။ နက်ရှိုင်းသောသင်ယူမှု algorithms များကို ကျန်းမာရေးစောင့်ရှောက်မှုတွင် ပိုမိုမကြာခဏအသုံးပြုကြသည်။ အယ်လဂိုရီသမ်များသည် ကင်ဆာဖြစ်နိုင်ချေရှိသော လက္ခဏာများကို ရှာဖွေတွေ့ရှိရန် ကြိုးစားသောအခါတွင်၊ မော်ဒယ်သည် သီးခြားရောဂါရှာဖွေမှုတစ်ခုသို့ မည်သို့ရောက်ရှိသွားသည်ကို နားလည်ရန် ဆရာဝန်များအတွက် အရေးကြီးပါသည်။ AI ကို အပြည့်အဝ အခွင့်ကောင်းယူရန် ကျွမ်းကျင်သူများအတွက် ရှင်းပြနိုင်မှုအဆင့်အချို့ လိုအပ်ပြီး ၎င်းကို မျက်စိစုံမှိတ်မလိုက်နာပါ။
ရှင်းပြနိုင်သော AI Algorithms ၏ ခြုံငုံသုံးသပ်ချက်
ရှင်းပြနိုင်သော AI အယ်လဂိုရီသမ်များသည် ကျယ်ပြန့်သော အမျိုးအစား နှစ်ခုတွင် ပါဝင်သည်- ကိုယ်တိုင်ဘာသာပြန်ဆိုနိုင်သော မော်ဒယ်များနှင့် လွန်လွန်ကဲကဲ ရှင်းပြချက်များ။
ကိုယ်တိုင်ဘာသာပြန်ဆိုနိုင်သော မော်ဒယ်များ
ကိုယ်တိုင်ဘာသာပြန်ဆိုနိုင်သော မော်ဒယ်များ လူသားတစ်ဦး တိုက်ရိုက်ဖတ်နိုင်ပြီး အဓိပ္ပာယ်ဖွင့်ဆိုနိုင်သော algorithms များဖြစ်သည်။ ဤကိစ္စတွင်၊ မော်ဒယ်ကိုယ်တိုင်က ရှင်းလင်းချက်ဖြစ်သည်။
အများအားဖြင့် ကိုယ်တိုင်ဘာသာပြန်ဆိုနိုင်သော မော်ဒယ်အချို့တွင် ဆုံးဖြတ်ချက်သစ်များနှင့် ဆုတ်ယုတ်မှုပုံစံများ ပါဝင်သည်။
ဥပမာအားဖြင့်၊ အိမ်စျေးနှုန်းများကို ခန့်မှန်းသည့် linear regression model ကို စဉ်းစားကြည့်ကြပါစို့။ linear regression ဆိုသည်မှာ အချို့သောတန်ဖိုး x ဖြင့်၊ သီးခြား linear function f ကိုအသုံးပြုခြင်းဖြင့် ကျွန်ုပ်တို့၏ပစ်မှတ်တန်ဖိုး y ကို ခန့်မှန်းနိုင်မည်ဖြစ်ပါသည်။
ကျွန်ုပ်တို့၏မော်ဒယ်သည် အိမ်စျေးနှုန်းကိုဆုံးဖြတ်ရန် အဓိကထည့်သွင်းမှုအဖြစ် အများအပြားအရွယ်အစားကို အသုံးပြုသည်ဆိုပါစို့။ linear regression ကို အသုံးပြု၍ x သည် စတုရန်းပေ ပမာဏ သို့မဟုတ် ပမာဏ ပမာဏ ဖြစ်သော y = 5000 * x ဟူသော လုပ်ဆောင်ချက်ကို ဖော်ထုတ်နိုင်ခဲ့ပါသည်။
ဤပုံစံသည် လူသားဖတ်နိုင်သော ဒီဇိုင်းဖြစ်ပြီး လုံး၀ ပွင့်လင်းမြင်သာမှုရှိသည်။
Post-Hoc ရှင်းလင်းချက်
Post-hoc ၏ ရှင်းလင်းချက် အခြား algorithms များကို ရှင်းပြနိုင်မှု ပေါင်းထည့်ရန် အသုံးပြုနိုင်သည့် algorithms နှင့် နည်းစနစ်များ အုပ်စုများဖြစ်သည်။
Post-hoc ရှင်းလင်းချက်နည်းပညာအများစုသည် algorithm အလုပ်လုပ်ပုံကို နားလည်ရန်မလိုအပ်ပါ။ အသုံးပြုသူသည် ပစ်မှတ် အယ်လဂိုရီသမ်၏ ထည့်သွင်းမှုနှင့် ရလဒ်ရလဒ်များကိုသာ သတ်မှတ်ရန် လိုအပ်သည်။
ဤရှင်းလင်းချက်များအား ဒေသဆိုင်ရာ ရှင်းလင်းချက်နှင့် ကမ္ဘာလုံးဆိုင်ရာ ရှင်းလင်းချက်ဟူ၍ နှစ်မျိုးခွဲထားသည်။
ဒေသဆိုင်ရာ ရှင်းလင်းချက်များသည် သွင်းအားစု၏ အစိတ်အပိုင်းတစ်ခုကို ရှင်းပြရန် ရည်ရွယ်သည်။ ဥပမာအားဖြင့်၊ ရလဒ်တစ်ခုအား ပေး၍ ဒေသဆိုင်ရာ ရှင်းလင်းချက်တစ်ခုသည် ထိုဆုံးဖြတ်ချက်ကို ချမှတ်ရာတွင် အထောက်အကူဖြစ်စေသော ကန့်သတ်ချက်များကို ဖော်ထုတ်နိုင်မည်ဖြစ်သည်။
ကမ္ဘာလုံးဆိုင်ရာ ရှင်းလင်းချက်များသည် အယ်လဂိုရီသမ်တစ်ခုလုံး၏ နောက်ပိုင်းတွင် ရှင်းလင်းချက်များကို ထုတ်လုပ်ရန် ရည်ရွယ်သည်။ ဤရှင်းလင်းချက်အမျိုးအစားသည် ပုံမှန်အားဖြင့် ပို၍ခက်ခဲသည်။ အယ်လဂိုရီသမ်များသည် ရှုပ်ထွေးပြီး နောက်ဆုံးရလဒ်ကိုရရှိရန် သိသာထင်ရှားသည့် မရေမတွက်နိုင်သော ကန့်သတ်ဘောင်များ ရှိနေနိုင်သည်။
Local Explanation Algorithms နမူနာများ
XAI ကိုအောင်မြင်ရန်အသုံးပြုသည့်နည်းပညာများစွာတွင်၊ ဒေသဆိုင်ရာရှင်းလင်းချက်များအတွက်အသုံးပြုသည့် algorithms များသည်သုတေသီအများစုအာရုံစိုက်သောအရာဖြစ်သည်။
ဤကဏ္ဍတွင်၊ လူကြိုက်များသော ဒေသဆိုင်ရာ ရှင်းလင်းချက် အယ်လဂိုရီသမ်အချို့နှင့် ၎င်းတို့တစ်ခုစီ၏ အလုပ်လုပ်ပုံကို လေ့လာကြည့်ပါမည်။
ထုံး
LIME (ဒေသတွင်း ဘာသာပြန်ဆိုနိုင်သော မော်ဒယ်-Agnostic ရှင်းပြသူ) မည်သည့် machine learning algorithm ၏ ခန့်မှန်းချက်များကို ရှင်းပြနိုင်သော algorithm တစ်ခုဖြစ်သည်။
အမည်ဖော်ပြသည့်အတိုင်း LIME သည် စံပြ-ဘာသာမဲ့ဖြစ်သည်။ ဆိုလိုသည်မှာ LIME သည် မည်သည့်မော်ဒယ်အမျိုးအစားအတွက်မဆို လုပ်ဆောင်နိုင်သည်ဟု ဆိုလိုသည်။ မော်ဒယ်သည် ဒေသအလိုက် အဓိပ္ပာယ်ဖွင့်ဆိုနိုင်သည်၊ ဆိုလိုသည်မှာ မော်ဒယ်တစ်ခုလုံးကို ရှင်းပြခြင်းထက် ဒေသဆိုင်ရာရလဒ်များကို အသုံးပြု၍ မော်ဒယ်ကို ရှင်းပြနိုင်သည်။
ရှင်းပြထားသည့် မော်ဒယ်သည် အနက်ရောင်သေတ္တာဖြစ်လျှင်ပင်၊ LIME သည် အချို့သော အနေအထားအနီးရှိ အမှတ်များအနီးရှိ ဒေသန္တရ မျဉ်းသားပုံစံကို ဖန်တီးသည်။
LIMe သည် ခန့်မှန်းချက်တစ်ခု၏အနီးတစ်ဝိုက်ရှိ မော်ဒယ်ကို အနီးစပ်ဆုံးဖော်ပြသော်လည်း တစ်ကမ္ဘာလုံးအတွက်မလိုအပ်ပါ။
ဤ open-source repository သို့သွားရောက်ခြင်းဖြင့် ဤ algorithm အကြောင်းပိုမိုလေ့လာနိုင်ပါသည်။
ရှပ်
Shapley ထပ်လောင်းရှင်းပြချက်များ (SHAP) တစ်ဦးချင်း ခန့်မှန်းချက်များကို ရှင်းပြသည့် နည်းလမ်းတစ်ခုဖြစ်သည်။ SHAP မည်ကဲ့သို့ အလုပ်လုပ်သည်ကို နားလည်ရန်၊ Shapley တန်ဖိုးများသည် အဘယ်အရာဖြစ်သည်ကို ရှင်းပြရမည်ဖြစ်ပါသည်။
Shapley တန်ဖိုးသည် ဂိမ်းသီအိုရီတွင် အယူအဆတစ်ခုဖြစ်ပြီး ဂိမ်းရှိကစားသမားတစ်ဦးစီအား "တန်ဖိုး" ကို သတ်မှတ်ပေးခြင်း ပါဝင်သည်။ ဤကဲ့သို့ ဖြန့်ဝေခြင်းသည် ကစားသမားတစ်ဦးစီအတွက် သတ်မှတ်ထားသော တန်ဖိုးသည် ဂိမ်းတွင် ကစားသမား၏ ပံ့ပိုးကူညီမှုအပေါ် အခြေခံသည်။
ကျွန်တော်တို့ဘယ်လိုလျှောက်ထားသလဲ ဂိမ်းသီအိုရီမှ machine learning သို့ မော်ဒယ်များ?
ကျွန်ုပ်တို့၏မော်ဒယ်ရှိအင်္ဂါရပ်တစ်ခုစီသည် "ကစားသမား" ဖြစ်ပြီး "ဂိမ်း" သည် ခန့်မှန်းချက်အား ရလဒ်ထွက်ပေါ်စေသည့် လုပ်ဆောင်ချက်ဖြစ်သည်ဆိုပါစို့။
SHAP နည်းလမ်းသည် အမျိုးမျိုးသောအင်္ဂါရပ်များအတွက် Shapley တန်ဖိုးများကို သတ်မှတ်ပေးသည့် အလေးချိန်မျဉ်းပုံစံကို ဖန်တီးပေးသည်။ Shapley တန်ဖိုးများ မြင့်မားသော အင်္ဂါရပ်များသည် မော်ဒယ်၏ ရလဒ်အပေါ် သက်ရောက်မှု ပိုနည်းသော်လည်း Shapley တန်ဖိုးများ နည်းပါးသော အင်္ဂါရပ်များသည် မော်ဒယ်၏ ရလဒ်အပေါ် သက်ရောက်မှု ပိုမိုရှိသည်။
ကောက်ချက်
AI ရှင်းပြနိုင်စွမ်းသည် AI စနစ်များ၏ တရားမျှတမှုနှင့် တာဝန်ခံမှုရှိစေရန်အတွက်သာမက ယေဘုယျအားဖြင့် AI နည်းပညာအပေါ် ယုံကြည်မှုတည်ဆောက်ရန်အတွက်လည်း အရေးကြီးပါသည်။
AI ရှင်းပြနိုင်မှုနယ်ပယ်တွင် သုတေသနလုပ်ရန် များစွာကျန်ရှိနေသေးသော်လည်း ယနေ့တွင်တွင်ကျယ်ကျယ်အသုံးပြုနေကြသော ရှုပ်ထွေးသော black box AI စနစ်များကို နားလည်နိုင်စေရန် အလားအလာရှိသော နည်းလမ်းအချို့ရှိပါသည်။
နောက်ထပ် သုတေသနနှင့် ဖွံ့ဖြိုးတိုးတက်မှုနှင့်အတူ၊ ပိုမိုပွင့်လင်းပြီး နားလည်ရလွယ်ကူသော AI စနစ်များကို တည်ဆောက်ရန် ကျွန်ုပ်တို့ မျှော်လင့်နိုင်ပါသည်။ ထိုအတောအတွင်း၊ ကျန်းမာရေးစောင့်ရှောက်မှုကဲ့သို့သော နယ်ပယ်များတွင် စီးပွားရေးလုပ်ငန်းများနှင့် ကျွမ်းကျင်သူများသည် AI ရှင်းပြနိုင်မှု၏ ကန့်သတ်ချက်များကို သတိပြုသင့်သည်။
တစ်ဦးစာပြန်ရန် Leave