AI په مختلفو سکتورونو لکه سوداګرۍ او روغتیا پاملرنې کې د موثریت ښه کولو ځواک لري. په هرصورت، د وضاحت کولو نشتوالی د پریکړې کولو لپاره د دې کارولو په اړه زموږ تکیه خنډوي.
ایا موږ باید د الګوریتم په قضاوت باور وکړو؟
دا په هر صنعت کې د تصمیم نیونکو لپاره مهمه ده چې د محدودیتونو او احتمالي تعصبونو په اړه پوه شي د ماشین زده کړې موډلونه. د دې لپاره چې ډاډ ترلاسه شي چې دا ماډلونه د ارادې سره سم چلند کوي، د هر ډول AI سیسټم محصول باید انسان ته د تشریح وړ وي.
پدې مقاله کې ، موږ به په AI کې د توضیحي وړتیا اهمیت ته لاړ شو. موږ به د ماشین زده کړې ماډلونو څخه د توضیحاتو ترلاسه کولو لپاره کارول شوي میتودونو ډولونو ته لنډه کتنه وړاندې کړو.
د تشریح وړ AI څه شی دی؟
د تشریح وړ مصنوعي هوښیارتیا یا XAI هغه تخنیکونو او میتودونو ته اشاره کوي چې انسانانو ته اجازه ورکوي پوه شي چې څنګه د ماشین زده کړې ماډلونه یو ځانګړي محصول ته رسیږي.
ډیری مشهور د ماشین زده کړې الګوریتمونه کار وکړئ لکه څنګه چې دا یو "تور بکس" وي. په ماشین زده کړه کې، د تور بکس الګوریتم د ML ماډلونو ته مراجعه وکړئ چیرې چې دا ناشونې ده چې دا تایید کړئ چې څنګه یو ټاکلی آخذه یو ځانګړي محصول ته لار هواروي. حتی د AI پراختیا کونکی به ونشي کولی په بشپړ ډول تشریح کړي چې الګوریتم څنګه کار کوي.
د مثال په توګه، د ژورې زده کړې الګوریتم کارول نوریال شبکې د یو ټن ډیټا څخه د نمونو پیژندلو لپاره. که څه هم د AI څیړونکي او پراختیا کونکي پوهیږي چې عصبي شبکې څنګه د تخنیکي نقطې څخه کار کوي، حتی دوی نشي کولی په بشپړه توګه تشریح کړي چې څنګه د عصبي شبکه د یوې ځانګړې پایلې سره راغلې.
ځینې عصبي شبکې په ملیونونو پیرامیټرې اداره کوي چې ټول په یووالي کې کار کوي ترڅو وروستۍ پایلې بیرته راشي.
په داسې شرایطو کې چې پریکړې مهمې وي، د وضاحت نشتوالی ممکن ستونزمن شي.
ولې تشریح کول مهم دي
د وضاحت وړتيا په دې اړه بصیرت وړاندې کوي چې ماډل څنګه پریکړې کوي. هغه سوداګرۍ چې د پریکړو کولو لپاره د AI تطابق کولو پلان لري باید دا معلومه کړي چې ایا AI غوره پریکړې ته رسیدو لپاره سم ان پټ کارولی که نه.
هغه ماډلونه چې د توضیح وړ ندي په ډیری صنعتونو کې یوه مسله ده. د مثال په توګه، که چیرې یو شرکت د استخدام پریکړې کولو لپاره د الګوریتم څخه کار واخلي، نو دا به د هرچا غوره ګټو ته وي چې څنګه د الګوریتم پریکړه کوي چې یو غوښتونکي رد کړي.
یو بل ډګر چیرته ژوره زده کړه الګوریتمونه په روغتیایی خدماتو کې ډیر ځله کارول کیږي. په هغه حالتونو کې چې الګوریتم هڅه کوي د سرطان احتمالي نښې کشف کړي، دا د ډاکټرانو لپاره مهمه ده چې پوه شي چې ماډل څنګه یو ځانګړي تشخیص ته رسیدلی. د متخصصینو لپاره د توضیحاتو ځینې کچې ته اړتیا ده ترڅو د AI څخه پوره ګټه پورته کړي او په ړندو توګه یې تعقیب نکړي
د تشریح وړ AI الګوریتمونو عمومي کتنه
د تشریح وړ AI الګوریتمونه په دوه پراخه کټګوریو کې راځي: د ځان تشریح وړ ماډلونه او د هاک وروسته توضیحات.
د ځان تشریح وړ ماډلونه
د ځان تشریح وړ ماډلونه الګوریتمونه دي چې انسان کولی شي مستقیم لوستل او تشریح کړي. په دې حالت کې، ماډل پخپله توضیح دی.
د ځان تشریح کولو ځینې خورا عام ماډلونه د پریکړې ونې او د ریګریشن ماډلونه شامل دي.
د مثال په توګه، راځئ چې د خطي ریګریشن ماډل په پام کې ونیسو چې د کور قیمتونو وړاندوینه کوي. یو خطي ریګریشن پدې معنی دی چې د یو څه ارزښت x سره ، موږ به وکولی شو د یو ځانګړي خطي فعالیت f پلي کولو سره زموږ د هدف ارزښت y وړاندوینه وکړو.
فرض کړئ چې زموږ ماډل د کور قیمت ټاکلو لپاره د اصلي ان پټ په توګه خورا اندازه کاروي. د خطي ریګریشن په کارولو سره، موږ وکولای شو چې د فنکشن y = 5000 * x سره راشي چیرې چې x د مربع فوټ یا لاټ اندازه اندازه ده.
دا ماډل د انسان لوستلو وړ دی او په بشپړ ډول شفاف دی.
د هاک وروسته توضیحات
د هاک وروسته توضیحات د الګوریتمونو او تخنیکونو یوه ډله ده چې د نورو الګوریتمونو لپاره د توضیحي وړتیا اضافه کولو لپاره کارول کیدی شي.
د هاک وروسته تشریح کولو ډیری تخنیکونه اړتیا نلري چې پوه شي چې الګوریتم څنګه کار کوي. کارونکي یوازې اړتیا لري چې د هدف الګوریتم ان پټ او پایله لرونکی محصول مشخص کړي.
دا توضیحات نور په دوه ډوله ویشل شوي دي: سیمه ایز توضیحات او نړیوال توضیحات.
د ځایی توضیحاتو موخه دا ده چې د معلوماتو یوه فرعي سیټ تشریح کړي. د مثال په توګه، د یو ځانګړي محصول په پام کې نیولو سره، یو محلي توضیحات به د دې توان ولري چې په ګوته کړي چې کوم پیرامیټرې د دې پریکړې کولو کې مرسته کړې.
نړیوال توضیحات د ټول الګوریتم وروسته وروسته توضیحات تولیدوي. دا ډول توضیحات معمولا ډیر ستونزمن کار دی. الګوریتمونه پیچلي دي او ممکن بې شمیره پیرامیټونه شتون ولري چې د وروستۍ پایلې په ترلاسه کولو کې مهم دي.
د محلي توضیحي الګوریتم مثالونه
د ډیری تخنیکونو څخه چې د XAI ترلاسه کولو لپاره کارول کیږي، د محلي توضیحاتو لپاره کارول شوي الګوریتمونه هغه څه دي چې ډیری څیړونکي یې تمرکز کوي.
پدې برخه کې، موږ به ځینې مشهور محلي توضیحي الګوریتمونو ته یو نظر واچوو او دا چې هر یو څنګه کار کوي.
LIME
LIME (د ځایی تشریح وړ ماډل- اګنوسټیک تشریح کونکی) یو الګوریتم دی چې کولی شي د هر ماشین زده کړې الګوریتم وړاندوینې تشریح کړي.
لکه څنګه چې نوم معنی لري، LIME ماډل - اګنوسټیک دی. دا پدې مانا ده چې LIME کولی شي د هر ډول ماډل لپاره کار وکړي. ماډل هم په محلي توګه د تفسیر وړ دی، پدې معنی چې موږ کولی شو د محلي پایلو په کارولو سره ماډل تشریح کړو نه د ټول ماډل تشریح.
حتی که هغه ماډل چې تشریح شوی یو تور بکس دی، LIME د یو ځانګړي موقعیت سره نږدې د نقطو شاوخوا سیمه ایز خطي ماډل رامینځته کوي.
LIME یو خطي ماډل چمتو کوي چې د وړاندوینې په شاوخوا کې ماډل نږدې کوي مګر په نړیواله کچه اړین ندي.
تاسو کولی شئ د دې خلاصې سرچینې ذخیره لیدو سره د دې الګوریتم په اړه نور معلومات زده کړئ.
شاپ
شاپلي اضافه توضیحات (SHAP) د انفرادي وړاندوینو تشریح کولو میتود دی. د دې لپاره چې پوه شو چې SHAP څنګه کار کوي، موږ باید تشریح کړو چې د شاپلي ارزښتونه څه دي.
د شاپلي ارزښت د لوبې تیوري کې یو مفهوم دی چې په لوبې کې هر لوبغاړي ته د "ارزښت" ټاکل شامل دي. دا داسې ویشل کیږي چې هر لوبغاړي ته ټاکل شوي ارزښت په لوبې کې د لوبغاړي ونډې پراساس وي.
موږ څنګه غوښتنه کوو د ماشین زده کړې ته د لوبې تیوري ماډلونه؟
فرض کړئ چې زموږ په ماډل کې هره ځانګړتیا یو "لوبغاړی" دی او دا "لوبه" هغه فعالیت دی چې وړاندوینه کوي.
د SHAP میتود یو وزن لرونکی خطي ماډل رامینځته کوي چې مختلف ځانګړتیاو ته د شاپلي ارزښتونه وړاندې کوي. د لوړ شاپلي ارزښتونو سره ځانګړتیاوې د ماډل په پایلو باندې ډیر تاثیر لري پداسې حال کې چې د ټیټ شاپلي ارزښتونو سره ځانګړتیاوې لږ اغیز لري.
پایله
د AI توضیحي وړتیا نه یوازې د AI سیسټمونو عادلانه او حساب ورکونې تضمین کولو لپاره ، بلکه په عمومي ډول د AI ټیکنالوژۍ باور رامینځته کولو لپاره هم مهم دی.
د AI تشریح کولو په ساحه کې لاهم ډیرې څیړنې شتون لري، مګر ځینې ژمنې لارې شتون لري چې کولی شي موږ سره د پیچلي بلیک باکس AI سیسټمونو په پوهیدو کې مرسته وکړي چې نن ورځ په پراخه کچه کارول کیږي.
د نورو څیړنو او پراختیا سره، موږ تمه کولی شو د AI سیسټمونه جوړ کړو چې ډیر شفاف او د پوهیدو لپاره اسانه وي. په ورته وخت کې ، سوداګرۍ او کارپوهان په برخو کې لکه روغتیا پاملرنې باید د AI توضیحي محدودیتونو څخه خبر وي.
یو ځواب ورکړئ ووځي