هوش مصنوعی این قدرت را دارد که کارایی را در بخش های مختلف مانند تجارت و مراقبت های بهداشتی بهبود بخشد. با این حال، فقدان توضیحپذیری مانع اتکای ما به استفاده از آن برای تصمیمگیری میشود.
آیا باید به قضاوت یک الگوریتم اعتماد کنیم؟
برای تصمیم گیرندگان در هر صنعتی مهم است که محدودیت ها و سوگیری های بالقوه را درک کنند مدل های یادگیری ماشین. برای اطمینان از اینکه این مدلها طبق خواسته رفتار میکنند، خروجی هر سیستم هوش مصنوعی باید برای انسان قابل توضیح باشد.
در این مقاله به اهمیت توضیح پذیری در هوش مصنوعی می پردازیم. ما یک مرور مختصر از انواع روشهای مورد استفاده برای استخراج توضیحات از مدلهای یادگیری ماشین ارائه خواهیم کرد.
هوش مصنوعی قابل توضیح چیست؟
قابل توضیح هوش مصنوعی یا XAI به تکنیکها و روشهایی اشاره دارد که به انسان اجازه میدهد بفهمد که چگونه مدلهای یادگیری ماشینی به یک خروجی خاص میرسند.
بسیار محبوب الگوریتم های یادگیری ماشین طوری کار کنید که انگار یک "جعبه سیاه" است. در یادگیری ماشینی، الگوریتم های جعبه سیاه به مدلهای ML مراجعه کنید که در آن بررسی اینکه چگونه یک ورودی خاص به یک خروجی خاص منجر میشود، غیرممکن است. حتی توسعهدهنده هوش مصنوعی نیز نمیتواند به طور کامل نحوه عملکرد الگوریتم را توضیح دهد.
به عنوان مثال، الگوریتم های یادگیری عمیق استفاده می کنند شبکه های عصبی برای شناسایی الگوها از تعداد زیادی داده. حتی اگر محققان و توسعه دهندگان هوش مصنوعی نحوه عملکرد شبکه های عصبی را از نقطه نظر فنی درک می کنند، حتی آنها نمی توانند به طور کامل توضیح دهند که چگونه یک شبکه عصبی به یک نتیجه خاص رسیده است.
برخی از شبکههای عصبی میلیونها پارامتر را مدیریت میکنند که همه به صورت هماهنگ کار میکنند تا نتیجه نهایی را برگردانند.
در شرایطی که تصمیمات مهم هستند، فقدان قابلیت توضیح ممکن است مشکل ساز شود.
چرا توضیح پذیری اهمیت دارد
قابل توضیح بینشی در مورد چگونگی تصمیم گیری مدل ها ارائه می دهد. کسبوکارهایی که قصد دارند هوش مصنوعی را برای تصمیمگیری تطبیق دهند، باید تعیین کنند که آیا هوش مصنوعی از ورودی مناسب برای رسیدن به بهترین تصمیم استفاده کرده است یا خیر.
مدلهایی که غیرقابل توضیح هستند در چندین صنعت مشکل دارند. به عنوان مثال، اگر شرکتی از الگوریتمی برای تصمیم گیری در مورد استخدام استفاده کند، به نفع همه است که در نحوه تصمیم گیری الگوریتم برای رد یک متقاضی شفافیت داشته باشد.
رشته دیگری که در آن یادگیری عمیق الگوریتم ها بیشتر در مراقبت های بهداشتی مورد استفاده قرار می گیرند. در مواردی که الگوریتمها سعی میکنند علائم احتمالی سرطان را شناسایی کنند، برای پزشکان مهم است که بفهمند مدل چگونه به یک تشخیص خاص رسیده است. سطحی از قابلیت توضیح برای کارشناسان لازم است تا از هوش مصنوعی نهایت استفاده را ببرند و کورکورانه از آن پیروی نکنند
مروری بر الگوریتم های هوش مصنوعی قابل توضیح
الگوریتمهای هوش مصنوعی قابل توضیح به دو دسته کلی تقسیم میشوند: مدلهای خود تفسیری و توضیحات پسهک.
مدل های خود تفسیری
مدل های خود تفسیری الگوریتم هایی هستند که انسان می تواند مستقیما آنها را بخواند و تفسیر کند. در این مورد خود مدل توضیح دهنده است.
برخی از رایجترین مدلهای قابل تفسیر خود شامل درختهای تصمیم و مدلهای رگرسیون هستند.
برای مثال، بیایید یک مدل رگرسیون خطی را در نظر بگیریم که قیمت مسکن را پیشبینی میکند. رگرسیون خطی به این معنی است که با مقداری x، میتوانیم مقدار هدف خود را با اعمال یک تابع خطی f پیشبینی کنیم.
فرض کنید که مدل ما از اندازه قطعه به عنوان ورودی اصلی برای تعیین قیمت خانه استفاده می کند. با استفاده از رگرسیون خطی، توانستیم تابع y = 5000 * x را به دست آوریم که x مقدار فوت مربع یا اندازه لات است.
این مدل برای انسان قابل خواندن و کاملا شفاف است.
توضیحات پس از آن
توضیحات پس از آن گروهی از الگوریتمها و تکنیکهایی هستند که میتوان از آنها برای افزودن قابلیت توضیح به دیگر الگوریتمها استفاده کرد.
بیشتر تکنیکهای توضیحی پسهک نیازی به درک نحوه عملکرد الگوریتم ندارند. کاربر فقط باید ورودی و خروجی حاصل از الگوریتم هدف را مشخص کند.
این توضیحات بیشتر به دو نوع تقسیم می شوند: توضیحات محلی و توضیحات جهانی.
هدف از توضیحات محلی توضیح زیرمجموعه ای از ورودی ها است. به عنوان مثال، با توجه به یک خروجی خاص، یک توضیح محلی قادر خواهد بود مشخص کند که کدام پارامترها در تصمیم گیری نقش داشته اند.
هدف تبیینهای سراسری ارائه توضیحات پسهک از کل الگوریتم است. انجام این نوع توضیح معمولاً دشوارتر است. الگوریتم ها پیچیده هستند و ممکن است پارامترهای بی شماری در دستیابی به نتیجه نهایی مهم باشند.
نمونه هایی از الگوریتم های توضیح محلی
در میان بسیاری از تکنیکهای مورد استفاده برای دستیابی به XAI، الگوریتمهایی که برای توضیحات محلی مورد استفاده قرار میگیرند همان چیزی است که بیشتر محققان بر آن تمرکز میکنند.
در این بخش، نگاهی به برخی از الگوریتمهای توضیح محلی محبوب و نحوه عملکرد هر یک از آنها خواهیم انداخت.
LIME
LIME (مدل قابل تفسیر محلی- توضیح دهنده آگنوستیک) الگوریتمی است که می تواند پیش بینی هر الگوریتم یادگیری ماشینی را توضیح دهد.
همانطور که از نام آن پیداست، LIME مدل-آگنوستیک است. این بدان معناست که LIME می تواند برای هر نوع مدلی کار کند. این مدل همچنین به صورت محلی قابل تفسیر است، به این معنی که میتوانیم مدل را با استفاده از نتایج محلی به جای توضیح کل مدل توضیح دهیم.
حتی اگر مدل توضیح داده شده یک جعبه سیاه باشد، LIME یک مدل خطی محلی در اطراف نقاط نزدیک به یک موقعیت خاص ایجاد می کند.
LIME یک مدل خطی ارائه میکند که مدل را در مجاورت یک پیشبینی تقریبی میکند، اما نه لزوماً در سطح جهانی.
با مراجعه به این مخزن منبع باز می توانید در مورد این الگوریتم اطلاعات بیشتری کسب کنید.
SHAP
توضیحات افزودنی Shapley (SHAP) روشی برای توضیح پیش بینی های فردی است. برای درک نحوه عملکرد SHAP، باید توضیح دهیم که مقادیر Shapley چیست.
ارزش Shapley مفهومی در تئوری بازی است که شامل تخصیص یک "ارزش" به هر بازیکن در بازی است. این به گونه ای توزیع می شود که ارزش اختصاص داده شده به هر بازیکن بر اساس سهم بازیکن در بازی باشد.
چگونه درخواست کنیم نظریه بازی تا یادگیری ماشین مدل ها؟
فرض کنید هر ویژگی در مدل ما یک "بازیکن" است و "بازی" تابعی است که پیش بینی را خروجی می دهد.
روش SHAP یک مدل خطی وزنی ایجاد می کند که مقادیر Shapley را به ویژگی های مختلف اختصاص می دهد. ویژگیهای با مقادیر Shapley بالا تأثیر بیشتری بر نتیجه مدل دارند در حالی که ویژگیهایی با مقادیر Shapley پایین تأثیر کمتری دارند.
نتیجه
قابلیت توضیح هوش مصنوعی نه تنها برای اطمینان از عدالت و مسئولیت پذیری سیستم های هوش مصنوعی، بلکه به طور کلی برای ایجاد اعتماد در فناوری هوش مصنوعی مهم است.
هنوز تحقیقات زیادی در زمینه توضیحپذیری هوش مصنوعی وجود دارد، اما رویکردهای امیدوارکنندهای وجود دارد که میتواند به ما در درک سیستمهای پیچیده هوش مصنوعی جعبه سیاه که امروزه به طور گسترده استفاده میشوند، کمک کند.
با تحقیق و توسعه بیشتر، میتوان امیدوار بود که سیستمهای هوش مصنوعی بسازیم که شفافتر و درک آن آسانتر باشد. در این بین، مشاغل و کارشناسان در زمینه هایی مانند مراقبت های بهداشتی باید از محدودیت های قابل توضیح هوش مصنوعی آگاه باشند.
پاسخ دهید