يتمتع الذكاء الاصطناعي بالقدرة على تحسين الكفاءة في مختلف القطاعات مثل الأعمال والرعاية الصحية. ومع ذلك ، فإن الافتقار إلى القابلية للتفسير يعيق اعتمادنا على استخدامها في اتخاذ القرار.
هل يجب أن نثق في حكم الخوارزمية؟
من المهم لصناع القرار في أي صناعة فهم القيود والتحيزات المحتملة نماذج التعلم الآلي. للتأكد من أن هذه النماذج تعمل على النحو المنشود ، يجب أن تكون مخرجات أي نظام ذكاء اصطناعي قابلة للتفسير للإنسان.
في هذه المقالة ، سنتطرق إلى أهمية القابلية للتفسير في الذكاء الاصطناعي. سنقدم لمحة موجزة عن أنواع الأساليب المستخدمة لاشتقاق التفسيرات من نماذج التعلم الآلي.
ما هو الذكاء الاصطناعي القابل للتفسير؟
يمكن تفسيره الذكاء الاصطناعي أو XAI يشير إلى التقنيات والأساليب المستخدمة للسماح للبشر بفهم كيفية وصول نماذج التعلم الآلي إلى مخرجات معينة.
كثير شعبي خوارزميات التعلم الآلي العمل كما لو كان "الصندوق الأسود". في التعلم الآلي ، خوارزميات الصندوق الأسود الرجوع إلى نماذج ML حيث يكون من المستحيل التحقق من الكيفية التي يؤدي بها إدخال معين إلى إخراج معين. حتى مطور الذكاء الاصطناعي لن يتمكن من شرح كيفية عمل الخوارزمية بشكل كامل.
على سبيل المثال ، تستخدم خوارزميات التعلم العميق الشبكات العصبية لتحديد الأنماط من عدد كبير من البيانات. على الرغم من أن الباحثين والمطورين في مجال الذكاء الاصطناعي يفهمون كيفية عمل الشبكات العصبية من وجهة نظر تقنية ، إلا أنهم لا يستطيعون شرح كيفية توصل الشبكة العصبية إلى نتيجة معينة بشكل كامل.
تتعامل بعض الشبكات العصبية مع ملايين المعلمات التي تعمل جميعها في انسجام لإرجاع النتيجة النهائية.
في المواقف التي تكون فيها القرارات مهمة ، قد يصبح الافتقار إلى القابلية للتفسير مشكلة.
لماذا تهم القابلية للتفسير
شرح يوفر نظرة ثاقبة حول كيفية اتخاذ النماذج للقرارات. يتعين على الشركات التي تخطط لتكييف الذكاء الاصطناعي لاتخاذ القرارات أن تحدد ما إذا كان الذكاء الاصطناعي قد استخدم المدخلات الصحيحة للتوصل إلى أفضل قرار.
تعتبر النماذج غير القابلة للتفسير مشكلة في العديد من الصناعات. على سبيل المثال ، إذا كانت الشركة ستستخدم خوارزمية لاتخاذ قرارات التوظيف ، فسيكون من مصلحة الجميع أن تتحلى بالشفافية في كيفية قرار الخوارزمية رفض مقدم الطلب.
مجال آخر حيث التعلم العميق يتم استخدام الخوارزميات بشكل متكرر في الرعاية الصحية. في الحالات التي تحاول فيها الخوارزميات اكتشاف العلامات المحتملة للسرطان ، من المهم أن يفهم الأطباء كيف وصل النموذج إلى تشخيص معين. مطلوب مستوى معين من التفسير للخبراء للاستفادة الكاملة من الذكاء الاصطناعي وعدم متابعته بشكل أعمى
نظرة عامة على خوارزميات الذكاء الاصطناعي القابلة للتفسير
تنقسم خوارزميات الذكاء الاصطناعي القابلة للتفسير إلى فئتين عريضتين: النماذج ذاتية التفسير والتفسيرات اللاحقة.
نماذج ذاتية التفسير
نماذج ذاتية التفسير هي خوارزميات يمكن للإنسان قراءتها وتفسيرها مباشرة. في هذه الحالة ، النموذج نفسه هو التفسير.
تتضمن بعض النماذج الأكثر شيوعًا التي يمكن تفسيرها ذاتيًا أشجار القرار ونماذج الانحدار.
على سبيل المثال ، دعنا نفكر في نموذج الانحدار الخطي الذي يتوقع أسعار المنازل. يعني الانحدار الخطي أنه مع بعض القيمة x ، سنكون قادرين على التنبؤ بالقيمة المستهدفة y من خلال تطبيق دالة خطية معينة f.
افترض أن نموذجنا يستخدم حجم اللوت كمدخل رئيسي لتحديد سعر المنزل. باستخدام الانحدار الخطي ، تمكنا من التوصل إلى الدالة y = 5000 * x حيث x هي مقدار الأقدام المربعة أو حجم اللوت.
هذا النموذج مقروء من قبل الإنسان وهو شفاف تمامًا.
تفسيرات ما بعد المخصص
تفسيرات لاحقة هي مجموعة من الخوارزميات والتقنيات التي يمكن استخدامها لإضافة إمكانية شرح لخوارزميات أخرى.
لا تحتاج معظم تقنيات التفسير اللاحقة إلى فهم كيفية عمل الخوارزمية. يحتاج المستخدم فقط إلى تحديد المدخلات والمخرجات الناتجة للخوارزمية المستهدفة.
تنقسم هذه التفسيرات إلى نوعين: تفسيرات محلية وتفسيرات عالمية.
تهدف التفسيرات المحلية إلى شرح مجموعة فرعية من المدخلات. على سبيل المثال ، نظرًا لمخرج معين ، سيكون التفسير المحلي قادرًا على تحديد المعلمات التي ساهمت في اتخاذ هذا القرار.
تهدف التفسيرات العالمية إلى إنتاج تفسيرات لاحقة للخوارزمية بأكملها. عادة ما يكون هذا النوع من التفسير أكثر صعوبة. الخوارزميات معقدة وقد تكون هناك معاملات لا حصر لها مهمة في تحقيق النتيجة النهائية.
أمثلة على خوارزميات التفسير المحلية
من بين العديد من التقنيات المستخدمة لتحقيق XAI ، فإن الخوارزميات المستخدمة للتفسيرات المحلية هي ما يركز عليه معظم الباحثين.
في هذا القسم ، سوف نلقي نظرة على بعض خوارزميات التفسير المحلية الشائعة وكيفية عمل كل منها.
الجير
LIME (الشرح الملحد للنموذج المحلي القابل للتفسير) هي خوارزمية يمكنها شرح تنبؤات أي خوارزمية للتعلم الآلي.
كما يوحي الاسم ، فإن LIME لا تعتمد على النموذج. هذا يعني أن LIME يمكن أن تعمل مع أي نوع من النماذج. يمكن تفسير النموذج محليًا أيضًا ، مما يعني أنه يمكننا شرح النموذج باستخدام النتائج المحلية بدلاً من شرح النموذج بأكمله.
حتى إذا كان النموذج الموضح عبارة عن صندوق أسود ، فإن LIME ينشئ نموذجًا خطيًا محليًا حول النقاط القريبة من موضع معين.
توفر LIMe نموذجًا خطيًا يقترب من النموذج بالقرب من التنبؤ ولكن ليس بالضرورة بشكل عام.
يمكنك معرفة المزيد حول هذه الخوارزمية من خلال زيارة هذا المستودع مفتوح المصدر.
الشكل
شروح مضافة شابلي (SHAP) هي طريقة لشرح التنبؤات الفردية. لفهم كيفية عمل SHAP ، علينا أن نشرح ما هي قيم Shapley.
قيمة Shapley هي مفهوم في نظرية اللعبة يتضمن تخصيص "قيمة" لكل لاعب في اللعبة. يتم توزيعها بحيث تعتمد القيمة المخصصة لكل لاعب على مساهمة اللاعب في اللعبة.
كيف نطبق نظرية اللعبة لتعلم الآلة عارضات ازياء؟
افترض أن كل ميزة في نموذجنا هي "لاعب" وأن "اللعبة" هي الوظيفة التي تُخرج التنبؤ.
تقوم طريقة SHAP بإنشاء نموذج خطي مرجح يقوم بتعيين قيم Shapley إلى ميزات مختلفة. الميزات ذات القيم العالية Shapley لها تأثير أكبر على نتيجة النموذج بينما الميزات ذات القيم Shapley المنخفضة لها تأثير أقل.
وفي الختام
تعد قابلية شرح الذكاء الاصطناعي مهمة ليس فقط لضمان عدالة أنظمة الذكاء الاصطناعي ومساءلتها ، ولكن أيضًا لبناء الثقة في تقنية الذكاء الاصطناعي بشكل عام.
لا يزال هناك الكثير من الأبحاث التي يجب إجراؤها في مجال قابلية شرح الذكاء الاصطناعي ، ولكن هناك بعض الأساليب الواعدة التي يمكن أن تساعدنا في فهم أنظمة الذكاء الاصطناعي ذات الصندوق الأسود المعقدة والمستخدمة بالفعل على نطاق واسع اليوم.
مع المزيد من البحث والتطوير ، يمكننا أن نأمل في بناء أنظمة ذكاء اصطناعي أكثر شفافية وأسهل في الفهم. في غضون ذلك ، يجب أن تكون الشركات والخبراء في مجالات مثل الرعاية الصحية على دراية بقيود إمكانية شرح الذكاء الاصطناعي.
اترك تعليق