كيف نتأكد من أننا نستخدم الذكاء الاصطناعي بشكل مسؤول؟
تُظهر التطورات في التعلم الآلي أن النماذج يمكن أن تتوسع بسرعة وتؤثر على جزء كبير من المجتمع.
تتحكم الخوارزميات في موجز الأخبار على هواتف الجميع. بدأت الحكومات والشركات في استخدام الذكاء الاصطناعي لاتخاذ قرارات مستنيرة بالبيانات.
نظرًا لأن الذكاء الاصطناعي أصبح متأصلًا بشكل أكبر في كيفية عمل العالم ، كيف نتأكد من أن الذكاء الاصطناعي يتصرف بشكل عادل؟
في هذه المقالة ، سننظر في التحديات الأخلاقية لاستخدام الذكاء الاصطناعي ونرى ما يمكننا القيام به لضمان الاستخدام المسؤول للذكاء الاصطناعي.
ما هو الذكاء الاصطناعي الأخلاقي؟
يشير الذكاء الاصطناعي الأخلاقي إلى الذكاء الاصطناعي الذي يلتزم بمجموعة معينة من المبادئ التوجيهية الأخلاقية.
بمعنى آخر ، إنها طريقة للأفراد والمنظمات للعمل مع الذكاء الاصطناعي بطريقة مسؤولة.
في السنوات الأخيرة ، بدأت الشركات في التمسك بقوانين خصوصية البيانات بعد ظهور أدلة على سوء المعاملة والخرق. وبالمثل ، يوصى بإرشادات أخلاقية للذكاء الاصطناعي للتأكد من أن الذكاء الاصطناعي لا يؤثر سلبًا على المجتمع.
على سبيل المثال ، تعمل بعض أنواع الذكاء الاصطناعي بطريقة منحازة أو تديم التحيزات الموجودة بالفعل. لنفكر في خوارزمية تساعد المجندين على فرز آلاف السير الذاتية. إذا تم تدريب الخوارزمية على مجموعة بيانات تضم في الغالب موظفين من الذكور أو البيض ، فمن الممكن أن تفضل الخوارزمية المتقدمين الذين يندرجون ضمن هذه الفئات.
وضع مبادئ الذكاء الاصطناعي الأخلاقي
لقد فكرنا في وضع مجموعة من القواعد لفرضها الذكاء الاصطناعي لعقود.
حتى في الأربعينيات من القرن الماضي ، عندما كان بإمكان أقوى أجهزة الكمبيوتر فقط إجراء الحسابات العلمية الأكثر تخصصًا ، فكر كتاب الخيال العلمي في فكرة التحكم في الروبوتات الذكية.
اشتهر إسحاق أسيموف بصياغة "القوانين الثلاثة للروبوتات" ، التي اقترح تضمينها في برمجة الروبوتات في قصصه القصيرة كميزة أمان.
لقد أصبحت هذه القوانين بمثابة محك للعديد من قصص الخيال العلمي المستقبلية ، بل إنها أبلغت الدراسات الفعلية حول أخلاقيات الذكاء الاصطناعي.
في البحث المعاصر ، يبحث باحثو الذكاء الاصطناعي عن مصادر أكثر رسوخًا لوضع قائمة بمبادئ الذكاء الاصطناعي الأخلاقي.
نظرًا لأن الذكاء الاصطناعي سيؤثر في نهاية المطاف على حياة البشر ، يجب أن يكون لدينا فهم أساسي لما يجب علينا فعله وما لا يجب فعله.
تقرير بلمونت
للحصول على نقطة مرجعية ، ينظر باحثو الأخلاقيات إلى تقرير بلمونت كدليل. ال تقرير بلمونت وثيقة نشرتها المعاهد الوطنية الأمريكية للصحة في عام 1979. أدت الفظائع الطبية الحيوية التي تمت في الحرب العالمية الثانية إلى دفع لتشريع المبادئ التوجيهية الأخلاقية للباحثين الذين يمارسون الطب.
فيما يلي المبادئ الأساسية الثلاثة المذكورة في التقرير:
- احترام الأشخاص
- الإحسان
- الاجتماعية
يهدف المبدأ الأول إلى الحفاظ على كرامة واستقلالية جميع البشر. على سبيل المثال ، يجب على الباحثين التقليل من خداع المشاركين ويجب أن يطلبوا من كل شخص إعطاء موافقته الصريحة.
يركز المبدأ الثاني ، الإحسان ، على واجب الباحث لتقليل الضرر المحتمل للمشاركين. يمنح هذا المبدأ الباحثين واجب الموازنة بين نسبة المخاطر الفردية إلى الفوائد الاجتماعية المحتملة.
العدالة ، المبدأ النهائي الذي وضعه تقرير بلمونت ، يركز على التوزيع المتساوي للمخاطر والفوائد عبر المجموعات التي يمكن أن تستفيد من البحث. على الباحثين واجب اختيار موضوعات البحث من عموم السكان. سيؤدي القيام بذلك إلى تقليل التحيزات الفردية والنظامية التي يمكن أن تؤثر سلبًا على المجتمع.
وضع الأخلاق في أبحاث الذكاء الاصطناعي
بينما كان تقرير بلمونت يستهدف في المقام الأول البحث الذي يشمل البشر ، كانت المبادئ واسعة بما يكفي لتطبيقها على مجال أخلاقيات الذكاء الاصطناعي.
أصبحت البيانات الضخمة موردا قيما في مجال الذكاء الاصطناعي. يجب أن تتبع العمليات التي تحدد كيفية جمع الباحثين للبيانات الإرشادات الأخلاقية.
يضع تنفيذ قوانين خصوصية البيانات في معظم الدول حدًا إلى حد ما على ما يمكن لشركات البيانات جمعه واستخدامه. ومع ذلك ، لا تزال غالبية الدول لديها مجموعة قوانين بدائية سارية لمنع استخدام الذكاء الاصطناعي لإحداث ضرر.
كيفية العمل مع الذكاء الاصطناعي أخلاقيا
فيما يلي بعض المفاهيم الأساسية التي يمكن أن تساعد في العمل من أجل استخدام أكثر أخلاقية ومسؤولية للذكاء الاصطناعي.
التحكم في التحيز
الذكاء الاصطناعي ليس محايدًا بطبيعته. دائمًا ما تكون الخوارزميات عرضة للتحيز والتمييز المُدرجين لأن البيانات التي تتعلمها تتضمن التحيز.
من الأمثلة الشائعة على الذكاء الاصطناعي التمييزي هو النوع الذي يظهر بشكل متكرر في أنظمة التعرف على الوجه. غالبًا ما تنجح هذه النماذج في التعرف على الوجوه البيضاء للذكور ، لكنها أقل نجاحًا في التعرف على الأشخاص ذوي البشرة الداكنة.
يظهر مثال آخر في DALL-E 2. من OpenAI اكتشف أن بعض المحفزات غالبًا ما تعيد إنتاج التحيز الجنساني والعرقي الذي التقطه النموذج من مجموعة بياناته للصور عبر الإنترنت.
على سبيل المثال ، عند توجيه طلب للحصول على صور للمحامين ، يعرض DALL-E 2 صورًا للمحامين الذكور. من ناحية أخرى ، فإن طلب صور للمضيفات يعود معظمهن من المضيفات.
في حين أنه قد يكون من المستحيل إزالة التحيز تمامًا من أنظمة الذكاء الاصطناعي ، يمكننا اتخاذ خطوات لتقليل آثاره. يمكن للباحثين والمهندسين تحقيق سيطرة أكبر على التحيز من خلال فهم بيانات التدريب وتوظيف فريق متنوع لتقديم مدخلات حول كيفية عمل نظام الذكاء الاصطناعي.
نهج التصميم المتمحور حول الإنسان
يمكن أن تؤثر الخوارزميات الموجودة في تطبيقك المفضل سلبًا عليك.
يمكن للمنصات مثل Facebook و TikTok معرفة المحتوى الذي يجب تقديمه لإبقاء المستخدمين على منصاتهم.
حتى بدون نية التسبب في ضرر ، فإن الهدف المتمثل في إبقاء المستخدمين ملتصقين بتطبيقهم لأطول فترة ممكنة قد يؤدي إلى مشكلات تتعلق بالصحة العقلية. ازدادت شعبية مصطلح "التمرير" باعتباره المصطلح العام لقضاء فترات طويلة من الوقت في قراءة الأخبار السلبية على منصات مثل Twitter و Facebook.
في حالات أخرى ، يتلقى المحتوى البغيض والمعلومات المضللة نظامًا أساسيًا أوسع لأنه يساعد على زيادة تفاعل المستخدم. أ 2021 الدراسة من باحثين في جامعة نيويورك يظهر أن المشاركات من مصادر معروفة بالمعلومات الخاطئة تحصل على إبداءات إعجاب أكثر بست مرات من مصادر الأخبار ذات السمعة الطيبة.
هذه الخوارزميات تفتقر إلى نهج تصميم محوره الإنسان. يجب على المهندسين الذين يصممون كيفية قيام الذكاء الاصطناعي بتنفيذ إجراء ما أن يضعوا دائمًا تجربة المستخدم في الاعتبار.
يجب أن يسأل الباحثون والمهندسون دائمًا السؤال التالي: "كيف يفيد هذا المستخدم؟"
أنظمة الذكاء الاصطناعي القابلة للتفسير
تتبع معظم طرز الذكاء الاصطناعي نموذج الصندوق الأسود. صندوق أسود في آلة التعلم يشير إلى ذكاء اصطناعي حيث لا يمكن لأي إنسان أن يشرح سبب وصول الذكاء الاصطناعي إلى نتيجة معينة.
الصناديق السوداء مشكلة لأنها تقلل من مقدار الثقة التي يمكننا وضعها في الآلات.
على سبيل المثال ، لنتخيل سيناريو أصدر فيه Facebook خوارزمية ساعدت الحكومات في تعقب المجرمين. إذا قام نظام الذكاء الاصطناعي بإعلامك ، فلن يتمكن أحد من شرح سبب اتخاذ هذا القرار. لا ينبغي أن يكون هذا النوع من النظام هو السبب الوحيد لاعتقالك.
يجب أن يُرجع الذكاء الاصطناعي أو XAI القابل للتفسير قائمة بالعوامل التي ساهمت في النتيجة النهائية. بالعودة إلى متتبعنا الجنائي الافتراضي ، يمكننا تعديل نظام الذكاء الاصطناعي لإرجاع قائمة من المنشورات التي تعرض لغة أو مصطلحات مشبوهة. من هناك ، يمكن للإنسان التحقق مما إذا كان المستخدم الذي تم الإبلاغ عنه يستحق التحقيق أم لا.
يوفر XAI مزيدًا من الشفافية والثقة في أنظمة الذكاء الاصطناعي ويمكن أن يساعد البشر على اتخاذ قرارات أفضل.
وفي الختام
مثل جميع الاختراعات التي من صنع الإنسان ، فإن الذكاء الاصطناعي ليس جيدًا أو سيئًا بطبيعته. الطريقة التي نستخدم بها الذكاء الاصطناعي هي المهمة.
ما يميز الذكاء الاصطناعي هو السرعة التي ينمو بها. في السنوات الخمس الماضية ، شهدنا اكتشافات جديدة ومثيرة في مجال التعلم الآلي كل يوم.
ومع ذلك ، فإن القانون ليس سريعًا. مع استمرار الشركات والحكومات في الاستفادة من الذكاء الاصطناعي لتعظيم الأرباح أو السيطرة على المواطنين ، يجب علينا إيجاد طرق للضغط من أجل الشفافية والمساواة في استخدام هذه الخوارزميات.
هل تعتقد أن الذكاء الاصطناعي الأخلاقي ممكن حقًا؟
اترك تعليق