قبل ثلاث سنوات، قمت بزيارة معرض فني مثير للاهتمام إلى حد ما. أثارت رواية "مذكرات الآلة" لرفيق أناضول اهتمامي منذ البداية.
إنه اسم مشهور بين المهتمين بالتقاطع بين الفن والذكاء الاصطناعي. لكن لا تقلق، فهذه المدونة لا تتعلق بالفن. سوف نتعمق في "التصورات" العميقة للذكاء الاصطناعي.
في هذا المعرض، كان الأناضول يقوم بالتجربة صور استكشاف الفضاء لوكالة ناسا. كان المعرض مستوحى من فكرة أن التلسكوبات يمكن أن "تحلم" باستخدام أرشيفها البصري، مما يطمس الحواجز بين الحقيقة والخيال.
من خلال التحقيق في العلاقات بين البيانات والذاكرة والتاريخ على نطاق كوني، كان الأناضول يطلب منا النظر في إمكانات الذكاء الاصطناعي لمراقبة وفهم العالم من حولنا. وحتى الذكاء الاصطناعي لديه أحلامه الخاصة...
إذن، لماذا هذا مهم بالنسبة لنا؟
خذ بعين الاعتبار ما يلي: بقدر ما بحثت أنادول في مفهوم التلسكوبات التي تحلم من بياناتها، فإن أنظمة الذكاء الاصطناعي لديها نوع خاص بها من الأحلام - أو بالأحرى، الهلوسة - داخل بنوك الذاكرة الرقمية الخاصة بها.
يمكن لهذه الهلوسة، مثل التصورات الموجودة في معرض أناضول، أن تساعدنا في معرفة المزيد عن البيانات والذكاء الاصطناعي وحدودهما.
ما هي هلوسة الذكاء الاصطناعي بالضبط؟
عندما ينتج نموذج لغة كبير، مثل روبوت الدردشة التوليدي القائم على الذكاء الاصطناعي، مخرجات بأنماط إما غير موجودة أو غير مرئية للمراقبين البشريين، فإننا نسميها "هلاوس الذكاء الاصطناعي."
هذه المخرجات، والتي تختلف عن الإجابة المتوقعة بناءً على المدخلات المقدمة إلى الذكاء الاصطناعي، يمكن أن تكون خاطئة تمامًا أو غير منطقية.
في سياق أجهزة الكمبيوتر، قد يبدو مصطلح "الهلوسة" غير عادي، لكنه يصف بدقة الطابع الغريب لهذه المخرجات غير الصحيحة. تنجم هلوسة الذكاء الاصطناعي عن مجموعة من المتغيرات، بما في ذلك الإفراط في التجهيز، والتحيز في بيانات التدريب، وتعقيد نموذج الذكاء الاصطناعي.
لفهم أفضل، هذا مشابه من الناحية المفاهيمية لكيفية رؤية البشر للأشكال في السحب أو الوجوه على القمر.
مثال:
في هذا المثال، سألت سؤالا سهلا للغاية شات جي بي تي. كان من المفترض أن أحصل على إجابة مثل: "مؤلف سلسلة كتب Dune هو فرانك هربرت".
لماذا يحدث هذا؟
على الرغم من تصميمها لكتابة محتوى متماسك ومرن، إلا أن نماذج اللغات الكبيرة غير قادرة في الواقع على فهم ما تقوله. وهذا أمر بالغ الأهمية في تحديد مصداقية المحتوى الناتج عن الذكاء الاصطناعي.
في حين أن هذه النماذج يمكن أن تولد ردود فعل تحاكي السلوك البشري، إنهم يفتقرون إلى الوعي السياقي ومهارات التفكير النقدي التي تدعم الذكاء الفعلي.
ونتيجة لذلك، تتعرض المخرجات التي يولدها الذكاء الاصطناعي لخطر التضليل أو الخطأ لأنها تفضل أنماط المطابقة على الصحة الواقعية.
ماذا يمكن أن تكون بعض حالات الهلوسة الأخرى؟
معلومات خاطئة خطيرة: لنفترض أن برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي يقوم بتلفيق الأدلة والشهادات لاتهام شخصية عامة كذبًا بارتكاب سلوك إجرامي. من المحتمل أن تؤدي هذه المعلومات المضللة إلى الإضرار بسمعة الشخص والتسبب في انتقام غير مبرر.
إجابات غريبة أو مخيفة: ولإعطاء مثال فكاهي، تخيل أن برنامج الدردشة الآلي يعطي المستخدم سؤالاً عن الطقس ويجيب عليه بتوقعات تشير إلى أنها ستمطر قططًا وكلابًا، إلى جانب صور قطرات المطر التي تشبه القطط والكلاب. على الرغم من أنها مضحكة، إلا أن هذا سيظل "هلوسة".
عدم الدقة في الحقائق: افترض أن برنامج الدردشة الآلي القائم على نموذج اللغة ينص بشكل خاطئ على أنه يمكن رؤية سور الصين العظيم من الفضاء دون توضيح أنه لا يمكن رؤيته إلا في ظل ظروف محددة. في حين أن الملاحظة قد تبدو معقولة للبعض، إلا أنها غير دقيقة ويمكن أن تضلل الناس بشأن رؤية الجدار من الفضاء.
كيف تتجنب هلوسة الذكاء الاصطناعي كمستخدم؟
تقديم مطالبات صريحة
تحتاج إلى التواصل مع نماذج الذكاء الاصطناعي بشكل صريح.
فكر في أهدافك وصمم مطالباتك قبل الكتابة.
على سبيل المثال، قم بإعطاء تعليمات محددة مثل "اشرح كيفية عمل الإنترنت واكتب فقرة حول أهميتها في المجتمع الحديث" بدلاً من طرح استفسار عام مثل "أخبرني عن الإنترنت".
يساعد الوضوح نموذج الذكاء الاصطناعي على تفسير نيتك.
مثال: اطرح أسئلة على الذكاء الاصطناعي مثل هذه:
"ما هي الحوسبة السحابية وكيف تعمل؟"
"اشرح تأثير انحراف البيانات على أداء النموذج."
"ناقش التأثير والمستقبل المحتمل لتقنية الواقع الافتراضي على أعمال تكنولوجيا المعلومات."
احتضان قوة المثال
يساعد تقديم الأمثلة في المطالبات نماذج الذكاء الاصطناعي على فهم السياق وإنشاء ردود دقيقة. سواء كنت تبحث عن رؤى تاريخية أو تفسيرات فنية، فإن تقديم الأمثلة يمكن أن يساعد في تحسين دقة المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
على سبيل المثال، يمكنك أن تقول: "اذكر روايات خيالية مثل هاري بوتر".
تقسيم المهام المعقدة
تؤدي المطالبات المعقدة إلى زيادة تحميل خوارزميات الذكاء الاصطناعي، وقد تؤدي إلى نتائج غير ذات صلة. ولمنع حدوث ذلك، قم بتقسيم الأنشطة المعقدة إلى أجزاء أصغر وأكثر قابلية للإدارة. ومن خلال تنظيم مطالباتك بشكل تسلسلي، فإنك تسمح للذكاء الاصطناعي بالتركيز على كل مكون بشكل مستقل، مما يؤدي إلى الحصول على ردود أكثر منطقية.
على سبيل المثال، بدلاً من مطالبة الذكاء الاصطناعي بـ "شرح عملية إنشاء ملف الشبكة العصبية" في استعلام واحد، قم بتقسيم المهمة إلى مراحل منفصلة مثل تعريف المشكلة وجمع البيانات.
التحقق من صحة المخرجات وتقديم الملاحظات
تحقق دائمًا جيدًا من النتائج التي تنتجها نماذج الذكاء الاصطناعي، خاصة بالنسبة للأنشطة القائمة على الحقائق أو الأنشطة المهمة. قارن الردود بالمصادر الموثوقة ولاحظ أي اختلافات أو أخطاء.
توفير مدخلات لنظام الذكاء الاصطناعي لتعزيز الأداء المستقبلي وتقليل الهلوسة.
استراتيجيات للمطورين لتجنب هلوسة الذكاء الاصطناعي
تنفيذ الجيل المعزز للاسترجاع (RAG).
دمج تقنيات توليد الاسترجاع المعزز في أنظمة الذكاء الاصطناعي لتأسيس الردود على حقائق واقعية من قواعد بيانات موثوقة.
يجمع الجيل المعزز للاسترجاع (RAG) بين توليد اللغة الطبيعية القياسية والقدرة على الحصول على المعلومات ذات الصلة ودمجها من قاعدة معرفية ضخمة، مما يؤدي إلى إنتاج المزيد من النتائج الغنية بالسياق.
من خلال دمج المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي مع مصادر البيانات التي تم التحقق من صحتها، يمكنك تحسين الاعتمادية والموثوقية لنتائج الذكاء الاصطناعي.
التحقق من صحة ومراقبة مخرجات الذكاء الاصطناعي بشكل مستمر
قم بإعداد إجراءات تحقق صارمة للتحقق من صحة واتساق مخرجات الذكاء الاصطناعي في الوقت الفعلي. راقب أداء الذكاء الاصطناعي بعناية، وابحث عن الهلوسة أو الأخطاء المحتملة، وكرر التدريب النموذجي والتحسين الفوري لزيادة الاعتمادية بمرور الوقت.
على سبيل المثال، استخدم إجراءات التحقق الآلية للتحقق من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للتأكد من صحته الواقعية وتسليط الضوء على حالات الهلوسة المحتملة للتقييم اليدوي.
التحقق من انجرافات البيانات
انجراف البيانات هو ظاهرة تختلف فيها السمات الإحصائية للبيانات المستخدمة لتدريب نموذج الذكاء الاصطناعي مع مرور الوقت. إذا استوفى نموذج الذكاء الاصطناعي بيانات تختلف بشكل كبير عن بيانات التدريب الخاصة به أثناء الاستدلال، فيمكن أن يقدم نتائج خاطئة أو غير منطقية، مما يؤدي إلى الهلوسة.
على سبيل المثال، إذا تم تدريب نموذج الذكاء الاصطناعي على البيانات السابقة التي لم تعد ذات صلة أو مؤشرة للبيئة الحالية، فقد يتوصل إلى استنتاجات أو تنبؤات غير صحيحة.
ونتيجة لذلك، تعد مراقبة انحرافات البيانات وحلها أمرًا بالغ الأهمية لضمان أداء نظام الذكاء الاصطناعي وموثوقيته مع تقليل احتمالية الهلوسة أيضًا.
وفي الختام
وفقًا لبيانات IBM، تحدث هلوسة الذكاء الاصطناعي في حوالي 3% إلى 10% من الإجابات الواردة من نماذج الذكاء الاصطناعي.
لذلك، بطريقة أو بأخرى، ربما ستلاحظهم أيضًا. أعتقد أن هذا موضوع مثير للاهتمام بشكل لا يصدق لأنه تذكير رائع بالطريق المستمر نحو تعزيز قدرات الذكاء الاصطناعي.
علينا أن نلاحظ ونختبر موثوقية الذكاء الاصطناعي، وتعقيدات معالجة البيانات، والتفاعلات بين الإنسان والذكاء الاصطناعي.
اترك تعليق