سه سال پیش، از یک نمایشگاه هنری نسبتاً جالب بازدید کردم. «خاطرات ماشین» اثر رفیک آنادول از همان ابتدا علاقه من را برانگیخت.
او نامی محبوب در میان علاقه مندان به تلاقی هنر و هوش مصنوعی است. اما نگران نباشید، این وبلاگ در مورد هنر نیست. ما به "ادراکات" عمیق هوش مصنوعی خواهیم پرداخت.
در این نمایشگاه آنادول در حال آزمایش بود تصاویر اکتشاف فضایی ناسا این نمایشگاه از این ایده الهام گرفته شده بود که تلسکوپ ها می توانند با استفاده از آرشیو بصری خود "رویا ببینند" و موانع بین واقعیت و تخیل را محو کنند.
آنادول با بررسی روابط بین دادهها، حافظه و تاریخ در مقیاس کیهانی از ما میخواست که پتانسیل هوش مصنوعی برای مشاهده و درک دنیای اطرافمان. و حتی هوش مصنوعی رویاهای خودش را داشته باشد…
بنابراین، چرا این به ما مربوط است؟
این را در نظر بگیرید: همانطور که آنادول مفهوم رؤیاپردازی تلسکوپها را از روی دادههایشان بررسی کرد، سیستمهای هوش مصنوعی در بانکهای حافظه دیجیتال خود، رویاهای خاص خود را دارند یا بهتر بگوییم توهمات.
این توهمات، مانند تجسمهای موجود در نمایشگاه آنادول، میتواند به ما کمک کند اطلاعات بیشتری درباره دادهها، هوش مصنوعی و محدودیتهای آنها بدانیم.
توهمات هوش مصنوعی دقیقاً چیست؟
هنگامی که یک مدل زبان بزرگ، مانند یک چت ربات هوش مصنوعی، خروجی هایی با الگوهایی تولید می کند که یا وجود ندارند یا برای ناظران انسانی نامرئی هستند، به این موارد می گوییم:توهمات هوش مصنوعی"
این خروجی ها که با پاسخ مورد انتظار بر اساس ورودی داده شده به هوش مصنوعی متفاوت هستند، می توانند کاملاً اشتباه یا بی معنی باشند.
در زمینه کامپیوترها، اصطلاح "توهم" ممکن است غیرعادی به نظر برسد، اما به طور دقیق ویژگی عجیب و غریب این خروجی های نادرست را توصیف می کند. توهمات هوش مصنوعی توسط طیف وسیعی از متغیرها، از جمله تطبیق بیش از حد، سوگیری در داده های آموزشی و پیچیدگی مدل هوش مصنوعی ایجاد می شود.
برای درک بهتر، این از نظر مفهومی شبیه به نحوه دیدن اشکال در ابرها یا چهره ها در ماه است.
یک مثال:
در این مثال، من یک سوال بسیار آسان پرسیدم GPT چت. قرار بود جوابی مثل «نویسنده مجموعه کتاب های Dune فرانک هربرت» را دریافت کنم.
چرا این اتفاق می افتد؟
با وجود اینکه برای نوشتن محتوایی منسجم و روان ساخته شدهاند، مدلهای زبان بزرگ در واقع قادر به درک آنچه میگویند نیستند. این در تعیین اعتبار محتوای تولید شده توسط هوش مصنوعی بسیار حیاتی است.
در حالی که این مدل ها می توانند واکنش هایی ایجاد کنند که رفتار انسان را تقلید می کند، آنها فاقد آگاهی زمینه ای و مهارت های تفکر انتقادی هستند که زیربنای هوش واقعی است.
در نتیجه، خروجیهای تولید شده توسط هوش مصنوعی خطر گمراهکننده یا اشتباه بودن را دارند زیرا الگوهای تطبیق را به صحت واقعی ترجیح میدهند.
موارد دیگر توهم چه می تواند باشد؟
اطلاعات غلط خطرناک: بیایید بگوییم یک چت ربات هوش مصنوعی مولد شواهد و شهادت هایی را برای متهم کردن نادرست یک شخصیت عمومی به رفتار مجرمانه جعل می کند. این اطلاعات گمراه کننده این امکان را دارد که به اعتبار فرد آسیب وارد کند و باعث تلافی غیرقابل توجیه شود.
پاسخ های عجیب یا ترسناک: برای ارائه یک مثال طنز، یک ربات چت را تصویر کنید که به کاربر یک سوال آب و هوا می دهد و با یک پیش بینی که می گوید باران گربه ها و سگ ها می بارد، به همراه تصاویری از قطرات باران که شبیه گربه ها و سگ ها هستند، پاسخ می دهد. حتی اگر آنها خنده دار هستند، این هنوز یک "توهم" است.
عدم دقت واقعی: فرض کنید یک ربات چت مبتنی بر مدل زبان به اشتباه بیان می کند که دیوار بزرگ چین ممکن است از فضا مشاهده شود بدون اینکه توضیح دهد که فقط در شرایط خاص قابل مشاهده است. در حالی که این اظهار نظر ممکن است برای برخی قابل قبول باشد، اما نادرست است و می تواند مردم را در مورد دید دیوار از فضا گمراه کند.
چگونه از توهمات هوش مصنوعی به عنوان یک کاربر جلوگیری می کنید؟
درخواست های صریح بنویسید
شما باید به طور صریح با مدل های هوش مصنوعی ارتباط برقرار کنید.
قبل از نوشتن به اهداف خود فکر کنید و درخواست های خود را طراحی کنید.
بهعنوان مثال، بهجای طرح پرسش کلی مانند «درباره اینترنت به من بگویید»، دستورالعملهای خاصی مانند «توضیح دهید که اینترنت چگونه کار میکند و یک پاراگراف در مورد اهمیت آن در جامعه مدرن بنویسید».
صراحت به مدل هوش مصنوعی کمک می کند تا قصد شما را تفسیر کند.
مثال: از هوش مصنوعی سوالاتی مانند موارد زیر بپرسید:
"رایانش ابری چیست و چگونه کار می کند؟"
"تأثیر جابجایی داده ها بر عملکرد مدل را توضیح دهید."
"درباره تاثیر و آینده بالقوه فناوری VR در تجارت فناوری اطلاعات صحبت کنید."
قدرت مثال را در آغوش بگیرید
ارائه مثالها در درخواستهای شما به مدلهای هوش مصنوعی کمک میکند تا زمینه را درک کنند و پاسخهای دقیقی را ایجاد کنند. چه به دنبال بینش های تاریخی یا توضیحات فنی باشید، ارائه مثال ها می تواند به افزایش دقت محتوای تولید شده توسط هوش مصنوعی کمک کند.
به عنوان مثال، می توانید بگویید: "به رمان های فانتزی مانند هری پاتر اشاره کنید."
شکستن وظایف پیچیده
درخواست های پیچیده الگوریتم های هوش مصنوعی را بیش از حد بارگذاری می کنند و ممکن است منجر به نتایج نامربوط شوند. برای جلوگیری از این امر، فعالیت های پیچیده را به قطعات کوچکتر و قابل مدیریت تقسیم کنید. با سازماندهی متوالی درخواستهای خود، به هوش مصنوعی اجازه میدهید تا روی هر جزء به طور مستقل تمرکز کند و در نتیجه پاسخهای منطقیتری به دست میدهد.
به عنوان مثال، به جای اینکه از هوش مصنوعی بخواهید «فرایند ایجاد a را توضیح دهد شبکه عصبی" در یک پرس و جو، تکلیف را به فازهای مجزا مانند تعریف مسئله و جمع آوری داده ها تقسیم کنید.
خروجی ها را تأیید کنید و بازخورد ارائه دهید
همیشه نتایج حاصل از مدلهای هوش مصنوعی را بهویژه برای فعالیتهای مبتنی بر واقعیت یا حیاتی بررسی کنید. پاسخ ها را با منابع معتبر مقایسه کنید و هر گونه تفاوت یا اشتباه را یادداشت کنید.
برای بهبود عملکرد آینده و کاهش توهمات، ورودی به سیستم هوش مصنوعی ارائه دهید.
استراتژی هایی برای توسعه دهندگان برای جلوگیری از توهمات هوش مصنوعی
پیاده سازی Retrieval-Augmented Generation (RAG).
تکنیکهای تولید تقویتشده بازیابی را در سیستمهای هوش مصنوعی ادغام کنید تا پاسخها را بر اساس حقایق واقعی از پایگاههای داده قابل اعتماد ارائه کنید.
نسل افزوده شده با بازیابی (RAG) تولید زبان طبیعی استاندارد را با ظرفیت به دست آوردن و ترکیب اطلاعات مرتبط از یک پایگاه دانش عظیم ترکیب میکند که منجر به خروجی غنیتر از نظر متنی میشود.
با ادغام محتوای تولید شده توسط هوش مصنوعی با منابع داده معتبر، می توانید قابلیت اطمینان و قابل اعتماد بودن نتایج هوش مصنوعی را بهبود بخشید.
اعتبارسنجی و نظارت بر خروجی های هوش مصنوعی به طور مداوم
برای تأیید صحت و سازگاری خروجی های هوش مصنوعی در زمان واقعی، روش های اعتبارسنجی دقیق را تنظیم کنید. عملکرد هوش مصنوعی را با دقت زیر نظر داشته باشید، به دنبال توهمات یا اشتباهات احتمالی باشید، و آموزش مدل و بهینه سازی سریع را تکرار کنید تا قابلیت اطمینان در طول زمان افزایش یابد.
برای مثال، از روالهای اعتبارسنجی خودکار برای بررسی محتوای تولید شده توسط هوش مصنوعی از نظر صحت واقعی و برجسته کردن نمونههایی از توهمات احتمالی برای ارزیابی دستی استفاده کنید.
برای دریفت داده ها را بررسی کنید
رانش داده پدیده ای است که در آن ویژگی های آماری داده های مورد استفاده برای آموزش یک مدل هوش مصنوعی با زمان تغییر می کند. اگر مدل هوش مصنوعی در طول استنتاج با داده هایی که به طور قابل توجهی با داده های آموزشی آن متفاوت است مطابقت داشته باشد، می تواند نتایج نادرست یا غیرمنطقی ارائه دهد و منجر به توهم شود.
به عنوان مثال، اگر یک مدل هوش مصنوعی بر روی دادههای گذشته آموزش دیده باشد که دیگر مرتبط یا نشاندهنده محیط فعلی نیست، ممکن است نتیجهگیری یا پیشبینی نادرستی انجام دهد.
در نتیجه، نظارت و حل انحراف دادهها برای اطمینان از عملکرد و قابلیت اطمینان سیستم هوش مصنوعی و همچنین کاهش احتمال توهم بسیار مهم است.
نتیجه
طبق داده های IBM، توهمات هوش مصنوعی در حدود 3 تا 10 درصد از پاسخ های مدل های هوش مصنوعی رخ می دهد.
بنابراین، به هر طریقی، احتمالاً آنها را نیز مشاهده خواهید کرد. من معتقدم این موضوع فوقالعاده جالبی است، زیرا یادآوری جذاب از مسیر پیوسته به سوی افزایش قابلیتهای هوش مصنوعی است.
ما میتوانیم قابلیت اطمینان هوش مصنوعی، پیچیدگیهای پردازش دادهها و تعاملات انسان و هوش مصنوعی را مشاهده و آزمایش کنیم.
پاسخ دهید