Три роки тому я відвідав досить цікаву художню виставку. «Мемуари машини» Рефіка Анадола викликали мій інтерес із самого початку.
Його ім’я популярне серед тих, хто цікавиться перетином мистецтва та ШІ. Але не хвилюйтеся, цей блог не про мистецтво. Ми заглибимося в глибинні «сприйняття» ШІ.
На цій виставці Anadol експериментував Космічні знімки NASA. Виставку надихнула ідея, що телескопи можуть «мріяти», використовуючи свої візуальні архіви, стираючи бар’єри між фактами та уявою.
Досліджуючи взаємозв’язки між даними, пам’яттю та історією в космічному масштабі, Anadol просив нас розглянути потенціал штучний інтелект спостерігати та усвідомлювати навколишній світ. І навіть ШІ мати власні мрії…
Отже, чому це актуально для нас?
Подумайте про це: подібно до того, як Anadol досліджував концепцію телескопів, що бачать сни на основі їхніх даних, системи ШІ мають свій власний тип сновидінь або, точніше, галюцинацій, у своїх цифрових банках пам’яті.
Ці галюцинації, як і візуалізації на виставці Anadol, можуть допомогти нам дізнатися більше про дані, ШІ та їхні обмеження.
Що таке галюцинації ШІ?
Коли велика мовна модель, наприклад генеративний чат-бот штучного інтелекту, видає результати з шаблонами, які або неіснуючі, або невидимі для спостерігачів, ми називаємо це «ШІ галюцинації."
Ці вихідні дані, які відрізняються від очікуваної відповіді на основі даних, наданих ШІ, можуть бути абсолютно помилковими або безглуздими.
У контексті комп’ютерів термін «галюцинація» може здатися незвичайним, але він точно описує дивний характер цих неправильних результатів. Галюцинації штучного інтелекту спричинені низкою змінних, у тому числі переобладнанням, упередженнями в даних навчання та складністю моделі штучного інтелекту.
Щоб краще зрозуміти, це концептуально схоже на те, як люди бачать форми в хмарах або обличчя на Місяці.
Приклад:
У цьому прикладі я поставив дуже просте запитання ChatGPT. Я мав отримати відповідь на кшталт: «Автором серії книг «Дюна» є Френк Герберт».
Чому це відбувається?
Незважаючи на те, що великі мовні моделі створені для написання зв’язного та плавного вмісту, вони насправді не можуть зрозуміти, що вони говорять. Це дуже важливо для визначення достовірності контенту, створеного ШІ.
Хоча ці моделі можуть генерувати реакції, які імітують людську поведінку, їм бракує усвідомлення контексту та навичок критичного мислення що лежить в основі справжнього інтелекту.
Як наслідок, результати, згенеровані штучним інтелектом, ризикують бути оманливими або помилковими, оскільки вони віддають перевагу відповідним шаблонам, а не фактичній правильності.
Які ще можуть бути випадки галюцинацій?
Небезпечна дезінформація: Скажімо, генеративний чат-бот штучного інтелекту фабрикує докази та свідчення, щоб неправдиво звинуватити публічну особу в злочинній поведінці. Ця оманлива інформація може завдати шкоди репутації особи та спричинити необґрунтовану помсту.
Дивні чи моторошні відповіді: Щоб навести жартівливий приклад, уявіть чат-бота, який задає користувачеві запитання про погоду та відповідає прогнозом, у якому сказано, що буде дощ із котами та собаками, разом із зображеннями крапель дощу, схожих на котів та собак. Незважаючи на те, що вони смішні, це все одно буде «галюцинація».
Фактичні неточності: Припустімо, чат-бот на основі мовної моделі помилково стверджує, що Велику китайську стіну можна побачити з космосу, не пояснюючи, що її видно лише за певних умов. Хоча це зауваження може здатися комусь правдоподібним, воно є неточним і може ввести людей в оману щодо виду стіни з космосу.
Як уникнути галюцинацій ШІ як користувача?
Робіть чіткі підказки
Вам потрібно явно спілкуватися з моделями ШІ.
Подумайте про свої цілі та створіть підказки, перш ніж писати.
Наприклад, дайте конкретні інструкції на кшталт «Поясніть, як працює Інтернет, і напишіть абзац про його значення для сучасного суспільства» замість загального запиту на зразок «Розкажіть мені про Інтернет».
Експліцитність допомагає моделі ШІ інтерпретувати ваш намір.
Приклад: поставте ШІ такі запитання:
«Що таке хмарні обчислення і як вони працюють?»
«Поясніть вплив дрейфу даних на продуктивність моделі».
«Обговоріть вплив і потенційне майбутнє технології VR на ІТ-бізнес».
Скористайтеся силою прикладу
Наведення прикладів у підказках допомагає моделям ШІ зрозуміти контекст і генерувати точні відповіді. Незалежно від того, чи шукаєте ви історичну інформацію чи технічні пояснення, надавши приклади, можна підвищити точність контенту, створеного ШІ.
Наприклад, ви можете сказати: «Згадайте такі фантастичні романи, як Гаррі Поттер».
Розбийте складні завдання
Складні підказки перевантажують алгоритми AI, і вони можуть призвести до нерелевантних результатів. Щоб запобігти цьому, розділіть складну діяльність на менші, легші частини. Послідовно організовуючи ваші підказки, ви дозволяєте штучному інтелекту зосереджуватися на кожному компоненті незалежно, що призводить до більш логічних відповідей.
Наприклад, замість того, щоб просити ШІ «пояснити процес створення нейронна мережа" в одному запиті розбийте призначення на окремі етапи, такі як визначення проблеми та збір даних.
Перевірте результати та надайте відгук
Завжди ще раз перевіряйте результати, отримані моделями штучного інтелекту, особливо для дій, заснованих на фактах, або важливих дій. Порівняйте відповіді з надійними джерелами та зверніть увагу на відмінності чи помилки.
Надайте вхідні дані системі штучного інтелекту, щоб покращити майбутню продуктивність і зменшити галюцинації.
Стратегії для розробників, щоб уникнути галюцинацій ШІ
Впровадити пошуково-розширену генерацію (RAG).
Інтегруйте методи генерації з доповненим пошуком у системи ШІ, щоб базувати відповіді на фактичних фактах із надійних баз даних.
Пошуково-доповнена генерація (RAG) поєднує стандартну генерацію природної мови з можливістю отримувати та об’єднувати відповідну інформацію з величезної бази знань, що призводить до більш насиченого контексту результату.
Об’єднавши контент, створений штучним інтелектом, із підтвердженими джерелами даних, ви можете підвищити надійність результатів штучного інтелекту.
Постійно перевіряйте та контролюйте результати ШІ
Налаштуйте суворі процедури перевірки, щоб перевірити правильність і послідовність виходів ШІ в режимі реального часу. Уважно стежте за продуктивністю штучного інтелекту, шукайте потенційні галюцинації чи помилки, повторюйте навчання моделі та оперативну оптимізацію для підвищення надійності з часом.
Наприклад, використовуйте автоматизовані процедури перевірки, щоб перевірити створений штучним інтелектом контент на правдивість фактів і виділити випадки можливих галюцинацій для оцінки вручну.
Перевірте дрейф даних
Зміщення даних — це явище, при якому статистичні характеристики даних, які використовуються для навчання моделі ШІ, змінюються з часом. Якщо модель штучного інтелекту зустрічає дані, які суттєво відрізняються від її навчальних даних під час логічного висновку, вона може надати хибні або нелогічні результати, що призведе до галюцинацій.
Наприклад, якщо модель штучного інтелекту навчається на минулих даних, які більше не є релевантними чи вказівними на поточне середовище, вона може зробити неправильні висновки чи прогнози.
Як наслідок, моніторинг і вирішення дрейфів даних має вирішальне значення для забезпечення продуктивності та надійності системи штучного інтелекту, а також для зменшення ймовірності галюцинацій.
Висновок
За даними IBM Data, галюцинації штучного інтелекту виникають приблизно в 3–10% відповідей моделей штучного інтелекту.
Тож, так чи інакше, ви, мабуть, теж їх спостерігатимете. Я вважаю, що це неймовірно цікава тема, оскільки вона є захоплюючим нагадуванням про постійний шлях до вдосконалення можливостей ШІ.
Ми можемо спостерігати та експериментувати з надійністю ШІ, тонкощами обробки даних і взаємодією людини та ШІ.
залишити коментар