Три года назад я посетил довольно интересную художественную выставку. «Машинные мемуары» Рефика Анадола с самого начала заинтересовали меня.
Это популярное имя среди тех, кто интересуется пересечением искусства и искусственного интеллекта. Но не волнуйтесь, этот блог не об искусстве. Мы углубимся в глубокие «восприятия» ИИ.
На этой выставке Анадол экспериментировал с Снимки космических исследований НАСА. Выставка была вдохновлена идеей о том, что телескопы могут «мечтать», используя свои визуальные архивы, стирая барьеры между фактом и воображением.
Исследуя взаимосвязь между данными, памятью и историей в космическом масштабе, Анадол просил нас рассмотреть потенциал искусственный интеллект наблюдать и познавать окружающий мир. И даже у ИИ есть свои мечты…
Итак, почему это актуально для нас?
Подумайте вот о чем: подобно тому, как Анадол исследовал концепцию телескопов, мечтающих на основе своих данных, системы ИИ имеют свой собственный тип снов — или, скорее, галлюцинации — в своих банках цифровой памяти.
Эти галлюцинации, как и визуализации на выставке Анадола, могут помочь нам узнать больше о данных, искусственном интеллекте и их ограничениях.
Что такое галлюцинации ИИ?
Когда большая языковая модель, такая как генеративный чат-бот с искусственным интеллектом, выдает результаты с шаблонами, которые либо отсутствуют, либо невидимы для людей-наблюдателей, мы называем это «ИИ галлюцинации.
Эти выходные данные, которые отличаются от ожидаемого ответа на основе данных, данных ИИ, могут быть совершенно ошибочными или бессмысленными.
В контексте компьютеров термин «галлюцинация» может показаться необычным, но он точно описывает причудливый характер этих неверных результатов. Галлюцинации ИИ вызываются рядом переменных, включая переобучение, искажения в обучающих данных и сложность модели ИИ.
Чтобы лучше понять, концептуально это похоже на то, как люди видят формы в облаках или лица на Луне.
Пример:
В этом примере я задал очень простой вопрос ChatGPT. Я должен был получить ответ типа: «Автор серии книг «Дюна» — Фрэнк Герберт».
Почему это происходит?
Несмотря на то, что большие языковые модели созданы для написания связного и гибкого контента, они фактически не способны понять, что они говорят. Это очень важно для определения достоверности контента, созданного ИИ.
Хотя эти модели могут генерировать реакции, имитирующие человеческое поведение, им не хватает контекстуальной осведомленности и навыков критического мышления которые лежат в основе реального интеллекта.
В результате результаты, генерируемые ИИ, рискуют оказаться вводящими в заблуждение или неправильными, поскольку они отдают предпочтение сопоставлению шаблонов, а не фактической правильности.
Какие еще могут быть случаи галлюцинаций?
Опасная дезинформация: Допустим, чат-бот с генеративным искусственным интеллектом фабрикует доказательства и показания, чтобы ложно обвинить общественного деятеля в преступном поведении. Эта вводящая в заблуждение информация может нанести ущерб репутации человека и вызвать неоправданное возмездие.
Странные или жуткие ответы: В качестве юмористического примера представьте себе чат-бота, задающего пользователю вопрос о погоде и отвечающего прогнозом, в котором говорится, что будет дождь из кошек и собак, а также изображения капель дождя, похожих на кошек и собак. Несмотря на то, что они забавные, это все равно будет «галлюцинацией».
Фактические неточности: Предположим, чат-бот на основе языковой модели ложно утверждает, что Великую Китайскую стену можно увидеть из космоса, не объясняя, что она видна только при определенных условиях. Хотя некоторым это замечание может показаться правдоподобным, оно неточно и может ввести людей в заблуждение относительно вида стены из космоса.
Как пользователю избежать галлюцинаций ИИ?
Делайте явные подсказки
Вам необходимо явно взаимодействовать с моделями ИИ.
Подумайте о своих целях и придумайте подсказки, прежде чем писать.
Например, дайте конкретные инструкции, такие как «Объясните, как работает Интернет, и напишите параграф о его значении в современном обществе», вместо того, чтобы задавать общий вопрос, например «Расскажите мне об Интернете».
Ясность помогает модели ИИ интерпретировать ваши намерения.
Пример: задайте ИИ такие вопросы:
«Что такое облачные вычисления и как они работают?»
«Объясните влияние дрейфа данных на производительность модели».
«Обсудите влияние и потенциальное будущее технологии VR на ИТ-бизнес».
Используйте силу примера
Предоставление примеров в подсказках помогает моделям ИИ понимать контекст и генерировать точные ответы. Ищете ли вы исторические сведения или технические объяснения, примеры могут помочь повысить точность контента, создаваемого ИИ.
Например, вы можете сказать: «Упомяните фэнтезийные романы, такие как Гарри Поттер».
Разбивайте сложные задачи
Сложные подсказки перегружают алгоритмы ИИ и могут привести к нерелевантным результатам. Чтобы этого не произошло, разделите сложную деятельность на более мелкие и более управляемые части. Организуя подсказки последовательно, вы позволяете ИИ сосредоточиться на каждом компоненте независимо, что приводит к более логичным ответам.
Например, вместо того, чтобы просить ИИ «объяснить процесс создания нейронная сеть" в одном запросе разбейте задание на отдельные этапы, такие как определение проблемы и сбор данных.
Подтвердить результаты и предоставить обратную связь
Всегда дважды проверяйте результаты, полученные моделями ИИ, особенно в случае фактической или важной деятельности. Сравните ответы с надежными источниками и отметьте любые различия или ошибки.
Предоставьте входные данные системе искусственного интеллекта, чтобы повысить производительность в будущем и уменьшить галлюцинации.
Стратегии для разработчиков, позволяющие избежать галлюцинаций ИИ
Внедрите расширенную генерацию поиска (RAG).
Интегрируйте методы генерации с расширенным поиском в системы искусственного интеллекта, чтобы основывать ответы на фактических фактах из надежных баз данных.
Генерация с расширенным поиском (RAG) сочетает в себе стандартную генерацию на естественном языке с возможностью получать и включать соответствующую информацию из огромной базы знаний, что приводит к более контекстуально богатому результату.
Объединив контент, созданный ИИ, с проверенными источниками данных, вы можете повысить надежность и достоверность результатов ИИ.
Непрерывная проверка и мониторинг выходных данных AI
Установите строгие процедуры проверки для проверки правильности и согласованности результатов ИИ в режиме реального времени. Внимательно следите за производительностью ИИ, ищите потенциальные галлюцинации или ошибки, а также повторяйте обучение модели и оперативную оптимизацию, чтобы со временем повысить надежность.
Например, используйте процедуры автоматической проверки, чтобы проверить фактическую правильность контента, созданного ИИ, и выделить случаи возможных галлюцинаций для ручной оценки.
Проверьте наличие отклонений данных
Дрейф данных — это явление, при котором статистические характеристики данных, используемых для обучения модели ИИ, меняются со временем. Если во время вывода модель ИИ встречает данные, которые значительно отличаются от данных ее обучения, она может давать ложные или нелогичные результаты, что приводит к галлюцинациям.
Например, если модель ИИ обучена на прошлых данных, которые больше не актуальны и не отражают текущую среду, она может делать неправильные выводы или прогнозы.
В результате мониторинг и устранение отклонений данных имеют решающее значение для обеспечения производительности и надежности системы ИИ, а также для снижения вероятности галлюцинаций.
Заключение
По данным IBM Data, галлюцинации ИИ встречаются примерно в 3–10% ответов на модели ИИ.
Так что, так или иначе, вы наверняка их тоже будете наблюдать. Я считаю, что это невероятно интересная тема, потому что это увлекательное напоминание о непрерывном пути к расширению возможностей ИИ.
Мы можем наблюдать и экспериментировать с надежностью ИИ, тонкостями обработки данных и взаимодействием человека и ИИ.
Оставьте комментарий