Преди три години посетих една доста интересна изложба. „Мемоарите на машината“ от Рефик Анадол предизвикаха интереса ми от самото начало.
Той е популярно име сред тези, които се интересуват от пресечната точка на изкуството и ИИ. Но не се притеснявайте, този блог не е за изкуство. Ще навлезем в дълбоките „възприятия“ на AI.
В тази изложба Anadol експериментира с Изображения на НАСА за изследване на космоса. Изложбата е вдъхновена от идеята, че телескопите могат да „мечтаят“, използвайки своите визуални архиви, заличавайки бариерите между факти и въображение.
Чрез изследване на връзките между данни, памет и история в космически мащаб Anadol искаше да разгледаме потенциала на изкуствен интелект да наблюдаваме и разбираме света около нас. И дори AI да има свои собствени мечти...
И така, защо това е от значение за нас?
Помислете за това: както Anadol изследва концепцията за телескопите, които сънуват от техните данни, системите с изкуствен интелект имат свой собствен тип сънища или по-скоро халюцинации в своите банки с цифрова памет.
Тези халюцинации, подобно на визуализациите в изложбата на Anadol, могат да ни помогнат да научим повече за данните, AI и техните ограничения.
Какво всъщност представляват AI халюцинациите?
Когато голям езиков модел, като генериращ AI chatbot, произвежда резултати с модели, които или не съществуват, или са невидими за човешки наблюдатели, ние ги наричаме „AI халюцинации."
Тези резултати, които се различават от очаквания отговор въз основа на въведените данни на AI, могат да бъдат напълно погрешни или безсмислени.
В контекста на компютрите терминът „халюцинация“ може да изглежда необичаен, но той точно описва странния характер на тези неправилни резултати. AI халюцинациите се причиняват от набор от променливи, включително пренастройване, отклонения в данните за обучение и сложността на AI модела.
За да разберем по-добре, това е концептуално подобно на това как хората виждат форми в облаци или лица на луната.
Пример:
В този пример зададох много лесен въпрос ChatGPT. Трябваше да получа отговор като „Авторът на поредицата от книги за Дюн е Франк Хърбърт.“
Защо се случва това?
Въпреки че са създадени да пишат съдържание, което е последователно и течно, големите езикови модели всъщност не са в състояние да разберат какво казват. Това е много критично за определяне на достоверността на генерираното от AI съдържание.
Докато тези модели могат да генерират реакции, които имитират човешкото поведение, липсват им контекстуална осведоменост и умения за критично мислене които са в основата на действителната интелигентност.
В резултат на това генерираните от AI резултати са изложени на опасността да бъдат подвеждащи или грешни, тъй като предпочитат съвпадение на модели пред фактическата коректност.
Какви могат да бъдат някои други случаи на халюцинации?
Опасна дезинформация: Да приемем, че генеративен AI чатбот фабрикува доказателства и свидетелства, за да обвини лъжливо публична фигура в престъпно поведение. Тази подвеждаща информация има потенциал да навреди на репутацията на лицето и да причини неоправдано отмъщение.
Странни или зловещи отговори: За да дадете хумористичен пример, представете си чатбот, който задава на потребител въпрос за времето и отговаря с прогноза, която казва, че ще вали котки и кучета, заедно със снимки на дъждовни капки, които приличат на котки и кучета. Въпреки че са смешни, това все пак би било „халюцинация“.
Фактически неточности: Да предположим, че базиран на езиков модел чатбот лъжливо заявява, че Великата китайска стена може да се гледа от космоса, без да обяснява, че тя се вижда само при определени условия. Въпреки че забележката може да изглежда правдоподобна за някои, тя е неточна и може да подведе хората относно гледката на стената от космоса.
Как да избегнете AI халюцинации като потребител?
Правете изрични подкани
Трябва изрично да комуникирате с AI моделите.
Помислете за целите си и проектирайте подканите си, преди да пишете.
Например, дайте конкретни инструкции като „Обяснете как работи Интернет и напишете параграф за значението му в съвременното общество“, вместо да задавате общо запитване като „Разкажете ми за Интернет“.
Ясността помага на AI модела да интерпретира вашето намерение.
Пример: Задайте на AI въпроси като тези:
„Какво е облачно изчисление и как работи?“
„Обяснете въздействието на отклонението на данните върху производителността на модела.“
„Обсъдете въздействието и потенциалното бъдеще на VR технологията върху ИТ бизнеса.“
Прегърнете силата на примера
Предоставянето на примери във вашите подкани помага на AI моделите да разберат контекста и да генерират точни отговори. Независимо дали търсите исторически прозрения или технически обяснения, предоставянето на примери може да помогне за подобряване на точността на генерираното от AI съдържание.
Например можете да кажете: „Споменете фентъзи романи като Хари Потър“.
Разбийте сложни задачи
Сложните подкани претоварват AI алгоритмите и могат да доведат до неуместни резултати. За да предотвратите това, разделете сложните дейности на по-малки, по-лесно управляеми части. Като организирате подканите си последователно, позволявате на AI да се фокусира върху всеки компонент независимо, което води до по-логични отговори.
Например, вместо да поискате от ИИ да „обясни процеса на създаване на невронна мрежа” в една заявка разбийте заданието на отделни фази като дефиниране на проблем и събиране на данни.
Валидирайте резултатите и дайте обратна връзка
Винаги проверявайте отново резултатите, получени от AI модели, особено за базирани на факти или важни дейности. Сравнете отговорите с надеждни източници и отбележете разликите или грешките.
Осигурете вход към AI системата, за да подобрите бъдещата производителност и да намалите халюцинациите.
Стратегии за разработчиците да избягват халюцинациите на AI
Внедрете Retrieval-Augmented Generation (RAG).
Интегрирайте техники за генериране с подобрено извличане в AI системи, за да базирате отговорите на фактически факти от надеждни бази данни.
Generation-augmented retrieval (RAG) съчетава генериране на стандартен естествен език с капацитет за получаване и включване на подходяща информация от огромна база знания, което води до по-контекстуално богат изход.
Чрез обединяване на генерирано от AI съдържание с валидирани източници на данни можете да подобрите надеждността и достоверността на резултатите от AI.
Непрекъснато проверявайте и наблюдавайте резултатите от AI
Настройте строги процедури за валидиране, за да проверите коректността и последователността на изходите на AI в реално време. Наблюдавайте внимателно производителността на AI, търсете потенциални халюцинации или грешки и повторете обучението на модела и бързата оптимизация, за да увеличите надеждността с течение на времето.
Например, използвайте автоматизирани процедури за валидиране, за да проверите генерираното от AI съдържание за фактическа коректност и да подчертаете случаи на възможни халюцинации за ръчна оценка.
Проверете за отклонения в данните
Дрейфът на данните е феномен, при който статистическите характеристики на данните, използвани за обучение на AI модел, варират с времето. Ако AI моделът срещне данни, които се различават значително от неговите данни за обучение по време на извод, той може да предостави фалшиви или нелогични резултати, което води до халюцинации.
Например, ако AI модел е обучен на минали данни, които вече не са подходящи или показателни за настоящата среда, той може да направи неправилни заключения или прогнози.
В резултат на това наблюдението и разрешаването на отклонения в данните е от решаващо значение за осигуряване на производителност и надеждност на AI системата, като същевременно намалява възможността от халюцинации.
Заключение
Според IBM Data, AI халюцинациите се появяват в около 3% до 10% от отговорите от AI модели.
Така че, по един или друг начин, вероятно и вие ще ги наблюдавате. Вярвам, че това е невероятно интересна тема, защото е завладяващо напомняне за непрекъснатия път към подобряване на възможностите на AI.
Можем да наблюдаваме и експериментираме с надеждността на AI, тънкостите на обработката на данни и взаимодействията човек-AI.
Оставете коментар