Тры гады таму я наведаў даволі цікавую мастацкую выставу. «Мемуары машыны» Рэфіка Анадоля выклікалі маю цікавасць з самага пачатку.
Гэта папулярнае імя сярод тых, хто цікавіцца стыкам мастацтва і ІІ. Але не хвалюйцеся, гэты блог не пра мастацтва. Мы паглыбімся ў глыбокія «ўспрыманні» ІІ.
На гэтай выставе Анадоль эксперыментаваў з Здымкі НАСА па даследаванні космасу. Выстава была натхнёная ідэяй, што тэлескопы могуць «марыць», выкарыстоўваючы свае візуальныя архівы, сціраючы бар'еры паміж фактам і ўяўленнем.
Даследуючы ўзаемасувязь паміж дадзенымі, памяццю і гісторыяй у касмічным маштабе, Anadol прасіў нас разгледзець патэнцыял штучны інтэлект назіраць і спасцігаць навакольны свет. І нават ІІ, каб мець свае ўласныя мары...
Такім чынам, чаму гэта актуальна для нас?
Улічвайце наступнае: гэтак жа, як Anadol даследаваў канцэпцыю тэлескопаў, якія бачаць сны на аснове сваіх даных, сістэмы штучнага інтэлекту маюць свой уласны тып сноў — ці, дакладней, галюцынацый — у іх лічбавых банках памяці.
Гэтыя галюцынацыі, як і візуалізацыі на выставе Anadol's, могуць дапамагчы нам даведацца больш пра дадзеныя, штучны інтэлект і іх межы.
Што такое галюцынацыі штучнага інтэлекту?
Калі вялікая моўная мадэль, такая як чат-бот генератыўнага штучнага інтэлекту, стварае вынікі з шаблонамі, якія альбо не існуюць, альбо нябачныя для назіральнікаў, мы называем гэта "ІІ галюцынацыі."
Гэтыя высновы, якія адрозніваюцца ад чаканага адказу на аснове ўваходных дадзеных, перададзеных ІІ, могуць быць цалкам памылковымі або бессэнсоўнымі.
У кантэксце кампутараў тэрмін «галюцынацыя» можа здацца незвычайным, але ён дакладна апісвае дзіўны характар гэтых няправільных выхадаў. Галюцынацыі штучнага інтэлекту выклікаюцца шэрагам зменных, у тым ліку пераабсталяваннем, хібамі ў навучальных дадзеных і складанасцю мадэлі штучнага інтэлекту.
Каб лепш зразумець, гэта канцэптуальна падобна да таго, як людзі бачаць формы ў аблоках або твары на Месяцы.
Прыклад:
У гэтым прыкладзе я задаў вельмі лёгкае пытанне Чат GPT. Я павінен быў атрымаць адказ накшталт: "Аўтар серыі кніг Dune - Фрэнк Герберт".
Чаму гэта адбываецца?
Нягледзячы на тое, што вялікія моўныя мадэлі створаны для напісання паслядоўнага і плыўнага кантэнту, яны насамрэч не ў стане зразумець, што яны кажуць. Гэта вельмі важна для вызначэння даверу да кантэнту, створанага штучным інтэлектам.
Хоць гэтыя мадэлі могуць выклікаць рэакцыі, якія імітуюць паводзіны чалавека, ім не хапае кантэкстуальнай дасведчанасці і навыкаў крытычнага мыслення якія ляжаць у аснове сапраўднага інтэлекту.
У выніку атрыманыя штучным інтэлектам вынікі рызыкуюць увесці ў зман або памылковымі, паколькі яны аддаюць перавагу супастаўленню шаблонаў, а не дакладнасці фактаў.
Якія яшчэ могуць быць выпадкі галюцынацый?
Небяспечная дэзінфармацыя: Дапусцім, генератыўны чат-бот AI фабрыкуе доказы і сведчанні, каб ілжыва абвінаваціць грамадскага дзеяча ў злачынных паводзінах. Гэтая зманлівая інфармацыя можа нанесці шкоду рэпутацыі чалавека і выклікаць неапраўданую помсту.
Дзіўныя ці жудасныя адказы: Каб прывесці гумарыстычны прыклад, уявіце сабе чат-бота, які задае карыстальніку пытанне пра надвор'е і адказвае прагнозам, у якім гаворыцца, што будзе дождж з катоў і сабак, а таксама малюнкі кропель дажджу, якія падобныя на катоў і сабак. Нягледзячы на тое, што яны смешныя, гэта ўсё роўна будзе «галюцынацыяй».
Фактычныя недакладнасці: Выкажам здагадку, што чат-бот, заснаваны на моўнай мадэлі, ілжыва сцвярджае, што Вялікую кітайскую сцяну можна назіраць з космасу, не тлумачачы, што яна бачная толькі пры пэўных умовах. Нягледзячы на тое, што заўвага можа здацца праўдападобнай для некаторых, яна недакладная і можа ўвесці людзей у зман наконт выгляду сцяны з космасу.
Як пазбегнуць галюцынацый штучнага інтэлекту як карыстальніку?
Рабіце відавочныя падказкі
Вам трэба мець зносіны з мадэлямі штучнага інтэлекту відавочна.
Падумайце аб сваіх мэтах і распрацуйце падказкі, перш чым пісаць.
Напрыклад, дайце канкрэтныя інструкцыі накшталт «Растлумачце, як працуе Інтэрнэт, і напішыце абзац пра яго значэнне ў сучасным грамадстве» замест агульнага запыту накшталт «Раскажыце мне пра Інтэрнэт».
Яснасць дапамагае мадэлі штучнага інтэлекту інтэрпрэтаваць ваш намер.
Прыклад: задайце ІІ такія пытанні:
«Што такое воблачныя вылічэнні і як яны працуюць?»
«Растлумачце ўплыў дрэйфу даных на прадукцыйнасць мадэлі».
«Абмяркуйце ўплыў і патэнцыйную будучыню тэхналогіі VR на ІТ-бізнес».
Прыміце сілу прыкладу
Прадастаўленне прыкладаў у падказках дапамагае мадэлям штучнага інтэлекту разумець кантэкст і генераваць дакладныя адказы. Незалежна ад таго, шукаеце вы гістарычныя звесткі або тэхнічныя тлумачэнні, прадастаўленне прыкладаў можа дапамагчы павысіць дакладнасць змесціва, створанага штучным інтэлектам.
Напрыклад, вы можаце сказаць: «Згадайце такія фэнтэзійныя раманы, як Гары Потэр».
Разбіце складаныя заданні
Складаныя падказкі перагружаюць алгарытмы штучнага інтэлекту і могуць прывесці да недарэчных вынікаў. Каб прадухіліць гэта, падзяліце складаныя дзеянні на больш дробныя, больш зручныя часткі. Паслядоўна арганізоўваючы падказкі, вы дазваляеце штучнаму інтэлекту засяроджвацца на кожным кампаненце незалежна, што прыводзіць да больш лагічных адказаў.
Напрыклад, замест таго, каб прасіць ІІ «растлумачыць працэс стварэння a нейронавая сетка» у адным запыце разбіце заданне на асобныя этапы, такія як вызначэнне праблемы і збор даных.
Праверце вынікі і дайце зваротную сувязь
Заўсёды пераправярайце вынікі, атрыманыя мадэлямі штучнага інтэлекту, асабліва для заснаваных на фактах або важных дзеянняў. Параўнайце адказы з надзейнымі крыніцамі і звярніце ўвагу на любыя адрозненні або памылкі.
Увядзіце ў сістэму штучнага інтэлекту для павышэння прадукцыйнасці ў будучыні і памяншэння галюцынацый.
Стратэгіі для распрацоўшчыкаў, каб пазбегнуць галюцынацый штучнага інтэлекту
Рэалізаваць Retrieval-Augmented Generation (RAG).
Інтэгруйце метады генерацыі з дапоўненым пошукам у сістэмы штучнага інтэлекту, каб грунтаваць адказы на фактычных фактах з надзейных баз даных.
Генерацыя з дапоўненым пошукам (RAG) спалучае стандартную генерацыю натуральнай мовы з магчымасцю атрымання і ўключэння адпаведнай інфармацыі з велізарнай базы ведаў, што прыводзіць да атрымання больш кантэкстуальна насычаных вынікаў.
Аб'яднаўшы кантэнт, створаны штучным інтэлектам, з праверанымі крыніцамі даных, вы можаце павысіць надзейнасць і годнасць даверу вынікаў штучнага інтэлекту.
Пастаянна правярайце і кантралюйце вынікі штучнага інтэлекту
Наладзьце строгія працэдуры праверкі, каб правяраць правільнасць і ўзгодненасць вынікаў штучнага інтэлекту ў рэжыме рэальнага часу. Уважліва кантралюйце прадукцыйнасць штучнага інтэлекту, шукайце патэнцыйныя галюцынацыі або памылкі, а таксама паўтарайце навучанне мадэлі і хуткую аптымізацыю для павышэння надзейнасці з часам.
Напрыклад, выкарыстоўвайце аўтаматызаваныя працэдуры праверкі, каб праверыць змесціва, згенераванае штучным інтэлектам, на правільнасць фактаў і вылучыць выпадкі магчымых галюцынацый для ацэнкі ўручную.
Праверце дрэйф даных
Дрэйф даных - гэта з'ява, пры якой статыстычныя характарыстыкі даных, якія выкарыстоўваюцца для навучання мадэлі штучнага інтэлекту, змяняюцца з часам. Калі падчас вываду мадэль штучнага інтэлекту сустракае даныя, якія значна адрозніваюцца ад навучальных даных, яна можа даць ілжывыя або нелагічныя вынікі, што прывядзе да галюцынацый.
Напрыклад, калі мадэль штучнага інтэлекту навучаецца на мінулых дадзеных, якія больш не актуальныя або не паказваюць на бягучае асяроддзе, яна можа зрабіць няправільныя высновы або прагнозы.
У выніку маніторынг і вырашэнне дрэйфаў даных мае вырашальнае значэнне для забеспячэння прадукцыйнасці і надзейнасці сістэмы штучнага інтэлекту, а таксама зніжае верагоднасць галюцынацый.
заключэнне
Па дадзеных IBM Data, галюцынацыі AI сустракаюцца прыкладна ў 3%-10% адказаў мадэляў AI.
Такім чынам, так ці інакш, вы напэўна таксама іх назіраеце. Я лічу, што гэта неверагодна цікавая тэма, таму што гэта захапляльны напамін аб бесперапынным шляху да пашырэння магчымасцей штучнага інтэлекту.
Мы можам назіраць і эксперыментаваць з надзейнасцю ІІ, тонкасцямі апрацоўкі даных і ўзаемадзеяннем чалавека і ІІ.
Пакінуць каментар