Үч жыл мурун мен абдан кызыктуу сүрөт көргөзмөсүнө баргам. Рефик Анадолдун «Машина эскерүүлөрү» мени башынан эле кызыктырды.
Ал искусство менен AIнын кесилишине кызыккандардын арасында популярдуу ысым. Бирок кабатыр болбоңуз, бул блог искусство жөнүндө эмес. Биз AIнин терең "кабылдоолоруна" кайрылабыз.
Бул көргөзмөдө Анадол эксперимент жасап жаткан НАСАнын космостук изилдөөлөрүнүн сүрөттөрү. Көргөзмө телескоптор өздөрүнүн визуалдык архивдерин колдонуп, чындык менен кыялдын ортосундагы тоскоолдуктарды жок кылып, «кыялдай алат» деген идеядан шыктанган.
Маалыматтын, эс тутумдун жана тарыхтын ортосундагы байланыштарды космостук масштабда изилдөө менен Анадол бизден анын потенциалын карап чыгууну суранган. Жасалма интеллект бизди курчап турган дүйнөнү байкоо жана түшүнүү. Ал тургай, AI да өз кыялдарына ээ болот ...
Анда эмне үчүн бул бизге тиешелүү?
Муну карап көрөлү: Анадол телескоптордун түшүнүгүн алардын маалыматтарынан изилдегени сыяктуу, AI системалары санарип эс тутум банктарында өздөрүнүн түштөрүнө, тагыраак айтканда, галлюцинацияларга ээ.
Бул галлюцинациялар, Анадолдун көргөзмөсүндөгү визуализациялар сыяктуу, бизге маалыматтар, AI жана алардын чектери жөнүндө көбүрөөк билүүгө жардам берет.
AI галлюцинациялары деген эмне?
Генеративдик AI чатботу сыяктуу чоң тил модели адам байкоочулары үчүн жок же көрүнбөгөн үлгүлөр менен жыйынтыктарды чыгарганда, биз аларды "деп атайбыз.AI галлюцинациялары.«
AIга берилген киргизүүнүн негизинде күтүлгөн жооптон айырмаланган бул жыйынтыктар толугу менен ката же маанисиз болушу мүмкүн.
Компьютерлердин контекстинде "галлюцинация" термини адаттан тыш көрүнүшү мүмкүн, бирок ал бул туура эмес жыйынтыктардын таң калыштуу мүнөзүн так сүрөттөйт. AI галлюцинациялары бир катар өзгөрмөлөрдөн, анын ичинде ашыкча тууралоодон, машыгуу маалыматтарындагы бир тараптуулуктан жана AI моделинин татаалдыгынан келип чыгат.
Жакшыраак түшүнүү үчүн, бул концептуалдык жактан адамдардын айдагы булуттардагы формаларды же жүздөрдү көргөнүнө окшош.
Мисал:
Бул мисалда мен абдан оңой суроо бердим GPT чат. Мен мындай жооп алышым керек болчу: "Дун китептер сериясынын автору - Фрэнк Герберт.".
Бул эмне үчүн болот?
Когеренттүү жана суюк мазмунду жазуу үчүн курулганына карабастан, чоң тил моделдери чынында эмне айтып жатканын түшүнө алышпайт. Бул AI тарабынан түзүлгөн мазмундун ишенимдүүлүгүн аныктоодо абдан маанилүү.
Бул моделдер адамдын жүрүм-турумун окшоштурган реакцияларды жаратса да, аларда контексттик аң-сезим жана критикалык ой жүгүртүү жөндөмү жок бул чыныгы интеллекттин негизин түзөт.
Натыйжада, AI тарабынан түзүлгөн жыйынтыктар адаштыруу же туура эмес болуу коркунучун жаратат, анткени алар фактылардын тууралыгына караганда дал келген үлгүлөрдү жактырышат.
Галлюцинациянын башка учурлары кандай болушу мүмкүн?
Кооптуу жалган маалымат: Генеративдик AI чатботу коомдук ишмерди кылмыштуу жүрүм-турум үчүн жалган айыптоо үчүн далилдерди жана көрсөтмөлөрдү ойлоп табат дейли. Бул жалган маалымат адамдын аброюна шек келтирип, негизсиз өч алуу мүмкүнчүлүгүнө ээ.
Кызык же коркунучтуу жооптор: Тамашалуу мисал үчүн, чатбот колдонуучуга аба ырайы боюнча суроо берип, ит-мышык жаашы мүмкүн деген божомол менен жооп берип, мышык менен итке окшош жамгыр тамчыларынын сүрөттөрүн элестетиңиз. Алар күлкүлүү болсо да, бул дагы эле "галлюцинация" болуп калат.
Факттик так эместиктер: Тилдин моделине негизделген чатбот Улуу Кытай дубалын космостон көрүүгө болот деп жалган айтып жатат, ал белгилүү бир шарттарда гана көрүнөрүн түшүндүрбөйт. Бул эскертүү айрымдар үчүн акылга сыярлык көрүнүшү мүмкүн, бирок ал так эмес жана адамдарды дубалдын космостон көрүүсү тууралуу адаштырышы мүмкүн.
Колдонуучу катары AI галлюцинацияларынан кантип сактанасыз?
Ачык эскертүүлөрдү жасаңыз
Сиз AI моделдери менен ачык баарлашышыңыз керек.
Жазуудан мурун максаттарыңыз жөнүндө ойлонуп, кеңештериңизди түзүңүз.
Мисалы, "Интернет жөнүндө айтып бериңизчи" сыяктуу жалпы суроонун ордуна, "Интернеттин кандайча иштээрин түшүндүрүп бериңиз жана анын заманбап коомдогу мааниси жөнүндө абзац жазыңыз" сыяктуу конкреттүү көрсөтмөлөрдү бериңиз.
Айкындуулук AI моделине ниетиңизди чечмелөөгө жардам берет.
Мисал: AIга төмөнкүдөй суроолорду бериңиз:
"Булуттагы эсептөө деген эмне жана ал кантип иштейт?"
"Маалыматтардын дрейфинин моделдин иштешине тийгизген таасирин түшүндүрүңүз."
"VR технологиясынын IT бизнесине тийгизген таасирин жана потенциалдуу келечегин талкуулаңыз."
Үлгү күчүн кабыл ал
Сунуштарыңызда мисалдарды берүү AI моделдерине контекстти түшүнүүгө жана так жоопторду түзүүгө жардам берет. Тарыхый түшүнүктөрдү же техникалык түшүндүрмөлөрдү издеп жатасызбы, мисалдарды берүү AI тарабынан түзүлгөн мазмундун тактыгын жогорулатууга жардам берет.
Мисалы, сиз: "Гарри Поттер сыяктуу фантастикалык романдарды айтыңыз" деп айта аласыз.
Татаал милдеттерди бөлүү
Татаал чакырыктар AI алгоритмдерин ашыкча жүктөйт жана алар тиешеси жок натыйжаларга алып келиши мүмкүн. Мунун алдын алуу үчүн татаал иш-аракеттерди кичине, башкара турган бөлүктөргө бөлүңүз. Сунуштарды ирети менен уюштуруу менен, AI ар бир компонентке өз алдынча көңүл бурууга мүмкүндүк бересиз, натыйжада логикалык жооптор пайда болот.
Мисалы, AIдан “а жаратуу процессин түшүндүрүүнү сурангандын ордуна нейрон тармагы" бир суроодо тапшырманы көйгөйдү аныктоо жана маалыматтарды чогултуу сыяктуу дискреттик фазаларга бөлүңүз.
Натыйжаларды текшериңиз жана пикириңизди билдириңиз
Айрыкча фактыларга негизделген же маанилүү иш-аракеттер үчүн AI моделдери чыгарган натыйжаларды ар дайым эки жолу текшериңиз. Жоопторду ишенимдүү булактар менен салыштырып, айырмачылыктарды же каталарды белгилеңиз.
Келечекте иштөөнү жакшыртуу жана галлюцинацияларды азайтуу үчүн AI тутумуна киргизүүнү камсыз кылыңыз.
AI галлюцинацияларынан сактануу үчүн иштеп чыгуучулар үчүн стратегиялар
Retrieval-Augmented Generation (RAG) ишке ашыруу.
Ишенимдүү маалымат базаларынан алынган фактылык фактыларга жооп берүү үчүн AI системаларына издөө-көбөйтүлгөн генерациялоо ыкмаларын интеграциялаңыз.
Retrieval-Augmented Generation (RAG) стандарттуу табигый тил генерациясын чоң билимдер базасынан тиешелүү маалыматты алуу жана киргизүү мүмкүнчүлүгү менен айкалыштырат, натыйжада контексттик жактан бай жыйынтык чыгат.
AI тарабынан түзүлгөн мазмунду тастыкталган маалымат булактары менен бириктирүү менен, сиз AI натыйжаларынын ишенимдүүлүгүн жана ишенимдүүлүгүн жогорулата аласыз.
AI натыйжаларын үзгүлтүксүз текшериңиз жана көзөмөлдөңүз
Реалдуу убакытта AI натыйжаларынын тууралыгын жана ырааттуулугун текшерүү үчүн катаал валидация процедураларын орнотуңуз. AI иштешине кылдаттык менен көз салыңыз, мүмкүн болгон галлюцинацияларды же каталарды издеңиз жана убакыттын өтүшү менен ишенимдүүлүктү жогорулатуу үчүн моделди окутуу жана ыкчам оптималдаштыруу боюнча кайталаңыз.
Мисалы, AI тарабынан түзүлгөн мазмундун фактылык тууралыгын текшерүү жана кол менен баалоо үчүн мүмкүн болгон галлюцинация учурларын бөлүп көрсөтүү үчүн автоматташтырылган валидация процедураларын колдонуңуз.
Берилиштер дрифттерин текшерүү
Берилиштердин дрейфи - бул AI моделин окутуу үчүн колдонулган маалыматтардын статистикалык өзгөчөлүктөрү убакыттын өтүшү менен өзгөрүп турган көрүнүш. Эгерде AI модели тыянак чыгаруу учурунда анын машыгуу маалыматтарынан бир топ айырмаланган маалыматтарга жооп берсе, ал галлюцинацияга алып келип, жалган же логикасыз натыйжаларды бере алат.
Мисалы, эгер AI модели учурдагы чөйрөгө актуалдуу болбой калган же индикатор болбогон мурунку маалыматтар боюнча үйрөтүлгөн болсо, ал туура эмес тыянактарды же божомолдорду жасашы мүмкүн.
Натыйжада, маалыматтардын дрейфине мониторинг жүргүзүү жана чечүү AI тутумунун иштешин жана ишенимдүүлүгүн камсыз кылуу үчүн маанилүү, ошол эле учурда галлюцинациялардын ыктымалдыгын азайтат.
жыйынтыктоо
IBM маалыматтарына ылайык, AI галлюцинациялары AI моделдериндеги жооптордун болжол менен 3% дан 10% га чейин кездешет.
Демек, тигил же бул жол менен, балким, аларды да байкайсыз. Мен бул укмуштуудай кызыктуу тема деп эсептейм, анткени ал AI мүмкүнчүлүктөрүн өркүндөтүүгө карай үзгүлтүксүз жолдун кызыктуу эскертүүсү.
Биз AIнын ишенимдүүлүгүн, маалыматтарды иштетүүнүн татаалдыктарын жана адам менен AI өз ара аракеттенүүсүн байкап, эксперимент жасай алабыз.
Таштап Жооп