Үш жыл бұрын мен өте қызықты өнер көрмесіне бардым. Рефик Анадолдың «Машина туралы естеліктері» мені басынан бастап қызықтырды.
Ол өнер мен АИ қиылысына қызығушылық танытатындар арасында танымал есім. Бірақ алаңдамаңыз, бұл блог өнер туралы емес. Біз AI туралы терең «қабылдауға» барамыз.
Бұл көрмеде Анадол тәжірибе жасады NASA-ның ғарышты зерттеу суреттері. Көрме телескоптар өздерінің көрнекі мұрағаттарын пайдаланып, факті мен қиял арасындағы кедергілерді жойып, «армандай алады» деген идеядан шабыттанды.
Деректердің, жадының және тарихтың арасындағы байланыстарды ғарыштық масштабта зерттей отырып, Анадол бізге оның әлеуетін қарастыруды сұрады. жасанды интеллект бізді қоршаған әлемді бақылау және түсіну. Тіпті AI-ның өз армандары болуы үшін…
Сонымен, бұл неліктен бізге қатысты?
Мынаны қарастырыңыз: Анадол телескоптардың армандайтын тұжырымдамасын өз деректерінен зерттегендіктен, AI жүйелерінің сандық жады банктерінде өзіндік арман түрі бар, дәлірек айтсақ, галлюцинациялар.
Бұл галлюцинациялар, Анадол көрмесіндегі визуализациялар сияқты, деректер, AI және олардың шектеулері туралы көбірек білуге көмектеседі.
AI галлюцинациялары дегеніміз не?
Генеративті AI чатботы сияқты үлкен тіл үлгісі адам бақылаушылары үшін жоқ немесе көрінбейтін үлгілері бар нәтижелерді шығарғанда, біз оларды «AI галлюцинациялары.«
АИ-ге берілген кіріс негізінде күтілетін жауаптан ерекшеленетін бұл нәтижелер мүлдем қате немесе мағынасыз болуы мүмкін.
Компьютерлер контекстінде «галлюцинация» термині әдеттен тыс болып көрінуі мүмкін, бірақ бұл дұрыс емес нәтижелердің таңқаларлық сипатын дәл сипаттайды. AI галлюцинациялары әртүрлі айнымалылар, соның ішінде шамадан тыс сәйкестік, жаттығу деректеріндегі бұрмаланулар және AI үлгісінің күрделілігінен туындайды.
Жақсырақ түсіну үшін бұл адамдардың айдағы бұлттағы пішіндерді немесе беттерді қалай көретініне тұжырымдамалық тұрғыдан ұқсас.
Мысал:
Бұл мысалда мен өте оңай сұрақ қойдым GPT чат. Мен «Дун кітаптар сериясының авторы - Фрэнк Герберт» деген жауап алуым керек еді.
Неліктен бұлай болады?
Мазмұнды біртұтас және ағынды жазу үшін жасалғанына қарамастан, үлкен тілдік модельдер шын мәнінде не айтып жатқанын түсіне алмайды. Бұл AI жасалған мазмұнның сенімділігін анықтауда өте маңызды.
Бұл модельдер адам мінез-құлқын еліктейтін реакцияларды жасай алады, оларда контекстік хабардарлық пен сыни ойлау дағдылары жетіспейді бұл нақты интеллектке негізделеді.
Нәтижесінде, AI арқылы жасалған нәтижелер жаңылыстыру немесе қате болу қаупін тудырады, өйткені олар фактілердің дұрыстығынан гөрі сәйкес үлгілерді ұнатады.
Галлюцинацияның басқа қандай жағдайлары болуы мүмкін?
Қауіпті жалған ақпарат: Генеративті AI чатботы қоғам қайраткерін қылмыстық әрекет жасады деп жалған айыптау үшін дәлелдер мен айғақтарды ойлап тапты делік. Бұл жаңылыстыратын ақпарат адамның беделіне нұқсан келтіруі және негізсіз кек алу мүмкіндігіне ие.
Біртүрлі немесе қорқынышты жауаптар: Күлкілі мысал келтіру үшін пайдаланушыға ауа-райы туралы сұрақ беріп, мысықтар мен иттерге жаңбыр жауады деп болжаммен жауап беретін чатботты және мысықтар мен иттерге ұқсайтын жаңбыр тамшылары суреттерін елестетіңіз. Олар күлкілі болса да, бұл әлі де «галлюцинация» болар еді.
Факті дәлсіздіктер: Тіл үлгісіне негізделген чат-бот Ұлы Қытай қорғанын ғарыштан көруге болады деп жалған айтады, оның белгілі бір жағдайларда ғана көрінетінін түсіндірмейді. Бұл ескерту кейбіреулерге ақылға қонымды болып көрінгенімен, бұл дәл емес және адамдарды қабырғаның ғарыштан көруі туралы жаңылыстыруы мүмкін.
Пайдаланушы ретінде AI галлюцинацияларынан қалай аулақ бола аласыз?
Ашық шақырулар жасаңыз
AI үлгілерімен анық байланысу керек.
Жазар алдында мақсаттарыңыз туралы ойланыңыз және ұсыныстарыңызды жасаңыз.
Мысалы, «Интернет туралы айтып беріңізші» сияқты жалпы сұраудың орнына «Интернеттің қалай жұмыс істейтінін түсіндіріңіз және оның қазіргі қоғамдағы маңызы туралы абзац жазыңыз» сияқты нақты нұсқаулар беріңіз.
Айқындық AI үлгісіне ниетіңізді түсіндіруге көмектеседі.
Мысал: AI сұрақтарын қойыңыз, мысалы:
«Бұлтты есептеу дегеніміз не және ол қалай жұмыс істейді?»
«Деректердің дрейфінің модель өнімділігіне әсерін түсіндіріңіз.»
«VR технологиясының IT бизнесіне әсері мен ықтимал болашағын талқылаңыз».
Үлгі күшін қабылдаңыз
Сұрауларыңызда мысалдар беру AI үлгілеріне контекстті түсінуге және нақты жауаптарды жасауға көмектеседі. Тарихи түсініктерді немесе техникалық түсініктемелерді іздеп жатсаңыз да, мысалдар беру AI арқылы жасалған мазмұнның дәлдігін арттыруға көмектеседі.
Мысалы, «Гарри Поттер сияқты фантастикалық романдарды атап өтіңіз» деп айта аласыз.
Күрделі тапсырмаларды бөліңіз
Күрделі сұраулар AI алгоритмдерін шамадан тыс жүктейді және олар маңызды емес нәтижелерге әкелуі мүмкін. Бұған жол бермеу үшін күрделі әрекеттерді кішірек, басқарылатын бөліктерге бөліңіз. Сұрауларды дәйекті түрде ұйымдастыру арқылы сіз AI-ға әрбір құрамдасқа дербес назар аударуға мүмкіндік бересіз, нәтижесінде логикалық жауаптар пайда болады.
Мысалы, AI-дан «а құру процесін түсіндіруді сұраудың орнына нейрондық желі» бір сұрауда тапсырманы мәселені анықтау және деректерді жинау сияқты дискретті кезеңдерге бөліңіз.
Нәтижелерді растаңыз және кері байланыс беріңіз
Әрқашан AI үлгілері шығарған нәтижелерді, әсіресе фактілерге негізделген немесе маңызды әрекеттер үшін екі рет тексеріңіз. Жауаптарды сенімді көздермен салыстырыңыз және кез келген айырмашылықтарды немесе қателерді белгілеңіз.
Болашақ өнімділікті арттыру және галлюцинацияларды азайту үшін AI жүйесіне енгізуді қамтамасыз етіңіз.
Әзірлеушілерге AI галлюцинациясын болдырмау стратегиялары
Retrieval-Augmented Generation (RAG) енгізу.
Жауаптарды сенімді дерекқорлардағы нақты фактілерге негіздеу үшін AI жүйелеріне іздеу арқылы кеңейтілген генерациялау әдістерін біріктіріңіз.
Retrieval-Augmented Generation (RAG) стандартты табиғи тілдің генерациясын үлкен білім қорынан тиісті ақпаратты алу және енгізу мүмкіндігімен біріктіреді, нәтижесінде контекстік жағынан бай нәтиже береді.
AI жасаған мазмұнды расталған деректер көздерімен біріктіру арқылы сіз AI нәтижелерінің сенімділігі мен сенімділігін жақсарта аласыз.
AI шығыстарын үздіксіз тексеру және бақылау
Нақты уақытта AI нәтижелерінің дұрыстығы мен дәйектілігін тексеру үшін қатаң тексеру процедураларын орнатыңыз. AI өнімділігін мұқият қадағалаңыз, ықтимал галлюцинацияларды немесе қателерді іздеңіз және уақыт өте сенімділікті арттыру үшін модельді оқыту мен жедел оңтайландыруды қайталаңыз.
Мысалы, AI жасаған мазмұнның нақты дұрыстығын тексеру және қолмен бағалау үшін ықтимал галлюцинациялардың даналарын бөлектеу үшін автоматтандырылған валидация процедураларын пайдаланыңыз.
Деректер ауытқуларын тексеріңіз
Деректер дрейфі – AI моделін үйрету үшін пайдаланылатын деректердің статистикалық ерекшеліктері уақыт бойынша өзгеретін құбылыс. Егер AI моделі қорытынды жасау кезінде жаттығу деректерінен айтарлықтай ерекшеленетін деректерге сәйкес келсе, ол галлюцинацияға әкелетін жалған немесе қисынсыз нәтижелер бере алады.
Мысалы, егер AI моделі бұдан былай маңызды емес немесе ағымдағы ортаны көрсетпейтін өткен деректерге үйретілсе, ол дұрыс емес қорытындылар немесе болжамдар жасауы мүмкін.
Нәтижесінде деректер дрейфін бақылау және шешу AI жүйесінің өнімділігі мен сенімділігін қамтамасыз ету үшін өте маңызды, сонымен қатар галлюцинация мүмкіндігін азайтады.
қорытынды
IBM деректеріне сәйкес, AI галлюцинациялары AI үлгілерінен алынған жауаптардың шамамен 3% -дан 10% -на дейін кездеседі.
Ендеше, қалай болғанда да, сіз оларды да байқайтын шығарсыз. Менің ойымша, бұл өте қызықты тақырып, өйткені бұл AI мүмкіндіктерін арттыруға бағытталған үздіксіз жолдың қызықты еске салуы.
Біз AI сенімділігін, деректерді өңдеудің күрделілігін және адам мен AI өзара әрекеттесуін бақылап, тәжірибе жасай аламыз.
пікір қалдыру