Երեք տարի առաջ ես այցելեցի բավականին հետաքրքիր արվեստի ցուցահանդես։ Ռեֆիկ Անադոլի «Մեքենայի հուշերը» սկզբից հետաքրքրությունս առաջացրեց:
Նա հայտնի անուն է նրանց մեջ, ովքեր հետաքրքրված են արվեստի և արհեստական ինտելեկտի խաչմերուկով: Բայց մի անհանգստացեք, այս բլոգը արվեստի մասին չէ: Մենք կխորանանք AI-ի խորը «ընկալումների» մեջ:
Այս ցուցահանդեսում Anadol-ը փորձարկում էր ՆԱՍԱ-ի տիեզերական հետազոտության պատկերները. Ցուցահանդեսը ոգեշնչված էր այն գաղափարով, որ աստղադիտակները կարող են «երազել»՝ օգտագործելով իրենց տեսողական արխիվները՝ լղոզելով փաստերի և երևակայության միջև եղած խոչընդոտները:
Հետազոտելով տվյալների, հիշողության և պատմության փոխհարաբերությունները տիեզերական մասշտաբով, Anadol-ը մեզ խնդրում էր դիտարկել ներուժը. Արհեստական բանականություն դիտարկել և հասկանալ մեզ շրջապատող աշխարհը: Եվ նույնիսկ AI-ն իր երազանքներն ունենալու համար…
Այսպիսով, ինչո՞ւ է սա մեզ հետ կապված:
Հաշվի առեք սա. որքան էլ Anadol-ը ուսումնասիրեց աստղադիտակների մասին պատկերացումները իրենց տվյալների հիման վրա, AI համակարգերն ունեն իրենց սեփական տեսակի երազները, ավելի ճիշտ՝ հալյուցինացիաները իրենց թվային հիշողության բանկերում:
Այս հալյուցինացիաները, ինչպես Anadol-ի ցուցահանդեսի պատկերացումները, կարող են օգնել մեզ ավելին իմանալ տվյալների, AI-ի և դրանց սահմանների մասին:
Ի՞նչ են կոնկրետ AI հալյուցինացիաները:
Երբ մեծ լեզվական մոդելը, ինչպիսին է գեներատիվ AI չաթբոտը, արտադրում է ելքեր այնպիսի օրինաչափություններով, որոնք կամ գոյություն չունեն կամ անտեսանելի են մարդկային դիտորդների համար, մենք դրանք անվանում ենք «AI հալյուցինացիաներ."
Այս արդյունքները, որոնք տարբերվում են ակնկալվող պատասխանից՝ հիմնված AI-ին տրված մուտքի վրա, կարող են լինել բոլորովին սխալ կամ անհեթեթ:
Համակարգիչների համատեքստում «հալյուցինացիա» տերմինը կարող է անսովոր թվալ, բայց այն ճշգրիտ նկարագրում է այս սխալ արդյունքների տարօրինակ բնույթը: AI հալյուցինացիաները պայմանավորված են մի շարք փոփոխականներով, այդ թվում՝ չափից ավելի հարմարեցմամբ, մարզումների տվյալների շեղումներով և AI մոդելի բարդությամբ:
Ավելի լավ հասկանալու համար սա կոնցեպտուալ առումով նման է այն բանին, թե ինչպես են մարդիկ տեսնում ամպերի կամ դեմքերի ձևերը լուսնի վրա:
Օրինակ:
Այս օրինակում ես շատ հեշտ հարց տվեցի Զրուցարան GPT. Ես պետք է ստանայի պատասխան, ինչպիսին է «Դյուն» գրքերի շարքի հեղինակը Ֆրենկ Հերբերտն է։
Ինչու է դա տեղի ունենում
Չնայած այն ստեղծվել է, որպեսզի գրվի բովանդակություն, որը համահունչ և հեղուկ է, լեզվական մեծ մոդելներն իրականում չեն կարողանում հասկանալ, թե ինչ են ասում: Սա շատ կարևոր է AI-ի կողմից ստեղծված բովանդակության արժանահավատությունը որոշելու համար:
Թեև այս մոդելները կարող են առաջացնել ռեակցիաներ, որոնք ընդօրինակում են մարդու վարքը, նրանք չունեն համատեքստային իրազեկում և քննադատական մտածողության հմտություններ որոնք հիմք են հանդիսանում իրական բանականության հիմքում:
Արդյունքում, արհեստական ինտելեկտի ստեղծած արդյունքները մոլորեցնող կամ սխալ լինելու վտանգի տակ են, քանի որ դրանք նախընտրում են համապատասխանող օրինաչափությունները, քան փաստացի ճշգրտությունը:
Որո՞նք կարող են լինել հալյուցինացիաների այլ դեպքեր:
Վտանգավոր ապատեղեկատվություն. Ենթադրենք, արհեստական ինտելեկտի գեներացնող չաթբոտը կեղծում է ապացույցներ և ցուցմունքներ՝ հասարակական գործչին հանցավոր վարքի մեջ սուտ մեղադրելու համար: Այս ապակողմնորոշիչ տեղեկատվությունը կարող է վնասել անձի հեղինակությունը և առաջացնել չարդարացված վրեժխնդրություն:
Տարօրինակ կամ սահմռկեցուցիչ պատասխաններ. Հումորային օրինակ բերելու համար պատկերացրեք չաթբոտը, որը օգտատերին եղանակային հարց է տալիս և պատասխանում կանխատեսումով, որտեղ ասվում է, որ կատուների և շների վրա անձրև է գալու, ինչպես նաև անձրևի կաթիլների նկարներ, որոնք նման են կատուների և շների: Չնայած նրանք ծիծաղելի են, սա դեռ «հալյուցինացիա» կլինի:
Փաստացի անճշտություններ. Ենթադրենք, որ լեզվական մոդելի վրա հիմնված չաթբոտը կեղծ կերպով նշում է, որ Չինական Մեծ պատը կարող է դիտվել տիեզերքից՝ առանց բացատրելու, որ այն տեսանելի է միայն կոնկրետ պայմաններում: Թեև դիտողությունը ոմանց համար կարող է խելամիտ թվալ, այն ճշգրիտ չէ և կարող է մարդկանց մոլորեցնել տիեզերքից պատը տեսնելու վերաբերյալ:
Ինչպե՞ս եք խուսափում AI հալյուցինացիաներից որպես օգտատեր:
Կատարեք հստակ հուշումներ
Դուք պետք է հստակ շփվեք AI մոդելների հետ:
Մտածեք ձեր նպատակների մասին և նախագծեք ձեր հուշումները գրելուց առաջ:
Օրինակ՝ «Բացատրեք, թե ինչպես է աշխատում ինտերնետը և գրեք պարբերություն ժամանակակից հասարակության մեջ դրա նշանակության մասին»՝ «Պատմեք ինձ ինտերնետի մասին» նման ընդհանուր հարցում տալու փոխարեն:
Բացահայտությունն օգնում է AI մոդելին մեկնաբանել ձեր մտադրությունը:
Օրինակ. Տվեք AI-ի հարցեր, ինչպիսիք են.
«Ի՞նչ է ամպային հաշվարկը և ինչպես է այն աշխատում»:
«Բացատրեք տվյալների շեղման ազդեցությունը մոդելի կատարողականի վրա»:
«Քննարկեք VR տեխնոլոգիայի ազդեցությունը և հնարավոր ապագան ՏՏ բիզնեսի վրա»:
Ընդունեք օրինակի ուժը
Ձեր հուշումներում օրինակներ տրամադրելը օգնում է AI մոդելներին հասկանալ համատեքստը և ստանալ ճշգրիտ պատասխաններ: Անկախ նրանից, թե դուք փնտրում եք պատմական պատկերացումներ կամ տեխնիկական բացատրություններ, օրինակների տրամադրումը կարող է օգնել բարձրացնել AI-ի կողմից ստեղծված բովանդակության ճշգրտությունը:
Օրինակ, կարող եք ասել, «Նշեք այնպիսի ֆանտաստիկ վեպեր, ինչպիսին է Հարրի Փոթերը»:
Կոտրեք բարդ առաջադրանքները
Կոմպլեքս հուշումները ծանրաբեռնում են AI ալգորիթմները, և դրանք կարող են հանգեցնել անհամապատասխան արդյունքների: Դա կանխելու համար բարդ գործողությունները բաժանեք ավելի փոքր, ավելի կառավարելի մասերի: Հերթականորեն կազմակերպելով ձեր հուշումները՝ դուք թույլ եք տալիս AI-ին ինքնուրույն կենտրոնանալ յուրաքանչյուր բաղադրիչի վրա՝ հանգեցնելով ավելի տրամաբանական պատասխանների:
Օրինակ՝ արհեստական ինտելեկտին խնդրելու փոխարեն «բացատրել ա ստեղծելու գործընթացը նեյրոնային ցանց» մեկ հարցման դեպքում հանձնարարությունը բաժանեք առանձին փուլերի, ինչպիսիք են խնդրի սահմանումը և տվյալների հավաքագրումը:
Վավերացրեք արդյունքները և տրամադրեք հետադարձ կապ
Միշտ կրկնակի ստուգեք AI մոդելների կողմից ստացված արդյունքները, հատկապես փաստերի վրա հիմնված կամ կարևոր գործողությունների համար: Համեմատեք վստահելի աղբյուրների պատասխանները և նշեք որևէ տարբերություն կամ սխալ:
Տրամադրեք ինտելեկտուալ ինտելեկտի համակարգին ապագա կատարողականությունը բարելավելու և հալյուցինացիաները նվազեցնելու համար:
Ռազմավարություններ մշակողների համար՝ AI հալյուցինացիաներից խուսափելու համար
Իրականացնել Retrieval-Augmented Generation (RAG):
Ինտեգրել առբերման ավելացված գեներացիայի տեխնիկան AI համակարգերում՝ հիմնավորելու հուսալի տվյալների բազաներից ստացված փաստացի փաստերի պատասխանները:
Որոնման ընդլայնված սերունդը (RAG) համատեղում է ստանդարտ բնական լեզվի ստեղծումը հսկայական գիտելիքների բազայից համապատասխան տեղեկատվություն ստանալու և ընդգրկելու կարողության հետ, ինչը հանգեցնում է համատեքստում ավելի հարուստ արդյունքի:
Միավորելով AI-ի կողմից ստեղծված բովանդակությունը վավերացված տվյալների աղբյուրների հետ՝ դուք կարող եք բարելավել AI արդյունքների հուսալիությունն ու վստահելիությունը:
Անընդհատ վավերացրեք և վերահսկեք AI արդյունքները
Սահմանեք խիստ վավերացման ընթացակարգեր՝ իրական ժամանակում AI արդյունքների ճշգրտությունն ու հետևողականությունը ստուգելու համար: Ուշադիր հետևեք AI-ի աշխատանքին, փնտրեք հնարավոր հալյուցինացիաներ կամ սխալներ և կրկնեք մոդելի ուսուցումը և օպտիմիզացումը՝ ժամանակի ընթացքում հուսալիությունը բարձրացնելու համար:
Օրինակ՝ օգտագործեք վավերացման ավտոմատացված ռեժիմներ՝ AI-ի կողմից ստեղծված բովանդակությունը փաստացի ճշտության համար ստուգելու և ձեռքով գնահատման համար հնարավոր հալյուցինացիաների դեպքերն ընդգծելու համար:
Ստուգեք տվյալների շեղումները
Տվյալների շեղումը մի երևույթ է, երբ AI մոդելը պատրաստելու համար օգտագործվող տվյալների վիճակագրական առանձնահատկությունները տարբերվում են ժամանակի հետ: Եթե Եզրակացության ընթացքում AI մոդելը բավարարում է տվյալների, որոնք զգալիորեն տարբերվում են իր ուսուցման տվյալներից, այն կարող է ապահովել կեղծ կամ անտրամաբանական արդյունքներ՝ հանգեցնելով հալյուցինացիաների:
Օրինակ, եթե արհեստական ինտելեկտի մոդելը վերապատրաստվում է անցյալի տվյալների վրա, որոնք այլևս չեն համապատասխանում ներկա միջավայրին, այն կարող է սխալ եզրակացություններ կամ կանխատեսումներ անել:
Արդյունքում, տվյալների շեղումների մոնիտորինգը և լուծումը կարևոր է AI համակարգի աշխատանքի և հուսալիության ապահովման համար՝ միաժամանակ նվազեցնելով հալյուցինացիաների հավանականությունը:
Եզրափակում
Ըստ IBM տվյալների՝ AI հալյուցինացիաները տեղի են ունենում AI մոդելների պատասխանների մոտ 3%-ից 10%-ում:
Այսպիսով, այսպես թե այնպես, դուք էլ հավանաբար կդիտարկեք դրանք։ Կարծում եմ, որ սա աներևակայելի հետաքրքիր թեմա է, քանի որ այն հետաքրքրաշարժ հիշեցում է արհեստական ինտելեկտի կարողությունների ընդլայնմանն ուղղված շարունակական ճանապարհի մասին:
Մենք կարող ենք դիտարկել և փորձարկել AI-ի հուսալիությունը, տվյալների մշակման բարդությունները և մարդ-AI փոխազդեցությունները:
Թողնել գրառում