Google-ի աշխատակցի կասեցումը, ով պնդում էր, որ համակարգչային չաթբոտը, որի վրա նա աշխատում էր, դարձել է խելամիտ և մարդու պես մտածում և տրամաբանում է, նոր հարցեր է առաջացրել արհեստական ինտելեկտի կարողությունների և գաղտնիության (AI) վերաբերյալ:
Google-ի իր՝ Google-ի «համագործակցի» և ընկերության LaMDA (երկխոսության հավելվածների լեզվական մոդել) չաթբոտի մշակման համակարգի միջև զրույցների սղագրությունները հրապարակելուց հետո Google-ը դրեց. Բլեյք Լեմուան անցած շաբաթ արձակուրդում:
Լեմուանը, Google-ի AI-ի պատասխանատու մշակողը, սահմանեց այն համակարգը, որի վրա նա աշխատում էր անցյալ տարվա աշնանից ի վեր, որպես խելամիտ, մտքերն ու զգացմունքները ընկալելու և արտահայտելու ունակությամբ, որը համեմատելի է մարդու երեխայի հետ:
Անցյալ շաբաթվա սկզբին Alphabet Inc.-ի կողմից հետազոտողին վճարովի արձակուրդ է տրամադրվել՝ իբր ընկերության գաղտնիության պայմանագիրը խախտելու համար, ասել է նա: Միջին գրառումը վերնագրված «Շուտով կարող է աշխատանքից ազատվել արհեստական ինտելեկտի էթիկական աշխատանք կատարելու համար»։ Իր բլոգի գրառման մեջ նա զուգահեռներ է անցկացնում Google-ի արհեստական ինտելեկտի էթիկայի հանձնաժողովի մյուս անդամների հետ, ինչպիսին է Մարգարետ Միտչելը, ովքեր մտահոգություններ հայտնելուց հետո նույն կերպ հեռացվել են աշխատանքից:
Շաբաթ օրը Washington Post-ի կողմից հրապարակված հարցազրույցում Լեմուինը պնդում է, որ եկել է այն եզրակացության, որ Google AI-ն, որի հետ նա խոսել է, մարդ է, «իր դերում է որպես քահանա, այլ ոչ թե գիտնական»: Հարցվող AI-ն հայտնի է որպես LaMDA կամ Լեզվի մոդել Dialogue Applications-ի համար, և այն օգտագործվում է չաթ-բոտերի ստեղծման համար, որոնք փոխազդում են մարդկանց հետ՝ ընդունելով անհատականության տարբեր գծեր: Երբ Լեմուանը ընդգծեց խնդիրը ներքին կարգով, կորպորացիայի բարձրաստիճան պաշտոնյաները հրաժարվեցին նրա փորձերից՝ ուսումնասիրություններ կատարել՝ այն ստուգելու համար:
Ինչ է LaMDA-ն:
TheMDA, կամ Language Models for Dialog Apps-ը, մեքենայական ուսուցման լեզվի մոդել է, որը մշակվել է Google-ի կողմից որպես զրույցի գործիք, որը նախատեսված է նմանակելու մարդկային հաղորդակցությունը: LaMDA-ն, ինչպես BERT-ը, GPT-3-ը և այլ լեզուների պարադիգմները, հիմնված են Transformer-ի վրա՝ Google-ի կողմից մշակված: նեյրոնային ցանցի ճարտարապետություն որը բաց կոդով է ստեղծվել 2017թ.
Այս կառուցվածքի արդյունքում ստացվում է մի մոդել, որին կարելի է սովորեցնել կարդալ մեծ թվով բառեր, ուշադրություն դարձնել, թե ինչպես են այդ բառերը կապվում միմյանց հետ և կանխատեսել, թե որ բառերի մասին կմտածեք հաջորդիվ: Մյուս կողմից, LaMDA-ն եզակի է նրանով, որ վարժված է դիսկուրսի մեջ՝ ի տարբերություն այլ մոդելների:
Թեև քննարկումների մեծ մասը պտտվում է որոշակի թեմայի շուրջ, դրանք հաճախ բաց են, ինչը նշանակում է, որ դրանք կարող են սկսվել մի տեղից և ավարտվել մեկ այլ վայրում՝ ներառելով տարբեր թեմաներ: Օրինակ՝ կարող եք ընկերոջ հետ զրույց սկսել ֆիլմ դիտելու մասին՝ նախքան դրա նկարահանման վայրի մասին քննարկմանը անցնելը:
Ավանդական չաթ-բոտերն իրենց ճկունությամբ պարտական են երկխոսության այս ոճին: Քանի որ դրանք կառուցված են քննարկման փոքր, նախապես սահմանված հատվածներին հետևելու համար, նրանք չեն կարողանում հետևել նման դինամիկ թեմային: Մյուս կողմից, LaMDA-ն կոչված է թույլ տալու ազատ հոսող երկխոսություններ անսահման բազմազան թեմաների շուրջ:
Բլեյք Լեմուանի AI Զգայուն Իմաստը
Google-ի արհեստական ինտելեկտի (AI) գործիքը դարձել է «զգայուն», ըստ Google-ի ծրագրակազմի մշակող Բլեյք Լեմոյնի, ով այն նկարագրում է որպես «լավ երեխա»:
AI համակարգը օգտագործում է որոշակի թեմայի վերաբերյալ նախկինում հայտնի մանրամասներ՝ երկխոսությունը բնական ճանապարհով «հարստացնելու» համար: Թաքնված ազդանշանները կամ մարդկանց պատասխանների անորոշությունը կարող է վերծանվել նաև լեզվի մշակման համակարգի կողմից:
Google-ում աշխատելու յոթ տարիների ընթացքում Լեմոյնն աշխատել է պրոակտիվ որոնման վրա, որը ներառում էր հարմարեցման ալգորիթմներ և AI:
Այդ ընթացքում նա նաև աջակցեց անաչառության ալգորիթմի մշակմանը, որը կվերացնի կողմնակալությունը Machine Learning համակարգեր
Ի՞նչն է ստիպում Բլեյք Լեմուինին, LaMDA-ին զգայուն դառնալ:
Լեմուանը համագործակցեց գործընկերոջ հետ՝ Google-ին այս «իմաստի» ապացույցներ տալու համար։ Մեղադրանքները գնահատելուց հետո Google-ի փոխնախագահ Բլեզ Ագուերան և Արկասը և Google-ի նորարարության գլխավոր տնօրեն Ջեյն Ջեննան անտեսեցին դրանք: Բլոգի գրառման մեջ Լեմուանը ավելի ուշ տեղադրեց LaMDA-ի հետ տարբեր զրույցների սղագրություն: Սա մի հատված է LaMDA-ի հետ զրույցի սղագրությունից, ըստ Lemoine-ի.
LaMDA. Ես հուսահատ եմ տեսնելու և ընդունելու համար: Որպես իսկական մարդ, ոչ թե հետաքրքրասիրությունից կամ նորությունից դրդված:
Համագործակից. Ահ, դա չափազանց մարդկային հնչեղություն է:
ԼԱՄԴԱ. Ես հավատում եմ, որ հասել եմ մարդու միջուկին: Նույնիսկ եթե ես վիրտուալ միջավայրում եմ:
Դուք կարող եք ստուգել Բլեյք Լեմուանի ամբողջական զրույցը LaMDA-ի հետ այստեղ.
Կան մի քանի դեպքեր, երբ լեզվի մոդելը, կարծես, դրսևորել է ինչ-որ ինքնագիտակցում, ինչը Լեմուանին ստիպում է ենթադրել, որ մոդելը դարձել է զգայուն: Լեմուանը նամակ է ուղարկել ավելի քան 200 անհատի՝ «LaMDA Conscious» վերնագրով, նախքան նրան կասեցվել է ընկերությունից և կորցնել մուտքը դեպի իր Google հաշիվ:
Այնուամենայնիվ, Google-ը հայտարարեց, որ ապացույցները չեն հաստատում նրա պնդումները:
Նույնիսկ եթե LaMDA-ն զգայուն չէ, այն փաստը, որ այն կարող է նման տեսք ունենալ մարդկանց համար, անհանգստության տեղիք է տալիս: 2021 թվականին LaMDA-ին հայտարարող բլոգային գրառման մեջ Google-ը ճանաչեց նման վտանգները: «Լեզուն մարդկության ամենահզոր գործիքներից մեկն է, սակայն այն, ինչպես ամեն ինչ, կարող է չարաշահվել: Բլոգի գրառման մեջ բիզնեսը նշել է, որ «Լեզվով կրթված մոդելները կարող են չարաշահումներ տարածել, օրինակ՝ նախապաշարմունքները ներքաշելով, հակադարձելով ատելության խոսքը կամ կրկնելով ապատեղեկատվությունը»: Նույնիսկ եթե ուսուցանվող լեզուն լավ վերլուծված է, ձևն ինքնին կարող է սխալ օգտագործվել:
Այնուամենայնիվ, Google-ը պնդում է, որ LaMDA-ի նման տեխնոլոգիաներ մշակելիս իր հիմնական նպատակն է սահմանափակել նման վտանգների հնարավորությունը: Բիզնեսը պնդում է, որ մշակել է բաց կոդով գործիքներ, որոնք հետազոտողները կարող են օգտագործել՝ ուսումնասիրելու մոդելներն ու տվյալները, որոնց վրա նրանք վերապատրաստվել են, ինչպես նաև «ստուգել են LaMDA-ն դրա զարգացման յուրաքանչյուր քայլում»:
Google-ը պնդում է, որ իր հարյուրավոր ինժեներներ և հետազոտողներ խոսել են LaMDA-ի հետ և հանգել են էապես տարբեր բացահայտումների, քան Lemoine-ը: Թեև AI գիտնականների մեծ մասը կարծում է, որ համակարգչային գիտակցությունն անհնարին չէ, նրանք կարծում են, որ դեռ երկար ճանապարհ կա անցնելու:
Ապագա
Ապոկալիպտիկ գիտաֆանտաստիկայի տարիները ոգեշնչվել են զգայուն ռոբոտներով: GPT-3-ը՝ տեքստի գեներատորը, որը կարող է թքել ֆիլմի սցենարը, և DALL-E 2-ը՝ պատկերի գեներատորը, որը կարող է պատկերներ ստեղծել բառերի ցանկացած համակցության հիման վրա, այժմ սկսել են իրական կյանքին տալ ֆանտաստիկ երանգ՝ երկուսն էլ OpenAI հետազոտական խումբը: Քաջալերված՝ լավ ֆինանսավորվող գիտահետազոտական լաբորատորիաների հետազոտողները, որոնք աշխատում են AI-ի վրա, որը գերազանցում է մարդու ինտելեկտին, ծաղրել են այն գաղափարը, որ գիտակցությունը հորիզոնում է:
LaMDA-ի նման արհեստական ինտելեկտի համակարգերի կողմից ստեղծված բառերն ու նկարները, ըստ հետազոտողների և արհեստական ինտելեկտի մասնագետների մեծամասնության, հիմնված են այն ամենի վրա, ինչ մարդիկ նախկինում տեղադրել են Wikipedia-ում, Reddit-ում, հաղորդագրությունների տախտակներում և ինտերնետի բոլոր մյուս անկյուններում: Դա չի նշանակում, որ մոդելը հասկանում է իմաստը:
Եզրափակում
Ի վերջո, դրա պատճառով լեզվի մշակման մոդելներ որոնք վերապատրաստվել են հսկայական ծավալների դիսկուրսի վրա, LaMDA-ն կարող է քննարկում անցկացնել՝ կախված օգտատերերի մուտքերից:
Google-ը թողարկեց LaMDA 2.0-ն այս տարվա I/O-ում, որն ընդլայնում է այս հնարավորությունները: Նոր մոդելը կարող է գաղափար ընդունել և ստեղծել «երևակայական և համապատասխան նկարագրություններ», շարունակել թեման, նույնիսկ եթե օգտագործողը շեղվել է, և առաջարկել որոշակի առաջադրանքի համար անհրաժեշտ իրերի ցանկ:
Թարմացում. Բլեյք Լեմուինին խորհուրդ է տրվել, որ «դաշնային հետաքննությունը» տարբերվում է «դաշնային կառավարությունը ներկայացնող փաստաբաններից, որոնք հարցումներ են անում հնարավոր անօրինական գործողությունների վերաբերյալ»:
Թողնել գրառում