Տարիներ շարունակ խորը ուսուցումը եղել է տեխնոլոգիայի վերնագրերը: Եվ պարզ է հասկանալ, թե ինչու:
Արհեստական ինտելեկտի այս ճյուղը փոխակերպում է ոլորտները՝ սկսած առողջապահությունից մինչև բանկային և տրանսպորտ՝ հնարավորություն տալով նախկինում աներևակայելի առաջընթացների:
Խորը ուսուցումը կառուցված է մի շարք բարդ ալգորիթմների վրա, որոնք սովորում են հանել և կանխատեսել բարդ օրինաչափություններ զանգվածային տվյալներից:
Այս գրառման մեջ մենք կանդրադառնանք խորը ուսուցման լավագույն 15 ալգորիթմներին՝ Convolutional Neural Networks-ից մինչև Generative Adversarial Networks մինչև երկարաժամկետ կարճաժամկետ հիշողության ցանցեր:
Այս գրառումը էական պատկերացումներ կտա այն մասին, թե արդյոք դուք ա սկսնակ կամ խորը ուսուցման փորձագետ.
1. Տրանսֆորմատորային ցանցեր
Տրանսֆորմատորային ցանցերը վերափոխվել են համակարգչային տեսլական և բնական լեզվի մշակման (NLP) հավելվածներ: Նրանք վերլուծում են մուտքային տվյալները և օգտագործում են ուշադրության գործընթացներ՝ երկարաժամկետ հարաբերությունները գրավելու համար: Սա նրանց ավելի արագ է դարձնում, քան սովորական հաջորդականության հաջորդական մոդելները:
Տրանսֆորմատորային ցանցերն առաջին անգամ նկարագրվել են Վասվանիի և այլոց «Ուշադրությունն այն ամենն է, ինչ ձեզ հարկավոր է» հրապարակման մեջ:
Դրանք բաղկացած են կոդավորիչից և ապակոդավորիչից (2017թ.): Տրանսֆորմատորի մոդելը ցուցադրել է արդյունավետություն NLP-ի մի շարք ծրագրերում, այդ թվում զգայական վերլուծություն, տեքստի դասակարգում և մեքենայական թարգմանություն։
Տրանսֆորմատորների վրա հիմնված մոդելները կարող են օգտագործվել նաև համակարգչային տեսլականում ծրագրերի համար: Նրանք կարող են իրականացնել օբյեկտների ճանաչում և պատկերի վերնագիր:
2. Երկար կարճաժամկետ հիշողության ցանցեր (LSTMs)
Երկար կարճաժամկետ հիշողության ցանցերը (LSTMs) մի ձև են նյարդային ցանց հատկապես կառուցված է հաջորդական մուտքագրման համար: Դրանք կոչվում են «երկար կարճաժամկետ», քանի որ նրանք կարող են հիշել վաղուց ստացված գիտելիքները՝ միաժամանակ մոռանալով ավելորդ տեղեկությունները:
LSTM-ները գործում են որոշ «դարպասների» միջոցով, որոնք կարգավորում են ցանցի ներսում տեղեկատվության հոսքը: Կախված նրանից, թե տեղեկատվությունը կարևոր է, թե ոչ, այս դարպասները կարող են կամ թույլ տալ այն ներս թողնել, կամ կանխել այն:
Այս տեխնիկան թույլ է տալիս LSTM-ներին հիշել կամ մոռանալ անցյալ ժամանակային քայլերից ստացված տեղեկությունները, ինչը կարևոր է այնպիսի խնդիրների համար, ինչպիսիք են խոսքի ճանաչումը, բնական լեզվի մշակումը և ժամանակային շարքերի կանխատեսումը:
LSTM-ները չափազանց շահավետ են ցանկացած դեպքում, երբ դուք ունեք հաջորդական տվյալներ, որոնք պետք է գնահատվեն կամ կանխատեսվեն: Դրանք հաճախ օգտագործվում են ձայնի ճանաչման ծրագրային ապահովման մեջ՝ ասված բառերը տեքստի կամ տեքստի վերածելու համար ֆոնդային բորսա վերլուծություն՝ նախորդ տվյալների հիման վրա ապագա գների կանխատեսման համար:
3. Ինքնակազմակերպվող Քարտեզներ (SOM)
SOM-ները մի տեսակ արհեստական են նեյրոնային ցանց, որը կարող է սովորել և ներկայացնում է բարդ տվյալներ ցածր չափերի միջավայրում: Մեթոդը գործում է բարձրաչափ մուտքային տվյալները փոխակերպելով երկչափ ցանցի, որտեղ յուրաքանչյուր միավոր կամ նեյրոն ներկայացնում է մուտքային տարածության տարբեր մասը:
Նեյրոնները կապված են միմյանց հետ և ստեղծում են տոպոլոգիական կառուցվածք՝ թույլ տալով նրանց սովորել և հարմարվել մուտքային տվյալներին: Այսպիսով, SOM-ը հիմնված է չվերահսկվող ուսուցման վրա:
Ալգորիթմը կարիք չունի պիտակավորված տվյալներ սովորել. Փոխարենը, այն օգտագործում է մուտքային տվյալների վիճակագրական առանձնահատկությունները՝ փոփոխականների միջև օրինաչափություններ և հարաբերակցություններ հայտնաբերելու համար:
Վերապատրաստման փուլում նեյրոնները մրցում են մուտքային տվյալների լավագույն ցուցիչ լինելու համար: Եվ նրանք ինքնակազմակերպվում են իմաստալից կառույցի: SOM-ներն ունեն կիրառությունների լայն շրջանակ, ներառյալ պատկերի և խոսքի ճանաչումը, տվյալների արդյունահանումը և օրինաչափությունների ճանաչումը:
Դրանք օգտակար են բարդ տվյալների պատկերացում, խմբավորելով առնչվող տվյալների կետերը և հայտնաբերելով աննորմալություններ կամ արտանետումներ:
4. Խորը ամրապնդման ուսուցում
խոր Ամրապնդման ուսուցում մեքենայական ուսուցման մի տեսակ է, որի ժամանակ գործակալը վերապատրաստվում է որոշումներ կայացնելու՝ հիմնվելով պարգևատրման համակարգի վրա: Այն գործում է՝ թույլ տալով գործակալին փոխազդել իր շրջապատի հետ և սովորել փորձության և սխալի միջոցով:
Գործակալը պարգևատրվում է իր կատարած յուրաքանչյուր գործողության համար, և նրա նպատակն է սովորել, թե ինչպես օպտիմալացնել իր առավելությունները ժամանակի ընթացքում: Սա կարող է օգտագործվել գործակալներին սովորեցնելու խաղեր խաղալ, մեքենաներ վարել և նույնիսկ ռոբոտներ կառավարել:
Q-Learning-ը Deep Reinforcement Learning-ի հայտնի մեթոդ է: Այն գործում է որոշակի վիճակում որոշակի գործողության կատարման արժեքը գնահատելով և այդ գնահատականը թարմացնելով, քանի որ գործակալը փոխազդում է շրջակա միջավայրի հետ:
Գործակալն այնուհետև օգտագործում է այս գնահատումները՝ որոշելու, թե որ գործողությունն է, ամենայն հավանականությամբ, կհանգեցնի ամենամեծ պարգևին: Q-Learning-ն օգտագործվել է գործակալներին Atari խաղեր խաղալու համար կրթելու, ինչպես նաև տվյալների կենտրոններում էներգիայի օգտագործումը բարելավելու համար:
Deep Q-Networks-ը մեկ այլ հայտնի Deep Reinforcement Learning մեթոդ է (DQN): DQN-ները նման են Q-Learning-ին, քանի որ նրանք գնահատում են գործողությունների արժեքները՝ օգտագործելով խորը նյարդային ցանցը, այլ ոչ թե աղյուսակը:
Սա նրանց հնարավորություն է տալիս հաղթահարել հսկայական, բարդ կարգավորումները բազմաթիվ այլընտրանքային գործողություններով: DQN-ներն օգտագործվել են գործակալներին սովորեցնելու խաղեր խաղալու համար, ինչպիսիք են Go և Dota 2-ը, ինչպես նաև ստեղծել ռոբոտներ, որոնք կարող են սովորել քայլել:
5. Կրկնվող նեյրոնային ցանցեր (RNN)
RNN-ները մի տեսակ նեյրոնային ցանց են, որը կարող է մշակել հաջորդական տվյալներ՝ պահպանելով ներքին վիճակը: Համարեք, որ դա նման է գիրք ընթերցող մարդուն, որտեղ յուրաքանչյուր բառ մարսվում է իր նախորդների համեմատությամբ:
Հետևաբար, RNN-ները իդեալական են այնպիսի խնդիրների համար, ինչպիսիք են խոսքի ճանաչումը, լեզվի թարգմանությունը և նույնիսկ բառակապակցության հաջորդ բառը կանխատեսելը:
RNN-ներն աշխատում են՝ օգտագործելով հետադարձ կապեր՝ յուրաքանչյուր ժամանակային քայլի ելքը միացնելու հաջորդ ժամանակային քայլի մուտքագրմանը: Սա թույլ է տալիս ցանցին օգտագործել նախնական ժամանակային քայլի մասին տեղեկատվությունը ապագա ժամանակային քայլերի վերաբերյալ իր կանխատեսումները տեղեկացնելու համար: Ցավոք սրտի, սա նաև նշանակում է, որ RNN-ները խոցելի են անհետացող գրադիենտ խնդրի նկատմամբ, որի դեպքում վերապատրաստման համար օգտագործվող գրադիենտները դառնում են շատ փոքր, և ցանցը պայքարում է երկարաժամկետ հարաբերություններ սովորելու համար:
Չնայած այս ակնհայտ սահմանափակումին, RNN-ները կիրառություն են գտել կիրառությունների լայն շրջանակում: Այս հավելվածները ներառում են բնական լեզվի մշակում, խոսքի ճանաչում և նույնիսկ երաժշտության արտադրություն:
Գուգլ թարգմանիչՕրինակ, օգտագործում է RNN-ի վրա հիմնված համակարգ տարբեր լեզուներով թարգմանելու համար, մինչդեռ Siri-ն՝ վիրտուալ օգնականը, օգտագործում է RNN-ի վրա հիմնված համակարգ՝ ձայնը հայտնաբերելու համար: RNN-ները նաև օգտագործվել են բաժնետոմսերի գները կանխատեսելու և իրատեսական տեքստ և գրաֆիկա ստեղծելու համար:
6. Կապսուլային ցանցեր
Capsule Networks-ը նեյրոնային ցանցի նախագծման նոր տեսակ է, որը կարող է ավելի արդյունավետ կերպով բացահայտել տվյալների օրինաչափությունները և փոխկապակցվածությունները: Նրանք նեյրոնները կազմակերպում են «կապսուլների» մեջ, որոնք կոդավորում են մուտքի որոշակի ասպեկտներ:
Այս կերպ նրանք կարող են ավելի ճշգրիտ կանխատեսումներ անել։ Capsule Networks-ը մուտքային տվյալներից արդյունահանում է աստիճանաբար բարդ հատկություններ՝ օգտագործելով պարկուճների բազմաթիվ շերտեր:
Capsule Networks-ի տեխնիկան նրանց հնարավորություն է տալիս սովորել տվյալ մուտքագրման հիերարխիկ ներկայացումները: Նրանք կարող են պատշաճ կերպով կոդավորել տարածական կապերը նկարի ներսում գտնվող իրերի միջև՝ հաղորդակցվելով պարկուճների միջև:
Օբյեկտների նույնականացումը, նկարների հատվածավորումը և բնական լեզվի մշակումը Capsule Networks-ի կիրառությունն են:
Capsule Networks-ն ունի ներուժ աշխատելու համար ինքնավար վարում տեխնոլոգիաներ։ Նրանք օգնում են համակարգին ճանաչելու և տարբերելու այնպիսի տարրեր, ինչպիսիք են ավտոմեքենաները, մարդիկ և ճանապարհային նշանները: Այս համակարգերը կարող են խուսափել բախումներից՝ ավելի ճշգրիտ կանխատեսումներ անելով իրենց միջավայրում գտնվող առարկաների վարքագծի վերաբերյալ:
7. Վարիացիոն ինքնակոդավորիչներ (VAE)
VAE-ները խորը ուսուցման գործիք են, որն օգտագործվում է չվերահսկվող ուսուցման համար: Տվյալները կոդավորելով ավելի ցածր չափերի տարածության մեջ և այնուհետև վերծանելով դրանք սկզբնական ձևաչափով, նրանք կարող են սովորել նկատել տվյալների օրինաչափությունները:
Նրանք նման են հրաշագործի, ով կարող է նապաստակը վերածել գլխարկի, իսկ հետո նորից նապաստակի: VAE-ները օգտակար են իրատեսական վիզուալ կամ երաժշտություն ստեղծելու համար: Եվ դրանք կարող են օգտագործվել նոր տվյալներ արտադրելու համար, որոնք համեմատելի են սկզբնական տվյալների հետ:
VAE-ները նման են գաղտնի կոդ կոտրիչին: Նրանք կարող են բացահայտել հիմքում ընկածը տվյալների կառուցվածքը այն ավելի պարզ մասերի բաժանելով, ինչպես փազլը քանդվում է: Նրանք կարող են օգտագործել այդ տեղեկատվությունը մասերը դասավորելուց հետո նոր տվյալներ ստեղծելու համար, որոնք նման են բնօրինակին:
Սա կարող է հարմար լինել հսկայական ֆայլեր սեղմելու կամ որոշակի ոճով թարմ գրաֆիկա կամ երաժշտություն արտադրելու համար: VAE-ները կարող են նաև թարմ բովանդակություն արտադրել, ինչպիսիք են լուրերը կամ երաժշտական բառերը:
8. Գեներատիվ հակառակորդ ցանցեր (GANs)
GAN-ը (Generative Adversarial Networks) խորը ուսուցման համակարգի ձև է, որը ստեղծում է նոր տվյալներ, որոնք նման են բնօրինակին: Նրանք գործում են երկու ցանցերի վերապատրաստմամբ՝ գեներատոր և խտրական ցանց:
Գեներատորն արտադրում է նոր տվյալներ, որոնք համեմատելի են բնօրինակի հետ:
Իսկ խտրականությունը փորձում է տարբերակել սկզբնական և ստեղծված տվյալները։ Երկու ցանցերը ուսուցանվում են տանդեմում, ընդ որում, գեներատորը փորձում է խաբել խտրականացնողին, իսկ խտրողը՝ ճիշտ նույնականացնել սկզբնական տվյալները:
Համարեք GAN-ները կեղծարարի և հետախույզի խաչմերուկ: Գեներատորը գործում է կեղծարարի նման՝ արտադրելով նոր ստեղծագործություն, որը նման է բնօրինակին:
Խտրական անձը հանդես է գալիս որպես խուզարկու՝ փորձելով տարբերակել իսկական արվեստի գործը կեղծիքից: Երկու ցանցերը ուսուցանվում են տանդեմում, ընդ որում, գեներատորը կատարելագործվում է արժանահավատ կեղծիքներ պատրաստելու գործում, իսկ խտրականությունը կատարելագործվում է դրանք ճանաչելու հարցում:
GAN-ներն ունեն մի քանի կիրառություն՝ սկսած մարդկանց կամ կենդանիների ռեալիստական նկարներ ստեղծելուց մինչև նոր երաժշտություն կամ գրություն ստեղծելը: Դրանք կարող են օգտագործվել նաև տվյալների ավելացման համար, որը ներառում է արտադրված տվյալների համադրումը իրական տվյալների հետ՝ մեքենայական ուսուցման մոդելների ուսուցման համար ավելի մեծ տվյալների բազա ստեղծելու համար:
9. Deep Q-Networks (DQNs)
Deep Q-Networks-ը (DQN) որոշումների կայացման ամրապնդման ուսուցման ալգորիթմ է: Նրանք գործում են՝ սովորելով Q-ֆունկցիա, որը կանխատեսում է ակնկալվող պարգևը՝ որոշակի իրավիճակում որոշակի գործողություն կատարելու համար:
Q-ֆունկցիան ուսուցանվում է փորձի և սխալի միջոցով՝ ալգորիթմը փորձում է տարբեր գործողություններ կատարել և սովորել արդյունքներից:
Համարեք այն նման է Video խաղ կերպարը փորձարկում է տարբեր գործողություններ և բացահայտում, թե որոնք են հաջողության բերում: DQN-ները վարժեցնում են Q-ֆունկցիան՝ օգտագործելով խորը նեյրոնային ցանց՝ դրանք դարձնելով արդյունավետ գործիքներ որոշումներ կայացնելու դժվարին առաջադրանքների համար:
Նրանք նույնիսկ հաղթել են մարդկանց չեմպիոններին այնպիսի խաղերում, ինչպիսիք են Go-ն ու շախմատը, ինչպես նաև ռոբոտաշինության և ինքնակառավարվող մեքենաների մեջ: Այսպիսով, ընդհանուր առմամբ, DQN-ները աշխատում են՝ սովորելով փորձից՝ ժամանակի ընթացքում զարգացնելու իրենց որոշումներ կայացնելու հմտությունները:
10. Ճառագայթային հիմքի ֆունկցիոնալ ցանցեր (RBFNs)
Ճառագայթային հիմքի ֆունկցիոնալ ցանցերը (RBFN) նեյրոնային ցանցի մի տեսակ են, որն օգտագործվում է ֆունկցիաները մոտավորելու և դասակարգման առաջադրանքներ կատարելու համար: Նրանք գործում են մուտքային տվյալները վերափոխելով ավելի մեծ չափերի տարածության՝ օգտագործելով ճառագայթային հիմքի գործառույթների հավաքածու:
Ցանցի ելքը բազային ֆունկցիաների գծային համակցություն է, և ճառագայթային հիմքի յուրաքանչյուր ֆունկցիա ներկայացնում է կենտրոնական կետ մուտքային տարածքում:
RBFN-ները հատկապես արդյունավետ են մուտքային-ելքային բարդ փոխազդեցություններ ունեցող իրավիճակների համար, և դրանք կարող են ուսուցանվել՝ օգտագործելով տեխնիկայի լայն շրջանակ, ներառյալ վերահսկվող և չվերահսկվող ուսուցումը: Դրանք օգտագործվել են ամեն ինչի համար՝ ֆինանսական կանխատեսումներից, նկարների և խոսքի ճանաչումից մինչև բժշկական ախտորոշում:
Դիտարկենք RBFN-ները որպես GPS համակարգ, որն օգտագործում է մի շարք խարիսխ կետեր՝ դժվար տեղանքով իր ճանապարհը գտնելու համար: Ցանցի ելքը խարիսխի կետերի համակցություն է, որոնք ներկայացնում են ճառագայթային հիմքի ֆունկցիաները:
Մենք կարող ենք զննել բարդ տեղեկատվություն և ստեղծել ճշգրիտ կանխատեսումներ այն մասին, թե ինչպես կզարգանա սցենարը՝ օգտագործելով RBFN-ները:
11. Բազմաշերտ պերցեպտրոններ (MLP)
Նյարդային ցանցի բնորոշ ձևը, որը կոչվում է բազմաշերտ պերցեպտրոն (MLP), օգտագործվում է վերահսկվող ուսումնական առաջադրանքների համար, ինչպիսիք են դասակարգումը և ռեգրեսիան: Նրանք գործում են մի քանի շերտերով կապակցված հանգույցներ կամ նեյրոններ կուտակելով, որոնցից յուրաքանչյուրը ոչ գծային կերպով փոխում է մուտքային տվյալները:
MLP-ում յուրաքանչյուր նեյրոն մուտք է ստանում ներքևի շերտի նեյրոններից և ազդանշան է ուղարկում վերևի շերտի նեյրոններին: Յուրաքանչյուր նեյրոնի ելքը որոշվում է ակտիվացման ֆունկցիայի միջոցով, որը ցանցին տալիս է ոչ գծայինություն:
Նրանք կարող են սովորել մուտքային տվյալների բարդ ներկայացումներ, քանի որ դրանք կարող են ունենալ մի քանի թաքնված շերտեր:
MLP-ները կիրառվել են մի շարք առաջադրանքների համար, ինչպիսիք են զգացմունքների վերլուծությունը, խարդախության հայտնաբերումը և ձայնի և պատկերի ճանաչումը: MLP-ները կարող են համեմատվել մի խումբ քննիչների հետ, որոնք միասին աշխատում են դժվար գործը բացահայտելու համար:
Նրանք միասին կարող են միավորել փաստերը և բացահայտել հանցագործությունը՝ չնայած այն հանգամանքին, որ յուրաքանչյուրն ունի մասնագիտության որոշակի ոլորտ:
12. Կովոլյուցիոն նեյրոնային ցանցեր (CNN)
Պատկերները և տեսանյութերը մշակվում են՝ օգտագործելով կոնվոլյուցիոն նեյրոնային ցանցեր (CNN), որը նեյրոնային ցանցի ձև է: Նրանք գործում են՝ օգտագործելով ուսանելի զտիչների կամ միջուկների մի շարք՝ մուտքային տվյալներից նշանակալի բնութագրեր հանելու համար:
Զտիչները սահում են մուտքագրված նկարի վրայով, կատարելով պտույտներ՝ ստեղծելու առանձնահատկությունների քարտեզ, որը ֆիքսում է պատկերի էական կողմերը:
Քանի որ CNN-ները կարողանում են սովորել նկարի բնութագրերի հիերարխիկ ներկայացումները, դրանք հատկապես օգտակար են այնպիսի իրավիճակների համար, որոնք ներառում են տեսողական տվյալների հսկայական ծավալներ: Դրանցից օգտվել են մի քանի հավելվածներ, ինչպիսիք են օբյեկտների հայտնաբերումը, նկարների դասակարգումը և դեմքի հայտնաբերումը:
Համարեք CNN-ը որպես նկարիչ, որն օգտագործում է մի քանի վրձիններ գլուխգործոց ստեղծելու համար: Յուրաքանչյուր վրձին միջուկ է, և նկարիչը կարող է կառուցել բարդ, իրատեսական պատկեր՝ խառնելով բազմաթիվ միջուկներ: Մենք կարող ենք զգալի բնութագրեր հանել լուսանկարներից և օգտագործել դրանք պատկերի բովանդակությունը ճշգրիտ կանխատեսելու համար՝ օգտագործելով CNN-ները:
13. Խորը հավատքի ցանցեր (DBN)
DBN-ները նեյրոնային ցանցի ձև են, որն օգտագործվում է չվերահսկվող ուսուցման առաջադրանքների համար, ինչպիսիք են չափերի կրճատումը և առանձնահատկությունների ուսուցումը: Նրանք գործում են՝ կուտակելով Սահմանափակ Բոլցմանի մեքենաների (RBMs) մի քանի շերտեր, որոնք երկշերտ նեյրոնային ցանցեր են, որոնք ունակ են սովորել վերականգնել մուտքային տվյալները:
DBN-ները շատ ձեռնտու են տվյալների մեծ չափերի խնդիրների համար, քանի որ նրանք կարող են սովորել մուտքագրման կոմպակտ և արդյունավետ ներկայացում: Դրանք օգտագործվել են ամեն ինչի համար՝ ձայնի ճանաչումից մինչև նկարների դասակարգում և թմրամիջոցների հայտնաբերում:
Օրինակ, հետազոտողները օգտագործել են DBN՝ գնահատելու դեղերի թեկնածուների կապակցման կապը էստրոգենի ընկալիչի հետ: DBN-ն ուսուցանվել է քիմիական բնութագրերի և կապող կապերի հավաքածուի վրա, և այն կարողացել է ճշգրիտ կանխատեսել նոր դեղամիջոցների թեկնածուների կապակցման կապը:
Սա ընդգծում է DBN-ների օգտագործումը դեղերի մշակման և այլ բարձրաչափ տվյալների հավելվածներում:
14. Ավտոկոդավորիչներ
Ավտոկոդավորիչները նեյրոնային ցանցեր են, որոնք օգտագործվում են չվերահսկվող ուսումնական առաջադրանքների համար: Դրանք նախատեսված են մուտքային տվյալները վերակառուցելու համար, ինչը ենթադրում է, որ նրանք կսովորեն կոդավորել տեղեկատվությունը կոմպակտ ներկայացման մեջ և այնուհետև վերծանել այն սկզբնական մուտքագրման մեջ:
Ավտոկոդավորիչները շատ արդյունավետ են տվյալների սեղմման, աղմուկի հեռացման և անոմալիաների հայտնաբերման համար: Նրանք կարող են օգտագործվել նաև առանձնահատկությունների ուսուցման համար, որտեղ ինքնակոդավորիչի կոմպակտ ներկայացումը սնվում է վերահսկվող ուսումնական առաջադրանքի մեջ:
Համարեք, որ ինքնակոդավորիչները դասարանում նշումներ անող ուսանողներն են: Ուսանողը լսում է դասախոսությունը և ամփոփ և արդյունավետ կերպով նշում է առավել համապատասխան կետերը:
Հետագայում ուսանողը կարող է սովորել և հիշել դասը՝ օգտագործելով իր նշումները: Մյուս կողմից, ինքնակոդավորիչը կոդավորում է մուտքային տվյալները կոմպակտ ներկայացման մեջ, որը հետագայում կարող է օգտագործվել տարբեր նպատակներով, ինչպիսիք են անոմալիաների հայտնաբերումը կամ տվյալների սեղմումը:
15. Սահմանափակված Boltzmann մեքենաներ (RBMs)
RBM-ները (սահմանափակված Բոլցմանի մեքենաներ) մի տեսակ գեներացնող նեյրոնային ցանց են, որն օգտագործվում է չվերահսկվող ուսումնական առաջադրանքների համար: Դրանք կազմված են տեսանելի շերտից և թաքնված շերտից՝ յուրաքանչյուր շերտում նեյրոններով՝ կապված, բայց ոչ միևնույն շերտում:
RBM-ները վերապատրաստվում են օգտագործելով մի տեխնիկա, որը հայտնի է որպես կոնտրաստիվ դիվերգենցիա, որը ենթադրում է փոխել կշիռները տեսանելի և թաքնված շերտերի միջև՝ վերապատրաստման տվյալների հավանականությունը օպտիմալացնելու համար: RBM-ները կարող են թարմ տվյալներ ստեղծել սովորած բաշխումից նմուշառում ստանալուց հետո:
Պատկերի և խոսքի ճանաչումը, համատեղ զտումը և անոմալիաների հայտնաբերումը բոլոր հավելվածներն են, որոնք օգտագործում են RBM-ներ: Դրանք նաև օգտագործվել են առաջարկությունների համակարգերում՝ հարմարեցված առաջարկներ ստեղծելու համար՝ սովորելով օրինաչափություններ օգտատերերի վարքագծից:
RBM-ները օգտագործվել են նաև առանձնահատկությունների ուսուցման մեջ՝ ստեղծելու բարձրաչափ տվյալների կոմպակտ և արդյունավետ ներկայացում:
Ամփոփում և խոստումնալից զարգացումներ հորիզոնում
Խորը ուսուցման մեթոդները, ինչպիսիք են Convolutional Neural Networks (CNN) և Recurrent Neural Networks (RNNs), արհեստական ինտելեկտի ամենաառաջադեմ մոտեցումներից են: CNN-ները փոխակերպել են պատկերի և ձայնի ճանաչումը, մինչդեռ RNN-ները զգալիորեն առաջադիմել են բնական լեզվի մշակման և հաջորդական տվյալների վերլուծության մեջ:
Այս մոտեցումների էվոլյուցիայի հաջորդ քայլը, ամենայն հավանականությամբ, կենտրոնանալու է դրանց արդյունավետության և մասշտաբայնության բարելավման վրա՝ թույլ տալով նրանց վերլուծել ավելի մեծ և բարդ տվյալների շտեմարանները, ինչպես նաև բարելավելու դրանց մեկնաբանելիությունը և ավելի քիչ պիտակավորված տվյալներից սովորելու կարողությունը:
Խորը ուսուցումը հնարավորություն է տալիս առաջընթացի հասնել այնպիսի ոլորտներում, ինչպիսիք են առողջապահությունը, ֆինանսները և ինքնավար համակարգերը:
Թողնել գրառում