Բառը[Թաքցնել][Ցուցադրում]
- 1. Ի՞նչ է իրականում խորը ուսուցումը:
- 2. Ինչո՞վ է տարբերվում Deep Learning-ը մեքենայական ուսուցումից:
- 3. Ինչպիսի՞ն են ձեր ներկայիս պատկերացումները նեյրոնային ցանցերի մասին:
- 4. Ի՞նչ է իրենից ներկայացնում պերցեպտրոնը:
- 5. Ի՞նչ է իրականում խորը նեյրոնային ցանցը:
- 6. Ի՞նչ է իրականում բազմաշերտ պերցեպտրոնը (MLP):
- 7. Ի՞նչ նպատակ են հետապնդում ակտիվացման ֆունկցիաները նեյրոնային ցանցում:
- 8. Կոնկրետ ի՞նչ է գրադիենտ ծագումը:
- 9. Կոնկրետ ո՞րն է ծախսերի գործառույթը:
- 10. Ինչպե՞ս կարող են խորը ցանցերը գերազանցել ծանծաղ ցանցերին:
- 11. Նկարագրեք առաջ տարածումը:
- 12. Ի՞նչ է ետ տարածումը:
- 13. Խորը ուսուցման համատեքստում ինչպե՞ս եք ընկալում գրադիենտ կտրումը:
- 14. Որո՞նք են Softmax և ReLU գործառույթները:
- 15. Կարո՞ղ է նեյրոնային ցանցի մոդելը վարժեցնել բոլոր կշիռներով 0-ի վրա:
- 16. Ինչո՞վ է տարբերվում դարաշրջանը խմբաքանակից և կրկնությունից:
- 17. Որո՞նք են խմբաքանակի նորմալացումը և թողարկումը:
- 18. Ի՞նչն է առանձնացնում Stochastic Gradient Descent-ը Batch Gradient Descent-ից:
- 19. Ինչու՞ է կարևոր նեյրոնային ցանցերում ներառել ոչ գծայինությունը:
- 20. Ի՞նչ է տենզորը խորը ուսուցման մեջ:
- 21. Ինչպե՞ս կընտրեիք ակտիվացման գործառույթը խորը ուսուցման մոդելի համար:
- 22. Ի՞նչ նկատի ունեք CNN ասելով:
- 23. Որո՞նք են CNN-ի բազմաթիվ շերտերը:
- 24. Որո՞նք են ավելցուկային և անբավարար հագեցվածության հետևանքները, և ինչպե՞ս կարող եք խուսափել դրանցից:
- 25. Խորը ուսուցման մեջ ի՞նչ է RNN-ը:
- 26. Նկարագրեք Adam Optimizer-ը
- 27. Խորը ինքնակոդավորիչներ. որո՞նք են դրանք:
- 28. Ի՞նչ է նշանակում Tensor-ը Tensorflow-ում:
- 29. Հաշվարկային գրաֆիկի բացատրություն
- 30. Գեներատիվ հակառակորդ ցանցեր (GANs). որո՞նք են դրանք:
- 31. Ինչպե՞ս եք ընտրելու նեյրոնների և թաքնված շերտերի քանակը, որոնք կներառվեն նեյրոնային ցանցում՝ ճարտարապետությունը նախագծելիս:
- 32. Ի՞նչ տեսակի նեյրոնային ցանցեր են օգտագործվում խորը ամրապնդման ուսուցման միջոցով:
- Եզրափակում
Խորը ուսուցումը բոլորովին նոր գաղափար չէ: Արհեստական նեյրոնային ցանցերը ծառայում են որպես մեքենայական ուսուցման ենթաբազմության միակ հիմքը, որը հայտնի է որպես խորը ուսուցում:
Խորը ուսուցումը մարդու ուղեղի նմանակ է, ինչպես նեյրոնային ցանցերը, քանի որ դրանք ստեղծվել են մարդու ուղեղը նմանակելու համար:
Սա եղել է մի որոշ ժամանակ. Այս օրերին բոլորը խոսում են այդ մասին, քանի որ մենք չունենք գրեթե այնքան մշակման հզորություն կամ տվյալներ, որքան հիմա:
Վերջին 20 տարիների ընթացքում խորը ուսուցումը և մեքենայական ուսուցումը առաջացել են վերամշակման կարողությունների կտրուկ աճի արդյունքում:
Որպեսզի օգնի ձեզ նախապատրաստվել ցանկացած հարցի, որը կարող եք հանդիպել ձեր երազանքի աշխատանք փնտրելիս, այս գրառումը ձեզ կառաջնորդի մի շարք խորը ուսուցման հարցազրույցի հարցերի միջոցով՝ սկսած պարզից մինչև բարդ:
1. Ի՞նչ է իրականում խորը ուսուցումը:
Եթե դուք հաճախում եք ա խորը ուսուցում հարցազրույց, դուք, անկասկած, հասկանում եք, թե ինչ է խորը ուսուցումը: Հարցազրուցավարը, այնուամենայնիվ, ակնկալում է, որ դուք մանրամասն պատասխան կտաք այս հարցին ի պատասխան նկարազարդման:
մարզվելու համար նյարդային ցանցեր խորը ուսուցման համար պետք է օգտագործվեն կազմակերպված կամ չկառուցված տվյալների զգալի քանակություն: Թաքնված օրինաչափություններն ու բնութագրերը գտնելու համար այն կատարում է բարդ ընթացակարգեր (օրինակ՝ կատվի կերպարը շան պատկերից տարբերելով):
2. Ինչո՞վ է տարբերվում Deep Learning-ը մեքենայական ուսուցումից:
Որպես արհեստական ինտելեկտի ճյուղ, որը հայտնի է որպես մեքենայական ուսուցում, մենք համակարգիչներ ենք վարժեցնում տվյալների և վիճակագրական ու ալգորիթմական տեխնիկայի միջոցով, որպեսզի ժամանակի ընթացքում դրանք ավելի լավանան:
Որպես ասպեկտ Machine Learning, խորը ուսուցումը ընդօրինակում է նեյրոնային ցանցի ճարտարապետությունը, որը երևում է մարդու ուղեղում:
3. Ինչպիսի՞ն են ձեր ներկայիս պատկերացումները նեյրոնային ցանցերի մասին:
Արհեստական համակարգերը, որոնք հայտնի են որպես նեյրոնային ցանցեր, շատ սերտորեն նման են մարդու մարմնում հայտնաբերված օրգանական նյարդային ցանցերին:
Օգտագործելով տեխնիկա, որը նման է, թե ինչպես է մարդու ուղեղը ֆունկցիաները, նեյրոնային ցանցը ալգորիթմների հավաքածու է, որը նպատակ ունի բացահայտելու հիմքում ընկած փոխկապակցվածությունը տվյալների մի հատվածում:
Այս համակարգերը ձեռք են բերում առաջադրանքների վերաբերյալ գիտելիքներ՝ իրենց ներկայացնելով մի շարք տվյալների հավաքածուներ և օրինակներ, այլ ոչ թե հետևելով առաջադրանքների հատուկ կանոններին:
Գաղափարն այն է, որ այս տվյալների հավաքածուների վերաբերյալ նախապես ծրագրավորված պատկերացում ունենալու փոխարեն, համակարգը սովորում է տարբերակել բնութագրերը այն տվյալներից, որոնք սնվում են:
Երեք ցանցային շերտերը, որոնք առավել հաճախ օգտագործվում են նեյրոնային ցանցերում, հետևյալն են.
- Մուտքային շերտ
- Թաքնված շերտ
- Ելքային շերտ
4. Ի՞նչ է իրենից ներկայացնում պերցեպտրոնը:
Մարդու ուղեղում հայտնաբերված կենսաբանական նեյրոնը համեմատելի է պերցեպտոնի հետ: Բազմաթիվ մուտքեր են ստանում պերցեպտրոնը, որն այնուհետև կատարում է բազմաթիվ փոխակերպումներ և գործառույթներ և արտադրում է ելք:
Երկուական դասակարգման մեջ օգտագործվում է գծային մոդել, որը կոչվում է պերցեպտրոն: Այն մոդելավորում է մի նեյրոն՝ տարբեր մուտքերով, որոնցից յուրաքանչյուրը տարբեր քաշ ունի:
Նեյրոնը հաշվում է ֆունկցիան՝ օգտագործելով այս կշռված մուտքերը և ելքային արդյունքները:
5. Ի՞նչ է իրականում խորը նեյրոնային ցանցը:
Խորը նեյրոնային ցանցը արհեստական նեյրոնային ցանց է (ANN) մի քանի շերտերով մուտքային և ելքային շերտերի միջև (DNN):
Խորը նեյրոնային ցանցերը խորը ճարտարապետության նեյրոնային ցանցեր են: «Խորը» բառը վերաբերում է մի շերտում բազմաթիվ մակարդակներով և միավորներով ֆունկցիաներին: Ավելի ճշգրիտ մոդելներ կարող են ստեղծվել՝ ավելացնելով ավելի ու ավելի մեծ շերտեր՝ նախշերի ավելի մեծ մակարդակներ գրավելու համար:
6. Ի՞նչ է իրականում բազմաշերտ պերցեպտրոնը (MLP):
Մուտքային, թաքնված և ելքային շերտերը առկա են MLP-ներում, ինչպես նեյրոնային ցանցերում: Այն կառուցված է մեկ կամ մի քանի թաքնված շերտերով միաշերտ պերցեպտրոնի նման:
Մեկ շերտի պերցեպտրոնի երկուական արդյունքը կարող է դասակարգել միայն գծային բաժանելի դասերը (0,1), մինչդեռ MLP-ն կարող է դասակարգել ոչ գծային դասեր:
7. Ի՞նչ նպատակ են հետապնդում ակտիվացման ֆունկցիաները նեյրոնային ցանցում:
Ակտիվացման ֆունկցիան որոշում է, թե արդյոք նեյրոնը պետք է ակտիվանա ամենահիմնական մակարդակում: Ցանկացած ակտիվացման ֆունկցիա կարող է ընդունել մուտքերի կշռված գումարը գումարած կողմնակալությունը որպես մուտքագրում: Ակտիվացման գործառույթները ներառում են քայլ ֆունկցիան, Sigmoid, ReLU, Tanh և Softmax:
8. Կոնկրետ ի՞նչ է գրադիենտ ծագումը:
Ծախսերի գործառույթը կամ սխալը նվազագույնի հասցնելու լավագույն մոտեցումը գրադիենտ ծագումն է: Ֆունկցիայի լոկալ-գլոբալ նվազագույնի գտնելը նպատակն է: Սա սահմանում է այն ուղին, որով մոդելը պետք է անցնի սխալը նվազագույնի հասցնելու համար:
9. Կոնկրետ ո՞րն է ծախսերի գործառույթը:
Ծախսերի գործառույթը չափիչ է, որը գնահատում է ձեր մոդելի արդյունավետությունը. այն երբեմն հայտնի է որպես «կորուստ» կամ «սխալ»։ Հետ տարածման ժամանակ այն օգտագործվում է ելքային շերտի սխալը հաշվարկելու համար:
Մենք օգտագործում ենք այդ անճշտությունը նեյրոնային ցանցի վերապատրաստման գործընթացները շարունակելու համար՝ այն ետ մղելով նեյրոնային ցանցի միջով:
10. Ինչպե՞ս կարող են խորը ցանցերը գերազանցել ծանծաղ ցանցերին:
Բացի մուտքային և ելքային շերտերից, նեյրոնային ցանցերին ավելացվում են թաքնված շերտեր: Մուտքային և ելքային շերտերի միջև մակերեսային նեյրոնային ցանցերն օգտագործում են մեկ թաքնված շերտ, մինչդեռ խորը նյարդային ցանցերը օգտագործում են բազմաթիվ մակարդակներ:
Մակերեսային ցանցը պահանջում է մի քանի պարամետր, որպեսզի կարողանա տեղավորվել ցանկացած ֆունկցիայի մեջ: Խորը ցանցերը կարող են ավելի լավ համապատասխանել գործառույթներին նույնիսկ փոքր թվով պարամետրերով, քանի որ դրանք ներառում են մի քանի շերտեր:
Խորը ցանցերն այժմ նախընտրելի են ցանկացած տեսակի տվյալների մոդելավորման հետ աշխատելու նրանց բազմակողմանիության պատճառով, լինի դա խոսքի կամ նկարի ճանաչման համար:
11. Նկարագրեք առաջ տարածումը:
Մուտքերը կշիռների հետ միասին փոխանցվում են թաղված շերտին մի գործընթացում, որը հայտնի է որպես փոխանցման տարածում:
Ակտիվացման ֆունկցիայի արդյունքը հաշվարկվում է յուրաքանչյուր թաղված շերտում, նախքան մշակումը կարող է անցնել հաջորդ շերտին:
Գործընթացը սկսվում է մուտքային շերտից և անցնում վերջնական ելքային շերտ, հետևաբար կոչվում է առաջ տարածում:
12. Ի՞նչ է ետ տարածումը:
Երբ կշիռները և կողմնակալությունները ճշգրտվում են նեյրոնային ցանցում, ետ տարածումն օգտագործվում է ծախսերի ֆունկցիան նվազեցնելու համար՝ նախ դիտարկելով, թե ինչպես է փոխվում արժեքը:
Յուրաքանչյուր թաքնված շերտի գրադիենտը հասկանալը հեշտացնում է այս փոփոխության հաշվարկը:
Գործընթացը, որը հայտնի է որպես ետ տարածում, սկսվում է ելքային շերտից և շարժվում դեպի հետ՝ դեպի մուտքային շերտեր:
13. Խորը ուսուցման համատեքստում ինչպե՞ս եք ընկալում գրադիենտ կտրումը:
Gradient Clipping-ը մեթոդ է՝ լուծելու հետին տարածման ժամանակ առաջացող գրադիենտների պայթեցումը (մի պայման, երբ ժամանակի ընթացքում զգալի սխալ գրադիենտներ են կուտակվում, ինչը հանգեցնում է նեյրոնային ցանցի մոդելի կշիռների զգալի ճշգրտումների մարզման ընթացքում):
Գրադիենտների պայթյունը խնդիր է, որն առաջանում է, երբ ուսուցման ընթացքում գրադիենտները չափազանց մեծ են դառնում՝ մոդելը դարձնելով անկայուն: Եթե գրադիենտը հատել է ակնկալվող միջակայքը, գրադիենտի արժեքները տարր առ տարր դրվում են նախապես սահմանված նվազագույն կամ առավելագույն արժեքի:
Գրադիենտի կտրումը բարձրացնում է նեյրոնային ցանցի թվային կայունությունը մարզման ընթացքում, սակայն այն նվազագույն ազդեցություն ունի մոդելի աշխատանքի վրա:
14. Որո՞նք են Softmax և ReLU գործառույթները:
Ակտիվացման ֆունկցիան, որը կոչվում է Softmax, արտադրում է ելք 0-ից 1-ի միջակայքում: Յուրաքանչյուր ելք բաժանված է այնպես, որ բոլոր ելքերի գումարը լինի մեկ: Ելքային շերտերի համար Softmax-ը հաճախ օգտագործվում է:
Rectified Linear Unit-ը, որը երբեմն հայտնի է որպես ReLU, ամենաշատ օգտագործվող ակտիվացման ֆունկցիան է: Եթե X-ը դրական է, ապա դուրս է գալիս X, հակառակ դեպքում՝ զրո: ReLU-ն պարբերաբար կիրառվում է թաղված շերտերի վրա:
15. Կարո՞ղ է նեյրոնային ցանցի մոդելը վարժեցնել բոլոր կշիռներով 0-ի վրա:
Նեյրոնային ցանցը երբեք չի սովորի ավարտել տվյալ աշխատանքը, հետևաբար հնարավոր չէ մոդել պատրաստել՝ բոլոր կշիռները 0-ի սկզբնավորելով:
Ածանցյալները կմնան նույնը W [1]-ի յուրաքանչյուր քաշի համար, եթե բոլոր կշիռները սկզբնավորվեն զրոյի, ինչը կհանգեցնի նրան, որ նեյրոնները անընդմեջ կսովորեն նույն հատկանիշները:
Ոչ միայն կշիռները 0-ի սկզբնավորումը, այլ հաստատունի ցանկացած ձևի դեպքում, ամենայն հավանականությամբ, կհանգեցնի ցածր մակարդակի արդյունքի:
16. Ինչո՞վ է տարբերվում դարաշրջանը խմբաքանակից և կրկնությունից:
Տվյալների հավաքածուների մշակման տարբեր ձևեր և գրադիենտ ծագման տեխնիկան ներառում է խմբաքանակ, կրկնություն և դարաշրջան: Դարաշրջանը ներառում է մեկ անգամ նեյրոնային ցանցի միջոցով ամբողջական տվյալների բազա՝ ինչպես առաջ, այնպես էլ հետընթաց:
Հուսալի արդյունքներ ապահովելու համար տվյալների բազան հաճախ փոխանցվում է մի քանի անգամ, քանի որ այն չափազանց մեծ է մեկ փորձով փոխանցելու համար:
Նեյրոնային ցանցի միջոցով փոքր քանակությամբ տվյալների բազմիցս գործարկելու այս պրակտիկան կոչվում է կրկնություն: Երաշխավորելու համար, որ տվյալների հավաքածուն հաջողությամբ անցնում է նեյրոնային ցանցերը, այն կարելի է բաժանել մի շարք խմբաքանակների կամ ենթաբազմությունների, որոնք հայտնի են որպես փաթեթավորում:
Կախված տվյալների հավաքագրման չափից, բոլոր երեք մեթոդները՝ դարաշրջանը, կրկնությունը և խմբաքանակի չափը, հիմնականում օգտագործելու եղանակներ են: գրադիենտ ծագման ալգորիթմ.
17. Որո՞նք են խմբաքանակի նորմալացումը և թողարկումը:
Dropout-ը կանխում է տվյալների գերհամապատասխանությունը՝ պատահականորեն հեռացնելով և՛ տեսանելի, և՛ թաքնված ցանցային միավորները (սովորաբար հանելով հանգույցների 20 տոկոսը): Այն կրկնապատկում է ցանցի մերձեցման համար պահանջվող կրկնությունների քանակը:
Նորմալացնելով մուտքերը յուրաքանչյուր շերտում, որպեսզի ունենան զրոյի միջին ելքային ակտիվացում և մեկ ստանդարտ շեղում, խմբաքանակի նորմալացումը նեյրոնային ցանցերի արդյունավետությունն ու կայունությունը բարձրացնելու ռազմավարություն է:
18. Ի՞նչն է առանձնացնում Stochastic Gradient Descent-ը Batch Gradient Descent-ից:
Խմբաքանակի գրադիենտ ծագում.
- Ամբողջական տվյալների հավաքածուն օգտագործվում է խմբաքանակի գրադիենտի գրադիենտը կառուցելու համար:
- Տվյալների հսկայական քանակությունը և դանդաղ թարմացվող կշիռները դժվարացնում են կոնվերգենցիան:
Ստոխաստիկ գրադիենտ ծագում.
- Ստոխաստիկ գրադիենտը գրադիենտը հաշվարկելու համար օգտագործում է մեկ նմուշ:
- Քաշի ավելի հաճախակի փոփոխությունների շնորհիվ այն զգալիորեն ավելի արագ է համընկնում, քան խմբաքանակի գրադիենտը:
19. Ինչու՞ է կարևոր նեյրոնային ցանցերում ներառել ոչ գծայինությունը:
Անկախ նրանից, թե որքան շերտեր կան, նեյրոնային ցանցը ոչ գծայինության բացակայության դեպքում իրեն կպահի պերցեպտոնի պես՝ ելքը գծայինորեն կախված դարձնելով մուտքագրումից:
Այլ կերպ ասած, n շերտով և m թաքնված միավորներով և գծային ակտիվացման ֆունկցիաներով նեյրոնային ցանցը համարժեք է գծային նեյրոնային ցանցին՝ առանց թաքնված շերտերի և բացառապես գծային բաժանման սահմանները հայտնաբերելու ունակությամբ:
Առանց ոչ գծայինության, նեյրոնային ցանցն ի վիճակի չէ լուծել բարդ հարցեր և ճշգրիտ դասակարգել մուտքային տվյալները:
20. Ի՞նչ է տենզորը խորը ուսուցման մեջ:
Բազմաչափ զանգվածը, որը հայտնի է որպես տենզոր, ծառայում է որպես մատրիցների և վեկտորների ընդհանրացում։ Դա կարևոր տվյալների կառուցվածք է խորը ուսուցման համար: Տենզորները ներկայացնելու համար օգտագործվում են հիմնարար տվյալների տիպերի N-չափ զանգվածներ:
Տենսորի յուրաքանչյուր բաղադրիչ ունի նույն տվյալների տեսակը, և այս տվյալների տեսակը միշտ հայտնի է: Հնարավոր է, որ ձևի միայն մի հատվածը հայտնի է, այն է, թե քանի չափս կա և որքան մեծ է յուրաքանչյուրը:
Այն իրավիճակներում, երբ մուտքերը նույնպես լիովին հայտնի են, գործողությունների մեծամասնությունը արտադրում է լիովին հայտնի տենսորներ. այլ դեպքերում, տենզորի ձևը կարող է սահմանվել միայն գրաֆիկի կատարման ժամանակ:
21. Ինչպե՞ս կընտրեիք ակտիվացման գործառույթը խորը ուսուցման մոդելի համար:
- Իմաստ ունի կիրառել գծային ակտիվացման ֆունկցիա, եթե ակնկալվող արդյունքը իրական է:
- Սիգմոիդ ֆունկցիան պետք է օգտագործվի, եթե ելքը, որը պետք է կանխատեսվի, երկուական դասի հավանականություն է:
- Tanh ֆունկցիան կարող է օգտագործվել, եթե նախագծված ելքը պարունակում է երկու դասակարգում:
- Հաշվարկման հեշտության շնորհիվ ReLU ֆունկցիան կիրառելի է իրավիճակների լայն շրջանակում:
22. Ի՞նչ նկատի ունեք CNN ասելով:
Խորը նյարդային ցանցերը, որոնք մասնագիտանում են տեսողական պատկերների գնահատման մեջ, ներառում են կոնվոլյուցիոն նեյրոնային ցանցերը (CNN կամ ConvNet): Այստեղ, այլ ոչ թե նեյրոնային ցանցերում, որտեղ վեկտորը ներկայացնում է մուտքագրումը, մուտքագրումը բազմաալիք պատկեր է:
Բազմաշերտ պերցեպտրոնները CNN-ների կողմից օգտագործվում են հատուկ ձևով, որը շատ քիչ նախնական մշակում է պահանջում:
23. Որո՞նք են CNN-ի բազմաթիվ շերտերը:
Կովոլյուցիոն շերտ. Հիմնական շերտը կոնվոլյուցիոն շերտն է, որն ունի տարբեր սովորվող ֆիլտրեր և ընդունող դաշտ: Այս սկզբնական շերտը վերցնում է մուտքային տվյալները և հանում դրանց բնութագրերը:
ReLU շերտ. ցանցերը դարձնելով ոչ գծային՝ այս շերտը բացասական պիքսելները վերածում է զրոյի:
Միավորող շերտ. նվազագույնի հասցնելով մշակման և ցանցի կարգավորումները, միավորման շերտը աստիճանաբար նվազագույնի է հասցնում ներկայացման տարածական չափը: Max pooling-ը համախմբման ամենաօգտագործվող մեթոդն է:
24. Որո՞նք են ավելցուկային և անբավարար հագեցվածության հետևանքները, և ինչպե՞ս կարող եք խուսափել դրանցից:
Սա հայտնի է որպես չափից ավելի հարմարեցում, երբ մոդելը սովորում է ուսուցման տվյալների խճճվածությունը և աղմուկը այնքանով, որքանով դա բացասաբար է ազդում մոդելի կողմից թարմ տվյալների օգտագործման վրա:
Ավելի հավանական է, որ դա տեղի ունենա ոչ գծային մոդելների հետ, որոնք ավելի հարմարվող են նպատակային ֆունկցիա սովորելիս: Մոդելը կարող է ուսուցանվել մեքենաների և բեռնատարների հայտնաբերման համար, բայց այն կարող է միայն ի վիճակի լինել նույնականացնել տրանսպորտային միջոցները որոշակի տուփի ձևով:
Հաշվի առնելով, որ այն վարժվել է միայն մեկ տեսակի բեռնատարի վրա, այն կարող է չկարողանալ հայտնաբերել հարթ բեռնատար: Վերապատրաստման տվյալների վրա մոդելը լավ է աշխատում, բայց ոչ իրական աշխարհում:
Չհամապատասխանված մոդելը վերաբերում է այն մոդելին, որը բավականաչափ պատրաստված չէ տվյալների վրա կամ ի վիճակի չէ ընդհանրացնել նոր տեղեկատվությանը: Սա հաճախ տեղի է ունենում, երբ մոդելը վերապատրաստվում է անբավարար կամ ոչ ճշգրիտ տվյալներով:
Ճշգրտությունն ու կատարումը երկուսն էլ վտանգված են թերզարգացման պատճառով:
Տվյալների կրկնօրինակումը՝ մոդելի ճշգրտությունը գնահատելու համար (K-fold cross-validation) և մոդելի գնահատման համար վավերացման տվյալների բազայի օգտագործումը երկու եղանակ է՝ խուսափելու չափից ավելի հարմարեցումից և անբավարարությունից:
25. Խորը ուսուցման մեջ ի՞նչ է RNN-ը:
Կրկնվող նեյրոնային ցանցեր (RNN), արհեստական նեյրոնային ցանցերի սովորական բազմազանություն, օգտագործվում է RNN հապավումով: Դրանք օգտագործվում են գենոմների, ձեռագրի, տեքստի և տվյալների հաջորդականությունների մշակման համար, ի թիվս այլ բաների: Անհրաժեշտ ուսուցման համար RNN-ները օգտագործում են ետ տարածում:
26. Նկարագրեք Adam Optimizer-ը
Adam optimizer-ը, որը նաև հայտնի է որպես հարմարվողական իմպուլս, օպտիմիզացման տեխնիկա է, որը մշակվել է աղմկոտ իրավիճակները նոսր գրադիենտներով կարգավորելու համար:
Ի հավելումն յուրաքանչյուր պարամետրի թարմացումների՝ ավելի արագ կոնվերգենցիայի համար, Adam օպտիմիզատորը ուժեղացնում է կոնվերգենցիան իմպուլսի միջոցով՝ ապահովելով, որ մոդելը չի թակարդում թամբի կետում:
27. Խորը ինքնակոդավորիչներ. որո՞նք են դրանք:
Deep autoencoder-ը երկու սիմետրիկ խորը համոզմունքների ցանցերի հավաքական անվանումն է, որոնք սովորաբար ներառում են չորս կամ հինգ մակերեսային շերտեր ցանցի կոդավորող կեսի համար և չորս կամ հինգ շերտերի մեկ այլ հավաքածու՝ ապակոդավորման կեսի համար:
Այս շերտերը կազմում են խորը համոզմունքների ցանցերի հիմքը և սահմանափակված են Բոլցմանի մեքենաներով: Յուրաքանչյուր RBM-ից հետո խորը ինքնակոդավորիչը կիրառում է երկուական փոփոխություններ տվյալների բազայի MNIST-ում:
Դրանք կարող են օգտագործվել նաև տվյալների այլ հավաքածուներում, որտեղ Գաուսի շտկված փոխակերպումները գերադասելի կլինեն RBM-ից:
28. Ի՞նչ է նշանակում Tensor-ը Tensorflow-ում:
Սա խորը ուսուցման հարցազրույցի ևս մեկ հարց է, որը պարբերաբար տրվում է: Տենսորը մաթեմատիկական հասկացություն է, որը պատկերացվում է որպես ավելի մեծ չափերի զանգվածներ:
Տենսորներն այս տվյալների զանգվածներն են, որոնք տրամադրվում են որպես նեյրոնային ցանցի մուտք և ունեն տարբեր չափեր և դասակարգումներ:
29. Հաշվարկային գրաֆիկի բացատրություն
TensorFlow-ի հիմքը հաշվողական գրաֆիկի կառուցումն է: Յուրաքանչյուր հանգույց գործում է հանգույցների ցանցում, որտեղ հանգույցները նշանակում են մաթեմատիկական գործողություններ, իսկ ծայրերը՝ թենզորների համար:
Այն երբեմն կոչվում է «Տվյալների հոսքի գրաֆիկ», քանի որ տվյալները հոսում են գրաֆիկի տեսքով:
30. Գեներատիվ հակառակորդ ցանցեր (GANs). որո՞նք են դրանք:
Deep Learning-ում գեներատիվ մոդելավորումն իրականացվում է գեներատիվ հակառակորդ ցանցերի միջոցով: Դա չվերահսկվող աշխատանք է, որտեղ արդյունքը ստացվում է մուտքային տվյալների օրինաչափությունների նույնականացման միջոցով:
Խտրականիչը օգտագործվում է գեներատորի կողմից արտադրված դեպքերը դասակարգելու համար, մինչդեռ գեներատորն օգտագործվում է նոր օրինակներ ստանալու համար:
31. Ինչպե՞ս եք ընտրելու նեյրոնների և թաքնված շերտերի քանակը, որոնք կներառվեն նեյրոնային ցանցում՝ ճարտարապետությունը նախագծելիս:
Հաշվի առնելով բիզնես մարտահրավերը, նեյրոնների և թաքնված շերտերի ճշգրիտ թիվը, որոնք անհրաժեշտ են նեյրոնային ցանցի ճարտարապետությունը կառուցելու համար, չի կարող որոշվել որևէ կոշտ և արագ կանոններով:
Նյարդային ցանցում թաքնված շերտի չափը պետք է ընկնի մուտքային և ելքային շերտերի չափի մեջտեղում:
Նյարդային ցանցի դիզայնի ստեղծման սկիզբը կարելի է ձեռք բերել մի քանի պարզ մեթոդներով, չնայած.
Սկսած մի քանի հիմնական համակարգված փորձարկումից՝ տեսնելու, թե որն է լավագույնը ցանկացած կոնկրետ տվյալների հավաքածուի համար՝ հիմնված նեյրոնային ցանցերի հետ նախկին փորձի վրա, իրական աշխարհի նմանատիպ պարամետրերում, լավագույն միջոցն է լուծելու իրական աշխարհի կանխատեսող մոդելավորման յուրաքանչյուր եզակի մարտահրավեր:
Ցանցի կոնֆիգուրացիան կարող է ընտրվել հիմնվելով խնդրի տիրույթի իմացության և նեյրոնային ցանցի նախկին փորձի վրա: Նյարդային ցանցի կարգավորումը գնահատելիս, հարակից խնդիրների դեպքում օգտագործվող շերտերի և նեյրոնների քանակը լավ տեղ է սկսելու համար:
Նեյրոնային ցանցի բարդությունը պետք է աստիճանաբար մեծացվի՝ ելնելով կանխատեսվող արդյունքից և ճշգրտությունից՝ սկսած նեյրոնային ցանցի պարզ ձևավորումից:
32. Ի՞նչ տեսակի նեյրոնային ցանցեր են օգտագործվում խորը ամրապնդման ուսուցման միջոցով:
- Մեքենայի ուսուցման պարադիգմում, որը կոչվում է ամրապնդման ուսուցում, մոդելը գործում է կուտակային պարգևատրման գաղափարը առավելագույնի հասցնելու համար, ճիշտ այնպես, ինչպես կենդանի իրերը:
- Խաղերը և ինքնակառավարվող մեքենաները երկուսն էլ նկարագրվում են որպես խնդիրներ ամրապնդման ուսուցում.
- Էկրանը օգտագործվում է որպես մուտքագրում, եթե ներկայացվող խնդիրը խաղ է: Հաջորդ փուլերի համար արդյունք ստանալու համար ալգորիթմը վերցնում է պիքսելները որպես մուտք և մշակում դրանք կոնվոլյուցիոն նեյրոնային ցանցերի բազմաթիվ շերտերի միջոցով:
- Մոդելի գործողությունների արդյունքները՝ բարենպաստ կամ վատ, գործում են որպես ամրապնդում:
Եզրափակում
Deep Learning-ը տարիների ընթացքում մեծ ժողովրդականություն է վայելել՝ կիրառելով գրեթե բոլոր ոլորտներում:
Ընկերությունները գնալով ավելի շատ են փնտրում իրավասու փորձագետների, ովքեր կարող են նախագծել մոդելներ, որոնք կրկնօրինակում են մարդկային վարքը՝ օգտագործելով խորը ուսուցման և մեքենայական ուսուցման մոտեցումները:
Թեկնածուները, ովքեր կբարձրացնեն իրենց հմտությունները և պահպանում են իրենց գիտելիքները այս նորագույն տեխնոլոգիաների վերաբերյալ, կարող են գտնել աշխատանքային լայն հնարավորություններ գրավիչ վարձատրությամբ:
Դուք կարող եք սկսել հարցազրույցներից հիմա, երբ դուք լավ պատկերացում ունեք, թե ինչպես պատասխանել ամենահաճախ պահանջվող խորը ուսուցման հարցազրույցի հարցերին: Ձեր նպատակների հիման վրա կատարեք հաջորդ քայլը:
Այցելեք Hashdork's Հարցազրույցների շարք հարցազրույցներին պատրաստվելու համար.
Թողնել գրառում