Բառը[Թաքցնել][Ցուցադրում]
Աշխարհն արագ փոխվում է արհեստական ինտելեկտի և մեքենայական ուսուցման շնորհիվ, որն իր ազդեցությունն է թողնում մեր առօրյա կյանքի բոլոր ոլորտների վրա:
Ձայնային օգնականներից, որոնք օգտագործում են NLP և մեքենայական ուսուցում՝ հանդիպումներ ամրագրելու, մեր օրացույցի իրադարձությունները որոնելու և երաժշտություն նվագարկելու համար մինչև այնպիսի սարքեր, որոնք այնքան ճշգրիտ են, որ նրանք կարող են կանխատեսել մեր կարիքները՝ նախքան դրանք հաշվի առնելը:
Համակարգիչները կարող են շախմատ խաղալ, վիրահատություններ անել և վերածվել ավելի խելացի, ավելի մարդանման մեքենաների՝ մեքենայական ուսուցման ալգորիթմների օգնությամբ:
Մենք գտնվում ենք շարունակական տեխնոլոգիական առաջընթացի ժամանակաշրջանում, և տեսնելով, թե ինչպես են համակարգիչները զարգացել ժամանակի ընթացքում, մենք կարող ենք կանխատեսումներ անել, թե ինչ կլինի ապագայում:
Հաշվողական գործիքների և մեթոդների ժողովրդավարացումը այս հեղափոխության առանցքային կողմերից մեկն է, որն առանձնանում է: Տվյալների գիտնականներ վերջին հինգ տարիների ընթացքում ստեղծել են տվյալների ճշտող հզոր համակարգիչներ՝ առանց ջանքերի գործադրելով նորագույն մեթոդաբանություններ: Արդյունքները ապշեցուցիչ են.
Այս գրառման մեջ մենք ուշադիր կանդրադառնանք Machine Learning ալգորիթմները և դրանց բոլոր տատանումները:
Այսպիսով, ինչ են մեքենայական ուսուցման ալգորիթմները:
Այն մոտեցումը, որն օգտագործվում է AI համակարգի կողմից իր առաջադրանքն իրականացնելու համար՝ ընդհանուր առմամբ, կանխատեսել ելքային արժեքները տվյալ մուտքային տվյալներից, հայտնի է որպես մեքենայական ուսուցման ալգորիթմ:
Մեքենայի ուսուցման ալգորիթմը գործընթաց է, որն օգտագործում է տվյալներ և օգտագործվում է մեքենայական ուսուցման մոդելներ ստեղծելու համար, որոնք պատրաստ են արտադրությանը: Եթե մեքենայական ուսուցումն այն գնացքն է, որն իրականացնում է աշխատանքը, ապա մեքենայական ուսուցման ալգորիթմներն այն լոկոմոտիվներն են, որոնք տեղափոխում են աշխատանքը:
Մեքենայական ուսուցման լավագույն մոտեցումը կորոշվի բիզնեսի խնդրից, որը փորձում եք լուծել, տվյալների բազայի տեսակը, որը դուք օգտագործում եք, և ձեր հասանելի ռեսուրսները:
Մեքենայի ուսուցման ալգորիթմներն այն են, որոնք տվյալների հավաքածուն վերածում են մոդելի: Կախված խնդրի տեսակից, որին փորձում եք պատասխանել, հասանելի մշակման հզորությունը և ձեր ունեցած տվյալների տեսակը, վերահսկվող, չվերահսկվող կամ ամրապնդող ուսուցման ալգորիթմները կարող են լավ գործել:
Այսպիսով, մենք խոսեցինք վերահսկվող, չվերահսկվող և ուժեղացված ուսուցման մասին, բայց որո՞նք են դրանք: Եկեք ուսումնասիրենք դրանք:
Վերահսկվող, չվերահսկվող և ամրապնդող ուսուցում
Վերահսկվող ուսուցում
Վերահսկվող ուսուցման ժամանակ արհեստական ինտելեկտի մոդելը մշակվում է տրամադրված տվյալների և կանխատեսված արդյունքը ներկայացնող պիտակի հիման վրա: Մուտքագրման և ելքերի հիման վրա մոդելը մշակում է քարտեզագրման հավասարում, և օգտագործելով այդ քարտեզագրման հավասարումը, կանխատեսում է մուտքերի պիտակը ապագայում:
Ենթադրենք, մենք պետք է ստեղծենք այնպիսի մոդել, որը կարող է տարբերել շանը և կատուն: Կատուների և շների բազմաթիվ լուսանկարները սնվում են մոդելին՝ պիտակներով, որոնք ցույց են տալիս՝ արդյոք դրանք կատու են, թե շներ՝ մոդելին վարժեցնելու համար:
Մոդելը ձգտում է ստեղծել հավասարում, որը կապում է մուտքային լուսանկարների պիտակները այդ պատկերների հետ: Նույնիսկ եթե մոդելը նախկինում երբեք չի տեսել պատկերը, մարզվելուց հետո նա կարող է պարզել՝ այն կատու է, թե շան:
Անվերահսկվող ուսուցում
Չվերահսկվող ուսուցումը ներառում է AI մոդելի ուսուցում միայն մուտքերի վրա՝ առանց դրանք պիտակավորելու: Մոդելը մուտքային տվյալները բաժանում է խմբերի, որոնք ունեն հարակից բնութագրեր:
Այնուհետև կանխատեսվում է մուտքագրման ապագա պիտակը` կախված նրանից, թե որքանով են դրա ատրիբուտները համապատասխանում դասակարգումներից մեկին: Դիտարկենք այն իրավիճակը, երբ մենք պետք է բաժանենք կարմիր և կապույտ գնդակների խումբը երկու կատեգորիայի:
Ենթադրենք, որ գնդակների մյուս բնութագրերը նույնական են, բացառությամբ գույնի: Հիմնվելով այն բանի վրա, թե ինչպես կարող է գնդակները բաժանել երկու դասի, մոդելը փնտրում է այն բնութագրերը, որոնք տարբերվում են գնդակների միջև:
Գնդիկների երկու կլաստեր՝ մեկը կապույտ և մեկ կարմիր, ստացվում են, երբ գնդերը բաժանվում են երկու խմբի՝ ելնելով իրենց երանգից:
Ամրապնդման ուսուցում
Ուժեղացման ուսուցման մեջ AI մոդելը ձգտում է առավելագույնի հասցնել ընդհանուր շահույթը՝ գործելով այնքան լավ, որքան կարող է որոշակի հանգամանքներում: Նախկին արդյունքների վերաբերյալ կարծիքն օգնում է մոդելին սովորել:
Մտածեք այն սցենարի մասին, երբ ռոբոտին հանձնարարվում է ընտրել երթուղի A և B կետերի միջև: Ռոբոտը նախ ընտրում է դասընթացներից որևէ մեկը, քանի որ այն չունի նախնական փորձ:
Ռոբոտը մուտք է ստանում իր անցած երթուղու վերաբերյալ և գիտելիք է ստանում դրանից: Ռոբոտը կարող է օգտագործել մուտքագրումը խնդիրը շտկելու համար, երբ հաջորդ անգամ նմանատիպ հանգամանքի հանդիպի:
Օրինակ, եթե ռոբոտը ընտրում է B տարբերակը և ստանում է պարգև, օրինակ՝ դրական արձագանք, նա այս անգամ հասկանում է, որ պետք է ընտրի B ճանապարհը՝ իր պարգևը մեծացնելու համար:
Հիմա վերջապես այն, ինչին բոլորդ սպասում եք, ալգորիթմներն են:
Հիմնական մեքենայական ուսուցման ալգորիթմներ
1. Գծային ռեգրեսիա
Մեքենայի ուսուցման ամենապարզ մոտեցումը, որը շեղվում է վերահսկվող ուսուցումից, գծային ռեգրեսիան է: Անկախ փոփոխականների գիտելիքներով այն հիմնականում օգտագործվում է ռեգրեսիայի խնդիրները լուծելու և շարունակական կախված փոփոխականների վերաբերյալ կանխատեսումներ ստեղծելու համար:
Լավագույն համապատասխանության գիծը գտնելը, որը կարող է օգնել կանխատեսել շարունակական կախված փոփոխականների արդյունքը, գծային ռեգրեսիայի նպատակն է: Տների գները, տարիքը և աշխատավարձը շարունակական արժեքների որոշ օրինակներ են:
Պարզ գծային ռեգրեսիա անունով հայտնի մոդելը օգտագործում է ուղիղ գիծ՝ մեկ անկախ փոփոխականի և մեկ կախյալ փոփոխականի միջև կապը հաշվարկելու համար: Բազմակի գծային ռեգրեսիայում կան ավելի քան երկու անկախ փոփոխականներ:
Գծային ռեգրեսիայի մոդելն ունի չորս հիմքում ընկած ենթադրություն.
- Գծայինություն. X-ի և Y-ի միջինի միջև գծային կապ կա:
- Homoscedasticity. X-ի յուրաքանչյուր արժեքի համար մնացորդային շեղումը նույնն է:
- Անկախություն. Դիտարկումները անկախության առումով միմյանցից անկախ են:
- Նորմալություն. Երբ X-ը ֆիքսված է, Y-ը սովորաբար բաշխվում է:
Գծային ռեգրեսիան հիանալի է գործում այն տվյալների համար, որոնք կարելի է առանձնացնել գծերի երկայնքով: Այն կարող է վերահսկել գերհամապատասխանությունը՝ օգտագործելով կանոնավորացման, խաչաձև վավերացման և չափերի կրճատման տեխնիկան: Այնուամենայնիվ, կան դեպքեր, երբ պահանջվում է լայնածավալ առանձնահատկությունների ճարտարագիտություն, որը երբեմն կարող է հանգեցնել ավելորդ տեղադրման և աղմուկի:
2. Լոգիստիկ ռեգրեսիա
Լոգիստիկ ռեգրեսիան մեքենայական ուսուցման ևս մեկ տեխնիկա է, որը հեռանում է վերահսկվող ուսուցումից: Դրա հիմնական օգտագործումը դասակարգումն է, մինչդեռ այն կարող է օգտագործվել նաև ռեգրեսիայի խնդիրների համար:
Լոգիստիկ ռեգրեսիան օգտագործվում է կատեգորիկ կախյալ փոփոխականը կանխատեսելու համար՝ օգտագործելով անկախ գործոններից ստացված տեղեկատվությունը: Նպատակն է դասակարգել ելքերը, որոնք կարող են ընկնել միայն 0-ի և 1-ի միջև:
Մուտքագրվածների կշռված ընդհանուրը մշակվում է սիգմոիդ ֆունկցիայի միջոցով՝ ակտիվացման ֆունկցիա, որը փոխակերպում է արժեքները 0-ի և 1-ի միջև:
Լոգիստիկ ռեգրեսիայի հիմքը առավելագույն հավանականության գնահատումն է՝ ենթադրյալ հավանականության բաշխման պարամետրերի հաշվարկման մեթոդ՝ հաշվի առնելով հատուկ դիտարկված տվյալները:
3. Որոշումների ծառ
Մեքենայական ուսուցման մեկ այլ մեթոդ, որն անջատվում է վերահսկվող ուսուցումից, որոշումների ծառն է: Ինչպես դասակարգման, այնպես էլ ռեգրեսիայի խնդիրների դեպքում կարող է կիրառվել որոշումների ծառի մոտեցումը:
Որոշումներ կայացնելու այս գործիքը, որը նման է ծառի, օգտագործում է տեսողական պատկերներ՝ ցույց տալու գործողությունների հեռանկարային արդյունքները, ծախսերը և հետևանքները: Տվյալները բաժանելով առանձին մասերի, գաղափարը նման է մարդու մտքին:
Տվյալները բաժանվել են առանձին մասերի այնքան, որքան մենք կարողացանք դրանք հատիկավորել: Որոշումների ծառի հիմնական նպատակն է կառուցել ուսումնական մոդել, որը կարող է օգտագործվել թիրախային փոփոխականի դասը կանխատեսելու համար: Բաց թողնված արժեքները կարող են ավտոմատ կերպով մշակվել՝ օգտագործելով Որոշումների ծառը:
Միանգամյա կոդավորման, կեղծ փոփոխականների կամ տվյալների նախնական մշակման այլ քայլերի պահանջ չկա: Այն կոշտ է այն առումով, որ դժվար է դրան թարմ տվյալներ ավելացնել։ Եթե դուք ստացել եք լրացուցիչ պիտակավորված տվյալներ, դուք պետք է վերապատրաստեք ծառը ամբողջ տվյալների վրա:
Արդյունքում, որոշումների ծառերը վատ ընտրություն են ցանկացած ծրագրի համար, որը պահանջում է դինամիկ մոդելի փոփոխություն:
Կախված թիրախային փոփոխականի տեսակից՝ որոշման ծառերը դասակարգվում են երկու տեսակի.
- Կատեգորիկ փոփոխական. Որոշումների ծառ, որի նպատակային փոփոխականը կատեգորիկ է:
- Շարունակական փոփոխական. Որոշումների ծառ, որի նպատակի փոփոխականը շարունակական է:
4. Պատահական անտառ
Պատահական անտառային մեթոդը մեքենայական ուսուցման հաջորդ տեխնիկան է և վերահսկվող մեքենայական ուսուցման ալգորիթմ է, որը լայնորեն օգտագործվում է դասակարգման և ռեգրեսիայի հարցերում: Այն նաև ծառերի վրա հիմնված մեթոդ է, որը նման է որոշման ծառին:
Ծառերի անտառը կամ շատ որոշիչ ծառեր օգտագործվում են պատահական անտառային մեթոդով՝ դատողություններ անելու համար: Դասակարգման առաջադրանքները մշակելիս, պատահական անտառային մեթոդն օգտագործում էր կատեգորիկ փոփոխականներ, մինչդեռ ռեգրեսիոն առաջադրանքները մշակում էր շարունակական փոփոխականներ պարունակող տվյալների հավաքածուներով:
Անսամբլը կամ բազմաթիվ մոդելների խառնուրդն այն է, ինչ անում է պատահական անտառային մեթոդը, ինչը նշանակում է, որ կանխատեսումները կատարվում են ոչ թե մեկ մոդելի, այլ մոդելների խմբի միջոցով:
Ինչպես դասակարգման, այնպես էլ ռեգրեսիայի խնդիրների համար օգտագործելու ունակությունը, որոնք կազմում են ժամանակակից մեքենայական ուսուցման համակարգերի մեծ մասը, պատահական անտառի հիմնական առավելությունն է:
Անսամբլի կողմից օգտագործվում են երկու տարբեր ռազմավարություններ.
- Փաթեթավորում. Դրանով ավելի շատ տվյալներ են ստացվում վերապատրաստման տվյալների բազայի համար: Կանխատեսումների տատանումները նվազեցնելու համար դա արվում է:
- Boosting-ը թույլ սովորողներին ուժեղ սովորողների հետ համատեղելու գործընթացն է՝ կառուցելով հաջորդական մոդելներ, արդյունքում վերջնական մոդելը առավելագույն ճշգրտությամբ:
5. Միամիտ Բայես
Երկուական (երկու դասի) և բազմադաս դասակարգման խնդիրը կարող է լուծվել Naive Bayes տեխնիկայի միջոցով: Երբ մեթոդը բացատրվում է երկուական կամ կատեգորիայի ներածման արժեքներով, այն ամենահեշտ է ընկալել: Միամիտ Բայես դասակարգչի կողմից արված ենթադրությունն այն է, որ դասում մեկ հատկանիշի առկայությունը որևէ ազդեցություն չունի որևէ այլ հատկանիշների առկայության վրա:
Վերոնշյալ բանաձևը ցույց է տալիս.
- P(H): H վարկածի ճիշտ լինելու հավանականությունը: Նախնական հավանականությունը կոչվում է այսպես.
- P(E): Ապացույցների հավանականությունը
- P(E|H): Հավանականությունը, որ վարկածը հաստատվում է ապացույցներով:
- P(H|E): Հավանականությունը, որ վարկածը ճշմարիտ է, հաշվի առնելով ապացույցները:
Միամիտ Բեյսի դասակարգիչը առանձին-առանձին հաշվի կառնի այս հատկանիշներից յուրաքանչյուրը որոշակի արդյունքի հավանականությունը որոշելիս, նույնիսկ եթե այդ հատկանիշները կապված են միմյանց հետ: Միամիտ Բայեսյան մոդելը հեշտ է կառուցել և արդյունավետ մեծ տվյալների հավաքածուների համար:
Հայտնի է, որ այն ավելի լավ է կատարում, քան նույնիսկ ամենաբարդ դասակարգման տեխնիկան՝ միաժամանակ լինելով հիմնական: Այն ալգորիթմների հավաքածու է, որոնք հիմնված են Բեյսի թեորեմի վրա, այլ ոչ թե մեկ մեթոդի:
6. K-Ամենամոտ հարևաններ
K-մոտակա հարևանների (kNN) տեխնիկան վերահսկվող մեքենայական ուսուցման ենթաբազմություն է, որը կարող է օգտագործվել դասակարգման և ռեգրեսիայի խնդիրները լուծելու համար: KNN ալգորիթմը ենթադրում է, որ մոտակայքում կարելի է գտնել համեմատելի առարկաներ:
Ես դա հիշում եմ որպես համախոհների հավաք։ kNN-ն օգտվում է տվյալների այլ կետերի նմանության գաղափարից՝ օգտագործելով մոտիկությունը, մոտիկությունը կամ հեռավորությունը: Որպեսզի չտեսնված տվյալները պիտակավորվեն մոտակա պիտակավորված դիտելի տվյալների կետերի հիման վրա, կիրառվում է մաթեմատիկական մեթոդ՝ որոշելու գրաֆիկի կետերի միջև տարանջատումը:
Դուք պետք է որոշեք տվյալների կետերի միջև հեռավորությունը, որպեսզի հայտնաբերեք մոտակա համեմատելի կետերը: Դրա համար կարող են օգտագործվել հեռավորության չափումներ, ինչպիսիք են Էվկլիդեսյան հեռավորությունը, Համինգի հեռավորությունը, Մանհեթենի հեռավորությունը և Մինկովսկու հեռավորությունը: K-ն հայտնի է որպես մոտակա հարևան թիվ և հաճախ այն կենտ թիվ է:
KNN-ը կարող է կիրառվել դասակարգման և ռեգրեսիայի խնդիրների համար: Կանխատեսումը, որը արվում է, երբ KNN-ն օգտագործվում է ռեգրեսիայի խնդիրներին, հիմնված է K-առավել նմանատիպ երևույթների միջինի կամ միջինի վրա:
KNN-ի վրա հիմնված դասակարգման ալգորիթմի արդյունքը կարող է որոշվել որպես ամենաբարձր հաճախականությամբ դասակարգ K ամենանման երևույթների մեջ: Յուրաքանչյուր օրինակ, ըստ էության, ձայն է տալիս իր դասին, և կանխատեսումը պատկանում է այն դասին, որը ստանում է ամենաշատ ձայները:
7. Կ-նշանակում է
Դա չվերահսկվող ուսուցման տեխնիկա է, որը լուծում է կլաստերավորման խնդիրները: Տվյալների հավաքածուները բաժանվում են որոշակի թվով կլաստերների՝ եկեք այն K կոչենք, այնպես, որ յուրաքանչյուր կլաստերի տվյալների կետերը միատարր են և տարբեր մյուս կլաստերների կետերից:
K-means կլաստերավորման մեթոդաբանություն.
- Յուրաքանչյուր կլաստերի համար K-means ալգորիթմը ընտրում է k ցենտրոիդներ կամ կետեր:
- Մոտակա ցենտրոիդներով կամ K կլաստերներով յուրաքանչյուր տվյալների կետ կազմում է կլաստեր:
- Այժմ նոր ցենտրոիդներ են արտադրվում՝ կախված կլաստերի արդեն ներկա անդամներից:
- Յուրաքանչյուր տվյալների կետի համար ամենամոտ հեռավորությունը հաշվարկվում է՝ օգտագործելով այս թարմացված կենտրոնաձևերը: Մինչև ցենտրոիդները չեն փոխվում, այս գործընթացը կրկնվում է:
Այն ավելի արագ, հուսալի և ավելի պարզ է ընկալվում: Եթե խնդիրներ կան, k-means-ի հարմարվողականությունը հեշտացնում է ճշգրտումները: Երբ տվյալների հավաքածուները տարբեր են կամ լավ մեկուսացված են միմյանցից, արդյունքները լավագույնն են: Այն չի կարող կառավարել անկանոն տվյալներ կամ արտանետումներ:
8. Աջակցող վեկտորային մեքենաներ
Տվյալների դասակարգման համար SVM տեխնիկան օգտագործելիս չմշակված տվյալները ցուցադրվում են կետերի տեսքով n-չափ տարածությունում (որտեղ n-ը ձեր ունեցած հատկանիշների թիվն է): Այնուհետև տվյալները կարող են հեշտությամբ դասակարգվել, քանի որ յուրաքանչյուր հատկանիշի արժեքը միացված է որոշակի կոորդինատին:
Տվյալներն առանձնացնելու և գրաֆիկի վրա դնելու համար օգտագործեք դասակարգիչներ անունով հայտնի տողեր: Այս մոտեցումը յուրաքանչյուր տվյալների կետը գծագրում է որպես կետ n-չափ տարածության մեջ, որտեղ n-ը ձեր ունեցած հատկանիշների թիվն է, և յուրաքանչյուր հատկանիշի արժեքը որոշակի կոորդինատային արժեք է:
Այժմ մենք կգտնենք մի գիծ, որը տվյալները բաժանում է տվյալների երկու խմբի, որոնք տարբեր դասակարգված են: Երկու խմբերից յուրաքանչյուրի մոտակա կետերից հեռավորությունները կլինեն այս գծի երկայնքով ամենահեռավոր միմյանցից:
Քանի որ երկու ամենամոտ կետերը նրանք են, որոնք ամենահեռավոր են վերը նշված օրինակի գծից, այն գիծը, որը տվյալները բաժանում է երկու խմբերի, որոնք տարբեր դասակարգված էին, միջին գիծն է: Մեր դասակարգիչը այս տողն է:
9. Չափերի կրճատում
Օգտագործելով չափերի կրճատման մոտեցումը, վերապատրաստման տվյալները կարող են ունենալ ավելի քիչ մուտքային փոփոխականներ: Պարզ բառերով, դա վերաբերում է ձեր գործառույթների հավաքածուի չափի կրճատման գործընթացին: Եկեք պատկերացնենք, որ ձեր տվյալների հավաքածուն ունի 100 սյունակ. ծավալների կրճատումը կնվազեցնի այդ գումարը մինչև 20 սյունակ:
Մոդելը ինքնաբերաբար դառնում է ավելի բարդ և ունի ավելի մեծ վտանգ, որը կտեղավորվի, քանի որ գործառույթների թիվը մեծանում է: Ավելի մեծ չափերով տվյալների հետ աշխատելու ամենամեծ խնդիրը այն է, ինչը հայտնի է որպես «չափականության անեծք», որը տեղի է ունենում, երբ ձեր տվյալները պարունակում են չափազանց մեծ թվով բնութագրեր:
Հետևյալ տարրերը կարող են օգտագործվել չափերի կրճատման համար.
- Համապատասխան բնութագրերը գտնելու և ընտրելու համար օգտագործվում է հատկանիշի ընտրություն:
- Օգտագործելով արդեն գոյություն ունեցող հնարավորությունները, առանձնահատկությունների ճարտարագիտությունը ձեռքով ստեղծում է նոր հնարավորություններ:
Եզրափակում
Չվերահսկվող կամ վերահսկվող մեքենայական ուսուցումը երկուսն էլ հնարավոր է: Ընտրեք վերահսկվող ուսուցումը, եթե ձեր տվյալները քիչ առատ են և լավ հատկորոշված են վերապատրաստման համար:
Տվյալների մեծ հավաքածուները հաճախ ավելի լավ արդյունքներ են տալիս՝ օգտագործելով չվերահսկվող ուսուցումը: Խորը ուսուցում մեթոդները լավագույնն են, եթե դուք ունեք տվյալների զգալի հավաքագրում, որը հասանելի է:
Ամրապնդման ուսուցում և խորը ամրապնդման ուսուցումը ձեր ուսումնասիրած որոշ թեմաներ են: Նյարդային ցանցերի բնութագրերը, օգտագործումը և սահմանափակումները այժմ պարզ են ձեզ համար: Վերջին, բայց ոչ պակաս կարևորը, դուք հաշվի եք առել տարբեր ծրագրավորման լեզուների, IDE-ների և հարթակների տարբերակները, երբ խոսքը վերաբերում էր ձեր սեփականը ստեղծելուն: մեքենայական ուսուցման մոդելներ.
Հաջորդ բանը, որ դուք պետք է անեք, սկսելն է ուսումնասիրել և օգտագործել յուրաքանչյուրը Machine Learning մոտեցում. Նույնիսկ եթե թեման լայն է, ցանկացած թեմա կարելի է հասկանալ մի քանի ժամում, եթե կենտրոնանաք դրա խորության վրա: Յուրաքանչյուր առարկա առանձնանում է մյուսներից:
Դուք պետք է միանգամից մտածեք մի հարցի մասին, ուսումնասիրեք այն, կիրառեք այն գործնականում և օգտագործեք ձեր ընտրած լեզուն՝ դրանում ալգորիթմ(ներ)ն իրականացնելու համար:
Թողնել գրառում