სარჩევი[დამალვა][ჩვენება]
სამყარო სწრაფად იცვლება ხელოვნური ინტელექტისა და მანქანათმცოდნეობის გამო, რაც გავლენას ახდენს ჩვენი ყოველდღიური ცხოვრების ყველა ასპექტზე.
ხმოვანი ასისტენტებიდან, რომლებიც იყენებენ NLP-ს და მანქანურ სწავლებას შეხვედრების დასაჯავშნად, ჩვენს კალენდარში მოვლენებს მოსაძებნად და მუსიკის დასაკრავად დამთავრებული მოწყობილობებით, რომლებიც იმდენად ზუსტია, რომ მათ შეუძლიათ წინასწარ განსაზღვრონ ჩვენი საჭიროებები, სანამ განვიხილავთ მათ.
კომპიუტერებს შეუძლიათ ჭადრაკის თამაში, ქირურგიის გაკეთება და უფრო ჭკვიან, ადამიანის მსგავს მანქანებად გადაქცევა მანქანური სწავლის ალგორითმების დახმარებით.
ჩვენ ვიმყოფებით მუდმივი ტექნოლოგიური წინსვლის დროს და იმის დანახვით, თუ როგორ განვითარდა კომპიუტერები დროთა განმავლობაში, შეგვიძლია გავაკეთოთ პროგნოზები იმის შესახებ, თუ რა მოხდება მომავალში.
გამოთვლითი ხელსაწყოებისა და მეთოდების დემოკრატიზაცია ამ რევოლუციის ერთ-ერთი მთავარი ასპექტია, რომელიც გამოირჩევა. მონაცემთა მეცნიერები ბოლო ხუთი წლის განმავლობაში შექმნეს მძლავრი მონაცემების დამჭერი კომპიუტერები უახლესი მეთოდოლოგიების უპრობლემოდ დანერგვით. შედეგები გასაოცარია.
ამ პოსტში ჩვენ ყურადღებით დავაკვირდებით მანქანა სწავლის ალგორითმები და მათი ყველა ვარიაცია.
რა არის მანქანათმცოდნეობის ალგორითმები?
მიდგომა, რომელსაც იყენებს AI სისტემა თავისი ამოცანის შესასრულებლად - ზოგადად, გამომავალი მნიშვნელობების პროგნოზირება მოცემული შეყვანის მონაცემებიდან - ცნობილია როგორც მანქანური სწავლის ალგორითმი.
მანქანათმცოდნეობის ალგორითმი არის პროცესი, რომელიც იყენებს მონაცემებს და გამოიყენება მანქანური სწავლების მოდელების შესაქმნელად, რომლებიც მზად არიან წარმოებისთვის. თუ მანქანათმცოდნეობა არის მატარებელი, რომელიც ასრულებს სამუშაოს, მაშინ მანქანათმცოდნეობის ალგორითმები არის ლოკომოტივები, რომლებიც მოძრაობენ სამუშაოს გასწვრივ.
მანქანური სწავლების საუკეთესო მიდგომა, რომლის გამოყენებაც შესაძლებელია, განისაზღვრება ბიზნეს პრობლემის, რომლის გადაჭრასაც ცდილობთ, მონაცემთა ბაზის ტიპით, რომელსაც იყენებთ და ხელმისაწვდომი რესურსებით.
მანქანათმცოდნეობის ალგორითმები არის ის, რაც მონაცემთა ნაკრების მოდელად აქცევს. იმისდა მიხედვით, თუ რა სახის პრობლემაზე ცდილობთ პასუხის გაცემას, დამუშავების ხელმისაწვდომობა და მონაცემთა ტიპი, რომელსაც თქვენ გაქვთ, ზედამხედველობის ქვეშ, ზედამხედველობის გარეშე ან განმამტკიცებელი სწავლის ალგორითმები კარგად მუშაობენ.
ასე რომ, ჩვენ ვისაუბრეთ ზედამხედველობის ქვეშ, ზედამხედველობის გარეშე და განმამტკიცებელ სწავლაზე, მაგრამ რა არის ისინი? მოდით გამოვიკვლიოთ ისინი.
ზედამხედველობითი, უკონტროლო და განმტკიცების სწავლა
მეთვალყურეობის ქვეშ მყოფი სწავლა
ზედამხედველობის ქვეშ მყოფი სწავლებისას, ხელოვნური ინტელექტის მოდელი შემუშავებულია მოწოდებული ინფორმაციისა და ეტიკეტის საფუძველზე, რომელიც წარმოადგენს პროგნოზირებულ შედეგს. შეყვანის და გამოსავლების საფუძველზე, მოდელი ავითარებს რუკების განტოლებას და ამ რუკების განტოლების გამოყენებით, ის პროგნოზირებს შეყვანის ეტიკეტს მომავალში.
ვთქვათ, უნდა შევქმნათ მოდელი, რომელიც განასხვავებს ძაღლსა და კატას. კატებისა და ძაღლების მრავალი ფოტო მოდელს მიეწოდება ეტიკეტებით, სადაც მითითებულია, კატები არიან თუ ძაღლები, მოდელის გაწვრთნის მიზნით.
მოდელი ცდილობს შექმნას განტოლება, რომელიც აკავშირებს შეყვანის ფოტოებზე ეტიკეტებს ამ სურათებთან. მაშინაც კი, თუ მოდელს აქამდე არასოდეს უნახავს სურათი, ვარჯიშის შემდეგ, მას შეუძლია დაადგინოს, არის ეს კატა თუ ძაღლი.
ზედამხედველობის გარეშე სწავლა
ზედამხედველობის გარეშე სწავლა გულისხმობს AI მოდელის მომზადებას მხოლოდ შეყვანებზე, მათი მარკირების გარეშე. მოდელი ყოფს შეყვანის მონაცემებს ჯგუფებად დაკავშირებული მახასიათებლებით.
შეყვანის მომავალი ეტიკეტი პროგნოზირებულია იმის მიხედვით, თუ რამდენად შეესაბამება მისი ატრიბუტები ერთ-ერთ კლასიფიკაციას. განვიხილოთ სიტუაცია, როდესაც წითელი და ლურჯი ბურთების ჯგუფი უნდა დავყოთ ორ კატეგორიად.
დავუშვათ, რომ ბურთების სხვა მახასიათებლები იდენტურია, გარდა ფერისა. იმის საფუძველზე, თუ როგორ შეუძლია ბურთების ორ კლასად დაყოფა, მოდელი ეძებს მახასიათებლებს, რომლებიც განსხვავდება ბურთებს შორის.
ბურთების ორი მტევანი - ერთი ლურჯი და ერთი წითელი - წარმოიქმნება, როდესაც ბურთები იყოფა ორ ჯგუფად მათი შეფერილობის მიხედვით.
გამაგრების სწავლა
განმამტკიცებელი სწავლებისას, ხელოვნური ინტელექტის მოდელი ცდილობს მაქსიმალურად გაზარდოს მთლიანი მოგება კონკრეტულ ვითარებაში მაქსიმალურად კარგად მოქმედებით. უკუკავშირი მის წინა შედეგებზე ეხმარება მოდელს სწავლაში.
იფიქრეთ სცენარზე, როდესაც რობოტს დაევალება A და B წერტილებს შორის მარშრუტის შერჩევა. რობოტი ჯერ ირჩევს რომელიმე კურსს, რადგან მას არ აქვს წინასწარი გამოცდილება.
რობოტი იღებს მონაცემებს იმ მარშრუტზე, რომელსაც გადის და მისგან იღებს ცოდნას. რობოტს შეუძლია გამოიყენოს შეყვანა პრობლემის მოსაგვარებლად შემდეგ ჯერზე, როცა მსგავს გარემოებას წააწყდება.
მაგალითად, თუ რობოტი ირჩევს B ვარიანტს და მიიღებს ჯილდოს, როგორიცაა დადებითი გამოხმაურება, ამჯერად მას ესმის, რომ მან უნდა აირჩიოს გზა B, რათა გაზარდოს ჯილდო.
ახლა საბოლოოდ, რასაც ყველა ელოდებით, არის ალგორითმები.
ძირითადი მანქანათმცოდნეობის ალგორითმები
1. ხაზოვანი რეგრესია
მანქანური სწავლების უმარტივესი მიდგომა, რომელიც გადახრის ზედამხედველობით სწავლას, არის წრფივი რეგრესია. დამოუკიდებელი ცვლადების ცოდნით, ის ძირითადად გამოიყენება რეგრესიის საკითხების გადასაჭრელად და უწყვეტ დამოკიდებულ ცვლადებზე პროგნოზების შესაქმნელად.
საუკეთესო მორგების ხაზის პოვნა, რომელიც დაგეხმარებათ უწყვეტი დამოკიდებული ცვლადების შედეგის პროგნოზირებაში, არის ხაზოვანი რეგრესიის მიზანი. სახლის ფასები, ასაკი და ხელფასები უწყვეტი ღირებულებების რამდენიმე მაგალითია.
მოდელი, რომელიც ცნობილია როგორც მარტივი ხაზოვანი რეგრესია, იყენებს სწორ ხაზს ერთ დამოუკიდებელ ცვლადსა და ერთ დამოკიდებულ ცვლადს შორის კავშირის გამოსათვლელად. მრავალჯერადი წრფივი რეგრესიაში ორზე მეტი დამოუკიდებელი ცვლადია.
ხაზოვანი რეგრესიის მოდელს აქვს ოთხი ძირითადი დაშვება:
- წრფივობა: არსებობს წრფივი კავშირი X-სა და Y-ის საშუალოს შორის.
- ჰომოსედასტურობა: X-ის ყოველი მნიშვნელობისთვის ნარჩენი დისპერსია იგივეა.
- დამოუკიდებლობა: დაკვირვებები ერთმანეთისგან დამოუკიდებელია დამოუკიდებლობის თვალსაზრისით.
- ნორმალურობა: როდესაც X ფიქსირდება, Y ჩვეულებრივ ნაწილდება.
ხაზოვანი რეგრესია შესანიშნავად მოქმედებს იმ მონაცემებისთვის, რომლებიც შეიძლება განცალკევდეს ხაზების გასწვრივ. მას შეუძლია აკონტროლოს ზედმეტად მორგება რეგულარიზაციის, ჯვარედინი ვალიდაციის და განზომილების შემცირების ტექნიკის გამოყენებით. თუმცა, არის შემთხვევები, როდესაც საჭიროა ფუნქციების ფართო ინჟინერია, რამაც შეიძლება ზოგჯერ გამოიწვიოს ზედმეტი მორგება და ხმაური.
2. ლოგისტიკური რეგრესია
ლოგისტიკური რეგრესია არის კიდევ ერთი მანქანათმცოდნეობის ტექნიკა, რომელიც შორდება ზედამხედველობით სწავლას. მისი ძირითადი გამოყენება არის კლასიფიკაცია, ხოლო ის ასევე შეიძლება გამოყენებულ იქნას რეგრესიის პრობლემებისთვის.
ლოგისტიკური რეგრესია გამოიყენება კატეგორიული დამოკიდებული ცვლადის პროგნოზირებისთვის დამოუკიდებელი ფაქტორებიდან მიღებული ინფორმაციის გამოყენებით. მიზანი არის შედეგების კლასიფიკაცია, რომელიც შეიძლება იყოს მხოლოდ 0-დან 1-მდე.
შეყვანის შეწონილი ჯამი მუშავდება სიგმოიდური ფუნქციით, აქტივაციის ფუნქციით, რომელიც გარდაქმნის მნიშვნელობებს 0-დან 1-მდე.
ლოგისტიკური რეგრესიის საფუძველია მაქსიმალური ალბათობის შეფასება, სავარაუდო სავარაუდო განაწილების პარამეტრების გამოთვლის მეთოდი კონკრეტული დაკვირვებული მონაცემების გათვალისწინებით.
3. გადაწყვეტილების ხე
მანქანური სწავლების კიდევ ერთი მეთოდი, რომელიც წყვეტს ზედამხედველობით სწავლას, არის გადაწყვეტილების ხე. როგორც კლასიფიკაციის, ასევე რეგრესიის საკითხებისთვის, გადაწყვეტილების ხის მიდგომის გამოყენება შესაძლებელია.
გადაწყვეტილების მიღების ეს ინსტრუმენტი, რომელიც ხეს წააგავს, იყენებს ვიზუალურ წარმოდგენებს მოქმედებების პერსპექტიული შედეგების, ხარჯებისა და შედეგების საჩვენებლად. მონაცემების ცალკეულ ნაწილებად დაყოფით, იდეა ადამიანის გონების ანალოგია.
მონაცემები დაყოფილია ცალკეულ ნაწილებად, რამდენადაც შეგვეძლო მისი გრანულაცია. გადაწყვეტილების ხის მთავარი მიზანია შექმნას სასწავლო მოდელი, რომელიც შეიძლება გამოყენებულ იქნას სამიზნე ცვლადის კლასის პროგნოზირებისთვის. დაკარგული მნიშვნელობების დამუშავება შესაძლებელია ავტომატურად გადაწყვეტილების ხის გამოყენებით.
არ არის მოთხოვნა ერთჯერადი კოდირების, მოჩვენებითი ცვლადების ან მონაცემთა წინასწარი დამუშავების სხვა საფეხურებისთვის. ის ხისტია იმ გაგებით, რომ ძნელია მასში ახალი მონაცემების დამატება. თუ თქვენ მიიღეთ დამატებითი ეტიკეტირებული მონაცემები, თქვენ უნდა გადაამზადოთ ხე მთელ მონაცემთა ბაზაში.
შედეგად, გადაწყვეტილების ხეები ცუდი არჩევანია ნებისმიერი აპლიკაციისთვის, რომელიც მოითხოვს მოდელის დინამიურ ცვლილებას.
სამიზნე ცვლადის სახეობიდან გამომდინარე, გადაწყვეტილების ხეები იყოფა ორ ტიპად:
- კატეგორიული ცვლადი: გადაწყვეტილების ხე, რომელშიც მიზნის ცვლადი არის კატეგორიული.
- უწყვეტი ცვლადი: გადაწყვეტილების ხე, რომელშიც მიზანი ცვლადი არის უწყვეტი.
4. შემთხვევითი ტყე
შემთხვევითი ტყის მეთოდი არის მანქანათმცოდნეობის შემდეგი ტექნიკა და არის ზედამხედველობითი მანქანური სწავლის ალგორითმი, რომელიც ფართოდ გამოიყენება კლასიფიკაციისა და რეგრესიის საკითხებში. ის ასევე ხეზე დაფუძნებული მეთოდია, გადაწყვეტილების ხის მსგავსი.
ხეების ტყე, ან მრავალი გადაწყვეტილების ხე, გამოიყენება შემთხვევითი ტყის მეთოდით განსჯის გასაკეთებლად. კლასიფიკაციის ამოცანების დამუშავებისას, შემთხვევითი ტყის მეთოდი იყენებდა კატეგორიულ ცვლადებს, ხოლო რეგრესიის ამოცანების დამუშავებისას მონაცემთა ნაკრებებით, რომლებიც შეიცავს უწყვეტ ცვლადებს.
ანსამბლი, ან მრავალი მოდელის შერევა, არის ის, რასაც აკეთებს შემთხვევითი ტყის მეთოდი, რაც ნიშნავს, რომ პროგნოზები მზადდება მოდელების ჯგუფის გამოყენებით და არა მხოლოდ ერთი.
როგორც კლასიფიკაციის, ასევე რეგრესიის პრობლემების გამოყენების შესაძლებლობა, რომლებიც ქმნიან თანამედროვე მანქანათმცოდნეობის სისტემების უმრავლესობას, შემთხვევითი ტყის მთავარი უპირატესობაა.
ორი განსხვავებული სტრატეგია გამოიყენება ანსამბლის მიერ:
- შეფუთვა: ამით მეტი მონაცემი მიიღება ტრენინგის მონაცემთა ნაკრებისთვის. პროგნოზების ცვალებადობის შესამცირებლად, ეს კეთდება.
- Boosting არის სუსტი მოსწავლეების ძლიერ მოსწავლეებთან შერწყმის პროცესი თანმიმდევრული მოდელების აგებით, რის შედეგადაც ხდება საბოლოო მოდელი მაქსიმალური სიზუსტით.
5. გულუბრყვილო ბეისი
ბინარული (ორკლასიანი) და მრავალკლასიანი კლასიფიკაციის საკითხი შეიძლება გადაწყდეს Naive Bayes ტექნიკის გამოყენებით. როდესაც მეთოდი აიხსნება ბინარული ან კატეგორიის შეყვანის მნიშვნელობების გამოყენებით, მისი აღქმა ყველაზე მარტივია. ნაივ ბეიზის კლასიფიკატორის მიერ გაკეთებული ვარაუდი არის ის, რომ კლასში ერთი მახასიათებლის არსებობას არანაირი გავლენა არ აქვს სხვა მახასიათებლების არსებობაზე.
ზემოთ მოყვანილი ფორმულა მიუთითებს:
- P(H): ალბათობა იმისა, რომ H ჰიპოთეზა სწორია. წინასწარი ალბათობა ასე მოიხსენიება.
- P(E): მტკიცებულების ალბათობა
- P(E|H): ალბათობა იმისა, რომ ჰიპოთეზა მყარდება მტკიცებულებით.
- P(H|E): ჰიპოთეზის ჭეშმარიტების ალბათობა, მტკიცებულებების გათვალისწინებით.
Naive Bayes კლასიფიკატორი ითვალისწინებს თითოეულ ამ მახასიათებელს ინდივიდუალურად გარკვეული შედეგის ალბათობის განსაზღვრისას, თუნდაც ეს ატრიბუტები ერთმანეთთან იყოს დაკავშირებული. გულუბრყვილო ბაიესის მოდელი მარტივი ასაგებად და ეფექტურია დიდი მონაცემთა ნაკრებისთვის.
ცნობილია, რომ ის უკეთესად მუშაობს, ვიდრე ყველაზე რთული კატეგორიზაციის ტექნიკაც კი, სანამ ის ძირითადია. ეს არის ალგორითმების კრებული, რომელიც დაფუძნებულია ბეიზის თეორემაზე და არა ერთ მეთოდზე.
6. K- უახლოესი მეზობლები
K- უახლოესი მეზობლების (kNN) ტექნიკა არის ზედამხედველობითი მანქანური სწავლების ქვეჯგუფი, რომელიც შეიძლება გამოყენებულ იქნას კლასიფიკაციისა და რეგრესიის საკითხების მოსაგვარებლად. KNN ალგორითმი ვარაუდობს, რომ შესადარებელი ობიექტების პოვნა შესაძლებელია ახლოს.
მე ვიხსენებ მას, როგორც თანამოაზრე პირთა შეკრებას. kNN სარგებლობს სხვა მონაცემთა წერტილებს შორის მსგავსების იდეით სიახლოვის, სიახლოვის ან მანძილის გამოყენებით. უხილავი მონაცემების ეტიკეტირების მიზნით, დაფუძნებული უახლოესი ეტიკეტირებული დაკვირვებადი მონაცემების წერტილებზე, გამოიყენება მათემატიკური მეთოდი გრაფიკის წერტილებს შორის განცალკევების დასადგენად.
თქვენ უნდა განსაზღვროთ მანძილი მონაცემთა წერტილებს შორის, რათა დაადგინოთ უახლოესი შესადარებელი ადგილები. ამისთვის შეიძლება გამოყენებულ იქნას მანძილის გაზომვები, როგორიცაა ევკლიდური მანძილი, ჰემინგის მანძილი, მანჰეტენის მანძილი და მინკოვსკის მანძილი. K ცნობილია როგორც უახლოესი მეზობელი რიცხვი და ის ხშირად კენტი რიცხვია.
KNN შეიძლება გამოყენებულ იქნას კლასიფიკაციისა და რეგრესიის პრობლემებზე. პროგნოზი, რომელიც გაკეთებულია, როდესაც KNN გამოიყენება რეგრესიის საკითხებზე, ეფუძნება K-ყველაზე მეტად მსგავსი მოვლენის საშუალო ან მედიანას.
KNN-ზე დაფუძნებული კლასიფიკაციის ალგორითმის შედეგი შეიძლება განისაზღვროს, როგორც ყველაზე მაღალი სიხშირის კლასი K ყველაზე მსგავს მოვლენებს შორის. ყველა შემთხვევა არსებითად აძლევს ხმას თავის კლასს და პროგნოზი ეკუთვნის კლასს, რომელიც იღებს ყველაზე მეტ ხმას.
7. კ- ნიშნავს
ეს არის უკონტროლო სწავლის ტექნიკა, რომელიც ეხება კლასტერიზაციის საკითხებს. მონაცემთა ნაკრები იყოფა კლასტერების გარკვეულ რაოდენობად - დავარქვათ მოდით K - ისე, რომ თითოეული კლასტერის მონაცემთა წერტილები ერთგვაროვანი და განსხვავებული იყოს სხვა კლასტერებში.
K- ნიშნავს კლასტერიზაციის მეთოდოლოგიას:
- თითოეული კლასტერისთვის K-means ალგორითმი ირჩევს k ცენტროიდებს, ან წერტილებს.
- უახლოეს ცენტროიდებით ან K კლასტერებით, თითოეული მონაცემთა წერტილი ქმნის კლასტერს.
- ახლა, ახალი ცენტროიდები იწარმოება უკვე არსებული კლასტერის წევრების მიხედვით.
- უახლოესი მანძილი თითოეული მონაცემთა წერტილისთვის გამოითვლება ამ განახლებული ცენტროიდების გამოყენებით. სანამ ცენტროიდები არ შეიცვლება, ეს პროცესი მეორდება.
ის უფრო სწრაფი, საიმედო და მარტივი გასაგებია. თუ არის პრობლემები, k-means-ის ადაპტირება მარტივს ხდის კორექტირებას. როდესაც მონაცემთა ნაკრები ერთმანეთისგან განსხვავებული ან კარგად იზოლირებულია, შედეგები საუკეთესოა. მას არ შეუძლია მართოს არასტაბილური მონაცემები ან გარე მონაცემები.
8. დამხმარე ვექტორული მანქანები
მონაცემთა კლასიფიკაციისთვის SVM ტექნიკის გამოყენებისას, ნედლეული მონაცემები ნაჩვენებია წერტილების სახით n-განზომილებიან სივრცეში (სადაც n არის თქვენი ფუნქციების რაოდენობა). შემდეგ მონაცემები შეიძლება ადვილად კლასიფიცირდეს, რადგან თითოეული მახასიათებლის მნიშვნელობა უკავშირდება კონკრეტულ კოორდინატს.
მონაცემების გამოსაყოფად და გრაფიკზე დასაყენებლად გამოიყენეთ ხაზები, რომლებიც ცნობილია როგორც კლასიფიკატორები. ეს მიდგომა ასახავს თითოეულ მონაცემთა წერტილს, როგორც წერტილს n-განზომილებიან სივრცეში, სადაც n არის თქვენი ფუნქციების რაოდენობა და თითოეული მახასიათებლის მნიშვნელობა არის კონკრეტული კოორდინატული მნიშვნელობა.
ახლა ჩვენ განვსაზღვრავთ ხაზს, რომელიც ყოფს მონაცემებს მონაცემთა ორ ნაკრებად, რომლებიც განსხვავებულად იყო კატეგორიზებული. მანძილი უახლოესი წერტილებიდან თითოეულ ორ ჯგუფში იქნება ყველაზე დაშორებული ამ ხაზის გასწვრივ.
ვინაიდან ორი უახლოესი წერტილი არის ის, რომელიც ყველაზე შორს არის ზემოთ მოცემულ მაგალითში მოცემული ხაზისგან, ხაზი, რომელიც მონაცემებს ყოფს ორ ჯგუფად, რომლებიც განსხვავებულად იყო კატეგორიზებული, არის შუა ხაზი. ჩვენი კლასიფიკატორი არის ეს ხაზი.
9. განზომილების შემცირება
განზომილების შემცირების მიდგომის გამოყენებით, ტრენინგის მონაცემებს შეიძლება ჰქონდეს ნაკლები შეყვანის ცვლადი. მარტივი სიტყვებით, ეს ეხება თქვენი ფუნქციების ნაკრების ზომის შემცირების პროცესს. წარმოვიდგინოთ, რომ თქვენს მონაცემთა ბაზას აქვს 100 სვეტი; განზომილების შემცირება შეამცირებს ამ რაოდენობას 20 სვეტამდე.
მოდელი ავტომატურად ხდება უფრო დახვეწილი და აქვს ზედმეტად მორგების რისკი, რადგან ფუნქციების რაოდენობა იზრდება. უფრო დიდი განზომილებების მონაცემებთან მუშაობის ყველაზე დიდი პრობლემა არის ის, რაც ცნობილია, როგორც "განზომილების წყევლა", რომელიც ჩნდება მაშინ, როდესაც თქვენი მონაცემები შეიცავს მახასიათებლების გადაჭარბებულ რაოდენობას.
შემდეგი ელემენტები შეიძლება გამოყენებულ იქნას განზომილების შემცირების მისაღწევად:
- შესაბამისი მახასიათებლების მოსაძებნად და ასარჩევად, ფუნქციების შერჩევა გამოიყენება.
- უკვე არსებული ფუნქციების გამოყენებით, ფუნქციური ინჟინერია ხელით ქმნის ახალ ფუნქციებს.
დასკვნა
ორივე შესაძლებელია ზედამხედველობის გარეშე ან ზედამხედველობის ქვეშ მყოფი მანქანური სწავლება. აირჩიეთ ზედამხედველობითი სწავლება, თუ თქვენი მონაცემები ნაკლებად უხვადაა და კარგად არის მონიშნული ტრენინგისთვის.
მონაცემთა დიდი ნაკრები ხშირად ასრულებდა და უკეთეს შედეგს გამოიღებდა ზედამხედველობის გარეშე სწავლის გამოყენებით. ღრმა სწავლება მეთოდები საუკეთესოა, თუ თქვენ გაქვთ საკმაოდ დიდი მონაცემების შეგროვება, რომელიც ხელმისაწვდომია.
გამაგრების სწავლა და ღრმა განმტკიცების სწავლა არის რამდენიმე თემა, რომელიც თქვენ შეისწავლეთ. ნერვული ქსელების მახასიათებლები, გამოყენება და შეზღუდვები ახლა თქვენთვის გასაგებია. დაბოლოს, რაც არანაკლებ მნიშვნელოვანია, თქვენ განიხილეთ სხვადასხვა პროგრამირების ენების, IDE-ების და პლატფორმების ვარიანტები, როდესაც საქმე თქვენი საკუთარის შექმნას ეხებოდა მანქანათმცოდნეობის მოდელები.
შემდეგი, რაც უნდა გააკეთოთ, არის თითოეულის შესწავლა და გამოყენება მანქანა სწავლის მიდგომა. მაშინაც კი, თუ თემა ფართოა, ნებისმიერი თემის გაგება შესაძლებელია რამდენიმე საათში, თუ ყურადღებას გაამახვილებთ მის სიღრმეზე. თითოეული საგანი ცალკე დგას სხვებისგან.
თქვენ უნდა იფიქროთ ერთ საკითხზე ერთდროულად, შეისწავლოთ, განახორციელოთ იგი პრაქტიკაში და გამოიყენოთ თქვენთვის სასურველი ენა მასში ალგორითმ(ებ)ის დასანერგად.
დატოვე პასუხი