სარჩევი[დამალვა][ჩვენება]
- 1. კონკრეტულად რა არის ღრმა სწავლება?
- 2. რა განასხვავებს ღრმა სწავლებას მანქანური სწავლისგან?
- 3. როგორია თქვენი ამჟამინდელი გაგება ნერვული ქსელების შესახებ?
- 4. კონკრეტულად რა არის პერცეპტრონი?
- 5. კონკრეტულად რა არის ღრმა ნერვული ქსელი?
- 6. კონკრეტულად რა არის მრავალშრიანი პერცეპტრონი (MLP)?
- 7. რა მიზანს ემსახურება აქტივაციის ფუნქციები ნერვულ ქსელში?
- 8. რა არის ზუსტად გრადიენტური დაღმართი?
- 9. კონკრეტულად რა არის ღირებულების ფუნქცია?
- 10. როგორ შეიძლება ღრმა ქსელებმა აღემატებოდეს ზედაპირულ ქსელებს?
- 11. აღწერეთ წინ გავრცელება.
- 12. რა არის უკანა გამრავლება?
- 13. ღრმა სწავლის კონტექსტში, როგორ გესმით გრადიენტური ამოკვეთა?
- 14. რა არის Softmax და ReLU ფუნქციები?
- 15. შეიძლება თუ არა ნერვული ქსელის მოდელის მომზადება ყველა წონით 0-ზე?
- 16. რა განასხვავებს ეპოქას პარტიისა და გამეორებისგან?
- 17. რა არის სერიის ნორმალიზაცია და მიტოვება?
- 18. რა განასხვავებს სტოქასტურ გრადიენტულ დაღმართს ჯგუფური გრადიენტული დაღმართისაგან?
- 19. რატომ არის გადამწყვეტი არაწრფივობის ჩართვა ნერვულ ქსელებში?
- 20. რა არის ტენსორი ღრმა სწავლაში?
- 21. როგორ აირჩევთ აქტივაციის ფუნქციას ღრმა სწავლის მოდელისთვის?
- 22. რას გულისხმობ CNN-ში?
- 23. რა არის CNN-ის მრავალი ფენა?
- 24. რა შედეგები მოაქვს ზედმეტად და არასრულფასოვნებას და როგორ შეგიძლიათ თავიდან აიცილოთ ისინი?
- 25. ღრმა სწავლისას რა არის RNN?
- 26. აღწერეთ Adam Optimizer
- 27. ღრმა ავტოკოდერები: რა არის ისინი?
- 28. რას ნიშნავს ტენსორი ტენსორფლოში?
- 29. გამოთვლითი გრაფიკის ახსნა
- 30. გენერაციული საპირისპირო ქსელები (GANs): რა არის ისინი?
- 31. როგორ აირჩევთ ნეირონებისა და ფარული ფენების რაოდენობას, რომლებიც უნდა ჩართოთ ნერვულ ქსელში არქიტექტურის შემუშავებისას?
- 32. რა სახის ნეირონული ქსელები გამოიყენება ღრმა გაძლიერების სწავლით?
- დასკვნა
ღრმა სწავლა არ არის ახალი იდეა. ხელოვნური ნერვული ქსელები ემსახურება მანქანური სწავლების ქვეჯგუფის ერთადერთ საფუძველს, რომელიც ცნობილია ღრმა სწავლის სახელით.
ღრმა სწავლა არის ადამიანის ტვინის იმიტაცია, ისევე როგორც ნერვული ქსელები, რადგან ისინი შეიქმნა ადამიანის ტვინის იმიტირებისთვის.
ეს ცოტა ხანია არსებობს. ამ დღეებში, ყველა ამაზე საუბრობს, რადგან ჩვენ არ გვაქვს თითქმის იმდენი დამუშავების ძალა ან მონაცემები, როგორც ახლა.
ბოლო 20 წლის განმავლობაში ღრმა სწავლა და მანქანათმცოდნეობა წარმოიშვა დამუშავების შესაძლებლობების მკვეთრი ზრდის შედეგად.
იმისათვის, რომ დაგეხმაროთ მოემზადოთ ნებისმიერი კითხვისთვის, რომელსაც შეიძლება შეხვდეთ თქვენი საოცნებო სამუშაოს ძიებისას, ეს პოსტი დაგეხმარებათ გაგიძღვებათ მრავალი ღრმა სწავლის ინტერვიუს კითხვებს, დაწყებული მარტივიდან რთულამდე.
1. კონკრეტულად რა არის ღრმა სწავლება?
თუ თქვენ ესწრებით ა ღრმა სწავლება ინტერვიუ, თქვენ უდავოდ გესმით, რა არის ღრმა სწავლა. ამასთან, ინტერვიუერი მოელის, რომ თქვენ მოგაწოდოთ დეტალური პასუხი ამ კითხვის საპასუხოდ ილუსტრაციასთან ერთად.
იმისთვის რომ ივარჯიშო ნეირონული ქსელები ღრმა სწავლისთვის უნდა იქნას გამოყენებული ორგანიზებული ან არასტრუქტურირებული მონაცემების მნიშვნელოვანი რაოდენობა. ფარული ნიმუშებისა და მახასიათებლების მოსაძებნად, ის აკეთებს რთულ პროცედურებს (მაგალითად, განასხვავებს კატის გამოსახულებას ძაღლისგან).
2. რა განასხვავებს ღრმა სწავლებას მანქანური სწავლისგან?
როგორც ხელოვნური ინტელექტის ფილიალი, რომელიც ცნობილია როგორც მანქანური სწავლება, ჩვენ ვავარჯიშებთ კომპიუტერებს მონაცემთა და სტატისტიკური და ალგორითმული ტექნიკის გამოყენებით, რათა დროთა განმავლობაში ისინი უკეთესები გახდნენ.
როგორც ასპექტი მანქანა სწავლისღრმა სწავლება ასახავს ნერვული ქსელის არქიტექტურას, რომელიც ჩანს ადამიანის ტვინში.
3. როგორია თქვენი ამჟამინდელი გაგება ნერვული ქსელების შესახებ?
ხელოვნური სისტემები, რომლებიც ცნობილია როგორც ნერვული ქსელები, ძალიან ჰგავს ორგანულ ნერვულ ქსელებს, რომლებიც გვხვდება ადამიანის სხეულში.
ტექნიკის გამოყენება, რომელიც წააგავს იმას, თუ როგორ ადამიანის ტვინი ფუნქციები, ნერვული ქსელი არის ალგორითმების ერთობლიობა, რომელიც მიზნად ისახავს მონაცემთა ერთეულში არსებული კორელაციების იდენტიფიცირებას.
ეს სისტემები იძენენ ამოცანის სპეციფიკურ ცოდნას მონაცემთა ნაკრებისა და მაგალითების მთელი რიგის გამოვლენით და არა რაიმე კონკრეტული დავალების წესების დაცვით.
იდეა მდგომარეობს იმაში, რომ იმის ნაცვლად, რომ ჰქონდეს ამ მონაცემთა ნაკრების წინასწარ დაპროგრამებული გაგება, სისტემა სწავლობს განასხვავებს მახასიათებლებს იმ მონაცემებისგან, რომლებსაც ის იკვებება.
ქსელის სამი ფენა, რომლებიც ყველაზე ხშირად გამოიყენება ნერვულ ქსელებში, შემდეგია:
- შეყვანის ფენა
- დამალული ფენა
- გამომავალი ფენა
4. კონკრეტულად რა არის პერცეპტრონი?
ადამიანის ტვინში ნაპოვნი ბიოლოგიური ნეირონი შედარებულია პერცეპტრონთან. მრავალჯერადი შეყვანა მიიღება პერცეპტრონის მიერ, რომელიც შემდეგ ასრულებს მრავალ ტრანსფორმაციას და ფუნქციას და აწარმოებს გამოსავალს.
ორობით კლასიფიკაციაში გამოყენებულია წრფივი მოდელი, რომელსაც პერცეტრონი ეწოდება. ის ახდენს ნეირონის სიმულაციას სხვადასხვა შეყვანით, თითოეულს განსხვავებული წონა აქვს.
ნეირონი ითვლის ფუნქციას ამ შეწონილი შეყვანის გამოყენებით და გამოაქვს შედეგები.
5. კონკრეტულად რა არის ღრმა ნერვული ქსელი?
ღრმა ნერვული ქსელი არის ხელოვნური ნერვული ქსელი (ANN) რამდენიმე ფენით შემავალ და გამომავალ ფენებს შორის (DNN).
ღრმა ნერვული ქსელები არის ღრმა არქიტექტურის ნერვული ქსელები. სიტყვა "ღრმა" ეხება ფუნქციებს, რომლებსაც აქვთ მრავალი დონე და ერთეული ერთ ფენაში. უფრო ზუსტი მოდელები შეიძლება შეიქმნას მეტი და უფრო დიდი ფენების დამატებით, რათა დაიჭიროთ უფრო დიდი დონის ნიმუშები.
6. კონკრეტულად რა არის მრავალშრიანი პერცეპტრონი (MLP)?
შეყვანის, ფარული და გამომავალი ფენები წარმოდგენილია MLP-ებში, ისევე როგორც ნერვულ ქსელებში. იგი აგებულია ერთშრიანი პერცეტრონის მსგავსად ერთი ან მეტი ფარული ფენით.
ერთი ფენის პერცეტრონის ბინარულ გამომავალს შეუძლია მხოლოდ ხაზოვანი განცალკევებული კლასების კატეგორიზაცია (0,1), ხოლო MLP-ს შეუძლია არაწრფივი კლასების კლასიფიკაცია.
7. რა მიზანს ემსახურება აქტივაციის ფუნქციები ნერვულ ქსელში?
აქტივაციის ფუნქცია განსაზღვრავს, უნდა გააქტიურდეს თუ არა ნეირონი ყველაზე ფუნდამენტურ დონეზე. აქტივაციის ნებისმიერ ფუნქციას შეუძლია შეყვანის სახით მიიღოს შეყვანის შეწონილი ჯამი, პლუს მიკერძოება. გააქტიურების ფუნქციები მოიცავს ნაბიჯის ფუნქციას, Sigmoid, ReLU, Tanh და Softmax.
8. რა არის ზუსტად გრადიენტური დაღმართი?
საუკეთესო მიდგომა ხარჯების ფუნქციის ან შეცდომის მინიმიზაციისთვის არის გრადიენტული დაღმართი. ფუნქციის ლოკალურ-გლობალური მინიმუმის პოვნა არის მიზანი. ეს განსაზღვრავს გზას, რომელიც მოდელმა უნდა გაიაროს შეცდომების მინიმიზაციისთვის.
9. კონკრეტულად რა არის ღირებულების ფუნქცია?
ხარჯების ფუნქცია არის მეტრიკა, რათა შეაფასოს რამდენად კარგად მუშაობს თქვენი მოდელი; მას ზოგჯერ უწოდებენ "დაკარგვას" ან "შეცდომას". უკან გავრცელების დროს, ის გამოიყენება გამომავალი ფენის შეცდომის გამოსათვლელად.
ჩვენ ვიყენებთ ამ უზუსტობას ნერვული ქსელის სასწავლო პროცესების გასაგრძელებლად, ნერვული ქსელის მეშვეობით უკან დახევით.
10. როგორ შეიძლება ღრმა ქსელებმა აღემატებოდეს ზედაპირულ ქსელებს?
დამალული ფენები ემატება ნერვულ ქსელებს შეყვანისა და გამომავალი ფენების გარდა. შეყვანის და გამომავალი ფენებს შორის, ზედაპირული ნერვული ქსელები იყენებენ ერთ ფარულ ფენას, ხოლო ღრმა ნერვული ქსელები იყენებენ მრავალ დონეს.
ზედაპირული ქსელი მოითხოვს რამდენიმე პარამეტრს, რათა შეძლოს ნებისმიერ ფუნქციაში მორგება. ღრმა ქსელებს შეუძლიათ უკეთესად მოერგოს ფუნქციებს, თუნდაც მცირე რაოდენობის პარამეტრებით, რადგან ისინი მოიცავს რამდენიმე ფენას.
ღრმა ქსელები ახლა უპირატესობას ანიჭებენ მათი მრავალმხრივი მუშაობის ნებისმიერი ტიპის მონაცემთა მოდელირებას, იქნება ეს მეტყველების თუ სურათის ამოცნობისთვის.
11. აღწერეთ წინ გავრცელება.
შეყვანები გადაეცემა წონებთან ერთად ჩამარხულ ფენაში პროცესის დროს, რომელიც ცნობილია როგორც გადაგზავნის გამრავლება.
აქტივაციის ფუნქციის გამომავალი გამოთვლა ხდება თითოეულ ჩამარხულ ფენაში, სანამ დამუშავება შემდეგ შრეზე გადავა.
პროცესი იწყება შეყვანის ფენიდან და მიდის საბოლოო გამომავალი ფენამდე, რითაც სახელდება წინ გავრცელება.
12. რა არის უკანა გამრავლება?
როდესაც წონები და მიკერძოებები რეგულირდება ნერვულ ქსელში, უკან გავრცელება გამოიყენება ღირებულების ფუნქციის შესამცირებლად, პირველად დაკვირვებით, თუ როგორ იცვლება მნიშვნელობა.
თითოეული ფარული ფენის გრადიენტის გაგება ამ ცვლილების გამოთვლას მარტივს ხდის.
პროცესი, რომელიც ცნობილია როგორც უკანა გავრცელება, იწყება გამომავალი ფენიდან და უკან გადადის შეყვანის ფენებზე.
13. ღრმა სწავლის კონტექსტში, როგორ გესმით გრადიენტური ამოკვეთა?
Gradient Clipping არის მეთოდი აფეთქებული გრადიენტების პრობლემის გადასაჭრელად, რომელიც წარმოიქმნება უკუღმა გავრცელების დროს (მდგომარეობა, როდესაც მნიშვნელოვანი არასწორი გრადიენტები გროვდება დროთა განმავლობაში, რაც იწვევს ნერვული ქსელის მოდელის წონის მნიშვნელოვან კორექტირებას ვარჯიშის დროს).
გრადიენტების აფეთქება არის პრობლემა, რომელიც ჩნდება, როდესაც გრადიენტები ძალიან დიდი ხდება ვარჯიშის დროს, რაც მოდელს არასტაბილურს ხდის. თუ გრადიენტმა გადალახა მოსალოდნელი დიაპაზონი, გრადიენტის მნიშვნელობები ელემენტ-ელემენტზე გადადის წინასწარ განსაზღვრულ მინიმალურ ან მაქსიმალურ მნიშვნელობამდე.
გრადიენტური ამოკვეთა აძლიერებს ნერვული ქსელის ციფრულ სტაბილურობას ვარჯიშის დროს, მაგრამ ის მინიმალურ გავლენას ახდენს მოდელის მუშაობაზე.
14. რა არის Softmax და ReLU ფუნქციები?
გააქტიურების ფუნქცია სახელად Softmax აწარმოებს გამომავალს 0-დან 1-მდე დიაპაზონში. თითოეული გამომავალი იყოფა ისე, რომ ყველა გამომავალი ჯამი იყოს ერთი. გამომავალი ფენებისთვის, Softmax ხშირად გამოიყენება.
გამოსწორებული ხაზოვანი ერთეული, რომელიც ზოგჯერ ცნობილია როგორც ReLU, არის ყველაზე ხშირად გამოყენებული აქტივაციის ფუნქცია. თუ X დადებითია, გამოაქვს X, წინააღმდეგ შემთხვევაში გამოაქვს ნულები. ReLU რეგულარულად გამოიყენება დამარხულ ფენებზე.
15. შეიძლება თუ არა ნერვული ქსელის მოდელის მომზადება ყველა წონით 0-ზე?
ნერვული ქსელი ვერასოდეს ისწავლის მოცემული სამუშაოს შესრულებას, ამიტომ შეუძლებელია მოდელის მომზადება ყველა წონის ინიციალიზაციის გზით.
წარმოებულები დარჩება იგივე ყველა წონისთვის W [1]-ში, თუ ყველა წონა ნულამდე იქნება ინიციალირებული, რაც გამოიწვევს ნეირონების შესწავლას იგივე მახასიათებლებს განმეორებით.
არა უბრალოდ წონების ინიციალიზაცია 0-მდე, არამედ ნებისმიერი ფორმის მუდმივი, სავარაუდოდ, გამოიწვევს ქვეპარტიულ შედეგს.
16. რა განასხვავებს ეპოქას პარტიისა და გამეორებისგან?
მონაცემთა ნაკრების დამუშავების სხვადასხვა ფორმა და გრადიენტული წარმოშობის ტექნიკა მოიცავს პარტიას, გამეორებას და ეპოქას. ეპოქა მოიცავს ერთჯერად ნერვულ ქსელს სრული მონაცემთა ნაკრებით, როგორც წინ, ასევე უკან.
სანდო შედეგების უზრუნველსაყოფად, მონაცემთა ნაკრები ხშირად გადადის რამდენჯერმე, რადგან ის ძალიან დიდია ერთი ცდის ჩასატარებლად.
ნერვული ქსელის მეშვეობით მცირე რაოდენობის მონაცემების განმეორებით გაშვების პრაქტიკას უწოდებენ გამეორებას. იმის უზრუნველსაყოფად, რომ მონაცემთა ნაკრები წარმატებით კვეთს ნერვულ ქსელებს, ის შეიძლება დაიყოს რამდენიმე ჯგუფად ან ქვეჯგუფად, რომელიც ცნობილია როგორც ჯგუფური.
მონაცემთა შეგროვების ზომადან გამომდინარე, სამივე მეთოდი - ეპოქა, გამეორება და სერიის ზომა - არსებითად არის გამოყენების გზები. გრადიენტული წარმოშობის ალგორითმი.
17. რა არის სერიის ნორმალიზაცია და მიტოვება?
Dropout ხელს უშლის მონაცემთა გადაჭარბებას ქსელის ხილული და ფარული ერთეულების შემთხვევითი მოხსნით (როგორც წესი, კვანძების 20 პროცენტის ჩამოგდება). ის აორმაგებს გამეორებების რაოდენობას, რომელიც საჭიროა ქსელის დაახლოებისთვის.
თითოეულ შრეში შეყვანის ნორმალიზებით, რომ ჰქონდეს საშუალო გამომავალი გააქტიურება ნულის ტოლი და სტანდარტული გადახრა ერთი, სურათების ნორმალიზება არის სტრატეგია ნერვული ქსელების მუშაობისა და სტაბილურობის გასაუმჯობესებლად.
18. რა განასხვავებს სტოქასტურ გრადიენტულ დაღმართს ჯგუფური გრადიენტული დაღმართისაგან?
სერიის გრადიენტური დაღმართი:
- სრული მონაცემთა ნაკრები გამოიყენება პარტიული გრადიენტისთვის გრადიენტის ასაგებად.
- მონაცემთა უზარმაზარი რაოდენობა და ნელ-ნელა განახლებადი წონა ართულებს კონვერგენციას.
სტოქასტური გრადიენტური დაღმართი:
- სტოქასტური გრადიენტი იყენებს ერთ ნიმუშს გრადიენტის გამოსათვლელად.
- წონის უფრო ხშირი ცვლილებების გამო, ის მნიშვნელოვნად უფრო სწრაფად იყრის თავს, ვიდრე პარტიული გრადიენტი.
19. რატომ არის გადამწყვეტი არაწრფივობის ჩართვა ნერვულ ქსელებში?
რამდენი ფენაც არ უნდა იყოს, ნერვული ქსელი იქცევა პერცეპტრონის მსგავსად არაწრფივობის არარსებობის შემთხვევაში, რაც გამომავალს წრფივად დამოკიდებულს ხდის შეყვანაზე.
სხვაგვარად რომ ვთქვათ, ნერვული ქსელი n ფენით და m ფარული ერთეულით და ხაზოვანი აქტივაციის ფუნქციებით უდრის ხაზოვან ნერვულ ქსელს ფარული ფენების გარეშე და მხოლოდ წრფივი განცალკევების საზღვრების ამოცნობის უნარით.
არაწრფივობის გარეშე, ნერვულ ქსელს არ შეუძლია რთული საკითხების გადაჭრა და შეყვანის ზუსტი კატეგორიზაცია.
20. რა არის ტენსორი ღრმა სწავლაში?
მრავალგანზომილებიანი მასივი, რომელიც ცნობილია როგორც ტენზორი, ემსახურება მატრიცებისა და ვექტორების განზოგადებას. ეს არის გადამწყვეტი მონაცემთა სტრუქტურა ღრმა სწავლისთვის. ფუნდამენტური მონაცემთა ტიპების N-განზომილებიანი მასივები გამოიყენება ტენსორების წარმოსადგენად.
ტენზორის ყველა კომპონენტს აქვს მონაცემთა ერთი და იგივე ტიპი და მონაცემთა ეს ტიპი ყოველთვის ცნობილია. შესაძლებელია, რომ ფორმის მხოლოდ ნაწილი - კერძოდ, რამდენი განზომილებაა და რამდენად დიდია თითოეული მათგანი - ცნობილია.
იმ სიტუაციებში, როდესაც შეყვანები ასევე სრულიად ცნობილია, ოპერაციების უმეტესობა წარმოქმნის სრულად ცნობილ ტენსორებს; სხვა შემთხვევაში, ტენზორის ფორმის დადგენა შესაძლებელია მხოლოდ გრაფიკის შესრულების დროს.
21. როგორ აირჩევთ აქტივაციის ფუნქციას ღრმა სწავლის მოდელისთვის?
- აზრი აქვს ხაზოვანი აქტივაციის ფუნქციის გამოყენებას, თუ მოსალოდნელი შედეგი რეალურია.
- სიგმოიდური ფუნქცია უნდა იყოს გამოყენებული, თუ გამოსავალი, რომელიც უნდა იყოს პროგნოზირებული, არის ორობითი კლასის ალბათობა.
- Tanh ფუნქცია შეიძლება გამოყენებულ იქნას, თუ პროგნოზირებული გამომავალი შეიცავს ორ კლასიფიკაციას.
- გამოთვლების სიმარტივის გამო, ReLU ფუნქცია გამოიყენება სიტუაციების ფართო სპექტრში.
22. რას გულისხმობ CNN-ში?
ღრმა ნერვული ქსელები, რომლებიც სპეციალიზირებულია ვიზუალური გამოსახულების შეფასებაში, მოიცავს კონვოლუციურ ნერვულ ქსელებს (CNN, ან ConvNet). აქ, ვიდრე ნერვულ ქსელებში, სადაც ვექტორი წარმოადგენს შეყვანას, შეყვანა არის მრავალარხიანი სურათი.
მრავალშრიანი პერცეპტრონები გამოიყენება CNN-ების მიერ სპეციალურად, რაც მოითხოვს ძალიან მცირე წინასწარ დამუშავებას.
23. რა არის CNN-ის მრავალი ფენა?
კონვოლუციური ფენა: მთავარი ფენა არის კონვოლუციური ფენა, რომელსაც აქვს მრავალფეროვანი შესასწავლი ფილტრები და მიმღები ველი. ეს საწყისი ფენა იღებს შეყვანის მონაცემებს და ამოიღებს მის მახასიათებლებს.
ReLU Layer: ქსელების არაწრფივი გახდომით, ეს ფენა უარყოფით პიქსელებს ნულში აქცევს.
გაერთიანების ფენა: დამუშავებისა და ქსელის პარამეტრების მინიმიზაციის გზით, გაერთიანების ფენა თანდათან ამცირებს წარმოდგენის სივრცულ ზომას. მაქს პულინგი გაერთიანების ყველაზე ხშირად გამოყენებული მეთოდია.
24. რა შედეგები მოაქვს ზედმეტად და არასრულფასოვნებას და როგორ შეგიძლიათ თავიდან აიცილოთ ისინი?
ეს ცნობილია, როგორც ზედმეტად მორგება, როდესაც მოდელი სწავლობს სირთულეებსა და ხმაურს სასწავლო მონაცემებში იმ დონემდე, რომ ეს უარყოფითად იმოქმედებს მოდელის მიერ ახალი მონაცემების გამოყენებაზე.
უფრო სავარაუდოა, რომ მოხდეს არაწრფივი მოდელები, რომლებიც უფრო ადაპტირებულნი არიან მიზნის ფუნქციის შესწავლისას. მოდელის მომზადება შესაძლებელია ავტომობილებისა და სატვირთო მანქანების აღმოსაჩენად, მაგრამ მას შეუძლია მხოლოდ კონკრეტული ყუთის ფორმის მანქანების იდენტიფიცირება.
იმის გათვალისწინებით, რომ ის მხოლოდ ერთი ტიპის სატვირთო მანქანაზე იყო გაწვრთნილი, შესაძლოა ვერ შეძლოს ბრტყელი სატვირთო მანქანის აღმოჩენა. ტრენინგის მონაცემებზე მოდელი კარგად მუშაობს, მაგრამ არა რეალურ სამყაროში.
არასაკმარისად დაყენებული მოდელი ეხება მოდელს, რომელიც არ არის საკმარისად გაწვრთნილი მონაცემებზე ან არ შეუძლია განზოგადეს ახალ ინფორმაციაზე. ეს ხშირად ხდება მაშინ, როდესაც მოდელი სწავლობს არასაკმარისი ან არაზუსტი მონაცემებით.
სიზუსტე და შესრულება ორივე კომპრომეტირებულია არასრულფასოვნებით.
მონაცემთა ხელახალი შერჩევა მოდელის სიზუსტის შესაფასებლად (K-ჯერ ჯვარედინი ვალიდაცია) და ვალიდაციის მონაცემთა ნაკრების გამოყენება მოდელის შესაფასებლად არის ორი გზა, რათა თავიდან ავიცილოთ გადაჭარბება და არასრულფასოვნება.
25. ღრმა სწავლისას რა არის RNN?
მორეციდივე ნერვული ქსელები (RNN), ხელოვნური ნერვული ქსელების საერთო სახეობა, გამოიყენება აბრევიატურა RNN. ისინი გამოიყენება გენომის, ხელნაწერის, ტექსტისა და მონაცემთა თანმიმდევრობის დასამუშავებლად, სხვა საკითხებთან ერთად. საჭირო ტრენინგისთვის, RNN-ები იყენებენ უკანა გავრცელებას.
26. აღწერეთ Adam Optimizer
ადამ ოპტიმიზატორი, ასევე ცნობილი როგორც ადაპტური იმპულსი, არის ოპტიმიზაციის ტექნიკა, რომელიც შემუშავებულია ხმაურიანი სიტუაციების მოსაგვარებლად იშვიათი გრადიენტებით.
გარდა იმისა, რომ უზრუნველყოფს თითო პარამეტრზე განახლებებს უფრო სწრაფი კონვერგენციისთვის, Adam ოპტიმიზატორი აძლიერებს კონვერგენციას იმპულსით, რაც უზრუნველყოფს მოდელის ხაფანგს არდადეგების წერტილში.
27. ღრმა ავტოკოდერები: რა არის ისინი?
ღრმა ავტოკოდერი არის ორი სიმეტრიული ღრმა რწმენის ქსელის კოლექტიური სახელი, რომლებიც, როგორც წესი, მოიცავს ოთხ ან ხუთ ზედაპირულ ფენას ქსელის კოდირების ნახევრისთვის და კიდევ ოთხი ან ხუთი ფენის ნაკრები დეკოდირების ნახევრისთვის.
ეს ფენები ქმნიან ღრმა რწმენის ქსელების საფუძველს და შეზღუდულია ბოლცმანის მანქანებით. ყოველი RBM-ის შემდეგ ღრმა ავტოკოდერი იყენებს ორობით ცვლილებებს მონაცემთა ნაკრებში MNIST.
ისინი ასევე შეიძლება გამოყენებულ იქნას სხვა მონაცემთა ნაკრებებში, სადაც გაუსიანი გამოსწორებული ტრანსფორმაციები სასურველია RBM-ზე.
28. რას ნიშნავს ტენსორი ტენსორფლოში?
ეს არის კიდევ ერთი ღრმა სწავლის ინტერვიუს კითხვა, რომელსაც რეგულარულად სვამენ. ტენსორი არის მათემატიკური კონცეფცია, რომელიც ვიზუალიზებულია როგორც უფრო მაღალი განზომილებიანი მასივები.
ტენსორები არის ეს მონაცემთა მასივები, რომლებიც უზრუნველყოფილია როგორც შემავალი ნერვულ ქსელში და აქვთ სხვადასხვა ზომები და რანჟირება.
29. გამოთვლითი გრაფიკის ახსნა
TensorFlow-ის საფუძველი არის გამოთვლითი გრაფიკის აგება. თითოეული კვანძი ფუნქციონირებს კვანძების ქსელში, სადაც კვანძები დგას მათემატიკური ოპერაციებისთვის და კიდეები ტენსორებისთვის.
მას ზოგჯერ მოიხსენიებენ, როგორც "მონაცემთა ნაკადის გრაფიკს", რადგან მონაცემები მიედინება გრაფის სახით.
30. გენერაციული საპირისპირო ქსელები (GANs): რა არის ისინი?
Deep Learning-ში გენერაციული მოდელირება ხორციელდება გენერაციული საპირისპირო ქსელების გამოყენებით. ეს არის უკონტროლო სამუშაო, სადაც შედეგი მიიღება შეყვანის მონაცემებში შაბლონების იდენტიფიცირებით.
დისკრიმინატორი გამოიყენება გენერატორის მიერ წარმოებული შემთხვევების კატეგორიზაციისთვის, ხოლო გენერატორი გამოიყენება ახალი მაგალითების შესაქმნელად.
31. როგორ აირჩევთ ნეირონებისა და ფარული ფენების რაოდენობას, რომლებიც უნდა ჩართოთ ნერვულ ქსელში არქიტექტურის შემუშავებისას?
ბიზნეს გამოწვევის გათვალისწინებით, ნეირონების ზუსტი რაოდენობა და ფარული ფენები, რომლებიც საჭიროა ნერვული ქსელის არქიტექტურის შესაქმნელად, არ შეიძლება განისაზღვროს რაიმე მკაცრი და სწრაფი წესებით.
ნერვულ ქსელში, ფარული ფენის ზომა უნდა იყოს სადღაც შეყვანის და გამომავალი ფენების ზომის შუაში.
ნერვული ქსელის დიზაინის შექმნის დასაწყისი შეიძლება მიღწეული იყოს რამდენიმე მარტივი მეთოდით, თუმცა:
ძირითადი სისტემური ტესტირებით დაწყება იმის დასანახად, თუ რა იქნება საუკეთესოდ ნებისმიერი კონკრეტული მონაცემთა ნაკრებისთვის, რომელიც დაფუძნებულია ნერვულ ქსელებთან მსგავს რეალურ გარემოში არსებულ გამოცდილებაზე, საუკეთესო გზაა რეალურ სამყაროში პროგნოზირებადი მოდელირების ყოველი უნიკალური გამოწვევის დასაძლევად.
ქსელის კონფიგურაცია შეიძლება შეირჩეს საკითხის დომენის ცოდნისა და ნერვული ქსელის წინა გამოცდილების საფუძველზე. ნერვული ქსელის დაყენების შეფასებისას, ფენების და ნეირონების რაოდენობა, რომლებიც გამოიყენება დაკავშირებულ პრობლემებზე, კარგი ადგილია დასაწყებად.
ნერვული ქსელის სირთულე თანდათან უნდა გაიზარდოს პროგნოზირებული გამომავალი და სიზუსტის საფუძველზე, დაწყებული ნერვული ქსელის მარტივი დიზაინით.
32. რა სახის ნეირონული ქსელები გამოიყენება ღრმა გაძლიერების სწავლით?
- მანქანათმცოდნეობის პარადიგმაში, რომელსაც ეწოდება განმტკიცების სწავლა, მოდელი მოქმედებს კუმულაციური ჯილდოს იდეის მაქსიმალურად გაზრდის მიზნით, ისევე როგორც ცოცხალი საგნები.
- თამაშები და თვითმართვადი მანქანები ორივე აღწერილია, როგორც პრობლემები გაძლიერების სწავლება.
- ეკრანი გამოიყენება შეყვანის სახით, თუ პრობლემა თამაშია. შემდეგი ფაზებისთვის გამოსავლის შესაქმნელად, ალგორითმი იღებს პიქსელებს შეყვანად და ამუშავებს მათ კონვოლუციური ნერვული ქსელების მრავალი ფენის მეშვეობით.
- მოდელის ქმედებების შედეგები, ხელსაყრელი ან ცუდი, მოქმედებს როგორც გამაძლიერებელი.
დასკვნა
ღრმა სწავლება წლების განმავლობაში გაიზარდა პოპულარობით, აპლიკაციებით პრაქტიკულად ყველა ინდუსტრიის სფეროში.
კომპანიები სულ უფრო მეტად ეძებენ კომპეტენტურ ექსპერტებს, რომლებსაც შეუძლიათ შეიმუშაონ მოდელები, რომლებიც იმეორებენ ადამიანის ქცევას ღრმა სწავლისა და მანქანათმცოდნეობის მიდგომების გამოყენებით.
კანდიდატებს, რომლებიც გაზრდიან თავიანთ უნარებს და ინარჩუნებენ ცოდნას ამ უახლესი ტექნოლოგიების შესახებ, შეუძლიათ იპოვონ სამუშაო შესაძლებლობების ფართო სპექტრი მიმზიდველი ანაზღაურებით.
თქვენ შეგიძლიათ დაიწყოთ ინტერვიუებით ახლა, როდესაც კარგად გესმით, როგორ უპასუხოთ ყველაზე ხშირად მოთხოვნილ ღრმა სწავლის ინტერვიუს კითხვებს. გადადგით შემდეგი ნაბიჯი თქვენი მიზნებიდან გამომდინარე.
ეწვიეთ Hashdork's-ს ინტერვიუს სერია ინტერვიუებისთვის მოსამზადებლად.
დატოვე პასუხი