مواد جي جدول[لڪ][ڏسو]
- 1. اصل ۾ ڊيپ لرننگ ڇا آهي؟
- 2. ڇا ڊيپ لرننگ کي مشين لرننگ کان ڌار ڪري ٿو؟
- 3. نيورل نيٽ ورڪ بابت توهان جي موجوده سمجھون ڇا آهن؟
- 4. ڇا واقعي هڪ perceptron آهي؟
- 5. ڇا واقعي هڪ ڊيپ نيورل نيٽ ورڪ آهي؟
- 6. هڪ ملٽي ليئر پرسيپٽرون (MLP) ڇا آهي؟
- 7. نيورل نيٽ ورڪ ۾ چالو ڪرڻ جا ڪهڙا مقصد ادا ڪندا آهن؟
- 8. اصل ۾ Gradient Descent ڇا آهي؟
- 9. اصل ۾ قيمت فنڪشن ڇا آهي؟
- 10. ڪيئن گہرا نيٽ ورڪ اٿلي نيٽ ورڪن کان وڌيڪ پرفارم ڪري سگھن ٿا؟
- 11. اڳتي وڌڻ جي وضاحت ڪريو.
- 12. پٺڀرائي ڇا آهي؟
- 13. ڊيپ لرننگ جي حوالي سان، توهان گريجوئيٽ ڪلپنگ کي ڪيئن سمجھندا آهيو؟
- 14. Softmax ۽ ReLU فنڪشن ڇا آهن؟
- 15. ڇا هڪ نيورل نيٽ ورڪ ماڊل کي تربيت ڏئي سگهجي ٿو سڀني وزنن سان 0 تي مقرر؟
- 16. ڇا هڪ دور کي بيچ ۽ هڪ ورهاڱي کان ڌار ڪري ٿو؟
- 17. Batch Normalization ۽ Dropout ڇا آهن؟
- 18. ڇا اسٽوچاسٽڪ گراڊينٽ ڊيسنٽ کي بيچ گرڊيئينٽ ڊيسنٽ کان الڳ ڪري ٿو؟
- 19. نيورل نيٽ ورڪ ۾ غير لڪيريت کي شامل ڪرڻ ڇو ضروري آهي؟
- 20. گہرے سکيا ۾ ٽينسر ڇا آهي؟
- 21. توهان هڪ ڊيپ لرننگ ماڊل لاءِ ايڪٽيويشن فنڪشن کي ڪيئن چونڊيندا؟
- 22. سي اين اين مان توهان جو مطلب ڇا آهي؟
- 23. سي اين اين جون ڪيتريون ئي پرتون ڇا آهن؟
- 24. اوور ۽ انڊرفٽنگ جا اثر ڪهڙا آهن، ۽ توهان انهن کان ڪيئن بچي سگهو ٿا؟
- 25. گہرے سکيا ۾، آر اين اين ڇا آهي؟
- 26. آدم اصلاحي بيان ڪريو
- 27. Deep autoencoders: اھي ڇا آھن؟
- 28. Tensorflow ۾ Tensor جو مطلب ڇا آھي؟
- 29. ھڪڙي حسابي گراف جي وضاحت
- 30. پيدا ٿيندڙ مخالف نيٽ ورڪ (GANs): اهي ڇا آهن؟
- 31. توهان ڪيئن چونڊيندا نيورونن جو تعداد ۽ لڪيل تہن کي نيورل نيٽ ورڪ ۾ شامل ڪرڻ لاءِ جيئن توهان آرڪيٽيڪچر کي ترتيب ڏيو ٿا؟
- 32. ڪهڙي قسم جا نيورل نيٽ ورڪ ڊيپ رينفورسمينٽ لرننگ ذريعي استعمال ڪيا ويندا آهن؟
- ٿڪل
گہرے سکيا ھڪڙو نئون خيال نه آھي. مصنوعي نيورل نيٽ ورڪ مشين جي سکيا جي واحد بنياد طور ڪم ڪن ٿا، جنهن کي ڊيپ لرننگ جي نالي سان سڃاتو وڃي ٿو.
گہرے سکيا هڪ انساني دماغ جي نقل آهي، گهڻو ڪري نيورل نيٽ ورڪ آهن، جيئن اهي انساني دماغ جي نقل ڪرڻ لاء ٺاهيا ويا آهن.
اهو ڪجهه وقت کان ٿي چڪو آهي. اڄڪلهه، هرڪو ان بابت ڳالهائي رهيو آهي ڇو ته اسان وٽ تقريبن پروسيسنگ پاور يا ڊيٽا نه آهي جيترو اسان هاڻي ڪندا آهيون.
گذريل 20 سالن ۾، ڊيپ لرننگ ۽ مشين لرننگ، پروسيسنگ جي صلاحيت ۾ ڊرامائي اڀار جي نتيجي ۾ سامهون آئي آهي.
توھان جي مدد ڪرڻ لاءِ توھان جي ڪنھن سوالن جي تياري ڪرڻ لاءِ جنھن کي توھان منهن ڏئي سگھوٿا جڏھن توھان پنھنجي خوابن جي نوڪري ڳولي رھيا آھيو، ھي پوسٽ توھان کي ھدايت ڪندي ڪيترن ئي گہرے سکيا وارو انٽرويو سوالن جي ذريعي، سادو کان پيچيده تائين.
1. اصل ۾ ڊيپ لرننگ ڇا آهي؟
جيڪڏهن توهان شرڪت ڪري رهيا آهيو a تمام گهڻي سکيا انٽرويو ۾، توهان بلاشبہ سمجھندا آهيو ته گہرے سکيا ڇا آهي. جڏهن ته، انٽرويو وٺندڙ، توهان کي هن سوال جي جواب ۾ هڪ وضاحت سان گڏ تفصيلي جواب ڏيڻ جي اميد رکي ٿو.
تربيت ڏيڻ لاءِ نظرياتي نيٽ ورڪ گہرے سکيا لاءِ، منظم يا غير منظم ڊيٽا جي وڏي مقدار کي استعمال ڪيو وڃي. پوشیدہ نمونن ۽ خاصيتن کي ڳولڻ لاء، اهو پيچيده طريقيڪار (مثال طور، ڪتي جي تصوير کان ٻلي جي تصوير ۾ فرق ڪرڻ).
2. ڇا ڊيپ لرننگ کي مشين لرننگ کان ڌار ڪري ٿو؟
مصنوعي ذهانت جي هڪ شاخ جي طور تي جنهن کي مشين سکيا جي نالي سان سڃاتو وڃي ٿو، اسان ڪمپيوٽرن کي ڊيٽا ۽ شمارياتي ۽ الگورٿمڪ ٽيڪنالاجي استعمال ڪندي تربيت ڏيون ٿا ته جيئن اهي وقت سان گڏ بهتر ٿين.
جي طور تي مشين جي سکيا، گہرے سکيا انساني دماغ ۾ ڏٺو ويو نيورل نيٽورڪ فن تعمير جي نقل ڪري ٿي.
3. نيورل نيٽ ورڪ بابت توهان جي موجوده سمجھون ڇا آهن؟
مصنوعي نظام جيڪي نيورل نيٽ ورڪ جي نالي سان سڃاتل آهن، انساني جسم ۾ موجود نامياتي نيورل نيٽ ورڪن کي تمام ويجھو ملن ٿا.
ھڪڙي ٽيڪنڪ کي استعمال ڪندي جيڪو جھڙو آھي ڪيئن انساني دماغ فنڪشن، هڪ نيورل نيٽورڪ الگورتھم جو هڪ مجموعو آهي جنهن جو مقصد ڊيٽا جي هڪ ٽڪرا ۾ بنيادي رابطي کي سڃاڻڻ آهي.
اهي سسٽم ٽاسڪ جي مخصوص ڄاڻ حاصل ڪندا آهن پاڻ کي ڊيٽا سيٽ ۽ مثالن جي حد تائين ظاهر ڪندي، بجاءِ ڪنهن به ڪم جي مخصوص قاعدن تي عمل ڪندي.
خيال اهو آهي ته انهن ڊيٽا سيٽن جي اڳ-پروگرام ٿيل سمجھڻ جي بدران، سسٽم ان ڊيٽا مان ڌار ڌار خاصيتون سکي ٿو جيڪو ان کي فيڊ ڪيو ويو آهي.
ٽي نيٽ ورڪ پرت جيڪي عام طور تي نيورل نيٽ ورڪ ۾ استعمال ڪيا ويا آهن هن ريت آهن:
- ان پٽ پرت
- لڪيل پرت
- آئوٽ پرت
4. ڇا واقعي هڪ perceptron آهي؟
انساني دماغ ۾ موجود حياتياتي نيورون هڪ پرسيپٽران جي مقابلي ۾ آهي. پرسيپٽرون طرفان ڪيترائي انپٽ وصول ڪيا ويندا آهن، جيڪي پوءِ ڪيتريون ئي تبديليون ۽ افعال انجام ڏين ٿا ۽ پيداوار پيدا ڪن ٿا.
هڪ لڪير ماڊل جنهن کي پرسيپٽرون سڏيو ويندو آهي بائنري درجه بندي ۾ استعمال ڪيو ويندو آهي. اهو هڪ نيورون کي مختلف قسم جي انپٽس سان گڏ ڪري ٿو، هر هڪ مختلف وزن سان.
نيورون انهن وزني انپٽس کي استعمال ڪندي هڪ فنڪشن جو حساب ڪري ٿو ۽ نتيجو ڪڍي ٿو.
5. ڇا واقعي هڪ ڊيپ نيورل نيٽ ورڪ آهي؟
هڪ ڊيپ نيورل نيٽ ورڪ هڪ مصنوعي نيورل نيٽورڪ (ANN) آهي جنهن ۾ ان پٽ ۽ آئوٽ پُٽ پرت (DNN) جي وچ ۾ ڪيترن ئي پرتن سان گڏ.
ڊيپ نيورل نيٽ ورڪ ڊيپ آرڪيٽيڪچر نيورل نيٽ ورڪ آهن. لفظ "گہرا" ھڪڙي پرت ۾ ڪيترن ئي سطحن ۽ يونٽن سان ڪم ڪرڻ لاء اشارو ڪري ٿو. وڌيڪ صحيح ماڊل ٺاهي سگھجن ٿا وڌيڪ ۽ وڏيون تہون شامل ڪرڻ لاءِ وڏين سطحن جي نمونن کي پڪڙڻ لاءِ.
6. هڪ ملٽي ليئر پرسيپٽرون (MLP) ڇا آهي؟
انپٽ، پوشیدہ، ۽ ٻاھرين تہون موجود آھن MLPs ۾، گھڻو ڪري اعصابي نيٽ ورڪن ۾. اهو هڪ يا وڌيڪ لڪيل پرتن سان گڏ هڪ واحد پرت پرسيپٽرون وانگر ٺهيل آهي.
ھڪڙي پرت جي بائنري آئوٽ پرسيپٽرون صرف لڪير کان جدا ٿيندڙ طبقن (0,1) کي درجه بندي ڪري سگھي ٿو، جڏھن ته MLP غير لائنر طبقن کي درجه بندي ڪري سگھي ٿو.
7. نيورل نيٽ ورڪ ۾ چالو ڪرڻ جا ڪهڙا مقصد ادا ڪندا آهن؟
هڪ چالو ڪرڻ وارو فعل اهو طئي ڪري ٿو ته ڇا نيورون کي بنيادي سطح تي چالو ٿيڻ گهرجي يا نه. ڪو به فعال ٿيڻ وارو فعل ان پٽ جي وزن جي رقم ۽ تعصب کي ان پٽ طور قبول ڪري سگھي ٿو. چالو ڪرڻ جي ڪمن ۾ قدم فنڪشن، Sigmoid، ReLU، Tanh، ۽ Softmax شامل آهن.
8. اصل ۾ Gradient Descent ڇا آهي؟
قيمت جي فنڪشن يا غلطي کي گهٽائڻ لاءِ بهترين طريقو تدريسي نزول آهي. ھڪڙي فنڪشن جي مقامي-گلوبل مينيما ڳولڻ جو مقصد آھي. اهو رستو بيان ڪري ٿو ماڊل کي غلطي کي گهٽائڻ لاءِ پيروي ڪرڻ گهرجي.
9. اصل ۾ قيمت فنڪشن ڇا آهي؟
قيمت فنڪشن هڪ ميٽرڪ آهي انهي جو جائزو وٺڻ لاءِ ته توهان جو ماڊل ڪيترو سٺو ڪم ڪري ٿو. اهو ڪڏهن ڪڏهن "نقصان" يا "غلطي" طور سڃاتو وڃي ٿو. پٺڀرائي دوران، ان کي استعمال ڪيو ويندو آهي حساب ڪرڻ لاءِ آئوٽ پرت جي غلطي.
اسان ان غلطيءَ جو استحصال ڪريون ٿا نيورل نيٽ ورڪ جي تربيتي عمل کي اڳتي وڌائڻ لاءِ ان کي نيورل نيٽ ورڪ ذريعي پوئتي ڌڪي.
10. ڪيئن گہرا نيٽ ورڪ اٿلي نيٽ ورڪن کان وڌيڪ پرفارم ڪري سگھن ٿا؟
لڪيل پرتون نيورل نيٽ ورڪن ۾ شامل ڪيون وينديون آهن اضافي طور تي ان پٽ ۽ آئوٽ پرت. ان پٽ ۽ آئوٽ پٽ جي وچ ۾، اٿل نيورل نيٽ ورڪ هڪ واحد لڪيل پرت کي ملازمت ڪن ٿا، جڏهن ته ڊيپ نيورل نيٽ ورڪ ڪيترن ئي سطحن کي استعمال ڪن ٿا.
ڪنهن به فنڪشن ۾ فٽ ڪرڻ جي قابل ٿيڻ لاءِ هڪ ٿلهي نيٽ ورڪ کي ڪيترن ئي پيٽرولن جي ضرورت آهي. ڊيپ نيٽ ورڪ ڪم ڪري سگھن ٿا بھتر بھترين پيٽرولن جي گھٽ تعداد سان، ڇاڪاڻ ته انھن ۾ ڪيترائي پرت شامل آھن.
ڊيپ نيٽ ورڪن کي هاڻي ترجيح ڏني وئي آهي ڇاڪاڻ ته ڪنهن به قسم جي ڊيٽا ماڊلنگ سان ڪم ڪرڻ ۾ انهن جي استحڪام جي ڪري، چاهي اهو تقرير يا تصوير جي سڃاڻپ لاءِ هجي.
11. اڳتي وڌڻ جي وضاحت ڪريو.
انپٽس کي وزن سان گڏ دفن ٿيل پرت ڏانهن منتقل ڪيو ويندو آهي هڪ پروسيس ۾ جيڪو اڳتي وڌڻ جي پروپيگيشن طور سڃاتو وڃي ٿو.
ايڪٽيويشن فنڪشن جو آئوٽ هر هڪ دفن ٿيل پرت ۾ حساب ڪيو ويندو آهي پروسيسنگ کان اڳ هيٺ ڏنل پرت تي وڃي سگھي ٿو.
اهو عمل ان پٽ پرت تي شروع ٿئي ٿو ۽ آخري آئوٽ پُٽ پرت تائين ترقي ڪري ٿو، اهڙيءَ طرح نالو اڳتي هلي پروپيگيشن.
12. پٺڀرائي ڇا آهي؟
جڏهن نيورل نيٽ ورڪ ۾ وزن ۽ تعصب کي ترتيب ڏني وئي آهي، پس منظر کي استعمال ڪيو ويندو آهي قيمت جي ڪم کي گهٽائڻ لاءِ پهريون مشاهدو ڪندي ته قيمت ڪيئن بدلجي ٿي.
هر لڪيل پرت تي گريجوئيٽ کي سمجهڻ هن تبديلي کي آسان بڻائي ٿو.
اهو عمل، جنهن کي بيڪ پروپيگيشن طور سڃاتو وڃي ٿو، آئوٽ پُٽ پرت کان شروع ٿئي ٿو ۽ ان پٽ پرت ڏانهن پوئتي هليو وڃي ٿو.
13. ڊيپ لرننگ جي حوالي سان، توهان گريجوئيٽ ڪلپنگ کي ڪيئن سمجھندا آهيو؟
گريڊيئيٽ ڪلپنگ هڪ طريقو آهي جنهن کي ڦاٽي گريڊيئنٽس جي مسئلي کي حل ڪرڻ لاءِ جيڪو پٺڀرائي دوران پيدا ٿئي ٿو (اها حالت جنهن ۾ اهم غلط گريڊينٽ وقت سان گڏ گڏ ٿين ٿا، جنهن جي نتيجي ۾ ٽريننگ دوران نيورل نيٽ ورڪ ماڊل وزن ۾ اهم ترميمون ٿين ٿيون).
ڌماڪي وارو گرڊينٽ هڪ مسئلو آهي جيڪو پيدا ٿئي ٿو جڏهن گريجوئيٽ ٽريننگ دوران تمام وڏا ٿي وڃن ٿا، ماڊل کي غير مستحڪم بڻائڻ. جيڪڏهن گريجوئيٽ متوقع حد کان وڌي چڪو آهي، گريجوئيٽ ويلز عنصر جي عنصر کي اڳواٽ بيان ڪيل گهٽ ۾ گهٽ يا وڌ ۾ وڌ قدر ڏانهن ڌڪيو ويندو آهي.
گريجوئيٽ ڪلپنگ ٽريننگ دوران نيورل نيٽ ورڪ جي عددي استحڪام کي وڌائي ٿي، پر ان جو ماڊل جي ڪارڪردگي تي تمام گھٽ اثر پوي ٿو.
14. Softmax ۽ ReLU فنڪشن ڇا آهن؟
Softmax نالي هڪ ايڪٽيويشن فنڪشن 0 ۽ 1 جي وچ ۾ هڪ آئوٽ پٽ پيدا ڪري ٿو. هر آئوٽ کي ورهايو ويو آهي ته جيئن سڀني آئوٽ پُٽ جو مجموعو هڪ هجي. ٻاھرين تہن لاءِ، Softmax اڪثر استعمال ڪيو ويندو آھي.
Rectified Linear Unit، ڪڏهن ڪڏهن ReLU جي نالي سان سڃاتو وڃي ٿو، سڀ کان وڌيڪ استعمال ٿيل ايڪٽيوشن فنڪشن آهي. جيڪڏهن X مثبت آهي، اهو ايڪس ڪڍي ٿو، ٻي صورت ۾ اهو صفر ڪڍي ٿو. ReLU باقاعده طور تي دفن ٿيل تہن تي لاڳو ٿئي ٿو.
15. ڇا هڪ نيورل نيٽ ورڪ ماڊل کي تربيت ڏئي سگهجي ٿو سڀني وزنن سان 0 تي مقرر؟
نيورل نيٽ ورڪ ڪڏهن به ڏنل ڪم کي مڪمل ڪرڻ نه سکندو، ان ڪري سڀني وزنن کي 0 تائين شروع ڪندي ماڊل کي تربيت ڏيڻ ممڪن ناهي.
W [1] ۾ هر وزن لاءِ نڪتل شيون ساڳيون رهنديون، جيڪڏهن سڀئي وزن صفر تي شروع ڪيا وڃن، جنهن جي نتيجي ۾ نيورون ساڳيون خاصيتون ٻيهر سکيا ويندا.
نه صرف وزن کي 0 تائين شروع ڪرڻ، پر مستقل جي ڪنهن به شڪل ۾ هڪ ذيلي پار نتيجو جو نتيجو آهي.
16. ڇا هڪ دور کي بيچ ۽ هڪ ورهاڱي کان ڌار ڪري ٿو؟
پروسيسنگ ڊيٽا سيٽن جي مختلف شڪلن ۽ تدريسي نزول جي ٽيڪنالاجي ۾ شامل آهن بيچ، ورهاڱي، ۽ دور. Epoch شامل آهي هڪ ڀيرو-هڪ نيورل نيٽ ورڪ ذريعي مڪمل ڊيٽا سيٽ سان، ٻئي اڳتي ۽ پوئتي.
قابل اعتماد نتيجا مهيا ڪرڻ لاءِ، ڊيٽا سيٽ کي ڪيترائي ڀيرا پاس ڪيو ويندو آهي ڇاڪاڻ ته اهو هڪ ئي ڪوشش ۾ پاس ڪرڻ تمام وڏو آهي.
اهو عمل بار بار هڪ ننڍي مقدار جي ڊيٽا کي هڪ نيورل نيٽ ورڪ ذريعي هلائڻ جو حوالو ڏنو ويو آهي iteration. انهي ڳالهه جي ضمانت ڏيڻ لاءِ ته ڊيٽا سيٽ ڪاميابيءَ سان نيورل نيٽ ورڪن کي پار ڪري، ان کي ڪيترن ئي بيچن يا سبسٽس ۾ ورهائي سگهجي ٿو، جنهن کي بيچنگ چئبو آهي.
ڊيٽا گڏ ڪرڻ جي سائيز تي مدار رکندي، سڀئي ٽي طريقا- epoch، iteration، ۽ بيچ سائيز- بنيادي طور تي استعمال ڪرڻ جا طريقا آھن. گريجوئيٽ نزول الگورتھم.
17. Batch Normalization ۽ Dropout ڇا آهن؟
ڊراپ آئوٽ ڊيٽا کي اوورفٽ ڪرڻ کان روڪي ٿو بي ترتيب طور تي نظر ايندڙ ۽ لڪيل نيٽ ورڪ يونٽن کي هٽائڻ سان (عام طور تي نوڊس جو 20 سيڪڙو گهٽجڻ). اهو نيٽ ورڪ کي ڪنورج ڪرڻ لاءِ گهربل تعداد کي ٻيڻو ڪري ٿو.
هر پرت ۾ انپٽس کي عام ڪرڻ سان صفر جي هڪ معنيٰ آئوٽ پُٽ چالو ڪرڻ ۽ هڪ جي معياري انحراف ڪرڻ لاءِ، بيچ نارملائيزيشن هڪ حڪمت عملي آهي جيڪو اعصابي نيٽ ورڪ جي ڪارڪردگي ۽ استحڪام کي وڌائڻ لاءِ.
18. ڇا اسٽوچاسٽڪ گراڊينٽ ڊيسنٽ کي بيچ گرڊيئينٽ ڊيسنٽ کان الڳ ڪري ٿو؟
بيچ گريجوئيٽ نزول:
- مڪمل ڊيٽا سيٽ استعمال ڪيو ويندو آهي گريجوئيٽ کي بيچ گريجوئيٽ لاءِ تعمير ڪرڻ لاءِ.
- ڊيٽا جي وڏي مقدار ۽ سست رفتاري سان اپڊيٽ ٿيندڙ وزن ڪنورجن کي ڏکيو بڻائي ٿو.
Stochastic Gradient Descent:
- اسٽوچسٽڪ گريجوئيٽ گريجوئيٽ کي ڳڻڻ لاءِ ھڪڙو نمونو استعمال ڪري ٿو.
- بار بار وزن جي تبديلين جي ڪري، اهو بيچ گريجوئيٽ کان وڌيڪ تيزيء سان تبديل ڪري ٿو.
19. نيورل نيٽ ورڪ ۾ غير لڪيريت کي شامل ڪرڻ ڇو ضروري آهي؟
ڪابه پرواه ناهي ته اتي ڪيتريون ئي پرتون آهن، هڪ نيورل نيٽ ورڪ غير لڪيريت جي غير موجودگي ۾ هڪ پرسيپٽرون وانگر عمل ڪندو، ان پٽ تي لڪيريء سان ان پٽ تي منحصر هوندو.
ان کي ٻئي طريقي سان رکڻ لاءِ، n پرت ۽ m لڪيل يونٽن سان گڏ هڪ نيورل نيٽ ورڪ ۽ لڪير ايڪٽيوشن افعال هڪ لڪير نيورل نيٽ ورڪ جي برابر آهي بغير لڪيل پرت جي ۽ صرف لڪير جي علحدگي واري سرحدن کي ڳولڻ جي صلاحيت سان.
غير لڪير جي بغير، هڪ نيورل نيٽورڪ پيچيده مسئلن کي حل ڪرڻ ۽ ان پٽ کي درست طور تي درجه بندي ڪرڻ جي قابل ناهي.
20. گہرے سکيا ۾ ٽينسر ڇا آهي؟
ٽينسر جي نالي سان سڃاتل هڪ گھڻائي واري صف کي ميٽرڪس ۽ ویکٹرز جي عام ڪرڻ جي طور تي ڪم ڪري ٿو. اهو هڪ اهم ڊيٽا جي جوڙجڪ آهي گہرے سکيا لاءِ. بنيادي ڊيٽا جي قسمن جا N-dimensional arrays tensors جي نمائندگي ڪرڻ لاءِ استعمال ٿيندا آھن.
ٽينسر جو هر حصو ساڳيو ڊيٽا جو قسم آهي، ۽ هي ڊيٽا جو قسم هميشه سڃاتل آهي. اهو ممڪن آهي ته شڪل جو فقط هڪ ٽڪرو- يعني، ڪيترا طول و عرض آهن ۽ هر هڪ ڪيترو وڏو آهي- سڃاتل آهي.
حالتن ۾ جڏهن ان پٽ پڻ مڪمل طور تي سڃاتل آهن، آپريشن جي اڪثريت مڪمل طور تي ڄاڻايل ٽينسر پيدا ڪري ٿي؛ ٻين حالتن ۾، ٽينسر جو فارم صرف گراف جي عمل جي دوران قائم ڪري سگهجي ٿو.
21. توهان هڪ ڊيپ لرننگ ماڊل لاءِ ايڪٽيويشن فنڪشن کي ڪيئن چونڊيندا؟
- اهو سمجھ ۾ اچي ٿو ته هڪ لڪير چالو ڪرڻ واري فنڪشن کي ملازمت ڪرڻ جي صورت ۾ نتيجو جيڪو متوقع ٿيڻو آهي حقيقي آهي.
- هڪ Sigmoid فنڪشن استعمال ٿيڻ گهرجي جيڪڏهن پيداوار جيڪا اڳڪٿي ڪئي وڃي اها بائنري ڪلاس جي امڪاني آهي.
- هڪ Tanh فنڪشن استعمال ڪري سگهجي ٿو جيڪڏهن پروجيڪٽ ٿيل آئوٽ ٻن درجه بندي تي مشتمل آهي.
- ان جي حساب سان آسانيءَ جي ڪري، ReLU فنڪشن مختلف حالتن ۾ لاڳو ٿئي ٿو.
22. سي اين اين مان توهان جو مطلب ڇا آهي؟
گہرے اعصابي نيٽ ورڪ جيڪي بصري تصويرن جي تشخيص ۾ ماهر ڪن ٿا، ڪنوولوشنل نيورل نيٽ ورڪ (CNN، يا ConvNet) شامل آهن. هتي، اعصابي نيٽ ورڪن جي بجاءِ جتي هڪ ویکٹر ان پٽ جي نمائندگي ڪري ٿو، ان پٽ هڪ ملٽي چينل تصوير آهي.
Multilayer perceptrons هڪ خاص طريقي سان CNNs پاران استعمال ڪيا ويا آهن جن کي تمام گهٽ پري پروسيسنگ جي ضرورت آهي.
23. سي اين اين جون ڪيتريون ئي پرتون ڇا آهن؟
Convolutional Layer: مکيه پرت Convolutional Lay آهي، جنهن ۾ مختلف قسم جا سکڻ وارا فلٽر ۽ هڪ قابل قبول ميدان هوندو آهي. هي شروعاتي پرت ان پٽ ڊيٽا وٺي ٿي ۽ ان جون خاصيتون ڪڍي ٿي.
ReLU Layer: نيٽ ورڪ کي غير لڪير بنائڻ سان، هي پرت منفي پکسلز کي صفر ۾ تبديل ڪري ٿي.
پولنگ پرت: پروسيسنگ ۽ نيٽورڪ سيٽنگن کي گھٽائڻ سان، پولنگ پرت تدريجي طور تي نمائندگي جي فضائي سائيز کي گھٽائي ٿي. وڌ ۾ وڌ پولنگ پولنگ جو سڀ کان وڌيڪ استعمال ٿيل طريقو آهي.
24. اوور ۽ انڊرفٽنگ جا اثر ڪهڙا آهن، ۽ توهان انهن کان ڪيئن بچي سگهو ٿا؟
اهو اوورفٽنگ طور سڃاتو وڃي ٿو جڏهن هڪ ماڊل ٽريننگ ڊيٽا ۾ پيچيدگين ۽ شور کي انهي نقطي تي سکي ٿو جتي اهو منفي طور تي ماڊل جي تازي ڊيٽا جي استعمال تي اثر انداز ٿئي ٿو.
اهو غير لائنر ماڊل سان ٿيڻ جو وڌيڪ امڪان آهي جيڪي گول فنڪشن کي سکڻ دوران وڌيڪ موافقت هوندا آهن. ھڪڙي ماڊل کي تربيت ڏئي سگھجي ٿو گاڏين ۽ ٽرڪن کي ڳولڻ لاء، پر اھو صرف ھڪڙي خاص باڪس فارم سان گاڏين کي سڃاڻڻ جي قابل ٿي سگھي ٿو.
ڏنو ويو آهي ته اهو صرف هڪ قسم جي ٽرڪ تي تربيت ڪئي وئي هئي، اهو شايد فليٽ بيڊ ٽرڪ کي ڳولڻ جي قابل نه هجي. ٽريننگ ڊيٽا تي، ماڊل سٺو ڪم ڪري ٿو، پر حقيقي دنيا ۾ نه.
هڪ هيٺان ٺهيل ماڊل هڪ ڏانهن اشارو ڪري ٿو جيڪو ڊيٽا تي ڪافي تربيت نه آهي يا نئين معلومات کي عام ڪرڻ جي قابل ناهي. اهو اڪثر ڪري ٿو جڏهن هڪ ماڊل تربيت ڪئي پئي وڃي نا مناسب يا غلط ڊيٽا سان.
درستگي ۽ ڪارڪردگي ٻئي سمجھوتا آھن گھٽتائي سان.
ماڊل جي درستگي جو اندازو لڳائڻ لاءِ ڊيٽا کي ٻيهر نموني ڏيڻ (K-fold cross-validation) ۽ ماڊل جو جائزو وٺڻ لاءِ هڪ تصديق واري ڊيٽا سيٽ کي استعمال ڪرڻ جا ٻه طريقا آهن اوورفٽنگ ۽ انڊرفٽنگ کان بچڻ لاءِ.
25. گہرے سکيا ۾، آر اين اين ڇا آهي؟
Recurrent neural networks (RNNs)، هڪ عام قسم جي مصنوعي اعصابي نيٽ ورڪ، مخفف RNN ذريعي وڃو. انهن کي ٻين شين جي وچ ۾ جينوم، هٿ لکڻ، ٽيڪسٽ، ۽ ڊيٽا جي ترتيبن کي پروسيس ڪرڻ لاء ملازمت ڏني وئي آهي. ضروري تربيت لاءِ، RNNs ملازمن کي پٺڀرائي ڪرڻ.
26. آدم اصلاحي بيان ڪريو
ايڊم آپٽمائزر، جنهن کي adaptive momentum جي نالي سان پڻ سڃاتو وڃي ٿو، هڪ اصلاحي ٽيڪنڪ آهي جيڪا شور واري حالتن کي نروار گرڊينٽ سان سنڀالڻ لاءِ تيار ڪئي وئي آهي.
تيز ڪنورجنسي لاءِ في-پيراميٽر اپڊيٽ مهيا ڪرڻ کان علاوه، ايڊم آپٽمائزر مومينٽم ذريعي ڪنورجنس کي وڌائي ٿو، انهي کي يقيني بڻائي ٿو ته ماڊل سيڊل پوائنٽ ۾ ڦاسي نه پوي.
27. Deep autoencoders: اھي ڇا آھن؟
ڊيپ آٽو اينڪوڊر ٻن سميٽري ڊيپ بيليف نيٽ ورڪن جو اجتماعي نالو آهي جنهن ۾ عام طور تي نيٽ ورڪ جي انڪوڊنگ اڌ لاءِ چار يا پنج ٿلهي پرت شامل آهن ۽ ڊيڪوڊنگ اڌ لاءِ چار يا پنج پرتن جو ٻيو سيٽ.
اهي پرتون گہرے عقيدت جي نيٽ ورڪ جو بنياد بڻجن ٿيون ۽ بولٽزمان مشينن طرفان محدود آهن. هر RBM کان پوء، هڪ گہرے آٽو اينڪوڊر MNIST ڊيٽا سيٽ ۾ بائنري تبديلين کي لاڳو ڪري ٿو.
اهي ٻين ڊيٽا سيٽن ۾ پڻ استعمال ڪري سگھجن ٿيون جتي گاس جي سڌاريل تبديلين کي RBM تي ترجيح ڏني ويندي.
28. Tensorflow ۾ Tensor جو مطلب ڇا آھي؟
هي هڪ ٻيو ڊگهو سکيا وارو انٽرويو سوال آهي جيڪو باقاعده پڇيو ويندو آهي. هڪ ٽينسر هڪ رياضياتي تصور آهي جنهن کي تصور ڪيو ويندو آهي اعلي جہتي صفن جي طور تي.
ٽينسر اهي ڊيٽا صفون آهن جيڪي نيورل نيٽ ورڪ ۾ ان پٽ طور مهيا ڪيا ويا آهن ۽ مختلف طول و عرض ۽ درجه بندي آهن.
29. ھڪڙي حسابي گراف جي وضاحت
TensorFlow جو بنياد هڪ ڪمپيوٽري گراف جي تعمير آهي. هر نوڊ نوڊس جي نيٽ ورڪ ۾ ڪم ڪري ٿو، جتي نوڊس رياضياتي عملن لاءِ بيٺا آهن ۽ ٽينسر لاءِ ڪنارن.
اهو ڪڏهن ڪڏهن "ڊيٽا فلو گراف" جي طور تي حوالو ڏنو ويندو آهي ڇاڪاڻ ته ڊيٽا گراف جي شڪل ۾ وهندي آهي.
30. پيدا ٿيندڙ مخالف نيٽ ورڪ (GANs): اهي ڇا آهن؟
ڊيپ لرننگ ۾، جنريٽيو ماڊلنگ جنريٽو مخالف نيٽ ورڪ استعمال ڪندي مڪمل ڪئي ويندي آهي. اهو هڪ غير نگراني ٿيل نوڪري آهي جتي نتيجو ان پٽ ڊيٽا ۾ نمونن جي سڃاڻپ ڪندي پيدا ڪيو ويندو آهي.
Discriminator استعمال ڪيو ويندو آهي درجي بندي ڪرڻ لاءِ جنريٽر پاران پيدا ڪيل مثالن کي، جڏهن ته جنريٽر استعمال ڪيو ويندو آهي نوان مثال پيدا ڪرڻ لاءِ.
31. توهان ڪيئن چونڊيندا نيورونن جو تعداد ۽ لڪيل تہن کي نيورل نيٽ ورڪ ۾ شامل ڪرڻ لاءِ جيئن توهان آرڪيٽيڪچر کي ترتيب ڏيو ٿا؟
هڪ ڪاروباري چئلينج کي ڏنو ويو آهي، نيورون جو صحيح تعداد ۽ پوشيده پرت هڪ نيورل نيٽ ورڪ تعمير ڪرڻ جي ضرورت آهي ڪنهن به سخت ۽ تيز ضابطن سان طئي نه ٿو ڪري سگهجي.
هڪ اعصابي نيٽ ورڪ ۾، پوشیدہ پرت جي سائيز ان پٽ ۽ آئوٽ پرت جي سائيز جي وچ ۾ ڪٿي هجڻ گهرجي.
نيورل نيٽ ورڪ ڊيزائن ٺاهڻ تي هڪ سر شروعات ڪجهه سڌي طريقن سان حاصل ڪري سگهجي ٿو، جيتوڻيڪ:
ڪجهه بنيادي سسٽماتي جانچ سان شروع ڪندي اهو ڏسڻ لاءِ ته ڪنهن مخصوص ڊيٽا سيٽ لاءِ اڳئين تجربي جي بنياد تي ڪهڙي ڪارڪردگي ڏيکاريندي نيورل نيٽ ورڪن سان ساڳي حقيقي دنيا جي سيٽنگن ۾ هر منفرد حقيقي دنيا جي اڳڪٿي ڪندڙ ماڊلنگ چئلينج کي منهن ڏيڻ جو بهترين طريقو آهي.
نيٽ ورڪ جي ٺاھ جوڙ کي منتخب ڪري سگھجي ٿو ھڪڙي جي ڄاڻ جي بنياد تي مسئلي جي ڊومين ۽ اڳئين نيورل نيٽورڪ تجربو. جڏهن هڪ نيورل نيٽ ورڪ جي سيٽ اپ جو جائزو وٺڻ، لاڳاپيل مسئلن تي استعمال ٿيل تہن ۽ نيورسن جو تعداد شروع ڪرڻ لاء سٺو مقام آهي.
نيورل نيٽ ورڪ جي پيچيدگي کي بتدريج وڌائڻ گهرجي پروجيڪٽ ٿيل آئوٽ ۽ درستگي جي بنياد تي، هڪ سادي نيورل نيٽورڪ ڊيزائن سان شروع ڪندي.
32. ڪهڙي قسم جا نيورل نيٽ ورڪ ڊيپ رينفورسمينٽ لرننگ ذريعي استعمال ڪيا ويندا آهن؟
- مشين لرننگ جي پيراڊم ۾ جنهن کي رينفورسمينٽ لرننگ سڏيو ويندو آهي، ماڊل مجموعي انعام جي خيال کي وڌائڻ لاءِ ڪم ڪري ٿو، جيئن زنده شيون ڪندا آهن.
- رانديون ۽ خود ڊرائيونگ گاڏيون ٻنهي کي شامل مسئلن جي طور تي بيان ڪيو ويو آهي قابليت جي تعليم.
- اسڪرين کي ان پٽ طور استعمال ڪيو ويندو آھي جيڪڏھن مسئلو پيش ڪيو وڃي ته ھڪڙو راند آھي. ايندڙ مرحلن لاءِ آئوٽ پُٽ پيدا ڪرڻ لاءِ، الورورٿم پکسلز کي ان پٽ طور وٺي ٿو ۽ انهن کي ڪنوولوشنل نيورل نيٽ ورڪ جي ڪيترن ئي پرتن ذريعي پروسيس ڪري ٿو.
- ماڊل جي ڪارناما جا نتيجا، يا ته سازگار يا خراب، تقويٰ طور ڪم ڪن ٿا.
ٿڪل
ڊيپ لرننگ ڪيترن سالن کان مقبوليت ۾ وڌي وئي آهي، تقريبن هر صنعت واري علائقي ۾ ايپليڪيشنن سان.
ڪمپنيون تيزيءَ سان قابل ماهرن جي ڳولا ڪري رهيون آهن جيڪي ماڊل ٺاهي سگھن ٿيون جيڪي انساني رويي کي ڊيپ لرننگ ۽ مشين لرننگ جا طريقا استعمال ڪندي نقل ڪن ٿيون.
اميدوار جيڪي پنهنجي مهارت جي سيٽ کي وڌائيندا آهن ۽ انهن جديد ٽيڪنالاجيز جي ڄاڻ کي برقرار رکندا آهن اهي پرڪشش معاوضي سان ڪم جا وسيع موقعا ڳولي سگهن ٿا.
توهان هاڻي انٽرويو سان شروع ڪري سگهو ٿا ته توهان وٽ هڪ مضبوط گرفت آهي ته ڪجهه اڪثر پڇيل گہرے سکيا وارو انٽرويو سوالن جو جواب ڪيئن ڏيو. توهان جي مقصدن جي بنياد تي ايندڙ قدم وٺو.
Hashdork جو دورو ڪريو انٽرويو سيريز انٽرويو لاء تيار ڪرڻ.
جواب ڇڏي وڃو