کی میز کے مندرجات[چھپائیں][دکھائیں]
- 1. ڈیپ لرننگ دراصل کیا ہے؟
- 2. کیا چیز ڈیپ لرننگ کو مشین لرننگ سے ممتاز کرتی ہے؟
- 3. نیورل نیٹ ورکس کے بارے میں آپ کی موجودہ تفہیم کیا ہیں؟
- 4. پرسیپٹرون بالکل کیا ہے؟
- 5. ڈیپ نیورل نیٹ ورک دراصل کیا ہے؟
- 6. ملٹی لیئر پرسیپٹرون (MLP) بالکل کیا ہے؟
- 7. ایک عصبی نیٹ ورک میں ایکٹیویشن فنکشنز کیا مقصد ادا کرتے ہیں؟
- 8. تدریجی نزول کیا ہے؟
- 9. لاگت کا فنکشن بالکل کیا ہے؟
- 10. گہرے نیٹ ورکس کم کارکردگی کا مظاہرہ کیسے کر سکتے ہیں؟
- 11. آگے بڑھنے کی وضاحت کریں۔
- 12. بیک پروپیگیشن کیا ہے؟
- 13. گہری تعلیم کے تناظر میں، آپ گریڈینٹ کلپنگ کو کیسے سمجھتے ہیں؟
- 14. Softmax اور ReLU فنکشنز کیا ہیں؟
- 15. کیا نیورل نیٹ ورک ماڈل کو 0 پر سیٹ کیے گئے تمام وزنوں کے ساتھ تربیت دی جا سکتی ہے؟
- 16. ایک دور کو بیچ اور تکرار سے کیا فرق کرتا ہے؟
- 17. بیچ نارملائزیشن اور ڈراپ آؤٹ کیا ہیں؟
- 18. بیچ گریڈینٹ ڈیسنٹ سے سٹوکاسٹک گراڈینٹ ڈیسنٹ کو کیا الگ کرتا ہے؟
- 19. اعصابی نیٹ ورکس میں غیر خطوط کو شامل کرنا کیوں ضروری ہے؟
- 20. گہری سیکھنے میں ٹینسر کیا ہے؟
- 21. آپ ڈیپ لرننگ ماڈل کے لیے ایکٹیویشن فنکشن کا انتخاب کیسے کریں گے؟
- 22. CNN سے آپ کا کیا مطلب ہے؟
- 23. سی این این کی بہت سی پرتیں کیا ہیں؟
- 24. ضرورت سے زیادہ اور کم فٹنگ کے کیا اثرات ہیں، اور آپ ان سے کیسے بچ سکتے ہیں؟
- 25. گہری تعلیم میں، RNN کیا ہے؟
- 26. ایڈم آپٹیمائزر کی وضاحت کریں۔
- 27. گہری آٹو اینکوڈرز: وہ کیا ہیں؟
- 28. Tensorflow میں Tensor کا کیا مطلب ہے؟
- 29. ایک کمپیوٹیشنل گراف کی وضاحت
- 30. جنریٹیو ایڈورسریل نیٹ ورکس (GANs): وہ کیا ہیں؟
- 31. جب آپ فن تعمیر کو ڈیزائن کرتے ہیں تو آپ نیورل نیٹ ورک میں شامل کرنے کے لیے نیوران اور پوشیدہ پرتوں کی تعداد کا انتخاب کیسے کریں گے؟
- 32. گہری کمک سیکھنے کے ذریعے کس قسم کے عصبی نیٹ ورک استعمال کیے جاتے ہیں؟
- نتیجہ
گہری تعلیم بالکل نیا خیال نہیں ہے۔ مصنوعی اعصابی نیٹ ورک مشین لرننگ سب سیٹ کی واحد بنیاد کے طور پر کام کرتے ہیں جسے ڈیپ لرننگ کہا جاتا ہے۔
گہری تعلیم انسانی دماغ کی نقل ہے، جتنا اعصابی نیٹ ورک ہیں، جیسا کہ وہ انسانی دماغ کی نقل کرنے کے لیے بنائے گئے تھے۔
کچھ عرصے سے ایسا ہو رہا ہے۔ ان دنوں، ہر کوئی اس کے بارے میں بات کر رہا ہے کیونکہ ہمارے پاس پروسیسنگ کی اتنی طاقت یا ڈیٹا نہیں ہے جتنا کہ ہمارے پاس ہے۔
گزشتہ 20 سالوں میں، پروسیسنگ کی صلاحیت میں ڈرامائی اضافہ کے نتیجے میں گہری تعلیم اور مشین لرننگ ابھری ہے۔
اپنی خوابیدہ ملازمت کی تلاش میں آپ کو درپیش کسی بھی پوچھ گچھ کی تیاری میں آپ کی مدد کرنے کے لیے، یہ پوسٹ سادہ سے پیچیدہ تک کے متعدد گہرے سیکھنے والے انٹرویو کے سوالات کے لیے آپ کی رہنمائی کرے گی۔
1. ڈیپ لرننگ دراصل کیا ہے؟
اگر آپ ایک میں شرکت کر رہے ہیں۔ گہری سیکھنے انٹرویو، آپ بلاشبہ سمجھ گئے ہیں کہ گہری تعلیم کیا ہے۔ تاہم، انٹرویو لینے والا آپ سے اس سوال کے جواب میں ایک مثال کے ساتھ تفصیلی جواب دینے کی توقع رکھتا ہے۔
تربیت دینے کے لیے نیند نیٹ ورک گہرائی سے سیکھنے کے لیے، کافی مقدار میں منظم یا غیر ساختہ ڈیٹا کا استعمال کیا جانا چاہیے۔ چھپے ہوئے نمونوں اور خصوصیات کو تلاش کرنے کے لیے، یہ پیچیدہ طریقہ کار کرتا ہے (مثال کے طور پر، بلی کی تصویر کو کتے کی تصویر سے ممتاز کرنا)۔
2. کیا چیز ڈیپ لرننگ کو مشین لرننگ سے ممتاز کرتی ہے؟
مصنوعی ذہانت کی ایک شاخ کے طور پر جسے مشین لرننگ کہا جاتا ہے، ہم ڈیٹا اور شماریاتی اور الگورتھمک تکنیکوں کا استعمال کرتے ہوئے کمپیوٹرز کو تربیت دیتے ہیں تاکہ وہ وقت کے ساتھ ساتھ بہتر ہو جائیں۔
کے ایک پہلو کے طور پر مشین لرننگ، گہری تعلیم انسانی دماغ میں نظر آنے والے عصبی نیٹ ورک کے فن تعمیر کی نقل کرتی ہے۔
3. نیورل نیٹ ورکس کے بارے میں آپ کی موجودہ تفہیم کیا ہیں؟
مصنوعی نظام جسے نیورل نیٹ ورک کہا جاتا ہے، انسانی جسم میں پائے جانے والے آرگینک نیورل نیٹ ورکس سے بہت قریب سے مشابہت رکھتے ہیں۔
ایک ایسی تکنیک کا استعمال کرنا جو اس سے ملتا جلتا ہے۔ انسانی دماغ فنکشنز، نیورل نیٹ ورک الگورتھم کا ایک مجموعہ ہے جس کا مقصد ڈیٹا کے ایک ٹکڑے میں بنیادی ارتباط کی نشاندہی کرنا ہے۔
یہ سسٹم ٹاسک کے مخصوص اصولوں پر عمل کرنے کے بجائے اپنے آپ کو ڈیٹاسیٹس اور مثالوں کی ایک رینج کے سامنے لا کر کام سے متعلق علم حاصل کرتے ہیں۔
خیال یہ ہے کہ ان ڈیٹاسیٹس کے بارے میں پہلے سے پروگرام شدہ تفہیم کے بجائے، نظام اس ڈیٹا سے امتیازی خصوصیات سیکھتا ہے جو اسے فیڈ کیا جاتا ہے۔
نیورل نیٹ ورکس میں سب سے زیادہ استعمال ہونے والی تین نیٹ ورک پرتیں درج ذیل ہیں:
- ان پٹ پرت
- پوشیدہ پرت
- آؤٹ پٹ پرت
4. پرسیپٹرون بالکل کیا ہے؟
انسانی دماغ میں پایا جانے والا حیاتیاتی نیوران ایک پرسیپٹران سے موازنہ کرتا ہے۔ پرسیپٹرون کے ذریعہ متعدد ان پٹ موصول ہوتے ہیں، جو پھر متعدد تبدیلیاں اور افعال انجام دیتا ہے اور ایک آؤٹ پٹ تیار کرتا ہے۔
ایک لکیری ماڈل جسے پرسیپٹرون کہتے ہیں بائنری درجہ بندی میں استعمال کیا جاتا ہے۔ یہ مختلف قسم کے آدانوں کے ساتھ ایک نیوران کی نقل کرتا ہے، ہر ایک کا وزن مختلف ہوتا ہے۔
نیوران ان وزنی آدانوں کا استعمال کرتے ہوئے ایک فنکشن کا حساب لگاتا ہے اور نتائج نکالتا ہے۔
5. ڈیپ نیورل نیٹ ورک دراصل کیا ہے؟
ڈیپ نیورل نیٹ ورک ایک مصنوعی نیورل نیٹ ورک (ANN) ہے جس میں ان پٹ اور آؤٹ پٹ لیئرز (DNN) کے درمیان کئی پرتیں ہوتی ہیں۔
ڈیپ نیورل نیٹ ورک گہرے فن تعمیر کے نیورل نیٹ ورکس ہیں۔ لفظ "گہرا" ایک ہی پرت میں کئی سطحوں اور اکائیوں کے ساتھ افعال سے مراد ہے۔ پیٹرن کی زیادہ سطحوں پر قبضہ کرنے کے لیے زیادہ اور بڑی تہوں کو شامل کرکے زیادہ درست ماڈل بنائے جا سکتے ہیں۔
6. ملٹی لیئر پرسیپٹرون (MLP) بالکل کیا ہے؟
ایم ایل پی میں ان پٹ، پوشیدہ اور آؤٹ پٹ پرتیں موجود ہیں، بالکل اسی طرح جیسے نیورل نیٹ ورکس میں۔ یہ ایک یا زیادہ پوشیدہ پرتوں کے ساتھ سنگل لیئر پرسیپٹرون کی طرح بنایا گیا ہے۔
سنگل لیئر پرسیپٹرون کی بائنری آؤٹ پٹ صرف لکیری الگ ہونے والی کلاسز (0,1) کی درجہ بندی کر سکتی ہے، جبکہ MLP نان لائنر کلاسز کی درجہ بندی کر سکتا ہے۔
7. ایک عصبی نیٹ ورک میں ایکٹیویشن فنکشنز کیا مقصد ادا کرتے ہیں؟
ایکٹیویشن فنکشن اس بات کا تعین کرتا ہے کہ آیا نیوران کو انتہائی بنیادی سطح پر چالو ہونا چاہیے یا نہیں۔ کوئی بھی ایکٹیویشن فنکشن ان پٹ کے وزنی جمع پلس تعصب کو بطور ان پٹ قبول کر سکتا ہے۔ ایکٹیویشن فنکشنز میں سٹیپ فنکشن، سگمائیڈ، ری ایل یو، تانہ اور سافٹ میکس شامل ہیں۔
8. تدریجی نزول کیا ہے؟
لاگت کے فنکشن یا غلطی کو کم کرنے کا بہترین طریقہ تدریجی نزول ہے۔ فنکشن کا مقامی-عالمی منیما تلاش کرنا مقصد ہے۔ یہ اس راستے کی وضاحت کرتا ہے جس پر ماڈل کو غلطی کو کم کرنے کے لیے فالو کرنا چاہیے۔
9. لاگت کا فنکشن بالکل کیا ہے؟
لاگت کا فنکشن ایک میٹرک ہے جس کا اندازہ لگایا جاسکتا ہے کہ آپ کا ماڈل کتنی اچھی کارکردگی کا مظاہرہ کرتا ہے۔ اسے کبھی کبھی "نقصان" یا "خرابی" کے نام سے جانا جاتا ہے۔ بیک پروپیگیشن کے دوران، اسے آؤٹ پٹ پرت کی خرابی کا حساب لگانے کے لیے استعمال کیا جاتا ہے۔
ہم عصبی نیٹ ورک کے تربیتی عمل کو آگے بڑھانے کے لیے اس غلطی کو عصبی نیٹ ورک کے ذریعے پیچھے دھکیلتے ہیں۔
10. گہرے نیٹ ورکس کم کارکردگی کا مظاہرہ کیسے کر سکتے ہیں؟
پوشیدہ تہوں کو ان پٹ اور آؤٹ پٹ تہوں کے علاوہ نیورل نیٹ ورکس میں شامل کیا جاتا ہے۔ ان پٹ اور آؤٹ پٹ تہوں کے درمیان، اتلی عصبی نیٹ ورک ایک ہی پوشیدہ پرت کو ملازمت دیتے ہیں، جبکہ گہرے اعصابی نیٹ ورک متعدد سطحوں کا استعمال کرتے ہیں۔
ایک اتلی نیٹ ورک کو کسی بھی فنکشن میں فٹ ہونے کے لیے کئی پیرامیٹرز کی ضرورت ہوتی ہے۔ گہرے نیٹ ورک بہت کم پیرامیٹرز کے ساتھ بھی بہتر طریقے سے کام کر سکتے ہیں کیونکہ ان میں کئی پرتیں شامل ہیں۔
کسی بھی قسم کے ڈیٹا ماڈلنگ کے ساتھ کام کرنے میں ان کی استعداد کی وجہ سے اب گہرے نیٹ ورکس کو ترجیح دی جاتی ہے، چاہے وہ تقریر ہو یا تصویر کی شناخت کے لیے۔
11. آگے بڑھنے کی وضاحت کریں۔
آدانوں کو وزن کے ساتھ دفن شدہ پرت میں ایک عمل میں منتقل کیا جاتا ہے جسے فارورڈنگ پروپیگیشن کہا جاتا ہے۔
ایکٹیویشن فنکشن کا آؤٹ پٹ ہر ایک دفن شدہ پرت میں شمار کیا جاتا ہے اس سے پہلے کہ پروسیسنگ درج ذیل پرت پر جا سکے۔
یہ عمل ان پٹ پرت سے شروع ہوتا ہے اور حتمی آؤٹ پٹ پرت تک بڑھتا ہے، اس طرح نام آگے بڑھتا ہے۔
12. بیک پروپیگیشن کیا ہے؟
جب عصبی نیٹ ورک میں وزن اور تعصبات کو ایڈجسٹ کیا جاتا ہے، بیک پروپیگیشن کا استعمال لاگت کے فنکشن کو کم کرنے کے لیے پہلے یہ دیکھ کر کیا جاتا ہے کہ قدر کیسے بدلتی ہے۔
ہر پوشیدہ پرت پر میلان کو سمجھنا اس تبدیلی کا حساب لگانا آسان بنا دیتا ہے۔
یہ عمل، جسے بیک پروپیگیشن کہا جاتا ہے، آؤٹ پٹ پرت سے شروع ہوتا ہے اور پیچھے کی طرف ان پٹ لیئرز کی طرف جاتا ہے۔
13. گہری تعلیم کے تناظر میں، آپ گریڈینٹ کلپنگ کو کیسے سمجھتے ہیں؟
گریڈینٹ کلپنگ بیک پروپیگیشن کے دوران پیدا ہونے والے پھٹنے والے میلان کے مسئلے کو حل کرنے کا ایک طریقہ ہے (ایک ایسی حالت جس میں وقت کے ساتھ ساتھ اہم غلط گریڈینٹ جمع ہوتے ہیں، جس سے تربیت کے دوران نیورل نیٹ ورک ماڈل کے وزن میں اہم ایڈجسٹمنٹ ہوتی ہے)۔
میلان پھٹنا ایک ایسا مسئلہ ہے جو اس وقت پیدا ہوتا ہے جب تربیت کے دوران گریڈیئنٹس بہت زیادہ ہو جاتے ہیں، جس سے ماڈل غیر مستحکم ہو جاتا ہے۔ اگر گریڈینٹ متوقع حد سے تجاوز کر گیا ہے، تو گریڈینٹ کی قدروں کو عنصر بہ عنصر پہلے سے طے شدہ کم از کم یا زیادہ سے زیادہ قدر کی طرف دھکیل دیا جاتا ہے۔
گریڈینٹ کلپنگ تربیت کے دوران نیورل نیٹ ورک کے عددی استحکام کو بڑھاتی ہے، لیکن اس کا ماڈل کی کارکردگی پر کم سے کم اثر پڑتا ہے۔
14. Softmax اور ReLU فنکشنز کیا ہیں؟
سافٹ میکس نامی ایکٹیویشن فنکشن 0 اور 1 کے درمیان ایک آؤٹ پٹ تیار کرتا ہے۔ ہر آؤٹ پٹ کو اس طرح تقسیم کیا جاتا ہے کہ تمام آؤٹ پٹ کا مجموعہ ایک ہو۔ آؤٹ پٹ پرتوں کے لیے، سافٹ میکس کو اکثر استعمال کیا جاتا ہے۔
Rectified Linear Unit، جسے کبھی کبھی ReLU کہا جاتا ہے، سب سے زیادہ استعمال ہونے والا ایکٹیویشن فنکشن ہے۔ اگر X مثبت ہے، تو یہ X کو آؤٹ پٹ کرتا ہے، ورنہ یہ صفر کو آؤٹ پٹ کرتا ہے۔ ReLU باقاعدگی سے دفن تہوں پر لاگو ہوتا ہے۔
15. کیا نیورل نیٹ ورک ماڈل کو 0 پر سیٹ کیے گئے تمام وزنوں کے ساتھ تربیت دی جا سکتی ہے؟
نیورل نیٹ ورک کبھی بھی دیے گئے کام کو مکمل کرنا نہیں سیکھے گا، اس لیے تمام وزن کو 0 سے شروع کرکے ماڈل کو تربیت دینا ممکن نہیں ہے۔
W [1] میں ہر وزن کے لیے مشتقات یکساں رہیں گے اگر تمام وزن کو صفر پر شروع کر دیا جائے، جس کے نتیجے میں نیوران دوبارہ وہی خصوصیات سیکھیں گے۔
وزن کو صرف 0 پر شروع کرنے سے نہیں، بلکہ مستقل کی کسی بھی شکل میں ایک ذیلی نتیجہ کا امکان ہے۔
16. ایک دور کو بیچ اور تکرار سے کیا فرق کرتا ہے؟
پروسیسنگ ڈیٹاسیٹس کی مختلف شکلوں اور تدریجی نزول کی تکنیکوں میں بیچ، تکرار، اور عہد شامل ہیں۔ Epoch میں آگے اور پیچھے دونوں طرح سے مکمل ڈیٹاسیٹ کے ساتھ نیورل نیٹ ورک کے ذریعے ایک بار شامل ہوتا ہے۔
قابل اعتماد نتائج فراہم کرنے کے لیے، ڈیٹاسیٹ کو کثرت سے کئی بار پاس کیا جاتا ہے کیونکہ یہ ایک ہی کوشش میں پاس کرنے کے لیے بہت بڑا ہے۔
عصبی نیٹ ورک کے ذریعے بار بار تھوڑی مقدار میں ڈیٹا چلانے کے اس عمل کو تکرار کہا جاتا ہے۔ اس بات کی ضمانت دینے کے لیے کہ ڈیٹا سیٹ کامیابی کے ساتھ عصبی نیٹ ورکس کو عبور کرتا ہے، اسے کئی بیچوں یا ذیلی سیٹوں میں تقسیم کیا جا سکتا ہے، جسے بیچنگ کے نام سے جانا جاتا ہے۔
ڈیٹا اکٹھا کرنے کے سائز پر منحصر ہے، تینوں طریقے—ایپوچ، تکرار، اور بیچ سائز — بنیادی طور پر استعمال کرنے کے طریقے ہیں۔ تدریجی نزول الگورتھم.
17. بیچ نارملائزیشن اور ڈراپ آؤٹ کیا ہیں؟
ڈراپ آؤٹ تصادفی طور پر نظر آنے والے اور چھپے ہوئے دونوں نیٹ ورک یونٹوں کو ہٹا کر ڈیٹا کو زیادہ فٹ ہونے سے روکتا ہے (عام طور پر نوڈس کا 20 فیصد گرا کر)۔ یہ نیٹ ورک کو اکٹھا کرنے کے لیے درکار تکرار کی تعداد کو دوگنا کر دیتا ہے۔
ہر پرت میں ان پٹ کو معمول پر لا کر صفر کا اوسط آؤٹ پٹ ایکٹیویشن اور ایک کا معیاری انحراف ہو، بیچ نارملائزیشن نیورل نیٹ ورکس کی کارکردگی اور استحکام کو بڑھانے کی حکمت عملی ہے۔
18. بیچ گریڈینٹ ڈیسنٹ سے سٹوکاسٹک گراڈینٹ ڈیسنٹ کو کیا الگ کرتا ہے؟
بیچ گراڈینٹ ڈیسنٹ:
- مکمل ڈیٹاسیٹ کا استعمال بیچ گریڈینٹ کے لیے گریڈینٹ بنانے کے لیے کیا جاتا ہے۔
- اعداد و شمار کی بہت زیادہ مقدار اور آہستہ آہستہ اپ ڈیٹ ہونے والے وزن کنورجن کو مشکل بنا دیتے ہیں۔
اسٹاکسٹک گریڈینٹ ڈیسنٹ:
- سٹاکاسٹک گریڈینٹ گریڈینٹ کی گنتی کے لیے ایک نمونہ استعمال کرتا ہے۔
- زیادہ بار بار وزن کی تبدیلیوں کی وجہ سے، یہ بیچ کے میلان کے مقابلے میں نمایاں طور پر زیادہ تیزی سے بدل جاتا ہے۔
19. اعصابی نیٹ ورکس میں غیر خطوط کو شامل کرنا کیوں ضروری ہے؟
اس سے کوئی فرق نہیں پڑتا ہے کہ جتنی بھی پرتیں ہوں، ایک عصبی نیٹ ورک غیر خطوط کی عدم موجودگی میں ایک پرسیپٹرون کی طرح برتاؤ کرے گا، جس سے آؤٹ پٹ لکیری طور پر ان پٹ پر منحصر ہوگا۔
اسے دوسرے طریقے سے کہوں تو، n پرتوں اور m پوشیدہ اکائیوں اور لکیری ایکٹیویشن فنکشن کے ساتھ ایک نیورل نیٹ ورک ایک لکیری نیورل نیٹ ورک کے مترادف ہے جس میں پوشیدہ تہوں کے بغیر اور مکمل طور پر لکیری علیحدگی کی سرحدوں کا پتہ لگانے کی صلاحیت ہے۔
غیر خطوط کے بغیر، ایک عصبی نیٹ ورک پیچیدہ مسائل کو حل کرنے اور ان پٹ کو درست طریقے سے درجہ بندی کرنے سے قاصر ہے۔
20. گہری سیکھنے میں ٹینسر کیا ہے؟
ایک کثیر جہتی صف جس کو ٹینسر کے نام سے جانا جاتا ہے میٹرکس اور ویکٹرز کو عام کرنے کا کام کرتا ہے۔ یہ گہری سیکھنے کے لیے ڈیٹا کا ایک اہم ڈھانچہ ہے۔ بنیادی ڈیٹا کی اقسام کی N-جہتی صفوں کو ٹینسر کی نمائندگی کرنے کے لیے استعمال کیا جاتا ہے۔
ٹینسر کے ہر جزو میں ڈیٹا کی ایک ہی قسم ہوتی ہے، اور یہ ڈیٹا ٹائپ ہمیشہ جانا جاتا ہے۔ یہ ممکن ہے کہ شکل کا صرف ایک ٹکڑا—یعنی، کتنے جہتیں ہیں اور ہر ایک کتنا بڑا ہے—معلوم ہو۔
ان حالات میں جب ان پٹ بھی مکمل طور پر معلوم ہوتے ہیں، زیادہ تر آپریشن مکمل طور پر معلوم ٹینسر تیار کرتے ہیں۔ دوسرے معاملات میں، ٹینسر کی شکل صرف گراف پر عمل درآمد کے دوران ہی قائم کی جا سکتی ہے۔
21. آپ ڈیپ لرننگ ماڈل کے لیے ایکٹیویشن فنکشن کا انتخاب کیسے کریں گے؟
- ایک لکیری ایکٹیویشن فنکشن کو استعمال کرنا سمجھ میں آتا ہے اگر نتیجہ جس کی توقع کی جانی ہے وہ حقیقی ہے۔
- سگمائیڈ فنکشن کو استعمال کیا جانا چاہئے اگر آؤٹ پٹ جس کی پیشن گوئی کی جانی ہے وہ بائنری کلاس کا امکان ہے۔
- ایک Tanh فنکشن کو استعمال کیا جا سکتا ہے اگر متوقع آؤٹ پٹ دو درجہ بندیوں پر مشتمل ہو۔
- حساب میں آسانی کی وجہ سے، ReLU فنکشن بہت سے حالات میں لاگو ہوتا ہے۔
22. CNN سے آپ کا کیا مطلب ہے؟
گہرے عصبی نیٹ ورکس جو بصری تصویروں کا جائزہ لینے میں مہارت رکھتے ہیں ان میں کنولوشنل نیورل نیٹ ورکس (CNN، یا ConvNet) شامل ہیں۔ یہاں، اعصابی نیٹ ورکس کے بجائے جہاں ایک ویکٹر ان پٹ کی نمائندگی کرتا ہے، ان پٹ ایک ملٹی چینل والی تصویر ہے۔
ملٹی لیئر پرسیپٹرون کو سی این این کے ذریعہ ایک خاص طریقے سے استعمال کیا جاتا ہے جس کے لیے بہت کم پری پروسیسنگ کی ضرورت ہوتی ہے۔
23. سی این این کی بہت سی پرتیں کیا ہیں؟
Convolutional Layer: اہم پرت convolutional تہہ ہے، جس میں مختلف قسم کے سیکھنے کے قابل فلٹرز اور ایک قبول کرنے والا فیلڈ ہوتا ہے۔ یہ ابتدائی پرت ان پٹ ڈیٹا لیتی ہے اور اس کی خصوصیات کو نکالتی ہے۔
ReLU پرت: نیٹ ورکس کو غیر لکیری بنا کر، یہ تہہ منفی پکسلز کو صفر میں بدل دیتی ہے۔
پولنگ پرت: پروسیسنگ اور نیٹ ورک کی ترتیبات کو کم سے کم کرکے، پولنگ پرت بتدریج نمائندگی کے مقامی سائز کو کم کرتی ہے۔ زیادہ سے زیادہ پولنگ پولنگ کا سب سے زیادہ استعمال شدہ طریقہ ہے۔
24. ضرورت سے زیادہ اور کم فٹنگ کے کیا اثرات ہیں، اور آپ ان سے کیسے بچ سکتے ہیں؟
اسے اوور فٹنگ کے نام سے جانا جاتا ہے جب ایک ماڈل ٹریننگ ڈیٹا کی پیچیدگیوں اور شور کو اس مقام تک سیکھتا ہے جہاں یہ ماڈل کے تازہ ڈیٹا کے استعمال پر منفی اثر ڈالتا ہے۔
یہ غیر خطی ماڈلز کے ساتھ ہونے کا زیادہ امکان ہے جو گول فنکشن سیکھنے کے دوران زیادہ موافقت پذیر ہوتے ہیں۔ ایک ماڈل کو آٹوموبائلز اور ٹرکوں کا پتہ لگانے کے لیے تربیت دی جا سکتی ہے، لیکن یہ صرف ایک مخصوص باکس فارم والی گاڑیوں کی شناخت کر سکتا ہے۔
یہ دیکھتے ہوئے کہ اسے صرف ایک قسم کے ٹرک پر تربیت دی گئی تھی، یہ فلیٹ بیڈ ٹرک کا پتہ لگانے کے قابل نہیں ہوسکتا ہے۔ تربیتی ڈیٹا پر، ماڈل اچھی طرح سے کام کرتا ہے، لیکن حقیقی دنیا میں نہیں۔
انڈر فٹڈ ماڈل سے مراد وہ ہے جو ڈیٹا پر کافی تربیت یافتہ نہیں ہے یا نئی معلومات کو عام کرنے کے قابل نہیں ہے۔ یہ اکثر اس وقت ہوتا ہے جب کسی ماڈل کو ناکافی یا غلط ڈیٹا کے ساتھ تربیت دی جا رہی ہو۔
درستگی اور کارکردگی دونوں انڈر فٹنگ سے سمجھوتہ کر رہے ہیں۔
ماڈل کی درستگی کا تخمینہ لگانے کے لیے ڈیٹا کا دوبارہ نمونہ بنانا (K-fold کراس توثیق) اور ماڈل کا اندازہ لگانے کے لیے ایک توثیق ڈیٹاسیٹ کا استعمال اوور فٹنگ اور کم فٹنگ سے بچنے کے دو طریقے ہیں۔
25. گہری تعلیم میں، RNN کیا ہے؟
ریکرنٹ نیورل نیٹ ورکس (RNNs)، مصنوعی عصبی نیٹ ورکس کی ایک عام قسم، مخفف RNN کے ذریعہ جانا جاتا ہے۔ وہ دوسری چیزوں کے علاوہ جینوم، ہینڈ رائٹنگ، ٹیکسٹ اور ڈیٹا کی ترتیب پر کارروائی کے لیے کام کرتے ہیں۔ ضروری تربیت کے لیے، RNNs بیک پروپیگیشن کو ملازمت دیتے ہیں۔
26. ایڈم آپٹیمائزر کی وضاحت کریں۔
ایڈم آپٹیمائزر، جسے اڈاپٹیو مومینٹم بھی کہا جاتا ہے، ایک اصلاحی تکنیک ہے جو شور کی صورت حال کو ویرل میلان کے ساتھ سنبھالنے کے لیے تیار کی گئی ہے۔
تیز کنورجنسنس کے لیے فی پیرامیٹر اپڈیٹس فراہم کرنے کے علاوہ، ایڈم آپٹیمائزر مومینٹم کے ذریعے کنورجنس کو بڑھاتا ہے، اس بات کو یقینی بناتا ہے کہ کوئی ماڈل سیڈل پوائنٹ میں نہ پھنس جائے۔
27. گہری آٹو اینکوڈرز: وہ کیا ہیں؟
ڈیپ آٹو اینکوڈر دو ہم آہنگ گہرے یقین والے نیٹ ورکس کا اجتماعی نام ہے جس میں عام طور پر نیٹ ورک کے انکوڈنگ نصف کے لیے چار یا پانچ اتلی پرتیں اور ڈی کوڈنگ نصف کے لیے چار یا پانچ پرتوں کا ایک اور سیٹ شامل ہوتا ہے۔
یہ پرتیں گہرے اعتقاد کے نیٹ ورکس کی بنیاد بنتی ہیں اور بولٹزمین مشینوں کی طرف سے مجبور ہیں۔ ہر RBM کے بعد، ایک گہرا آٹو اینکوڈر ڈیٹاسیٹ MNIST میں بائنری تبدیلیاں لاگو کرتا ہے۔
انہیں دوسرے ڈیٹاسیٹس میں بھی استعمال کیا جا سکتا ہے جہاں RBM پر گاؤس کی اصلاح شدہ تبدیلیوں کو ترجیح دی جائے گی۔
28. Tensorflow میں Tensor کا کیا مطلب ہے؟
یہ ایک اور گہرا سیکھنے والا انٹرویو سوال ہے جو باقاعدگی سے پوچھا جاتا ہے۔ ایک ٹینسر ایک ریاضیاتی تصور ہے جو اعلی جہتی صفوں کے طور پر تصور کیا جاتا ہے۔
ٹینسر یہ ڈیٹا اری ہیں جو نیورل نیٹ ورک کو ان پٹ کے طور پر فراہم کیے جاتے ہیں اور ان کی مختلف جہتیں اور درجہ بندی ہوتی ہے۔
29. ایک کمپیوٹیشنل گراف کی وضاحت
ٹینسر فلو کی بنیاد ایک کمپیوٹیشنل گراف کی تعمیر ہے۔ ہر نوڈ نوڈس کے نیٹ ورک میں کام کرتا ہے، جہاں نوڈس ریاضی کی کارروائیوں کے لیے کھڑے ہوتے ہیں اور ٹینسر کے لیے کنارے۔
اسے بعض اوقات "ڈیٹا فلو گراف" بھی کہا جاتا ہے کیونکہ ڈیٹا گراف کی شکل میں بہتا ہے۔
30. جنریٹیو ایڈورسریل نیٹ ورکس (GANs): وہ کیا ہیں؟
ڈیپ لرننگ میں، جنریٹیو ماڈلنگ جنریٹیو ایڈورسریل نیٹ ورکس کا استعمال کرتے ہوئے مکمل کی جاتی ہے۔ یہ ایک غیر زیر نگرانی کام ہے جہاں ان پٹ ڈیٹا میں پیٹرن کی شناخت کرکے نتیجہ تیار کیا جاتا ہے۔
امتیاز کنندہ کا استعمال جنریٹر کے ذریعہ تیار کردہ مثالوں کی درجہ بندی کرنے کے لئے کیا جاتا ہے، جبکہ جنریٹر کو نئی مثالیں پیش کرنے کے لئے استعمال کیا جاتا ہے۔
31. جب آپ فن تعمیر کو ڈیزائن کرتے ہیں تو آپ نیورل نیٹ ورک میں شامل کرنے کے لیے نیوران اور پوشیدہ پرتوں کی تعداد کا انتخاب کیسے کریں گے؟
کاروباری چیلنج کو دیکھتے ہوئے، نیورل نیٹ ورک کی تعمیر کے لیے درکار نیورونز اور پوشیدہ پرتوں کی درست تعداد کا تعین کسی سخت اور تیز قواعد سے نہیں کیا جا سکتا۔
نیورل نیٹ ورک میں، پوشیدہ پرت کا سائز ان پٹ اور آؤٹ پٹ لیئرز کے سائز کے درمیان میں کہیں گرنا چاہیے۔
نیورل نیٹ ورک ڈیزائن بنانے کا آغاز چند سادہ طریقوں سے کیا جا سکتا ہے، اگرچہ:
کچھ بنیادی منظم جانچ کے ساتھ شروع کرنا یہ دیکھنے کے لیے کہ اسی طرح کی حقیقی دنیا کی ترتیبات میں عصبی نیٹ ورکس کے ساتھ پیشگی تجربے کی بنیاد پر کسی مخصوص ڈیٹاسیٹ کے لیے بہترین کارکردگی کا مظاہرہ کرنا ہر منفرد حقیقی دنیا کی پیش گوئی کرنے والے ماڈلنگ چیلنج سے نمٹنے کا بہترین طریقہ ہے۔
نیٹ ورک کنفیگریشن کا انتخاب کسی کے مسئلے کے ڈومین کے علم اور نیورل نیٹ ورک کے پہلے کے تجربے کی بنیاد پر کیا جا سکتا ہے۔ نیورل نیٹ ورک کے سیٹ اپ کا اندازہ لگاتے وقت، متعلقہ مسائل پر استعمال ہونے والی پرتوں اور نیوران کی تعداد شروع کرنے کے لیے ایک اچھی جگہ ہے۔
نیورل نیٹ ورک کی پیچیدگی کو بتدریج متوقع آؤٹ پٹ اور درستگی کی بنیاد پر بڑھایا جانا چاہیے، جس کا آغاز ایک سادہ نیورل نیٹ ورک ڈیزائن سے ہوتا ہے۔
32. گہری کمک سیکھنے کے ذریعے کس قسم کے عصبی نیٹ ورک استعمال کیے جاتے ہیں؟
- مشین لرننگ کے پیراڈائم میں جسے ریانفورسمنٹ لرننگ کہا جاتا ہے، ماڈل مجموعی انعام کے خیال کو زیادہ سے زیادہ کرنے کے لیے کام کرتا ہے، بالکل اسی طرح جیسے زندہ چیزیں کرتی ہیں۔
- گیمز اور خود چلانے والی گاڑیاں دونوں کو شامل مسائل کے طور پر بیان کیا گیا ہے۔ قابو پانے کی تعلیم.
- اسکرین کو بطور ان پٹ استعمال کیا جاتا ہے اگر اس مسئلے کی نمائندگی کرنا ایک گیم ہے۔ اگلے مراحل کے لیے آؤٹ پٹ تیار کرنے کے لیے، الگورتھم پکسلز کو ان پٹ کے طور پر لیتا ہے اور ان پر عمل کرتا ہے۔
- ماڈل کے اعمال کے نتائج، یا تو سازگار ہوں یا برے، کمک کے طور پر کام کرتے ہیں۔
نتیجہ
عملی طور پر ہر صنعت کے شعبے میں ایپلی کیشنز کے ساتھ ڈیپ لرننگ کی مقبولیت میں اضافہ ہوا ہے۔
کمپنیاں تیزی سے ایسے قابل ماہرین کی تلاش کر رہی ہیں جو ایسے ماڈلز کو ڈیزائن کر سکیں جو گہری سیکھنے اور مشین لرننگ کے طریقوں کو استعمال کرتے ہوئے انسانی رویے کو نقل کر سکیں۔
وہ امیدوار جو اپنی مہارت کو بڑھاتے ہیں اور ان جدید ٹیکنالوجیز کے بارے میں اپنے علم کو برقرار رکھتے ہیں وہ پرکشش معاوضے کے ساتھ کام کے وسیع مواقع تلاش کر سکتے ہیں۔
اب آپ انٹرویوز کے ساتھ شروع کر سکتے ہیں کہ آپ کو اس بات پر مضبوط گرفت ہے کہ اکثر پوچھے جانے والے گہری سیکھنے کے انٹرویو کے سوالات کا جواب کیسے دیا جائے۔ اپنے مقاصد کی بنیاد پر اگلا قدم اٹھائیں۔
Hashdork کا دورہ کریں انٹرویو سیریز انٹرویو کے لئے تیار کرنے کے لئے.
جواب دیجئے