विषय - सूची[छिपाना][प्रदर्शन]
- 1. डीप लर्निंग वास्तव में क्या है?
- 2. डीप लर्निंग और मशीन लर्निंग में क्या अंतर है?
- 3. तंत्रिका नेटवर्क के बारे में आपकी वर्तमान समझ क्या है?
- 4. वास्तव में एक परसेप्ट्रोन क्या है?
- 5. डीप न्यूरल नेटवर्क वास्तव में क्या है?
- 6. बहुपरत परसेप्ट्रॉन (एमएलपी) वास्तव में क्या है?
- 7. तंत्रिका नेटवर्क में सक्रियण कार्य किस उद्देश्य से खेलते हैं?
- 8. ग्रैडिएंट डिसेंट वास्तव में क्या है?
- 9. लागत कार्य वास्तव में क्या है?
- 10. गहरे नेटवर्क उथले नेटवर्क को कैसे मात दे सकते हैं?
- 11. आगे के प्रसार का वर्णन करें।
- 12. बैकप्रोपेगेशन क्या है?
- 13. डीप लर्निंग के संदर्भ में, आप ग्रेडिएंट क्लिपिंग को कैसे समझते हैं?
- 14. सॉफ्टमैक्स और रेएलयू फंक्शन क्या हैं?
- 15. क्या एक तंत्रिका नेटवर्क मॉडल को 0 पर सेट किए गए सभी भारों के साथ प्रशिक्षित किया जा सकता है?
- 16. क्या एक युग को एक बैच और एक पुनरावृत्ति से अलग करता है?
- 17. बैच सामान्यीकरण और ड्रॉपआउट क्या हैं?
- 18. स्टोकेस्टिक ग्रैडिएंट डिसेंट को बैच ग्रैडिएंट डिसेंट से क्या अलग करता है?
- 19. तंत्रिका नेटवर्क में गैर-रैखिकता को शामिल करना क्यों महत्वपूर्ण है?
- 20. डीप लर्निंग में टेंसर क्या है?
- 21. डीप लर्निंग मॉडल के लिए आप एक्टिवेशन फंक्शन को कैसे चुनेंगे?
- 22. सीएनएन से आप क्या समझते हैं?
- 23. सीएनएन की कई परतें क्या हैं?
- 24. ज़रूरत से ज़्यादा और कम फ़िट होने के क्या प्रभाव होते हैं, और आप उनसे कैसे बच सकते हैं?
- 25. गहन शिक्षण में, आरएनएन क्या है?
- 26. एडम ऑप्टिमाइज़र का वर्णन करें
- 27. डीप ऑटोएन्कोडर: वे क्या हैं?
- 28. Tensorflow में Tensor का क्या अर्थ है?
- 29. एक कम्प्यूटेशनल ग्राफ की व्याख्या
- 30. जनरेटिव एडवरसैरियल नेटवर्क (जीएएन): वे क्या हैं?
- 31. आर्किटेक्चर डिजाइन करते समय आप तंत्रिका नेटवर्क में शामिल करने के लिए न्यूरॉन्स और छिपी परतों की संख्या कैसे चुनेंगे?
- 32. गहन सुदृढीकरण सीखने द्वारा किस प्रकार के तंत्रिका नेटवर्क कार्यरत हैं?
- निष्कर्ष
डीप लर्निंग कोई नया आइडिया नहीं है। कृत्रिम तंत्रिका नेटवर्क मशीन लर्निंग उपसमुच्चय की एकमात्र नींव के रूप में कार्य करता है जिसे डीप लर्निंग के रूप में जाना जाता है।
डीप लर्निंग एक मानव मस्तिष्क की नकल है, जितना कि तंत्रिका नेटवर्क हैं, क्योंकि वे मानव मस्तिष्क की नकल करने के लिए बनाए गए थे।
कुछ समय के लिए ऐसा रहा है। इन दिनों, हर कोई इसके बारे में बात कर रहा है क्योंकि हमारे पास अब उतनी प्रसंस्करण शक्ति या डेटा नहीं है जितना हमारे पास है।
पिछले 20 वर्षों में, प्रसंस्करण क्षमता में नाटकीय वृद्धि के परिणामस्वरूप गहरी शिक्षा और मशीन सीखने का उदय हुआ है।
अपने सपनों की नौकरी की तलाश में आपके सामने आने वाली किसी भी पूछताछ की तैयारी में आपकी सहायता करने के लिए, यह पोस्ट आपको सरल से लेकर जटिल तक, कई गहन शिक्षण साक्षात्कार प्रश्नों के माध्यम से मार्गदर्शन करेगी।
1. डीप लर्निंग वास्तव में क्या है?
यदि आप एक में भाग ले रहे हैं ध्यान लगा के पढ़ना या सीखना साक्षात्कार, आप निस्संदेह समझते हैं कि गहन शिक्षा क्या है। हालाँकि, साक्षात्कारकर्ता आपसे इस प्रश्न के उत्तर में एक उदाहरण के साथ एक विस्तृत प्रतिक्रिया प्रदान करने की अपेक्षा करता है।
प्रशिक्षित करने के लिए तंत्रिका जाल गहन सीखने के लिए, महत्वपूर्ण मात्रा में संगठित या असंरचित डेटा का उपयोग किया जाना चाहिए। छिपे हुए पैटर्न और विशेषताओं को खोजने के लिए, यह जटिल प्रक्रियाएं करता है (उदाहरण के लिए, कुत्ते की छवि से बिल्ली की छवि को अलग करना)।
2. डीप लर्निंग और मशीन लर्निंग में क्या अंतर है?
मशीन लर्निंग के रूप में जानी जाने वाली कृत्रिम बुद्धिमत्ता की एक शाखा के रूप में, हम डेटा और सांख्यिकीय और एल्गोरिथम तकनीकों का उपयोग करके कंप्यूटरों को प्रशिक्षित करते हैं ताकि वे समय के साथ बेहतर हो सकें।
के एक पहलू के रूप में यंत्र अधिगम, गहरी शिक्षा मानव मस्तिष्क में देखे जाने वाले तंत्रिका नेटवर्क वास्तुकला का अनुकरण करती है।
3. तंत्रिका नेटवर्क के बारे में आपकी वर्तमान समझ क्या है?
तंत्रिका नेटवर्क के रूप में जानी जाने वाली कृत्रिम प्रणालियाँ मानव शरीर में पाए जाने वाले कार्बनिक तंत्रिका नेटवर्क से बहुत मिलती-जुलती हैं।
ऐसी तकनीक का उपयोग करना जो इस तरह से मिलती-जुलती हो मानव मस्तिष्क कार्य, एक तंत्रिका नेटवर्क एल्गोरिदम का एक संग्रह है जिसका उद्देश्य डेटा के एक टुकड़े में अंतर्निहित सहसंबंधों की पहचान करना है।
ये प्रणालियाँ किसी कार्य-विशिष्ट नियमों का पालन करने के बजाय, स्वयं को डेटासेट और उदाहरणों की एक श्रृंखला में उजागर करके कार्य-विशिष्ट ज्ञान प्राप्त करती हैं।
विचार यह है कि इन डेटासेट की पूर्व-क्रमादेशित समझ होने के बजाय, सिस्टम इसे खिलाए गए डेटा से विशिष्ट विशेषताओं को सीखता है।
तंत्रिका नेटवर्क में सबसे अधिक उपयोग की जाने वाली तीन नेटवर्क परतें इस प्रकार हैं:
- इनपुट परत
- छिपी हुई परत
- आउटपुट परत
4. वास्तव में एक परसेप्ट्रोन क्या है?
मानव मस्तिष्क में पाए जाने वाले जैविक न्यूरॉन की तुलना परसेप्ट्रोन से की जा सकती है। परसेप्ट्रोन द्वारा कई इनपुट प्राप्त किए जाते हैं, जो तब कई परिवर्तन और कार्य करता है और एक आउटपुट उत्पन्न करता है।
एक रैखिक मॉडल जिसे परसेप्ट्रॉन कहा जाता है, बाइनरी वर्गीकरण में कार्यरत है। यह विभिन्न प्रकार के इनपुट के साथ एक न्यूरॉन का अनुकरण करता है, प्रत्येक एक अलग वजन के साथ।
न्यूरॉन इन भारित इनपुट का उपयोग करके एक फ़ंक्शन की गणना करता है और परिणामों को आउटपुट करता है।
5. डीप न्यूरल नेटवर्क वास्तव में क्या है?
एक गहरा तंत्रिका नेटवर्क एक कृत्रिम तंत्रिका नेटवर्क (एएनएन) है जिसमें इनपुट और आउटपुट परतों (डीएनएन) के बीच कई परतें होती हैं।
डीप न्यूरल नेटवर्क डीप आर्किटेक्चर न्यूरल नेटवर्क हैं। "डीप" शब्द एक ही परत में कई स्तरों और इकाइयों के साथ कार्यों को संदर्भित करता है। पैटर्न के अधिक स्तरों को पकड़ने के लिए अधिक और बड़ी परतों को जोड़कर अधिक सटीक मॉडल बनाए जा सकते हैं।
6. बहुपरत परसेप्ट्रॉन (एमएलपी) वास्तव में क्या है?
MLPs में इनपुट, हिडन और आउटपुट लेयर मौजूद होते हैं, बहुत कुछ न्यूरल नेटवर्क की तरह। यह एक या अधिक छिपी परतों के साथ सिंगल-लेयर परसेप्ट्रॉन के समान बनाया गया है।
सिंगल लेयर परसेप्ट्रॉन का बाइनरी आउटपुट केवल रैखिक वियोज्य वर्गों (0,1) को वर्गीकृत कर सकता है, जबकि एमएलपी गैर-रेखीय वर्गों को वर्गीकृत कर सकता है।
7. तंत्रिका नेटवर्क में सक्रियण कार्य किस उद्देश्य से खेलते हैं?
एक सक्रियण फ़ंक्शन यह निर्धारित करता है कि एक न्यूरॉन को सबसे मौलिक स्तर पर सक्रिय होना चाहिए या नहीं। कोई भी सक्रियण फ़ंक्शन इनपुट के भारित योग प्लस पूर्वाग्रह को इनपुट के रूप में स्वीकार कर सकता है। एक्टिवेशन फंक्शन में स्टेप फंक्शन, सिग्मॉइड, रेएलयू, टैन्ह और सॉफ्टमैक्स शामिल हैं।
8. ग्रैडिएंट डिसेंट वास्तव में क्या है?
लागत फ़ंक्शन या त्रुटि को कम करने का सबसे अच्छा तरीका ग्रेडिएंट डिसेंट है। किसी फ़ंक्शन की स्थानीय-वैश्विक मिनीमा ढूँढना लक्ष्य है। यह उस पथ को निर्दिष्ट करता है जिसे मॉडल को त्रुटि को कम करने के लिए अनुसरण करना चाहिए।
9. लागत कार्य वास्तव में क्या है?
आपका मॉडल कितना अच्छा प्रदर्शन करता है, इसका आकलन करने के लिए लागत फ़ंक्शन एक मीट्रिक है; इसे कभी-कभी "नुकसान" या "त्रुटि" के रूप में जाना जाता है। बैकप्रोपेगेशन के दौरान, इसका उपयोग आउटपुट लेयर की त्रुटि की गणना करने के लिए किया जाता है।
हम तंत्रिका नेटवर्क की प्रशिक्षण प्रक्रियाओं को तंत्रिका नेटवर्क के माध्यम से वापस धकेलने के लिए उस अशुद्धि का फायदा उठाते हैं।
10. गहरे नेटवर्क उथले नेटवर्क को कैसे मात दे सकते हैं?
इनपुट और आउटपुट परतों के अलावा तंत्रिका नेटवर्क में छिपी हुई परतें जोड़ी जाती हैं। इनपुट और आउटपुट परतों के बीच, उथले तंत्रिका नेटवर्क एक छिपी हुई परत को नियोजित करते हैं, जबकि गहरे तंत्रिका नेटवर्क कई स्तरों का उपयोग करते हैं।
किसी भी फ़ंक्शन में फिट होने में सक्षम होने के लिए एक उथले नेटवर्क को कई मापदंडों की आवश्यकता होती है। डीप नेटवर्क कम संख्या में मापदंडों के साथ भी बेहतर कार्य कर सकते हैं क्योंकि उनमें कई परतें शामिल हैं।
किसी भी प्रकार के डेटा मॉडलिंग के साथ काम करने में उनकी बहुमुखी प्रतिभा के कारण अब डीप नेटवर्क को प्राथमिकता दी जाती है, चाहे वह भाषण या चित्र पहचान के लिए हो।
11. आगे के प्रसार का वर्णन करें।
अग्रेषण प्रसार के रूप में जानी जाने वाली प्रक्रिया में इनपुट को भार के साथ दफन परत तक प्रेषित किया जाता है।
सक्रियण फ़ंक्शन के आउटपुट की गणना प्रत्येक दफ़न परत में की जाती है, इससे पहले कि प्रसंस्करण निम्न परत पर जा सके।
प्रक्रिया इनपुट परत पर शुरू होती है और अंतिम आउटपुट परत तक आगे बढ़ती है, इस प्रकार नाम आगे का प्रसार होता है।
12. बैकप्रोपेगेशन क्या है?
जब वजन और पूर्वाग्रह को तंत्रिका नेटवर्क में समायोजित किया जाता है, तो बैकप्रोपेगेशन का उपयोग लागत फ़ंक्शन को कम करने के लिए किया जाता है, पहले यह देखते हुए कि मूल्य कैसे बदलता है।
प्रत्येक छिपी हुई परत पर ढाल को समझना इस परिवर्तन की गणना को सरल बनाता है।
बैकप्रोपेगेशन के रूप में जानी जाने वाली प्रक्रिया, आउटपुट लेयर से शुरू होती है और इनपुट लेयर्स की ओर पीछे की ओर जाती है।
13. डीप लर्निंग के संदर्भ में, आप ग्रेडिएंट क्लिपिंग को कैसे समझते हैं?
ग्रेडिएंट क्लिपिंग बैकप्रोपेगेशन के दौरान उत्पन्न होने वाले विस्फोट ग्रेडिएंट के मुद्दे को हल करने के लिए एक विधि है (ऐसी स्थिति जिसमें महत्वपूर्ण गलत ग्रेडिएंट समय के साथ जमा हो जाते हैं, जिससे प्रशिक्षण के दौरान तंत्रिका नेटवर्क मॉडल वजन में महत्वपूर्ण समायोजन होता है)।
एक्सप्लोडिंग ग्रेडिएंट एक समस्या है जो तब उत्पन्न होती है जब प्रशिक्षण के दौरान ग्रेडिएंट बहुत बड़े हो जाते हैं, जिससे मॉडल अस्थिर हो जाता है। यदि ग्रेडिएंट अपेक्षित सीमा को पार कर गया है, तो ग्रेडिएंट मान तत्व-दर-तत्व को पूर्वनिर्धारित न्यूनतम या अधिकतम मान पर धकेल दिया जाता है।
ग्रेडिएंट क्लिपिंग प्रशिक्षण के दौरान तंत्रिका नेटवर्क की संख्यात्मक स्थिरता को बढ़ाती है, लेकिन इसका मॉडल के प्रदर्शन पर न्यूनतम प्रभाव पड़ता है।
14. सॉफ्टमैक्स और रेएलयू फंक्शन क्या हैं?
सॉफ्टमैक्स नामक एक सक्रियण फ़ंक्शन 0 और 1 के बीच की सीमा में आउटपुट उत्पन्न करता है। प्रत्येक आउटपुट को विभाजित किया जाता है ताकि सभी आउटपुट का योग एक हो। आउटपुट लेयर्स के लिए, सॉफ्टमैक्स को अक्सर नियोजित किया जाता है।
रेक्टिफाइड लीनियर यूनिट, जिसे कभी-कभी ReLU के रूप में जाना जाता है, सबसे अधिक उपयोग किया जाने वाला सक्रियण फ़ंक्शन है। यदि एक्स सकारात्मक है, तो यह एक्स आउटपुट करता है, अन्यथा यह शून्य आउटपुट करता है। रेएलयू को नियमित रूप से दफन परतों पर लागू किया जाता है।
15. क्या एक तंत्रिका नेटवर्क मॉडल को 0 पर सेट किए गए सभी भारों के साथ प्रशिक्षित किया जा सकता है?
तंत्रिका नेटवर्क किसी दिए गए कार्य को पूरा करना कभी नहीं सीखेगा, इसलिए सभी भारों को 0 से प्रारंभ करके किसी मॉडल को प्रशिक्षित करना संभव नहीं है।
व्युत्पन्न W [1] में प्रत्येक भार के लिए समान रहेगा यदि सभी भारों को शून्य से आरंभीकृत किया जाता है, जिसके परिणामस्वरूप न्यूरॉन्स समान विशेषताओं को पुनरावृत्त रूप से सीखते हैं।
न केवल वज़न को 0 से प्रारंभ करना, बल्कि किसी भी प्रकार के स्थिरांक के परिणामस्वरूप एक सबपर परिणाम होने की संभावना है।
16. क्या एक युग को एक बैच और एक पुनरावृत्ति से अलग करता है?
प्रसंस्करण डेटासेट और ग्रेडिएंट डिसेंट तकनीकों के विभिन्न रूपों में बैच, पुनरावृत्ति और युग शामिल हैं। एपोच में एक बार आगे और पीछे एक पूर्ण डेटासेट के साथ एक तंत्रिका नेटवर्क के माध्यम से शामिल होता है।
विश्वसनीय परिणाम प्रदान करने के लिए, डेटासेट को अक्सर कई बार पास किया जाता है क्योंकि यह एक ही प्रयास में पास होने के लिए बहुत बड़ा है।
तंत्रिका नेटवर्क के माध्यम से डेटा की एक छोटी मात्रा को बार-बार चलाने के इस अभ्यास को पुनरावृत्ति कहा जाता है। यह सुनिश्चित करने के लिए कि डेटा सेट तंत्रिका नेटवर्क को सफलतापूर्वक पार करता है, इसे कई बैचों या सबसेट में विभाजित किया जा सकता है, जिसे बैचिंग के रूप में जाना जाता है।
डेटा संग्रह आकार के आधार पर, सभी तीन विधियाँ- युग, पुनरावृत्ति और बैच आकार- अनिवार्य रूप से उपयोग करने के तरीके हैं ग्रेडिएंट डिसेंट एल्गोरिदम.
17. बैच सामान्यीकरण और ड्रॉपआउट क्या हैं?
ड्रॉपआउट दृश्यमान और छिपी दोनों नेटवर्क इकाइयों (आमतौर पर 20 प्रतिशत नोड्स को गिराकर) को बेतरतीब ढंग से हटाकर डेटा को ओवरफिटिंग से बचाता है। यह नेटवर्क को अभिसरण करने के लिए आवश्यक पुनरावृत्तियों की संख्या को दोगुना कर देता है।
प्रत्येक परत में इनपुट को शून्य के औसत आउटपुट सक्रियण और एक के मानक विचलन के लिए सामान्य करके, बैच सामान्यीकरण तंत्रिका नेटवर्क के प्रदर्शन और स्थिरता को बढ़ाने की एक रणनीति है।
18. स्टोकेस्टिक ग्रैडिएंट डिसेंट को बैच ग्रैडिएंट डिसेंट से क्या अलग करता है?
बैच ढाल वंश:
- बैच ग्रेडिएंट के लिए ग्रेडिएंट बनाने के लिए संपूर्ण डेटासेट का उपयोग किया जाता है।
- डेटा की भारी मात्रा और धीरे-धीरे अद्यतन होने वाले भार अभिसरण को कठिन बनाते हैं।
स्टोकेस्टिक ग्रेडिएंट डिसेंट:
- स्टोकेस्टिक ग्रेडिएंट ग्रेडिएंट की गणना के लिए एकल नमूने का उपयोग करता है।
- वजन में लगातार बदलाव के कारण, यह बैच ग्रेडिएंट की तुलना में काफी तेजी से परिवर्तित होता है।
19. तंत्रिका नेटवर्क में गैर-रैखिकता को शामिल करना क्यों महत्वपूर्ण है?
कोई फर्क नहीं पड़ता कि कितनी परतें हैं, एक तंत्रिका नेटवर्क गैर-रैखिकता के अभाव में एक परसेप्ट्रॉन की तरह व्यवहार करेगा, जिससे आउटपुट इनपुट पर रैखिक रूप से निर्भर हो जाएगा।
इसे दूसरे तरीके से रखने के लिए, n परतों और m छिपी इकाइयों और रैखिक सक्रियण कार्यों के साथ एक तंत्रिका नेटवर्क छिपी हुई परतों के बिना एक रैखिक तंत्रिका नेटवर्क के बराबर है और केवल रैखिक पृथक्करण सीमाओं का पता लगाने की क्षमता के साथ है।
गैर-रैखिकता के बिना, एक तंत्रिका नेटवर्क जटिल मुद्दों को हल करने और इनपुट को सटीक रूप से वर्गीकृत करने में असमर्थ है।
20. डीप लर्निंग में टेंसर क्या है?
एक बहुआयामी सरणी जिसे टेंसर के रूप में जाना जाता है, मैट्रिसेस और वैक्टर के सामान्यीकरण के रूप में कार्य करता है। यह गहन सीखने के लिए एक महत्वपूर्ण डेटा संरचना है। मौलिक डेटा प्रकारों के एन-आयामी सरणियों का उपयोग टेंसर का प्रतिनिधित्व करने के लिए किया जाता है।
टेंसर के प्रत्येक घटक का डेटा प्रकार समान होता है, और यह डेटा प्रकार हमेशा ज्ञात होता है। यह संभव है कि केवल आकार का एक टुकड़ा-अर्थात्, कितने आयाम हैं और प्रत्येक कितना बड़ा है-ज्ञात है।
उन स्थितियों में जब इनपुट भी पूरी तरह से ज्ञात होते हैं, अधिकांश ऑपरेशन पूरी तरह से ज्ञात टेंसर उत्पन्न करते हैं; अन्य मामलों में, एक टेंसर का रूप केवल ग्राफ निष्पादन के दौरान ही स्थापित किया जा सकता है।
21. डीप लर्निंग मॉडल के लिए आप एक्टिवेशन फंक्शन को कैसे चुनेंगे?
- यह एक रैखिक सक्रियण फ़ंक्शन को नियोजित करने के लिए समझ में आता है यदि अपेक्षित परिणाम वास्तविक है।
- एक सिग्मॉइड फ़ंक्शन का उपयोग किया जाना चाहिए यदि आउटपुट का पूर्वानुमान लगाया जाना एक द्विआधारी वर्ग संभावना है।
- यदि अनुमानित आउटपुट में दो वर्गीकरण हैं तो टैन्ह फ़ंक्शन का उपयोग किया जा सकता है।
- इसकी गणना में आसानी के कारण, ReLU फ़ंक्शन कई तरह की स्थितियों में लागू होता है।
22. सीएनएन से आप क्या समझते हैं?
डीप न्यूरल नेटवर्क जो विज़ुअल इमेजरी के मूल्यांकन में विशेषज्ञता रखते हैं, उनमें कन्वेन्शनल न्यूरल नेटवर्क (CNN, या ConvNet) शामिल हैं। यहां, तंत्रिका नेटवर्क के बजाय जहां एक वेक्टर इनपुट का प्रतिनिधित्व करता है, इनपुट एक बहु-चैनल वाली तस्वीर है।
बहुपरत परसेप्ट्रोन का उपयोग सीएनएन द्वारा एक विशेष तरीके से किया जाता है जिसके लिए बहुत कम प्रीप्रोसेसिंग की आवश्यकता होती है।
23. सीएनएन की कई परतें क्या हैं?
कनवल्शनल लेयर: मुख्य परत कनवल्शनल लेयर है, जिसमें विभिन्न प्रकार के सीखने योग्य फिल्टर और एक ग्रहणशील क्षेत्र होता है। यह प्रारंभिक परत इनपुट डेटा लेती है और इसकी विशेषताओं को निकालती है।
ReLU Layer: नेटवर्क को नॉन-लीनियर बनाकर, यह लेयर नेगेटिव पिक्सल को जीरो में बदल देती है।
पूलिंग परत: प्रसंस्करण और नेटवर्क सेटिंग्स को कम करके, पूलिंग परत धीरे-धीरे प्रतिनिधित्व के स्थानिक आकार को कम करती है। मैक्स पूलिंग पूलिंग का सबसे अधिक इस्तेमाल किया जाने वाला तरीका है।
24. ज़रूरत से ज़्यादा और कम फ़िट होने के क्या प्रभाव होते हैं, और आप उनसे कैसे बच सकते हैं?
इसे ओवरफिटिंग के रूप में जाना जाता है जब एक मॉडल प्रशिक्षण डेटा में पेचीदगियों और शोर को उस बिंदु तक सीखता है जहां यह मॉडल के ताजा डेटा के उपयोग को नकारात्मक रूप से प्रभावित करता है।
गैर-रेखीय मॉडल के साथ ऐसा होने की अधिक संभावना है जो लक्ष्य फ़ंक्शन सीखते समय अधिक अनुकूलनीय होते हैं। एक मॉडल को ऑटोमोबाइल और ट्रकों का पता लगाने के लिए प्रशिक्षित किया जा सकता है, लेकिन यह केवल एक विशेष बॉक्स फॉर्म वाले वाहनों की पहचान करने में सक्षम हो सकता है।
यह देखते हुए कि इसे केवल एक प्रकार के ट्रक पर प्रशिक्षित किया गया था, यह एक फ्लैटबेड ट्रक का पता लगाने में सक्षम नहीं हो सकता है। प्रशिक्षण डेटा पर, मॉडल अच्छा काम करता है, लेकिन वास्तविक दुनिया में नहीं।
एक अंडर-फिटेड मॉडल उस मॉडल को संदर्भित करता है जो डेटा पर पर्याप्त रूप से प्रशिक्षित नहीं है या नई जानकारी को सामान्य बनाने में सक्षम नहीं है। यह अक्सर तब होता है जब किसी मॉडल को अपर्याप्त या गलत डेटा के साथ प्रशिक्षित किया जा रहा हो।
अंडरफिटिंग द्वारा सटीकता और प्रदर्शन दोनों से समझौता किया जाता है।
मॉडल सटीकता (K-गुना क्रॉस-सत्यापन) का अनुमान लगाने के लिए डेटा का पुन: नमूनाकरण करना और मॉडल का आकलन करने के लिए सत्यापन डेटासेट का उपयोग करना ओवरफिटिंग और अंडरफिटिंग से बचने के दो तरीके हैं।
25. गहन शिक्षण में, आरएनएन क्या है?
आवर्तक तंत्रिका नेटवर्क (आरएनएन), कृत्रिम तंत्रिका नेटवर्क की एक सामान्य किस्म, संक्षिप्त नाम आरएनएन द्वारा जाना जाता है। वे जीनोम, हस्तलेखन, पाठ और डेटा अनुक्रमों को अन्य चीजों के साथ संसाधित करने के लिए कार्यरत हैं। आवश्यक प्रशिक्षण के लिए, आरएनएन बैकप्रोपेगेशन का उपयोग करते हैं।
26. एडम ऑप्टिमाइज़र का वर्णन करें
एडम ऑप्टिमाइज़र, जिसे अनुकूली गति के रूप में भी जाना जाता है, एक अनुकूलन तकनीक है जिसे विरल ग्रेडिएंट्स के साथ शोर स्थितियों को संभालने के लिए विकसित किया गया है।
त्वरित अभिसरण के लिए प्रति-पैरामीटर अपडेट प्रदान करने के अलावा, एडम ऑप्टिमाइज़र गति के माध्यम से अभिसरण को बढ़ाता है, यह सुनिश्चित करता है कि मॉडल सैडल पॉइंट में फंस न जाए।
27. डीप ऑटोएन्कोडर: वे क्या हैं?
डीप ऑटोएन्कोडर दो सममित गहरे विश्वास नेटवर्क का सामूहिक नाम है जिसमें आम तौर पर नेटवर्क के आधे एन्कोडिंग के लिए चार या पांच उथली परतें शामिल होती हैं और डिकोडिंग आधे के लिए चार या पांच परतों का दूसरा सेट होता है।
ये परतें गहरे विश्वास नेटवर्क की नींव बनाती हैं और बोल्ट्जमैन मशीनों द्वारा विवश हैं। प्रत्येक RBM के बाद, एक गहरा ऑटोएन्कोडर डेटासेट MNIST में बाइनरी परिवर्तन लागू करता है।
उनका उपयोग अन्य डेटासेट में भी किया जा सकता है जहां आरबीएम पर गाऊसी सुधारित परिवर्तनों को प्राथमिकता दी जाएगी।
28. Tensorflow में Tensor का क्या अर्थ है?
यह एक और गहन शिक्षण साक्षात्कार प्रश्न है जो नियमित रूप से पूछा जाता है। टेंसर एक गणितीय अवधारणा है जिसे उच्च-आयामी सरणियों के रूप में देखा जाता है।
Tensors ये डेटा सरणियाँ हैं जो तंत्रिका नेटवर्क के इनपुट के रूप में प्रदान की जाती हैं और इनमें विभिन्न आयाम और रैंकिंग होती हैं।
29. एक कम्प्यूटेशनल ग्राफ की व्याख्या
TensorFlow की नींव एक कम्प्यूटेशनल ग्राफ़ का निर्माण है। प्रत्येक नोड नोड्स के नेटवर्क में कार्य करता है, जहां नोड्स गणितीय संचालन और किनारों के लिए किनारों के लिए खड़े होते हैं।
इसे कभी-कभी "डेटाफ्लो ग्राफ़" के रूप में संदर्भित किया जाता है क्योंकि डेटा एक ग्राफ़ के आकार में प्रवाहित होता है।
30. जनरेटिव एडवरसैरियल नेटवर्क (जीएएन): वे क्या हैं?
डीप लर्निंग में, जनरेटिव मॉडलिंग को जनरेटिव एडवरसैरियल नेटवर्क का उपयोग करके पूरा किया जाता है। यह एक गैर पर्यवेक्षित कार्य है जहां इनपुट डेटा में पैटर्न की पहचान करके परिणाम तैयार किया जाता है।
विवेचक का उपयोग जनरेटर द्वारा उत्पन्न उदाहरणों को वर्गीकृत करने के लिए किया जाता है, जबकि जनरेटर का उपयोग नए उदाहरण उत्पन्न करने के लिए किया जाता है।
31. आर्किटेक्चर डिजाइन करते समय आप तंत्रिका नेटवर्क में शामिल करने के लिए न्यूरॉन्स और छिपी परतों की संख्या कैसे चुनेंगे?
एक व्यावसायिक चुनौती को देखते हुए, तंत्रिका नेटवर्क आर्किटेक्चर के निर्माण के लिए आवश्यक न्यूरॉन्स और छिपी परतों की सटीक संख्या किसी भी कठिन और तेज़ नियमों द्वारा निर्धारित नहीं की जा सकती है।
एक तंत्रिका नेटवर्क में, छिपी हुई परत का आकार इनपुट और आउटपुट परतों के आकार के बीच में कहीं गिरना चाहिए।
तंत्रिका नेटवर्क डिज़ाइन बनाने की शुरुआत कुछ सरल तरीकों से की जा सकती है, हालाँकि:
यह देखने के लिए कुछ बुनियादी व्यवस्थित परीक्षण के साथ शुरू करना कि समान वास्तविक दुनिया सेटिंग्स में तंत्रिका नेटवर्क के साथ पूर्व अनुभव के आधार पर किसी विशिष्ट डेटासेट के लिए सबसे अच्छा प्रदर्शन क्या होगा, हर अद्वितीय वास्तविक दुनिया की भविष्यवाणी मॉडलिंग चुनौती से निपटने का सबसे अच्छा तरीका है।
नेटवर्क कॉन्फ़िगरेशन को समस्या डोमेन के ज्ञान और पूर्व तंत्रिका नेटवर्क अनुभव के आधार पर चुना जा सकता है। तंत्रिका नेटवर्क के सेटअप का आकलन करते समय, संबंधित समस्याओं पर उपयोग की जाने वाली परतों और न्यूरॉन्स की संख्या शुरू करने के लिए एक अच्छी जगह है।
तंत्रिका नेटवर्क की जटिलता को अनुमानित आउटपुट और सटीकता के आधार पर धीरे-धीरे बढ़ाया जाना चाहिए, एक साधारण तंत्रिका नेटवर्क डिजाइन के साथ शुरू करना।
32. गहन सुदृढीकरण सीखने द्वारा किस प्रकार के तंत्रिका नेटवर्क कार्यरत हैं?
- एक मशीन लर्निंग प्रतिमान में जिसे रीइन्फोर्समेंट लर्निंग कहा जाता है, मॉडल संचयी इनाम के विचार को अधिकतम करने के लिए कार्य करता है, ठीक वैसे ही जैसे सजीव चीजें करती हैं।
- गेम्स और सेल्फ-ड्राइविंग वाहन दोनों को शामिल समस्याओं के रूप में वर्णित किया गया है सुदृढीकरण सीखना.
- स्क्रीन का उपयोग इनपुट के रूप में किया जाता है यदि प्रदर्शित की जाने वाली समस्या एक गेम है। अगले चरणों के लिए एक आउटपुट का उत्पादन करने के लिए, एल्गोरिथ्म पिक्सेल को इनपुट के रूप में लेता है और उन्हें दृढ़ तंत्रिका नेटवर्क की कई परतों के माध्यम से संसाधित करता है।
- मॉडल के कार्यों के परिणाम, या तो अनुकूल या बुरे, सुदृढीकरण के रूप में कार्य करते हैं।
निष्कर्ष
लगभग हर उद्योग क्षेत्र में अनुप्रयोगों के साथ, डीप लर्निंग की लोकप्रियता पिछले कुछ वर्षों में बढ़ी है।
कंपनियां तेजी से ऐसे सक्षम विशेषज्ञों की तलाश कर रही हैं जो डीप लर्निंग और मशीन लर्निंग दृष्टिकोणों का उपयोग करके मानव व्यवहार को दोहराने वाले मॉडल तैयार कर सकें।
उम्मीदवार जो अपने कौशल सेट को बढ़ाते हैं और इन अत्याधुनिक तकनीकों के अपने ज्ञान को बनाए रखते हैं, आकर्षक पारिश्रमिक के साथ काम के व्यापक अवसर पा सकते हैं।
अब आप साक्षात्कारों के साथ शुरू कर सकते हैं, क्योंकि आपको इस बात पर अच्छी पकड़ है कि सबसे अधिक बार पूछे जाने वाले गहन शिक्षण साक्षात्कार प्रश्नों में से कुछ का उत्तर कैसे दिया जाए। अपने उद्देश्यों के आधार पर अगला कदम उठाएं।
हैशडॉर्क पर जाएँ साक्षात्कार श्रृंखला साक्षात्कार की तैयारी के लिए।
एक जवाब लिखें