INHOUDSOPGAWE[Versteek][Wys]
- 1. Wat presies is Deep Learning?
- 2. Wat onderskei Deep Learning van Machine Learning?
- 3. Wat is jou huidige begrip van neurale netwerke?
- 4. Wat presies is 'n perceptron?
- 5. Wat presies is 'n diep neurale netwerk?
- 6. Wat is 'n meerlaagperseptron (MLP) presies?
- 7. Watter doel speel aktiveringsfunksies in 'n neurale netwerk?
- 8. Wat presies is gradiënt-afkoms?
- 9. Wat presies is die kostefunksie?
- 10. Hoe kan diep netwerke beter as vlak netwerke presteer?
- 11. Beskryf voorwaartse voortplanting.
- 12. Wat is terugpropagasie?
- 13. In die konteks van diep leer, hoe verstaan jy gradiëntknip?
- 14. Wat is die Softmax- en ReLU-funksies?
- 15. Kan 'n neurale netwerkmodel opgelei word met al die gewigte op 0 gestel?
- 16. Wat onderskei 'n epog van 'n bondel en 'n iterasie?
- 17. Wat is bondelnormalisering en uitval?
- 18. Wat skei Stogastiese Gradiënt Afkoms van Batch Gradiënt Afkoms?
- 19. Waarom is dit noodsaaklik om nie-lineariteite in neurale netwerke in te sluit?
- 20. Wat is 'n tensor in diep leer?
- 21. Hoe sou jy die aktiveringsfunksie vir 'n diepleermodel kies?
- 22. Wat bedoel jy met CNN?
- 23. Wat is die baie CNN-lae?
- 24. Wat is die gevolge van oor- en onderpas, en hoe kan jy dit vermy?
- 25. Wat is 'n RNN in diepe leer?
- 26. Beskryf die Adam Optimizer
- 27. Diep outo-enkodeerders: wat is dit?
- 28. Wat beteken Tensor in Tensorflow?
- 29. 'n Verduideliking van 'n berekeningsgrafiek
- 30. Generatiewe teenstandersnetwerke (GAN's): wat is dit?
- 31. Hoe sal jy die aantal neurone en versteekte lae kies om in die neurale netwerk in te sluit terwyl jy die argitektuur ontwerp?
- 32. Watter soorte neurale netwerke word deur diepversterkingsleer aangewend?
- Gevolgtrekking
Diep leer is nie 'n splinternuwe idee nie. Kunsmatige neurale netwerke dien as die enigste fondament van die masjienleer-subset bekend as diep leer.
Diep leer is 'n menslike breinnabootsing, net soos neurale netwerke is, aangesien hulle geskep is om die menslike brein na te boots.
Daar is dit al 'n rukkie. Deesdae praat almal daaroor aangesien ons nie naastenby soveel verwerkingskrag of data het soos nou nie.
Oor die afgelope 20 jaar het diep leer en masjienleer na vore gekom as gevolg van die dramatiese toename in verwerkingskapasiteit.
Ten einde jou te help om voor te berei vir enige navrae wat jy in die gesig staar wanneer jy jou droomwerk soek, sal hierdie pos jou deur 'n aantal diep leeronderhoudvrae lei, wat wissel van eenvoudig tot ingewikkeld.
1. Wat presies is Deep Learning?
As jy 'n diep leer onderhoud, verstaan jy ongetwyfeld wat diep leer is. Die onderhoudvoerder verwag egter dat jy 'n gedetailleerde antwoord saam met 'n illustrasie sal gee in antwoord op hierdie vraag.
Om op te lei neurale netwerke vir diep leer moet aansienlike hoeveelhede georganiseerde of ongestruktureerde data gebruik word. Om verborge patrone en kenmerke te vind, doen dit ingewikkelde prosedures (byvoorbeeld om die beeld van 'n kat van dié van 'n hond te onderskei).
2. Wat onderskei Deep Learning van Machine Learning?
As 'n tak van kunsmatige intelligensie bekend as masjienleer, lei ons rekenaars op met behulp van data en statistiese en algoritmiese tegnieke sodat hulle mettertyd beter word.
As 'n aspek van machine learning, deep learning boots die neurale netwerkargitektuur na wat in die menslike brein gesien word.
3. Wat is jou huidige begrip van neurale netwerke?
Kunsmatige stelsels bekend as neurale netwerke lyk baie na aan die organiese neurale netwerke wat in die menslike liggaam voorkom.
Die gebruik van 'n tegniek wat lyk soos hoe die menslike brein funksies, is 'n neurale netwerk 'n versameling algoritmes wat daarop gemik is om onderliggende korrelasies in 'n stuk data te identifiseer.
Hierdie stelsels verkry taakspesifieke kennis deur hulself bloot te stel aan 'n reeks datastelle en voorbeelde, eerder as deur enige taakspesifieke reëls te volg.
Die idee is dat in plaas daarvan om 'n voorafgeprogrammeerde begrip van hierdie datastelle te hê, leer die stelsel onderskeidende eienskappe van die data wat dit gevoer word.
Die drie netwerklae wat die meeste in neurale netwerke gebruik word, is soos volg:
- Invoerlaag
- Versteekte laag
- Uitsetlaag
4. Wat presies is 'n perceptron?
Die biologiese neuron wat in die menslike brein gevind word, is vergelykbaar met 'n perceptron. Veelvuldige insette word deur die perseptron ontvang, wat dan talle transformasies en funksies uitvoer en 'n uitset produseer.
'n Lineêre model genoem 'n perceptron word in binêre klassifikasie gebruik. Dit simuleer 'n neuron met 'n verskeidenheid insette, elk met 'n ander gewig.
Die neuron bereken 'n funksie deur hierdie geweegde insette te gebruik en voer die resultate uit.
5. Wat presies is 'n diep neurale netwerk?
'n Diep neurale netwerk is 'n kunsmatige neurale netwerk (ANN) met verskeie lae tussen die inset- en uitsetlae (DNN).
Diep neurale netwerke is diep argitektuur neurale netwerke. Die woord "diep" verwys na funksies met baie vlakke en eenhede in 'n enkele laag. Meer akkurate modelle kan geskep word deur meer en groter lae by te voeg om groter vlakke van patrone vas te vang.
6. Wat is 'n meerlaagperseptron (MLP) presies?
Invoer-, verborge- en uitsetlae is teenwoordig in MLP's, baie soos in neurale netwerke. Dit is soortgelyk aan 'n enkellaagperceptron met een of meer versteekte lae gebou.
Die binêre uitset van 'n enkellaagperseptron kan slegs lineêre skeibare klasse (0,1) kategoriseer, terwyl MLP nie-lineêre klasse kan klassifiseer.
7. Watter doel speel aktiveringsfunksies in 'n neurale netwerk?
'n Aktiveringsfunksie bepaal of 'n neuron op die mees fundamentele vlak moet aktiveer of nie. Enige aktiveringsfunksie kan die geweegde som van die insette plus vooroordeel as insette aanvaar. Aktiveringsfunksies sluit die stapfunksie, die Sigmoid, die ReLU, die Tanh en die Softmax in.
8. Wat presies is gradiënt-afkoms?
Die beste benadering om 'n kostefunksie of 'n fout te verminder, is gradiënt-afkoms. Die doel is om 'n funksie se plaaslike-globale minima te vind. Dit spesifiseer die pad wat die model moet volg om foute te minimaliseer.
9. Wat presies is die kostefunksie?
Die kostefunksie is 'n maatstaf om te bepaal hoe goed jou model presteer; dit staan soms bekend as "verlies" of "fout." Tydens terugpropagasie word dit gebruik om die uitsetlaag se fout te bereken.
Ons ontgin daardie onakkuraatheid om die neurale netwerk se opleidingsprosesse te bevorder deur dit deur die neurale netwerk terug te druk.
10. Hoe kan diep netwerke beter as vlak netwerke presteer?
Versteekte lae word by neurale netwerke gevoeg bykomend tot invoer- en uitvoerlae. Tussen die inset- en uitsetlae gebruik vlak neurale netwerke 'n enkele versteekte laag, terwyl diep neurale netwerke talle vlakke gebruik.
'n Vlak netwerk vereis verskeie parameters om in enige funksie te kan inpas. Diep netwerke kan funksies beter pas, selfs met 'n klein aantal parameters, aangesien dit verskeie lae insluit.
Diep netwerke word nou verkies vanweë hul veelsydigheid om met enige tipe datamodellering te werk, of dit nou vir spraak- of prentherkenning is.
11. Beskryf voorwaartse voortplanting.
Insette word saam met gewigte na die begrawe laag oorgedra in 'n proses bekend as aanstuurvoortplanting.
Die aktiveringsfunksie se uitset word in elke begrawe laag bereken voordat verwerking na die volgende laag kan voortgaan.
Die proses begin by die invoerlaag en vorder na die uiteindelike uitvoerlaag, dus die naam vorentoe voortplanting.
12. Wat is terugpropagasie?
Wanneer gewigte en vooroordele in die neurale netwerk aangepas word, word terugpropagasie gebruik om die kostefunksie te verminder deur eers waar te neem hoe die waarde verander.
Om die gradiënt by elke versteekte laag te verstaan, maak die berekening van hierdie verandering eenvoudig.
Die proses, bekend as terugpropagasie, begin by die uitsetlaag en beweeg terug na die invoerlae.
13. In die konteks van diep leer, hoe verstaan jy gradiëntknip?
Gradient Clipping is 'n metode om die kwessie van ontploffende gradiënte wat tydens terugpropagasie ontstaan, op te los ('n toestand waarin beduidende verkeerde gradiënte mettertyd ophoop, wat lei tot beduidende aanpassings aan neurale netwerkmodelgewigte tydens opleiding).
Ontploffende gradiënte is 'n probleem wat ontstaan wanneer die gradiënte te groot word tydens opleiding, wat die model onstabiel maak. As die gradiënt die verwagte reeks oorgesteek het, word die gradiëntwaardes element-vir-element na 'n voorafbepaalde minimum of maksimum waarde gestoot.
Gradiëntknip verhoog die numeriese stabiliteit van 'n neurale netwerk tydens opleiding, maar dit het 'n minimale impak op die model se prestasie.
14. Wat is die Softmax- en ReLU-funksies?
'n Aktiveringsfunksie genaamd Softmax lewer 'n uitset in die reeks tussen 0 en 1. Elke uitset word verdeel sodat die som van al die uitsette een is. Vir uitsetlae word Softmax gereeld gebruik.
Gerrigte lineêre eenheid, soms bekend as ReLU, is die mees gebruikte aktiveringsfunksie. As X positief is, voer dit X uit, anders lewer dit nulle uit. ReLU word gereeld op begrawe lae toegedien.
15. Kan 'n neurale netwerkmodel opgelei word met al die gewigte op 0 gestel?
Die neurale netwerk sal nooit leer om 'n gegewe werk te voltooi nie, daarom is dit nie moontlik om 'n model op te lei deur al die gewigte na 0 te inisialiseer nie.
Die afgeleides sal dieselfde bly vir elke gewig in W [1] as alle gewigte geïnisialiseer word na nul, wat daartoe sal lei dat neurone dieselfde kenmerke iteratief leer.
Om nie net die gewigte na 0 te inisialiseer nie, maar na enige vorm van konstante sal waarskynlik lei tot 'n ondermaatse resultaat.
16. Wat onderskei 'n epog van 'n bondel en 'n iterasie?
Verskillende vorme van verwerking van datastelle en gradiënt-afkomstegnieke sluit bondel, iterasie en epog in. Epog behels een keer deur 'n neurale netwerk met 'n volledige datastel, beide vorentoe en agtertoe.
Ten einde betroubare resultate te verskaf, word die datastel gereeld verskeie kere deurgegee aangesien dit te groot is om in 'n enkele probeerslag te slaag.
Hierdie praktyk om 'n klein hoeveelheid data herhaaldelik deur 'n neurale netwerk te laat loop, word na verwys as iterasie. Om te verseker dat die datastel die neurale netwerke suksesvol deurkruis, kan dit in 'n aantal groepe of subversamelings verdeel word, wat bekend staan as groepering.
Afhangende van die data-insamelingsgrootte, is al drie metodes – epog, iterasie en bondelgrootte – in wese maniere om die gradiënt afkoms algoritme.
17. Wat is bondelnormalisering en uitval?
Uitval voorkom dat data oorpas deur beide sigbare en versteekte netwerkeenhede lukraak te verwyder (gewoonlik 20 persent van die nodusse laat val). Dit verdubbel die aantal iterasies wat nodig is om die netwerk te laat konvergeer.
Deur die insette in elke laag te normaliseer om 'n gemiddelde uitsetaktivering van nul en 'n standaardafwyking van een te hê, is bondelnormalisering 'n strategie om die werkverrigting en stabiliteit van neurale netwerke te verbeter.
18. Wat skei Stogastiese Gradiënt Afkoms van Batch Gradiënt Afkoms?
Batch Gradiënt Afkoms:
- Die volledige datastel word gebruik om die gradiënt vir die bondelgradiënt te konstrueer.
- Die enorme hoeveelheid data en die gewigte wat stadig opdateer maak konvergensie moeilik.
Stogastiese gradiënt afkoms:
- Die stogastiese gradiënt gebruik 'n enkele steekproef om die gradiënt te bereken.
- As gevolg van die meer gereelde gewigsveranderinge konvergeer dit aansienlik vinniger as die bondelgradiënt.
19. Waarom is dit noodsaaklik om nie-lineariteite in neurale netwerke in te sluit?
Maak nie saak hoeveel lae daar is nie, 'n neurale netwerk sal optree soos 'n perceptron in die afwesigheid van nie-lineariteite, wat die uitset lineêr afhanklik maak van die inset.
Om dit anders te stel, is 'n neurale netwerk met n lae en m versteekte eenhede en lineêre aktiveringsfunksies gelykstaande aan 'n lineêre neurale netwerk sonder versteekte lae en met die vermoë om net lineêre skeidingsgrense op te spoor.
Sonder nie-lineariteite is 'n neurale netwerk nie in staat om ingewikkelde kwessies op te los en die insette akkuraat te kategoriseer nie.
20. Wat is 'n tensor in diep leer?
'n Multidimensionele skikking bekend as 'n tensor dien as 'n veralgemening van matrikse en vektore. Dit is 'n deurslaggewende datastruktuur vir diep leer. N-dimensionele skikkings van fundamentele datatipes word gebruik om tensors voor te stel.
Elke komponent van die tensor het dieselfde datatipe, en hierdie datatipe is altyd bekend. Dit is moontlik dat slegs 'n stuk van die vorm - naamlik hoeveel afmetings daar is en hoe groot elkeen is - bekend is.
In situasies wanneer die insette ook heeltemal bekend is, produseer die meerderheid bewerkings tensors wat volledig bekend is; in ander gevalle kan die vorm van 'n tensor slegs tydens grafiekuitvoering vasgestel word.
21. Hoe sou jy die aktiveringsfunksie vir 'n diepleermodel kies?
- Dit maak sin om 'n lineêre aktiveringsfunksie te gebruik indien die uitkoms wat verwag moet word, werklik is.
- 'n Sigmoid-funksie moet gebruik word as die uitset wat voorspel moet word 'n binêre klaswaarskynlikheid is.
- 'n Tanh-funksie kan gebruik word as die geprojekteerde uitset twee klassifikasies bevat.
- As gevolg van die gemak van berekening, is die ReLU-funksie van toepassing in 'n wye verskeidenheid situasies.
22. Wat bedoel jy met CNN?
Diep neurale netwerke wat spesialiseer in die evaluering van visuele beelde sluit in konvolusionele neurale netwerke (CNN, of ConvNet). Hier, eerder as in neurale netwerke waar 'n vektor die inset verteenwoordig, is die inset 'n multi-kanaal prentjie.
Meerlaagperseptrone word op 'n spesiale manier deur CNN's gebruik wat baie min voorafverwerking verg.
23. Wat is die baie CNN-lae?
Konvolusionele laag: Die hooflaag is die konvolusionele laag, wat 'n verskeidenheid aanleerbare filters en 'n ontvanklike veld het. Hierdie aanvanklike laag neem die invoerdata en onttrek die kenmerke daarvan.
ReLU-laag: Deur die netwerke nie-lineêr te maak, verander hierdie laag negatiewe pixels in nul.
Poellaag: Deur verwerking en netwerkinstellings te minimaliseer, verminder die poellaag geleidelik die ruimtelike grootte van die voorstelling. Max pooling is die mees gebruikte metode van poel.
24. Wat is die gevolge van oor- en onderpas, en hoe kan jy dit vermy?
Dit staan bekend as ooraanpassing wanneer 'n model die ingewikkeldhede en geraas in die opleidingsdata leer tot die punt waar dit die model se gebruik van vars data negatief beïnvloed.
Dit is meer waarskynlik om te gebeur met nie-lineêre modelle wat meer aanpasbaar is terwyl 'n doelfunksie aangeleer word. 'n Model kan opgelei word om motors en vragmotors op te spoor, maar dit kan dalk net voertuie met 'n spesifieke boksvorm identifiseer.
Aangesien dit net op een tipe vragmotor opgelei is, sal dit dalk nie 'n platbakvragmotor kan opspoor nie. Op opleidingsdata werk die model goed, maar nie in die werklike wêreld nie.
'n Onderaangepaste model verwys na een wat nie voldoende opgelei is in data of in staat is om na nuwe inligting te veralgemeen nie. Dit gebeur dikwels wanneer 'n model opgelei word met onvoldoende of onakkurate data.
Akkuraatheid en werkverrigting word albei benadeel deur onderpassing.
Die hermonstering van die data om modelakkuraatheid te skat (K-vou kruisvalidering) en die gebruik van 'n valideringsdatastel om die model te assesseer, is twee maniere om oorpassing en onderpassing te vermy.
25. Wat is 'n RNN in diepe leer?
Herhalende neurale netwerke (RNN'e), 'n algemene verskeidenheid kunsmatige neurale netwerke, gaan deur die afkorting RNN. Hulle word aangewend om onder meer genome, handskrif, teks en datareekse te verwerk. Vir die nodige opleiding gebruik RNN's terugverspreiding.
26. Beskryf die Adam Optimizer
Adam optimizer, ook bekend as adaptive momentum, is 'n optimaliseringstegniek wat ontwikkel is om lawaaierige situasies met yl gradiënte te hanteer.
Benewens die verskaffing van per-parameter-opdaterings vir vinniger konvergensie, verbeter die Adam optimizer konvergensie deur momentum, om te verseker dat 'n model nie in die saalpunt vasgevang word nie.
27. Diep outo-enkodeerders: wat is dit?
Diep outo-enkodeerder is die versamelnaam vir twee simmetriese diepgeloofnetwerke wat oor die algemeen vier of vyf vlak lae vir die enkoderende helfte van die netwerk en nog 'n stel van vier of vyf lae vir die dekoderingshelfte insluit.
Hierdie lae vorm die grondslag van diep geloofsnetwerke en word deur Boltzmann-masjiene beperk. Na elke RBM pas 'n diep outo-enkodeerder binêre veranderinge op die datastel MNIST toe.
Hulle kan ook in ander datastelle gebruik word waar Gaussiese reggestelde transformasies bo RBM verkies sal word.
28. Wat beteken Tensor in Tensorflow?
Dit is nog 'n diep leeronderhoudvraag wat gereeld gevra word. 'n Tensor is 'n wiskundige konsep wat as hoër-dimensionele skikkings gevisualiseer word.
Tensors is hierdie data-skikkings wat as insette na die neurale netwerk verskaf word en verskeie dimensies en rangorde het.
29. 'n Verduideliking van 'n berekeningsgrafiek
Die grondslag van 'n TensorFlow is die konstruksie van 'n berekeningsgrafiek. Elke nodus funksioneer in 'n netwerk van nodusse, waar nodusse staan vir wiskundige bewerkings en rande vir tensors.
Dit word soms na verwys as 'n "DataFlow Graph" aangesien data in die vorm van 'n grafiek vloei.
30. Generatiewe teenstandersnetwerke (GAN's): wat is dit?
In Deep Learning word generatiewe modellering bewerkstellig met behulp van generatiewe teenstrydige netwerke. Dit is 'n werk sonder toesig waar die resultaat geproduseer word deur patrone in die insetdata te identifiseer.
Die diskrimineerder word gebruik om die gevalle wat deur die generator geproduseer word te kategoriseer, terwyl die generator gebruik word om nuwe voorbeelde te produseer.
31. Hoe sal jy die aantal neurone en versteekte lae kies om in die neurale netwerk in te sluit terwyl jy die argitektuur ontwerp?
Gegewe 'n besigheidsuitdaging, kan die presiese aantal neurone en verborge lae wat nodig is om 'n neurale netwerkargitektuur te bou, nie deur enige harde en vinnige reëls bepaal word nie.
In 'n neurale netwerk behoort die grootte van die versteekte laag iewers in die middel van die grootte van die inset- en uitsetlae te val.
'N Voorsprong met die skep van 'n neurale netwerkontwerp kan egter met 'n paar eenvoudige metodes bereik word:
Om te begin met 'n paar basiese sistematiese toetse om te sien wat die beste sal vaar vir enige spesifieke datastel gebaseer op vorige ondervinding met neurale netwerke in soortgelyke werklike wêreld instellings is die beste manier om elke unieke werklike wêreld voorspellende modellering uitdaging aan te pak.
Die netwerkkonfigurasie kan gekies word op grond van 'n mens se kennis van die probleemdomein en vorige neurale netwerkervaring. Wanneer 'n neurale netwerk se opstelling beoordeel word, is die aantal lae en neurone wat op verwante probleme gebruik word, 'n goeie plek om te begin.
Die neurale netwerk se kompleksiteit moet geleidelik verhoog word gebaseer op geprojekteerde uitset en akkuraatheid, begin met 'n eenvoudige neurale netwerk ontwerp.
32. Watter soorte neurale netwerke word deur diepversterkingsleer aangewend?
- In 'n masjienleerparadigma genaamd versterkingsleer, tree die model op om die idee van kumulatiewe beloning te maksimeer, net soos lewende dinge doen.
- Speletjies en selfbesturende voertuie word albei beskryf as probleme wat betrokke is versterkingsleer.
- Die skerm word as invoer gebruik as die probleem wat voorgestel moet word 'n speletjie is. Om 'n uitset vir die volgende fases te produseer, neem die algoritme die pixels as invoer en verwerk dit via baie lae van konvolusionele neurale netwerke.
- Die model se aksies se resultate, hetsy gunstig of sleg, dien as versterking.
Gevolgtrekking
Deep Learning het oor die jare in gewildheid toegeneem, met toepassings in feitlik elke bedryfsgebied.
Maatskappye soek al hoe meer bekwame kundiges wat modelle kan ontwerp wat menslike gedrag herhaal deur diepleer- en masjienleerbenaderings te gebruik.
Kandidate wat hul vaardighede uitbrei en hul kennis van hierdie voorpunttegnologieë behou, kan 'n wye reeks werksgeleenthede met aantreklike vergoeding vind.
Jy kan met die onderhoude begin noudat jy 'n sterk begrip het oor hoe om te reageer op sommige van die diepleeronderhoudvrae wat die meeste gevra word. Neem die volgende stap op grond van jou doelwitte.
Besoek Hashdork's Onderhoudreeks om voor te berei vir onderhoude.
Lewer Kommentaar