Taula de continguts[Amaga][Espectacle]
- 1. Què és exactament l'aprenentatge profund?
- 2. Què distingeix l'aprenentatge profund de l'aprenentatge automàtic?
- 3. Quina és la teva comprensió actual de les xarxes neuronals?
- 4. Què és exactament un perceptró?
- 5. Què és exactament una xarxa neuronal profunda?
- 6. Què és exactament un perceptró multicapa (MLP)?
- 7. Quina finalitat tenen les funcions d'activació en una xarxa neuronal?
- 8. Què és exactament el descens de gradients?
- 9. Quina és exactament la funció de cost?
- 10. Com poden les xarxes profundes superar les de poca profunditat?
- 11. Descriu la propagació cap endavant.
- 12. Què és la retropropagació?
- 13. En el context de l'aprenentatge profund, com entens el retall de degradat?
- 14. Quines són les funcions Softmax i ReLU?
- 15. Es pot entrenar un model de xarxa neuronal amb tots els pesos posats a 0?
- 16. Què distingeix una època d'un lot i una iteració?
- 17. Què són la normalització per lots i l'abandonament?
- 18. Què separa el descens del gradient estocàstic del descens del gradient per lots?
- 19. Per què és crucial incloure no linealitats a les xarxes neuronals?
- 20. Què és un tensor en l'aprenentatge profund?
- 21. Com triaríeu la funció d'activació per a un model d'aprenentatge profund?
- 22. Què entens per CNN?
- 23. Quines són les moltes capes de CNN?
- 24. Quins són els efectes de l'excés d'adaptació i la subadaptació, i com es pot evitar?
- 25. En l'aprenentatge profund, què és un RNN?
- 26. Descriu l'Adam Optimizer
- 27. Autoencoders profunds: què són?
- 28. Què significa Tensor a Tensorflow?
- 29. Una explicació d'un gràfic computacional
- 30. Xarxes adversaries generatives (GAN): què són?
- 31. Com triareu el nombre de neurones i capes ocultes per incloure a la xarxa neuronal mentre dissenyeu l'arquitectura?
- 32. Quins tipus de xarxes neuronals s'utilitzen per l'aprenentatge de reforç profund?
- Conclusió
L'aprenentatge profund no és una idea totalment nova. Les xarxes neuronals artificials serveixen com a única base del subconjunt d'aprenentatge automàtic conegut com a aprenentatge profund.
L'aprenentatge profund és una imitació del cervell humà, tal com ho són les xarxes neuronals, ja que es van crear per imitar el cervell humà.
Això fa temps que hi ha. En aquests dies, tothom en parla, ja que no tenim gaire potència de processament o dades com ara.
Durant els últims 20 anys, l'aprenentatge profund i l'aprenentatge automàtic han sorgit com a resultat de l'augment espectacular de la capacitat de processament.
Per ajudar-vos a preparar-vos per a qualsevol consulta que pugueu trobar quan cerqueu la feina dels vostres somnis, aquesta publicació us guiarà a través d'una sèrie de preguntes d'entrevistes d'aprenentatge profund, que van des de simples a complicades.
1. Què és exactament l'aprenentatge profund?
Si assistiu a un aprenentatge profund entrevista, sens dubte enteneu què és l'aprenentatge profund. L'entrevistador, però, preveu que proporcioneu una resposta detallada juntament amb una il·lustració en resposta a aquesta pregunta.
Per entrenar xarxes neuronals per a l'aprenentatge profund, s'han d'utilitzar quantitats importants de dades organitzades o no estructurades. Per trobar patrons i característiques ocults, fa procediments complicats (per exemple, distingir la imatge d'un gat de la d'un gos).
2. Què distingeix l'aprenentatge profund de l'aprenentatge automàtic?
Com a branca de la intel·ligència artificial coneguda com a aprenentatge automàtic, entrenem ordinadors utilitzant dades i tècniques estadístiques i algorítmiques perquè millorin amb el temps.
Com a aspecte de màquina d'aprenentatge, l'aprenentatge profund imita l'arquitectura de la xarxa neuronal vista al cervell humà.
3. Quina és la teva comprensió actual de les xarxes neuronals?
Els sistemes artificials coneguts com a xarxes neuronals s'assemblen molt a les xarxes neuronals orgàniques que es troben al cos humà.
Utilitzant una tècnica que s'assembla a la cervell humà Funcions, una xarxa neuronal és una col·lecció d'algorismes que té com a objectiu identificar les correlacions subjacents en una peça de dades.
Aquests sistemes adquireixen coneixements específics de la tasca exposant-se a una sèrie de conjunts de dades i exemples, en lloc de seguir les regles específiques de la tasca.
La idea és que en comptes de tenir una comprensió preprogramada d'aquests conjunts de dades, el sistema aprengui característiques diferencials de les dades que s'alimenta.
Les tres capes de xarxa que s'utilitzen més habitualment a les xarxes neuronals són les següents:
- Capa d'entrada
- Capa oculta
- Capa de sortida
4. Què és exactament un perceptró?
La neurona biològica que es troba al cervell humà és comparable a un perceptró. El perceptró rep múltiples entrades, que després realitza nombroses transformacions i funcions i produeix una sortida.
En la classificació binària s'utilitza un model lineal anomenat perceptró. Simula una neurona amb una varietat d'entrades, cadascuna amb un pes diferent.
La neurona calcula una funció utilitzant aquestes entrades ponderades i emet els resultats.
5. Què és exactament una xarxa neuronal profunda?
Una xarxa neuronal profunda és una xarxa neuronal artificial (ANN) amb diverses capes entre les capes d'entrada i de sortida (DNN).
Les xarxes neuronals profundes són xarxes neuronals d'arquitectura profunda. La paraula "profund" es refereix a funcions amb molts nivells i unitats en una sola capa. Es poden crear models més precisos afegint capes més grans i més grans per capturar nivells més grans de patrons.
6. Què és exactament un perceptró multicapa (MLP)?
Les capes d'entrada, ocultes i de sortida estan presents als MLP, igual que a les xarxes neuronals. Es construeix de manera similar a un perceptró d'una sola capa amb una o més capes ocultes.
La sortida binària d'un perceptró d'una sola capa només pot classificar classes separables lineals (0,1), mentre que MLP pot classificar classes no lineals.
7. Quina finalitat tenen les funcions d'activació en una xarxa neuronal?
Una funció d'activació determina si una neurona s'ha d'activar o no al nivell més fonamental. Qualsevol funció d'activació pot acceptar la suma ponderada de les entrades més el biaix com a entrada. Les funcions d'activació inclouen la funció de pas, el Sigmoid, el ReLU, el Tanh i el Softmax.
8. Què és exactament el descens de gradients?
El millor enfocament per minimitzar una funció de cost o un error és el descens del gradient. L'objectiu és trobar els mínims locals-globals d'una funció. Això especifica el camí que ha de seguir el model per minimitzar l'error.
9. Quina és exactament la funció de cost?
La funció de cost és una mètrica per avaluar el rendiment del vostre model; de vegades es coneix com a "pèrdua" o "error". Durant la retropropagació, s'utilitza per calcular l'error de la capa de sortida.
Aprofitem aquesta inexactitud per afavorir els processos d'entrenament de la xarxa neuronal fent-la retrocedir a través de la xarxa neuronal.
10. Com poden les xarxes profundes superar les de poca profunditat?
Les capes ocultes s'afegeixen a les xarxes neuronals a més de les capes d'entrada i sortida. Entre les capes d'entrada i de sortida, les xarxes neuronals superficials utilitzen una única capa oculta, mentre que les xarxes neuronals profundes utilitzen nombrosos nivells.
Una xarxa poc profunda requereix diversos paràmetres per poder encaixar en qualsevol funció. Les xarxes profundes poden adaptar-se millor a les funcions fins i tot amb un nombre reduït de paràmetres, ja que inclouen diverses capes.
Les xarxes profundes es prefereixen ara per la seva versatilitat per treballar amb qualsevol tipus de modelatge de dades, ja sigui per al reconeixement de veu o d'imatges.
11. Descriu la propagació cap endavant.
Les entrades es transmeten juntament amb els pesos a la capa soterrada en un procés conegut com a propagació de reenviament.
La sortida de la funció d'activació es calcula a totes i cadascuna de les capes soterrades abans que el processament pugui passar a la capa següent.
El procés comença a la capa d'entrada i avança cap a la capa de sortida final, per tant el nom de propagació cap endavant.
12. Què és la retropropagació?
Quan s'ajusten els pesos i els biaixos a la xarxa neuronal, la retropropagació s'utilitza per reduir la funció de cost observant primer com canvia el valor.
Comprendre el degradat de cada capa oculta fa que el càlcul d'aquest canvi sigui senzill.
El procés, conegut com a retropropagació, comença a la capa de sortida i es mou cap enrere a les capes d'entrada.
13. En el context de l'aprenentatge profund, com entens el retall de degradat?
Gradient Clipping és un mètode per resoldre el problema dels gradients explosius que sorgeixen durant la retropropagació (una condició en la qual s'acumulen gradients incorrectes significatius al llarg del temps, donant lloc a ajustos significatius als pesos del model de la xarxa neuronal durant l'entrenament).
L'explosió dels gradients és un problema que sorgeix quan els gradients es fan massa grans durant l'entrenament, fent que el model sigui inestable. Si el gradient ha travessat l'interval esperat, els valors del gradient es mouen element per element a un valor mínim o màxim predefinit.
El retall de degradat millora l'estabilitat numèrica d'una xarxa neuronal durant l'entrenament, però té un impacte mínim en el rendiment del model.
14. Quines són les funcions Softmax i ReLU?
Una funció d'activació anomenada Softmax produeix una sortida en el rang entre 0 i 1. Cada sortida es divideix de manera que la suma de totes les sortides sigui una. Per a les capes de sortida, Softmax s'utilitza amb freqüència.
La unitat lineal rectificada, de vegades coneguda com a ReLU, és la funció d'activació més utilitzada. Si X és positiu, genera X, en cas contrari genera zeros. ReLU s'aplica regularment a les capes enterrades.
15. Es pot entrenar un model de xarxa neuronal amb tots els pesos posats a 0?
La xarxa neuronal mai aprendrà a completar un treball determinat, per tant, no és possible entrenar un model inicialitzant tots els pesos a 0.
Les derivades romandran iguals per a cada pes a W [1] si tots els pesos s'inicien a zero, la qual cosa donarà lloc a que les neurones aprenguin les mateixes característiques de manera iterativa.
No només inicialitzar els pesos a 0, sinó a qualsevol forma de constant és probable que es tradueixi en un resultat inferior.
16. Què distingeix una època d'un lot i una iteració?
Les diferents formes de processament de conjunts de dades i tècniques de descens de gradients inclouen lots, iteració i època. Epoch implica una xarxa neuronal amb un conjunt de dades complet, tant cap endavant com cap enrere.
Per tal de proporcionar resultats fiables, el conjunt de dades es passa sovint diverses vegades, ja que és massa gran per passar en un sol intent.
Aquesta pràctica d'executar repetidament una petita quantitat de dades a través d'una xarxa neuronal s'anomena iteració. Per garantir que el conjunt de dades travessa amb èxit les xarxes neuronals, es pot dividir en una sèrie de lots o subconjunts, que es coneix com a lots.
Depenent de la mida de la recollida de dades, els tres mètodes (època, iteració i mida del lot) són essencialment maneres d'utilitzar el algorisme de descens del gradient.
17. Què són la normalització per lots i l'abandonament?
L'abandonament evita l'excés de dades eliminant de manera aleatòria les unitats de xarxa visibles i ocultes (normalment deixa caure el 20 per cent dels nodes). Dobla el nombre d'iteracions necessàries per aconseguir que la xarxa convergi.
En normalitzar les entrades de cada capa per tenir una activació mitjana de sortida de zero i una desviació estàndard d'un, la normalització per lots és una estratègia per millorar el rendiment i l'estabilitat de les xarxes neuronals.
18. Què separa el descens del gradient estocàstic del descens del gradient per lots?
Descens del gradient per lots:
- El conjunt de dades complet s'utilitza per construir el gradient per al gradient per lots.
- L'enorme quantitat de dades i els pesos que s'actualitzen lentament dificulten la convergència.
Descens del gradient estocàstic:
- El gradient estocàstic utilitza una sola mostra per calcular el gradient.
- A causa dels canvis de pes més freqüents, convergeix significativament més ràpidament que el gradient del lot.
19. Per què és crucial incloure no linealitats a les xarxes neuronals?
No importa quantes capes hi hagi, una xarxa neuronal es comportarà com un perceptró en absència de no linealitats, fent que la sortida depengui linealment de l'entrada.
Per dir-ho d'una altra manera, una xarxa neuronal amb n capes i m unitats ocultes i funcions d'activació lineal és equivalent a una xarxa neuronal lineal sense capes ocultes i amb la capacitat de detectar únicament les vores de separació lineal.
Sense no linealitats, una xarxa neuronal és incapaç de resoldre problemes complicats i categoritzar amb precisió l'entrada.
20. Què és un tensor en l'aprenentatge profund?
Una matriu multidimensional coneguda com a tensor serveix com a generalització de matrius i vectors. És una estructura de dades crucial per a l'aprenentatge profund. S'utilitzen matrius N-dimensionals de tipus de dades fonamentals per representar tensors.
Cada component del tensor té el mateix tipus de dades, i aquest tipus de dades sempre es coneix. És possible que només es conegui una peça de la forma, és a dir, quantes dimensions hi ha i quina mida té cadascuna.
En situacions en què les entrades també es coneixen completament, la majoria de les operacions produeixen tensors totalment coneguts; en altres casos, la forma d'un tensor només es pot establir durant l'execució del gràfic.
21. Com triaríeu la funció d'activació per a un model d'aprenentatge profund?
- Té sentit emprar una funció d'activació lineal si el resultat que s'ha d'anticipar és real.
- S'ha d'utilitzar una funció sigmoide si la sortida que s'ha de preveure és una probabilitat de classe binària.
- Es pot utilitzar una funció Tanh si la sortida projectada conté dues classificacions.
- A causa de la seva facilitat de càlcul, la funció ReLU és aplicable en una àmplia gamma de situacions.
22. Què entens per CNN?
Les xarxes neuronals profundes especialitzades en l'avaluació d'imatges visuals inclouen xarxes neuronals convolucionals (CNN o ConvNet). Aquí, més que a les xarxes neuronals on un vector representa l'entrada, l'entrada és una imatge multicanal.
Els perceptrons multicapa són utilitzats d'una manera especial per les CNN que requereixen molt poc preprocessament.
23. Quines són les moltes capes de CNN?
Capa convolucional: la capa principal és la capa convolucional, que té una varietat de filtres aprendre i un camp receptiu. Aquesta capa inicial pren les dades d'entrada i n'extreu les característiques.
Capa ReLU: fent que les xarxes no siguin lineals, aquesta capa converteix els píxels negatius en zero.
Capa de agrupació: en minimitzar la configuració de processament i de xarxa, la capa de agrupació minimitza gradualment la mida espacial de la representació. La combinació màxima és el mètode més utilitzat per agrupar-los.
24. Quins són els efectes de l'excés d'adaptació i la subadaptació, i com es pot evitar?
Això es coneix com a sobreajust quan un model aprèn les complexitats i el soroll de les dades d'entrenament fins al punt que afecta negativament l'ús del model de dades noves.
És més probable que succeeixi amb models no lineals que són més adaptables mentre aprenen una funció d'objectiu. Es pot entrenar un model per detectar automòbils i camions, però pot ser que només pugui identificar vehicles amb una forma de caixa determinada.
Atès que només va ser entrenat en un tipus de camió, és possible que no pugui detectar un camió de plataforma. En les dades d'entrenament, el model funciona bé, però no en el món real.
Un model poc ajustat fa referència a aquell que no està prou entrenat en dades o no és capaç de generalitzar-se amb informació nova. Això passa sovint quan s'està entrenant un model amb dades insuficients o inexactes.
La precisió i el rendiment es veuen compromesos amb l'ajustament insuficient.
Tornar a mostrejar les dades per estimar la precisió del model (validació creuada de vegades K) i utilitzar un conjunt de dades de validació per avaluar el model són dues maneres d'evitar l'ajustament excessiu i insuficient.
25. En l'aprenentatge profund, què és un RNN?
Les xarxes neuronals recurrents (RNN), una varietat comuna de xarxes neuronals artificials, s'anomenen per l'abreviatura RNN. S'utilitzen per processar genomes, escriptura a mà, text i seqüències de dades, entre altres coses. Per a la formació necessària, els RNN utilitzen la retropropagació.
26. Descriu l'Adam Optimizer
Adam optimizer, també conegut com a impuls adaptatiu, és una tècnica d'optimització desenvolupada per gestionar situacions sorolloses amb gradients escassos.
A més de proporcionar actualitzacions per paràmetre per a una convergència més ràpida, l'optimitzador Adam millora la convergència mitjançant l'impuls, assegurant que un model no quedi atrapat al punt de la cadira.
27. Autoencoders profunds: què són?
Deep autoencoder és el nom col·lectiu de dues xarxes de creences profundes simètriques que generalment inclouen quatre o cinc capes poc profundes per a la meitat de codificació de la xarxa i un altre conjunt de quatre o cinc capes per a la meitat de descodificació.
Aquestes capes formen la base de les xarxes de creences profundes i estan limitades per les màquines de Boltzmann. Després de cada RBM, un codificador automàtic profund aplica canvis binaris al conjunt de dades MNIST.
També es poden utilitzar en altres conjunts de dades on es preferirien transformacions rectificades gaussianes a RBM.
28. Què significa Tensor a Tensorflow?
Aquesta és una altra pregunta d'entrevista d'aprenentatge profund que es fa regularment. Un tensor és un concepte matemàtic que es visualitza com a matrius de dimensions superiors.
Els tensors són aquestes matrius de dades que es proporcionen com a entrada a la xarxa neuronal i tenen diverses dimensions i classificacions.
29. Una explicació d'un gràfic computacional
La base d'un TensorFlow és la construcció d'un gràfic computacional. Cada node funciona en una xarxa de nodes, on els nodes representen operacions matemàtiques i arestes per tensors.
De vegades es coneix com a "gràfic de flux de dades", ja que les dades flueixen en forma de gràfic.
30. Xarxes adversaries generatives (GAN): què són?
A l'aprenentatge profund, el modelatge generatiu s'aconsegueix mitjançant xarxes adversàries generatives. És un treball no supervisat on el resultat es produeix mitjançant la identificació de patrons a les dades d'entrada.
El discriminador s'utilitza per categoritzar les instàncies produïdes pel generador, mentre que el generador s'utilitza per produir nous exemples.
31. Com triareu el nombre de neurones i capes ocultes per incloure a la xarxa neuronal mentre dissenyeu l'arquitectura?
Tenint en compte un repte empresarial, el nombre precís de neurones i capes ocultes necessàries per construir una arquitectura de xarxa neuronal no es pot determinar per cap regla ferma i ràpida.
En una xarxa neuronal, la mida de la capa oculta hauria de situar-se en algun lloc del mig de la mida de les capes d'entrada i sortida.
Tanmateix, es pot aconseguir un avantatge en la creació d'un disseny de xarxa neuronal amb alguns mètodes senzills:
Començar amb algunes proves sistemàtiques bàsiques per veure què funcionaria millor per a qualsevol conjunt de dades específic basat en l'experiència prèvia amb xarxes neuronals en entorns similars del món real és la millor manera d'afrontar cada repte únic de modelatge predictiu del món real.
La configuració de la xarxa es pot escollir en funció del coneixement del domini del problema i de l'experiència prèvia de la xarxa neuronal. Quan s'avalua la configuració d'una xarxa neuronal, el nombre de capes i neurones utilitzades en problemes relacionats és un bon lloc per començar.
La complexitat de la xarxa neuronal s'hauria d'augmentar gradualment en funció de la producció i la precisió projectades, començant per un disseny de xarxa neuronal senzill.
32. Quins tipus de xarxes neuronals s'utilitzen per l'aprenentatge de reforç profund?
- En un paradigma d'aprenentatge automàtic anomenat aprenentatge per reforç, el model actua per maximitzar la idea de recompensa acumulada, igual que ho fan les coses en directe.
- Els jocs i els vehicles de conducció autònoma es descriuen com a problemes que impliquen aprenentatge de reforç.
- La pantalla s'utilitza com a entrada si el problema a representar és un joc. Per tal de produir una sortida per a les següents fases, l'algorisme pren els píxels com a entrada i els processa mitjançant moltes capes de xarxes neuronals convolucionals.
- Els resultats de les accions del model, siguin favorables o dolents, actuen com a reforç.
Conclusió
L'aprenentatge profund ha augmentat en popularitat al llarg dels anys, amb aplicacions en pràcticament totes les àrees de la indústria.
Les empreses busquen cada cop més experts competents que puguin dissenyar models que reprodueixin el comportament humà mitjançant enfocaments d'aprenentatge profund i aprenentatge automàtic.
Els candidats que augmenten el seu conjunt d'habilitats i mantenen el seu coneixement d'aquestes tecnologies d'avantguarda poden trobar un ampli ventall d'oportunitats laborals amb una remuneració atractiva.
Podeu començar amb les entrevistes ara que teniu una bona comprensió de com respondre a algunes de les preguntes de l'entrevista d'aprenentatge profund que es demanen més sovint. Fes el següent pas en funció dels teus objectius.
Visiteu Hashdork's Sèrie d'entrevistes per preparar les entrevistes.
Deixa un comentari