Índice analítico[Ocultar][Mostrar]
- 1. Que é exactamente a aprendizaxe profunda?
- 2. Que distingue a Deep Learning da Machine Learning?
- 3. Cales son os teus entendementos actuais das redes neuronais?
- 4. Que é exactamente un perceptrón?
- 5. Que é exactamente unha rede neuronal profunda?
- 6. Que é exactamente un perceptrón multicapa (MLP)?
- 7. Que propósito teñen as funcións de activación nunha rede neuronal?
- 8. Que é exactamente o descenso de gradientes?
- 9. Cal é exactamente a función de custos?
- 10. Como poden as redes profundas superar as pouco profundas?
- 11. Describe a propagación cara adiante.
- 12. Que é a retropropagación?
- 13. No contexto da aprendizaxe profunda, como entendes o recorte de gradiente?
- 14. Cales son as funcións Softmax e ReLU?
- 15. Pódese adestrar un modelo de rede neuronal con todos os pesos establecidos en 0?
- 16. Que distingue unha época dun lote e dunha iteración?
- 17. Que son a normalización e o abandono de lotes?
- 18. Que separa o descenso do gradiente estocástico do descenso do gradiente por lotes?
- 19. Por que é crucial incluír as non linealidades nas redes neuronais?
- 20. Que é un tensor na aprendizaxe profunda?
- 21. Como escollerías a función de activación dun modelo de aprendizaxe profunda?
- 22. Que queres dicir con CNN?
- 23. Cales son as moitas capas da CNN?
- 24. Cales son os efectos do sobre-efecto, e como pode evitalos?
- 25. Na aprendizaxe profunda, que é un RNN?
- 26. Describe o Adam Optimizer
- 27. Autoencoders profundos: que son?
- 28. Que significa Tensor en Tensorflow?
- 29. Unha explicación dun gráfico computacional
- 30. Redes adversarias xerativas (GAN): que son?
- 31. Como escollerás o número de neuronas e capas ocultas para incluír na rede neuronal mentres deseñas a arquitectura?
- 32. Que tipos de redes neuronais se empregan na aprendizaxe de reforzo profundo?
- Conclusión
A aprendizaxe profunda non é unha idea nova. As redes neuronais artificiais serven como a única base do subconxunto de aprendizaxe automática coñecido como aprendizaxe profunda.
A aprendizaxe profunda é unha imitación do cerebro humano, ao igual que as redes neuronais, xa que foron creadas para imitar o cerebro humano.
Hai un tempo isto. Nestes días, todo o mundo fala diso xa que non temos tanto poder de procesamento nin datos como agora.
Nos últimos 20 anos, a aprendizaxe profunda e a aprendizaxe automática xurdiron como resultado do aumento dramático da capacidade de procesamento.
Co fin de axudarche a prepararte para calquera dúbida que poidas afrontar cando buscas o traballo dos teus soños, esta publicación guiarache a través dunha serie de preguntas de entrevista de aprendizaxe profunda, que van dende simples ata complicadas.
1. Que é exactamente a aprendizaxe profunda?
Se estás asistindo a un aprendizaxe profunda entrevista, sen dúbida entendes o que é a aprendizaxe profunda. O entrevistador, con todo, prevé que proporcione unha resposta detallada xunto cunha ilustración en resposta a esta pregunta.
Para adestrar redes neuronales para a aprendizaxe profunda, deben utilizarse cantidades significativas de datos organizados ou non estruturados. Para atopar patróns e características ocultas, fai procedementos complicados (por exemplo, distinguir a imaxe dun gato da dun can).
2. Que distingue a Deep Learning da Machine Learning?
Como rama da intelixencia artificial coñecida como aprendizaxe automática, adestramos ordenadores utilizando datos e técnicas estatísticas e algorítmicas para que melloren co paso do tempo.
Como aspecto de aprendizaxe de máquina, a aprendizaxe profunda imita a arquitectura da rede neuronal vista no cerebro humano.
3. Cales son os teus entendementos actuais das redes neuronais?
Os sistemas artificiais coñecidos como redes neuronais parécense moito ás redes neuronais orgánicas que se atopan no corpo humano.
Usando unha técnica que se asemella ao cerebro humano funcións, unha rede neuronal é unha colección de algoritmos que ten como obxectivo identificar correlacións subxacentes nun dato.
Estes sistemas adquiren coñecementos específicos da tarefa expoñéndose a unha serie de conxuntos de datos e exemplos, en lugar de seguir regras específicas da tarefa.
A idea é que, en lugar de ter unha comprensión preprogramada destes conxuntos de datos, o sistema aprenda características distintivas dos datos que se alimentan.
As tres capas de rede que se usan máis habitualmente nas redes neuronais son as seguintes:
- Capa de entrada
- Capa oculta
- Capa de saída
4. Que é exactamente un perceptrón?
A neurona biolóxica que se atopa no cerebro humano é comparable a un perceptrón. O perceptrón recibe múltiples entradas, que despois realiza numerosas transformacións e funcións e produce unha saída.
Na clasificación binaria emprégase un modelo lineal chamado perceptrón. Simula unha neurona cunha variedade de entradas, cada unha cun peso diferente.
A neurona calcula unha función usando estas entradas ponderadas e emite os resultados.
5. Que é exactamente unha rede neuronal profunda?
Unha rede neuronal profunda é unha rede neuronal artificial (ANN) con varias capas entre as capas de entrada e saída (DNN).
As redes neuronais profundas son redes neuronais de arquitectura profunda. A palabra "profundo" refírese a funcións con moitos niveis e unidades nunha soa capa. Pódense crear modelos máis precisos engadindo capas máis e máis grandes para capturar maiores niveis de patróns.
6. Que é exactamente un perceptrón multicapa (MLP)?
As capas de entrada, ocultas e de saída están presentes nos MLP, ao igual que nas redes neuronais. Está construído de forma similar a un perceptrón dunha soa capa cunha ou máis capas ocultas.
A saída binaria dun perceptrón dunha soa capa só pode categorizar clases lineais separables (0,1), mentres que MLP pode clasificar clases non lineais.
7. Que propósito teñen as funcións de activación nunha rede neuronal?
Unha función de activación determina se unha neurona debe activarse ou non no nivel máis fundamental. Calquera función de activación pode aceptar a suma ponderada das entradas máis a polarización como entrada. As funcións de activación inclúen a función de paso, o Sigmoid, o ReLU, o Tanh e o Softmax.
8. Que é exactamente o descenso de gradientes?
O mellor enfoque para minimizar unha función de custo ou un erro é o descenso de gradientes. O obxectivo é atopar os mínimos locais-globais dunha función. Isto especifica o camiño que debe seguir o modelo para minimizar o erro.
9. Cal é exactamente a función de custos?
A función de custo é unha métrica para avaliar o rendemento do seu modelo; ás veces coñécese como "perda" ou "erro". Durante a retropropagación, utilízase para calcular o erro da capa de saída.
Aproveitamos esa imprecisión para promover os procesos de adestramento da rede neuronal empuxándoa cara atrás a través da rede neuronal.
10. Como poden as redes profundas superar as pouco profundas?
As capas ocultas engádense ás redes neuronais ademais das capas de entrada e saída. Entre as capas de entrada e saída, as redes neuronais pouco profundas empregan unha única capa oculta, mentres que as redes neuronais profundas usan numerosos niveis.
Unha rede pouco profunda require varios parámetros para poder encaixar en calquera función. As redes profundas poden adaptarse mellor ás funcións mesmo cun pequeno número de parámetros xa que inclúen varias capas.
As redes profundas son agora preferidas pola súa versatilidade para traballar con calquera tipo de modelado de datos, xa sexa para o recoñecemento de voz ou de imaxe.
11. Describe a propagación cara adiante.
As entradas transmítense xunto cos pesos á capa soterrada nun proceso coñecido como propagación de reenvío.
A saída da función de activación calcúlase en todas e cada unha das capas soterradas antes de que o procesamento poida pasar á seguinte capa.
O proceso comeza na capa de entrada e avanza ata a capa de saída final, polo que se denomina propagación cara adiante.
12. Que é a retropropagación?
Cando se axustan os pesos e os prexuízos na rede neuronal, a retropropagación úsase para reducir a función de custo observando primeiro como cambia o valor.
Comprender o degradado en cada capa oculta fai que o cálculo deste cambio sexa sinxelo.
O proceso, coñecido como backpropagation, comeza na capa de saída e retrocede ata as capas de entrada.
13. No contexto da aprendizaxe profunda, como entendes o recorte de gradiente?
Gradient Clipping é un método para resolver o problema dos gradientes explosivos que xorden durante a retropropagación (unha condición na que se acumulan gradientes incorrectos significativos ao longo do tempo, o que leva a axustes significativos aos pesos do modelo da rede neuronal durante o adestramento).
A explosión de gradientes é un problema que xorde cando os gradientes son demasiado grandes durante o adestramento, facendo que o modelo sexa inestable. Se o gradiente cruzou o intervalo esperado, os valores do gradiente móstranse elemento por elemento a un valor mínimo ou máximo predefinido.
O recorte de degradado mellora a estabilidade numérica dunha rede neuronal durante o adestramento, pero ten un impacto mínimo no rendemento do modelo.
14. Cales son as funcións Softmax e ReLU?
Unha función de activación chamada Softmax produce unha saída no intervalo entre 0 e 1. Cada saída divídese de xeito que a suma de todas as saídas sexa un. Para as capas de saída, úsase con frecuencia Softmax.
Unidade lineal rectificada, ás veces coñecida como ReLU, é a función de activación máis utilizada. Se X é positivo, dá saída a X, senón xera ceros. ReLU aplícase regularmente a capas enterradas.
15. Pódese adestrar un modelo de rede neuronal con todos os pesos establecidos en 0?
A rede neuronal nunca aprenderá a completar un determinado traballo, polo que non é posible adestrar un modelo inicializando todos os pesos a 0.
As derivadas seguirán sendo as mesmas para cada peso en W [1] se todos os pesos se inicializan a cero, o que provocará que as neuronas aprendan as mesmas características de forma iterativa.
Non simplemente inicializar os pesos a 0, senón a calquera forma de constante é probable que resulte nun resultado inferior.
16. Que distingue unha época dun lote e dunha iteración?
As diferentes formas de procesamento de conxuntos de datos e técnicas de descenso de gradientes inclúen lote, iteración e época. Epoch implica unha rede neuronal única cun conxunto de datos completo, tanto cara adiante como cara atrás.
Para proporcionar resultados fiables, o conxunto de datos adoita pasar varias veces xa que é demasiado grande para pasar nun só intento.
Esta práctica de executar repetidamente unha pequena cantidade de datos a través dunha rede neuronal denomínase iteración. Para garantir que o conxunto de datos atravesa con éxito as redes neuronais, pódese dividir en varios lotes ou subconxuntos, que se coñecen como lotes.
Dependendo do tamaño da recollida de datos, os tres métodos (época, iteración e tamaño do lote) son esencialmente formas de usar o algoritmo de descenso de gradientes.
17. Que son a normalización e o abandono de lotes?
O abandono evita o exceso de datos eliminando aleatoriamente as unidades de rede visibles e ocultas (normalmente deixa caer o 20 por cento dos nodos). Duplica o número de iteracións necesarias para que a rede converxa.
Ao normalizar as entradas en cada capa para ter unha activación de saída media de cero e unha desviación estándar dun, a normalización por lotes é unha estratexia para mellorar o rendemento e a estabilidade das redes neuronais.
18. Que separa o descenso do gradiente estocástico do descenso do gradiente por lotes?
Descenso do gradiente por lotes:
- O conxunto de datos completo úsase para construír o gradiente para o gradiente do lote.
- A enorme cantidade de datos e os pesos que se actualizan lentamente dificultan a converxencia.
Descenso do gradiente estocástico:
- O gradiente estocástico usa unha única mostra para calcular o gradiente.
- Debido aos cambios de peso máis frecuentes, converxe significativamente máis rápido que o gradiente do lote.
19. Por que é crucial incluír as non linealidades nas redes neuronais?
Non importa cantas capas haxa, unha rede neuronal comportarase como un perceptrón en ausencia de non linealidades, facendo que a saída dependa linealmente da entrada.
Dito doutro xeito, unha rede neuronal con n capas e m unidades ocultas e funcións de activación lineal equivale a unha rede neuronal lineal sen capas ocultas e coa capacidade de detectar unicamente as fronteiras de separación lineal.
Sen non linealidades, unha rede neuronal non pode resolver problemas complicados e categorizar con precisión a entrada.
20. Que é un tensor na aprendizaxe profunda?
Unha matriz multidimensional coñecida como tensor serve como xeneralización de matrices e vectores. É unha estrutura de datos crucial para a aprendizaxe profunda. As matrices N-dimensionais de tipos de datos fundamentais úsanse para representar tensores.
Cada compoñente do tensor ten o mesmo tipo de datos, e este tipo de datos sempre se coñece. É posible que só se coñeza unha peza da forma, é dicir, cantas dimensións hai e o grande que ten cada unha.
En situacións nas que as entradas tamén son completamente coñecidas, a maioría das operacións producen tensores totalmente coñecidos; noutros casos, a forma dun tensor só se pode establecer durante a execución do gráfico.
21. Como escollerías a función de activación dun modelo de aprendizaxe profunda?
- Ten sentido empregar unha función de activación lineal se o resultado que hai que anticipar é real.
- Debe utilizarse unha función sigmoide se a saída que se ten que prognosticar é unha probabilidade de clase binaria.
- Pódese utilizar unha función Tanh se a saída proxectada contén dúas clasificacións.
- Debido á súa facilidade de cálculo, a función ReLU é aplicable nunha ampla gama de situacións.
22. Que queres dicir con CNN?
As redes neuronais profundas especializadas na avaliación de imaxes visuais inclúen as redes neuronais convolucionais (CNN ou ConvNet). Aquí, e non nas redes neuronais onde un vector representa a entrada, a entrada é unha imaxe multicanal.
Os perceptrons multicapa son usados dunha forma especial polas CNN que requiren moi pouco preprocesamento.
23. Cales son as moitas capas da CNN?
Capa convolucional: a capa principal é a capa convolucional, que ten unha variedade de filtros aprendibles e un campo receptivo. Esta capa inicial toma os datos de entrada e extrae as súas características.
Capa ReLU: ao facer que as redes non sexan lineais, esta capa converte os píxeles negativos en cero.
Capa de agrupación: ao minimizar o procesamento e a configuración da rede, a capa de agrupación minimiza gradualmente o tamaño espacial da representación. A agrupación máxima é o método de agrupación máis utilizado.
24. Cales son os efectos do sobre-efecto, e como pode evitalos?
Isto coñécese como sobreadaptación cando un modelo aprende as complejidades e o ruído dos datos de adestramento ata o punto de que afecta negativamente o uso do modelo de datos novos.
É máis probable que ocorra con modelos non lineais que son máis adaptables mentres aprenden unha función obxectivo. Un modelo pódese adestrar para detectar automóbiles e camións, pero só pode identificar vehículos cunha forma de caixa determinada.
Dado que só estaba adestrado nun tipo de camión, é posible que non fose capaz de detectar un camión de plataforma. En datos de adestramento, o modelo funciona ben, pero non no mundo real.
Un modelo insuficientemente adaptado refírese a aquel que non está suficientemente adestrado en datos ou non é capaz de xeneralizar a nova información. Isto ocorre a miúdo cando un modelo está a ser adestrado con datos insuficientes ou inexactos.
A precisión e o rendemento vense comprometidos pola subadaptación.
Remostrar os datos para estimar a precisión do modelo (validación cruzada de veces en K) e usar un conxunto de datos de validación para avaliar o modelo son dúas formas de evitar a sobreadaptación e a subadaptación.
25. Na aprendizaxe profunda, que é un RNN?
As redes neuronais recorrentes (RNN), unha variedade común de redes neuronais artificiais, reciben a abreviatura RNN. Empréganse para procesar xenomas, caligrafía, texto e secuencias de datos, entre outras cousas. Para a formación necesaria, os RNN empregan a retropropagación.
26. Describe o Adam Optimizer
O optimizador Adam, tamén coñecido como momento adaptativo, é unha técnica de optimización desenvolvida para manexar situacións ruidosas con gradientes escasos.
Ademais de proporcionar actualizacións por parámetro para unha converxencia máis rápida, o optimizador Adam mellora a converxencia a través do impulso, garantindo que un modelo non quede atrapado no punto de sela.
27. Autoencoders profundos: que son?
Deep autoencoder é o nome colectivo para dúas redes de crenza profunda simétricas que xeralmente inclúen catro ou cinco capas pouco profundas para a metade de codificación da rede e outro conxunto de catro ou cinco capas para a metade de decodificación.
Estas capas forman a base das redes de crenzas profundas e están restrinxidas polas máquinas de Boltzmann. Despois de cada RBM, un codificador automático profundo aplica cambios binarios ao conxunto de datos MNIST.
Tamén se poden usar noutros conxuntos de datos onde se preferirían transformacións rectificadas gaussianas sobre RBM.
28. Que significa Tensor en Tensorflow?
Esta é outra pregunta dunha entrevista de aprendizaxe profunda que se fai regularmente. Un tensor é un concepto matemático que se visualiza como matrices de dimensións superiores.
Os tensores son estas matrices de datos que se proporcionan como entrada á rede neuronal e teñen varias dimensións e clasificacións.
29. Unha explicación dun gráfico computacional
O fundamento dun TensorFlow é a construción dun gráfico computacional. Cada nodo funciona nunha rede de nodos, onde os nodos representan operacións matemáticas e arestas para tensores.
Ás veces denomínase "gráfico de fluxo de datos" xa que os datos flúen en forma de gráfico.
30. Redes adversarias xerativas (GAN): que son?
En Deep Learning, o modelado xenerativo realízase mediante redes adversarias xerativas. É un traballo non supervisado onde o resultado prodúcese identificando patróns nos datos de entrada.
O discriminador úsase para categorizar as instancias producidas polo xerador, mentres que o xerador úsase para producir novos exemplos.
31. Como escollerás o número de neuronas e capas ocultas para incluír na rede neuronal mentres deseñas a arquitectura?
Dado un desafío empresarial, o número preciso de neuronas e capas ocultas necesarias para construír unha arquitectura de rede neuronal non se pode determinar mediante regras duras e rápidas.
Nunha rede neuronal, o tamaño da capa oculta debería situarse nalgún lugar no medio do tamaño das capas de entrada e saída.
Non obstante, pódese conseguir unha vantaxe sobre a creación dun deseño de rede neuronal mediante algúns métodos sinxelos:
Comezar cunhas probas sistemáticas básicas para ver o que funcionaría mellor para calquera conxunto de datos específico baseado na experiencia previa con redes neuronais en escenarios similares do mundo real é a mellor forma de afrontar cada desafío único de modelado preditivo do mundo real.
A configuración da rede pódese escoller en función do coñecemento do dominio do problema e da experiencia previa na rede neuronal. Ao avaliar a configuración dunha rede neuronal, o número de capas e neuronas utilizadas en problemas relacionados é un bo lugar para comezar.
A complexidade da rede neuronal debe aumentarse gradualmente en función da produción e da precisión proxectadas, comezando cun deseño sinxelo de rede neuronal.
32. Que tipos de redes neuronais se empregan na aprendizaxe de reforzo profundo?
- Nun paradigma de aprendizaxe automática chamado aprendizaxe por reforzo, o modelo actúa para maximizar a idea de recompensa acumulada, do mesmo xeito que o fan as cousas en directo.
- Os xogos e os vehículos autónomos descríbense como problemas que implican aprendizaxe de reforzo.
- A pantalla utilízase como entrada se o problema a representar é un xogo. Para producir unha saída para as seguintes fases, o algoritmo toma os píxeles como entrada e procesaos a través de moitas capas de redes neuronais convolucionais.
- Os resultados das accións do modelo, favorables ou malos, actúan como reforzo.
Conclusión
A aprendizaxe profunda aumentou en popularidade ao longo dos anos, con aplicacións en practicamente todas as áreas do sector.
As empresas buscan cada vez máis expertos competentes que poidan deseñar modelos que reproduzan o comportamento humano mediante enfoques de aprendizaxe profunda e de aprendizaxe automática.
Os candidatos que incrementen o seu conxunto de habilidades e manteñan o seu coñecemento destas tecnoloxías de vangarda poden atopar unha gran variedade de oportunidades de traballo cunha remuneración atractiva.
Podes comezar coas entrevistas agora que tes unha boa comprensión de como responder a algunhas das preguntas máis frecuentes das entrevistas de aprendizaxe profunda. Da o seguinte paso en función dos teus obxectivos.
Visita Hashdork's Serie de entrevistas para prepararse para entrevistas.
Deixe unha resposta