Table di cuntinutu[Piattà][Mostra]
- 1. Cosa hè esattamente Deep Learning?
- 2. Cosa distingue Deep Learning da Machine Learning ?
- 3. Chì sò a vostra cunniscenza attuale di e rete neurale ?
- 4. Chì hè esattamente un perceptron ?
- 5. Chì hè esattamente una rete neurale prufonda ?
- 6. Chì hè esattamente un Perceptron Multilayer (MLP)?
- 7. Chì scopu ghjucanu e funzioni di attivazione in una rete neurale ?
- 8. Chì hè esattamente u Gradient Descent?
- 9. Chì hè esattamente a funzione di costu?
- 10. Cumu ponu e rete prufonde superà quelli superficiali?
- 11. Descrive a propagazione in avanti.
- 12. Chì ghjè u backpropagation ?
- 13. In u cuntestu di l'apprendimentu prufondu, cumu si capisce u clipping gradient?
- 14. Chì sò e Funzioni Softmax è ReLU ?
- 15. Un mudellu di rete neurale pò esse furmatu cù tutti i pesi messi à 0 ?
- 16. Chì distingue un’epica da un batch è da un’iterazione ?
- 17. Chì sò Batch Normalization è Dropout?
- 18. Ciò chì si separa u Stochastic Gradient Descent da Batch Gradient Descent?
- 19. Perchè hè cruciale per include non-linearità in e rete neurale?
- 20. Chì ghjè un tensoru in l'apprendimentu prufondu ?
- 21. Cumu sceglite a funzione di attivazione per un mudellu d'apprendimentu prufondu?
- 22. Chì vulete dì da CNN ?
- 23. Chì sò i tanti strati CNN ?
- 24. Chì sò l'effetti di l'overfitting è underfitting, è cumu pudete evitari?
- 25. In deep learning, chì hè un RNN?
- 26. Descrive l'Adam Optimizer
- 27. Deep autoencoders: chì sò?
- 28. Chì significa Tensor in Tensorflow ?
- 29. Una spiegazione di un gràficu computazionale
- 30. Reti generative adversary (GAN) : chì sò ?
- 31. Cumu sceglite u nùmeru di neuroni è strati nascosti per include in a rete neurale mentre cuncepite l'architettura?
- 32. Chì tipi di rete neurale sò impiegati da l'apprendimentu di rinfurzamentu prufondu ?
- cunchiusioni
L'apprendimentu prufondu ùn hè micca una idea nova. E rete neurali artificiali servenu cum'è l'unicu fundamentu di u sottumessu di apprendimentu automaticu cunnisciutu cum'è apprendimentu prufondu.
L'apprendimentu prufondu hè un mimicu di u cervellu umanu, cum'è e rete neurali sò, postu chì sò stati creati per imità u cervellu umanu.
Ci hè statu questu per un tempu. In questi ghjorni, tutti ne parlanu postu chì ùn avemu micca guasi tanta putenza di trasfurmazioni o dati cum'è noi avà.
In l'ultimi 20 anni, l'apprendimentu profondu è l'apprendimentu automaticu sò emersi per u risultatu di l'aumentu drammaticu di a capacità di trasfurmazioni.
Per aiutà vi à preparà per tutte e dumande chì pudete affruntà quandu cercate u vostru travagliu di sognu, stu post vi guidarà à traversu una serie di dumande di intervista di apprendimentu profondu, chì varienu da simplici à complicate.
1. Cosa hè esattamente Deep Learning?
Sè assistite à un studiu prufunnu intervista, senza dubbitu capisce ciò chì hè l'apprendimentu prufondu. L'entrevistadore, però, anticipa di furnisce una risposta dettagliata cù una illustrazione in risposta à sta quistione.
Per furmà Redes neuronali per l'apprendimentu prufondu, deve esse aduprate quantità significative di dati organizzati o micca strutturati. Per truvà mudelli oculati è caratteristiche, faci prucessi cumplicati (per esempiu, distinguendu l'imaghjini di un gattu da quella di un cane).
2. Cosa distingue Deep Learning da Machine Learning ?
Cum'è un ramu di l'intelligenza artificiale cunnisciuta cum'è machine learning, entremu l'urdinatori utilizendu dati è tecniche statistiche è algoritmiche in modu chì anu megliu cù u tempu.
Cum'è un aspettu di machine learning, l'apprendimentu prufondu imita l'architettura di a rete neurale vista in u cervellu umanu.
3. Chì sò a vostra cunniscenza attuale di e rete neurale ?
I sistemi artificiali cunnisciuti cum'è rete neurali s'assumiglia à e rete neurali organiche truvate in u corpu umanu assai vicinu.
Utilizà una tecnica chì s'assumiglia à cumu u u sensu umanu funzioni, una rete neurale hè una cullizzioni di algoritmi chì hà u scopu di identificà e correlazioni sottostanti in un pezzu di dati.
Questi sistemi acquistenu cunniscenze specifiche à u compitu espunendu si à una serie di datasets è esempi, piuttostu cà seguitendu ogni regule specificu di u compitu.
L'idea hè chì invece di avè una cunniscenza preprogrammata di sti datasets, u sistema ampara e caratteristiche distintive da e dati chì hè alimentatu.
I trè strati di rete chì sò più cumunimenti utilizati in e Rete Neurale sò i seguenti:
- Stratu di input
- Stratu ammucciatu
- Stratu di output
4. Chì hè esattamente un perceptron ?
U neurone biologicu chì si trova in u cervellu umanu hè paragunabile à un perceptron. Ingressi multipli sò ricivuti da u perceptron, chì poi eseguisce numerosi trasfurmazioni è funzioni è pruduce un output.
Un mudellu lineale chjamatu perceptron hè impiegatu in a classificazione binaria. Simula una neurona cù una varietà di inputs, ognunu cù un pesu diversu.
U neurone calcula una funzione utilizendu sti inputs ponderati è emette i risultati.
5. Chì hè esattamente una rete neurale prufonda ?
Una rete neurale profonda hè una rete neurale artificiale (ANN) cù parechji strati trà i strati di input è output (DNN).
E rete neurali profonde sò rete neurali d'architettura profonda. A parolla "prufonda" si riferisce à funzioni cù parechji livelli è unità in una sola capa. Modelli più precisi ponu esse creati aghjunghjendu strati più è più grande per catturà livelli più grande di mudelli.
6. Chì hè esattamente un Perceptron Multilayer (MLP)?
I strati di input, nascosti è di output sò prisenti in MLP, cum'è in e rete neurali. Hè custruitu simile à un perceptron unicu stratu cù una o più strati nascosti.
L'output binariu di un perceptron unicu stratu pò categurizà solu classi separabili lineari (0,1), mentri MLP pò classificà classi non lineari.
7. Chì scopu ghjucanu e funzioni di attivazione in una rete neurale ?
Una funzione di attivazione determina se un neurone deve attivà o micca à u livellu più fundamentale. Ogni funzione di attivazione pò accettà a somma ponderata di l'inputs plus bias cum'è input. E funzioni di attivazione includenu a funzione step, u Sigmoid, u ReLU, u Tanh è u Softmax.
8. Chì hè esattamente u Gradient Descent?
U megliu approcciu per minimizzà una funzione di costu o un errore hè a discesa di gradiente. Truvà i minimi lucali-globali di una funzione hè u scopu. Questu specifica u percorsu chì u mudellu deve seguità per minimizzà l'errore.
9. Chì hè esattamente a funzione di costu?
A funzione di u costu hè una metrica per valutà quantu u vostru mudellu funziona; A volte hè cunnisciutu com'è "perdita" o "errore". Durante a retropropagazione, hè utilizatu per calculà l'errore di a capa di output.
Sfruttamu quella imprecisione per prumove i prucessi di furmazione di a rete neurale spinghjendula à traversu a rete neurale.
10. Cumu ponu e rete prufonde superà quelli superficiali?
I strati nascosti sò aghjuntu à e rete neurali in più di i strati di input è output. Trà i strati di input è output, e rete neurali superficiali impieganu una sola capa nascosta, mentre chì e rete neurali profonde utilizanu numerosi livelli.
Una reta superficiale richiede parechji paràmetri per esse capace di adattà in ogni funzione. E rete profonde ponu adattà funzioni megliu ancu cù un picculu numeru di parametri, postu chì includenu parechji strati.
E rete profonde sò oghji preferite per via di a so versatilità in u travagliu cù qualsiasi tipu di modellazione di dati, sia per u ricunniscenza di parlà o di stampa.
11. Descrive a propagazione in avanti.
L'inputs sò trasmessi inseme cù pesi à a strata intarrata in un prucessu cunnisciutu cum'è propagazione di trasmissioni.
L'output di a funzione d'attivazione hè calculatu in ogni stratu intarratu prima di trasfurmà pò passà à a capa seguente.
U prucessu principia à a capa di input è avanza à a capa di output finale, cusì u nome di propagazione in avanti.
12. Chì ghjè u backpropagation ?
Quandu i pesi è i preghjudizii sò aghjustati in a rete neurale, a retropropagazione hè aduprata per riduce a funzione di costu per prima osservà cumu cambia u valore.
A capiscitura di u gradiente à ogni capa nascosta rende u calculu simplice di stu cambiamentu.
U prucessu, cunnisciutu cum'è backpropagation, principia à a capa di output è si move in daretu à i strati di input.
13. In u cuntestu di l'apprendimentu prufondu, cumu si capisce u clipping gradient?
Gradient Clipping hè un metudu per risolve u prublema di i gradienti esplosivi chì si sviluppanu durante a retropropagazione (una cundizione in quale gradienti sbagliati significativi s'accumulanu cù u tempu, chì porta à aghjustamenti significativi à i pesi di u mudellu di a rete neurale durante a furmazione).
L'esplosione di gradienti hè un prublema chì sorge quandu i gradienti diventanu troppu grande durante a furmazione, facendu u mudellu inestabile. Se u gradiente hà attraversatu u intervallu previstu, i valori di gradiente sò imbuttati elementu per elementu à un valore minimu o massimu predefinitu.
U clipping di gradiente aumenta a stabilità numerica di una rete neurale durante a furmazione, ma hà un impattu minimu in u rendiment di u mudellu.
14. Chì sò e Funzioni Softmax è ReLU ?
Una funzione d'attivazione chjamata Softmax produce un output in u intervalu trà 0 è 1. Ogni output hè divisu in modu chì a summa di tutti i outputs hè unu. Per i strati di output, Softmax hè spessu impiegatu.
Rectified Linear Unit, qualchì volta cunnisciuta cum'è ReLU, hè a funzione di attivazione più usata. Se X hè pusitivu, produce X, altrimenti produce zeri. ReLU hè regularmente applicatu à strati intarrati.
15. Un mudellu di rete neurale pò esse furmatu cù tutti i pesi messi à 0 ?
A rete neurale ùn hà mai amparà à compie un travagliu datu, per quessa ùn hè micca pussibule di furmà un mudellu inizializendu tutti i pesi à 0.
I derivati resteranu listessi per ogni pesu in W [1] se tutti i pesi sò inizializzati à cero, chì hà da risultatu in i neuroni chì imparanu i stessi caratteristiche iterativamente.
Micca solu inizializà i pesi à 0, ma à ogni forma di constantu hè prubabile di risultatu in un risultatu subpar.
16. Chì distingue un’epica da un batch è da un’iterazione ?
Diverse forme di trasfurmazioni di datasets è tecniche di discendenza di gradiente include batch, iteration, è epoch. Epoch implica una volta à traversu una rete neurale cù un set di dati cumpletu, in avanti è in daretu.
Per furnisce risultati affidabili, u dataset hè spessu passatu parechje volte postu chì hè troppu grande per passà in una sola prova.
Questa pratica di eseguisce ripetutamente una piccula quantità di dati attraversu una rete neurale hè chjamata iterazione. Per guarantisce chì u settore di dati trasversa cù successu in e rete neurali, pò esse divisu in una quantità di batch o subsets, chì hè cunnisciutu cum'è batching.
Sicondu a dimensione di a cullezzione di dati, tutti i trè metudi - epoca, iterazione è dimensione di batch - sò essenzialmente modi d'utilizà u Algoritmu di discesa di gradiente.
17. Chì sò Batch Normalization è Dropout?
L'abbandunamentu impedisce l'overfitting di dati sguassendu aleatoriamente e unità di rete visibili è oculate (tipicamenti abbandunendu u 20 per centu di i nodi). Doppia u numeru di iterazioni necessarii per fà a rete per cunverge.
Nurmalizà l'inputs in ogni stratu per avè una attivazione media di output di zero è una deviazione standard di unu, a normalizazione di batch hè una strategia per rinfurzà u rendiment è a stabilità di e rete neurali.
18. Ciò chì si separa u Stochastic Gradient Descent da Batch Gradient Descent?
Descente di gradiente in batch:
- U dataset cumpletu hè utilizatu per custruisce u gradiente per u gradiente batch.
- L'enormi quantità di dati è i pesi chì si aghjurnanu lentamente facenu difficultà a cunvergenza.
Descente di gradiente stocasticu:
- U gradiente stochasticu usa una sola mostra per calculà u gradiente.
- A causa di i cambiamenti di pesu più frequenti, cunverge significativamente più rapidamente cà u gradiente di batch.
19. Perchè hè cruciale per include non-linearità in e rete neurale?
Ùn importa micca quanti strati ci sò, una rete neurale si cumportarà cum'è un perceptron in l'absenza di non-linearità, facendu l'output linealmente dipendente da l'input.
Per dì un altru modu, una rete neurale cù n strati è m unità nascoste è funzioni d'attivazione lineari hè equivalente à una rete neurale lineare senza strati nascosti è cù a capacità di detectà cunfini di separazione lineari solu.
Senza non-linearità, una rete neurale hè incapace di risolve prublemi complicati è categurizà accuratamente l'input.
20. Chì ghjè un tensoru in l'apprendimentu prufondu ?
Un array multidimensionale cunnisciutu cum'è tensor serve cum'è una generalizazione di matri è vettori. Hè una struttura di dati cruciale per l'apprendimentu prufondu. Arrays N-dimensionali di tipi di dati fundamentali sò usati per rapprisintà tensori.
Ogni cumpunente di u tensoru hà u listessu tipu di dati, è questu tipu di dati hè sempre cunnisciutu. Hè pussibule chì solu un pezzu di a forma - vale à dì, quantu dimensioni ci sò è quantu grande ognuna - hè cunnisciutu.
In situazioni quandu l'inputs sò ancu cunnisciuti cumplettamente, a maiuranza di l'operazioni pruduce tensori cunnisciuti; in altri casi, a forma di un tensoru pò esse stabilitu solu durante l'esekzione gràfica.
21. Cumu sceglite a funzione di attivazione per un mudellu d'apprendimentu prufondu?
- Hè sensu di impiegà una funzione di attivazione lineale se u risultatu chì deve esse anticipatu hè attuale.
- Una funzione Sigmoide deve esse aduprata se l'output chì deve esse previstu hè una probabilità di classa binaria.
- Una funzione Tanh pò esse aduprata se l'output prughjettatu cuntene duie classificazioni.
- A causa di a so facilità di calculu, a funzione ReLU hè applicabile in una larga gamma di situazioni.
22. Chì vulete dì da CNN ?
E rete neurali profonde chì sò specializate in a valutazione di l'imaghjini visuali includenu e rete neurali cunvoluzionali (CNN, o ConvNet). Quì, piuttostu chè in e rete neurali induve un vettore rapprisenta l'input, l'input hè una stampa multi-canale.
I perceptroni multilayer sò usati in modu speciale da CNN chì necessitanu assai pocu preprocessing.
23. Chì sò i tanti strati CNN ?
Layer Convolutional: A capa principale hè a strata cunvoluzionale, chì hà una varietà di filtri apprendibili è un campu ricettivu. Questa capa iniziale piglia i dati di input è estrae e so caratteristiche.
ReLU Layer: Facendu e rete non lineari, sta strata trasforma pixel negativi in zero.
Stratu di pooling: Minimizendu u processu è i paràmetri di a rete, a strata di pooling minimizza gradualmente a dimensione spaziale di a rapprisintazioni. Max pooling hè u metudu più utilizatu di pooling.
24. Chì sò l'effetti di l'overfitting è underfitting, è cumu pudete evitari?
Questu hè cunnisciutu cum'è overfitting quandu un mudellu ampara l'intricacies è u rumore in i dati di furmazione à u puntu induve affetta negativamente l'usu di u mudellu di dati freschi.
Hè più prubabile di succede cù mudelli non lineari chì sò più adattabili mentre amparà una funzione di scopu. Un mudellu pò esse furmatu per detectà l'automobile è i camioni, ma puderia esse solu identificà i veiculi cù una forma di scatula particulari.
Siccomu era furmatu solu nantu à un tipu di camion, puderia micca esse capace di detectà un camion flatbed. Nantu à i dati di furmazione, u mudellu funziona bè, ma micca in u mondu propiu.
Un mudellu sottumessu si riferisce à quellu chì ùn hè micca abbastanza furmatu nantu à e dati o capaci di generalizà à nova infurmazione. Questu spessu accade quandu un mudellu hè furmatu cù dati insufficienti o imprecisi.
A precisione è a prestazione sò tramindui cumprumessi da un underfitting.
Resampling i dati per stimà a precisione di u mudellu (K-fold cross-validation) è aduprendu un dataset di validazione per valutà u mudellu sò duie manere per evità l'overfitting è underfitting.
25. In deep learning, chì hè un RNN?
Reti neurali recurrenti (RNN), una varietà cumuni di reti neurali artificiali, passanu da l'abbreviazione RNN. Sò impiegati per processà genomi, grafia, testu è sequenze di dati, frà altre cose. Per a furmazione necessaria, i RNN impieganu a retropropagazione.
26. Descrive l'Adam Optimizer
Adam optimizer, cunnisciutu ancu cum'è momentum adaptativu, hè una tecnica di ottimisazione sviluppata per trattà situazioni rumorosi cù gradienti sparse.
In più di furnisce l'aghjurnamenti per paràmetru per una convergenza più rapida, l'ottimisatore Adam aumenta a convergenza attraversu u momentu, assicurendu chì un mudellu ùn hè micca intrappulatu in u puntu di sella.
27. Deep autoencoders: chì sò?
Deep autoencoder hè u nome cullettivu per duie rete simmetriche di credenze profonde chì generalmente includenu quattru o cinque strati superficiali per a mità di codificazione di a reta è un altru settore di quattru o cinque strati per a mità di decodificazione.
Sti strati formanu u fundamentu di e rete di credenza prufonda è sò limitati da e macchine Boltzmann. Dopu ogni RBM, un autoencoder profondu applica cambiamenti binari à u dataset MNIST.
Puderanu ancu esse utilizati in altri datasets induve e trasfurmazioni rectificate gaussiana seranu preferite à RBM.
28. Chì significa Tensor in Tensorflow ?
Questa hè una altra quistione d'entrevista di apprendimentu prufonda chì hè dumandata regularmente. Un tensoru hè un cuncettu matematicu chì hè visualizatu cum'è arrays di dimensione più altu.
I tensori sò questi arrays di dati chì sò furniti cum'è input à a rete neurale è anu diverse dimensioni è classificazioni.
29. Una spiegazione di un gràficu computazionale
U fundamentu di un TensorFlow hè a custruzzione di un gràficu computazionale. Ogni node funziona in una reta di nodi, induve i nodi stanu per l'operazioni matematiche è i bordi per i tensori.
A volte hè chjamatu "DataFlow Graph" postu chì i flussi di dati in forma di gràficu.
30. Reti generative adversary (GAN) : chì sò ?
In Deep Learning, a modellazione generativa hè realizata aduprendu reti avversaria generative. Hè un travagliu senza supervisione induve u risultatu hè pruduttu identificendu mudelli in i dati di input.
U discriminatore hè utilizatu per categurizà e istanze prudutte da u generatore, mentre chì u generatore hè adupratu per pruduce novi esempi.
31. Cumu sceglite u nùmeru di neuroni è strati nascosti per include in a rete neurale mentre cuncepite l'architettura?
Data una sfida cummerciale, u numeru precisu di neuroni è strati nascosti necessarii per custruisce una architettura di rete neurale ùn pò micca esse determinatu da alcuna regula dura è veloce.
In una rete neurale, a dimensione di a capa nascosta deve falà in un locu à mezu à a dimensione di i strati di input è output.
Un capu in prima di creà un disignu di rete neurale pò esse ottenutu in uni pochi di metudi diretti, però:
Cumincià cù una prova sistematica di basa per vede ciò chì funziona megliu per qualsiasi set di dati specificu basatu annantu à l'esperienza precedente cù e rete neurali in paràmetri simili di u mondu reale hè u megliu modu per affruntà ogni sfida unica di modellazione predittiva di u mondu reale.
A cunfigurazione di a rete pò esse scelta nantu à a cunniscenza di u duminiu di u prublema è l'esperienza di a rete neurale precedente. Quandu valutà a cunfigurazione di una rete neurale, u numeru di strati è neuroni utilizati nantu à i prublemi cunnessi hè un bonu postu per inizià.
A cumplessità di a rete neurale deve esse aumentata gradualmente basatu nantu à a prughjetta di prughjetta è a precisione, partendu da un disignu simplice di rete neurale.
32. Chì tipi di rete neurale sò impiegati da l'apprendimentu di rinfurzamentu prufondu ?
- In un paradigma di apprendimentu automaticu chjamatu apprendimentu di rinforzu, u mudellu agisce per maximizà l'idea di ricumpensa cumulativa, cum'è e cose vive.
- I ghjoculi è i veiculi autoguidati sò tramindui descritti cum'è prublemi chì implicanu appruvamentu rinforzu.
- U screnu hè utilizatu cum'è input se u prublema per esse rapprisintatu hè un ghjocu. Per pruduce un output per e fasi successive, l'algoritmu piglia i pixelli cum'è input è li processa via parechji strati di rete neurali cunvoluzionale.
- I risultati di l'azzioni di u mudellu, favurevuli o cattivi, facenu cum'è rinfurzamentu.
cunchiusioni
L'apprendimentu profondu hè cresciutu in pupularità annantu à l'anni, cù applicazioni in quasi ogni settore di l'industria.
L'imprese cercanu sempre di più esperti competenti chì ponu disignà mudelli chì riplicanu u cumpurtamentu umanu utilizendu approcci di apprendimentu profondu è apprendimentu automaticu.
I candidati chì aumentanu e so cumpetenze è mantenenu a so cunniscenza di sti tecnulugii d'avanguardia ponu truvà una larga gamma di opportunità di travagliu cù una remunerazione attraente.
Pudete principià cù l'entrevista avà chì avete una forte cunniscenza di cumu risponde à alcune di e dumande di l'entrevista di apprendimentu prufonda più spessu richieste. Pigliate u prossimu passu basatu nantu à i vostri obiettivi.
Visita l'Hashdork's Serie di interviste per preparà l'entrevista.
Lascia un Audiolibro