Pregled sadržaja[Sakriti][Pokazati]
- 1. Što je točno Deep Learning?
- 2. Što razlikuje duboko učenje od strojnog učenja?
- 3. Koje je vaše trenutno razumijevanje neuronskih mreža?
- 4. Što je zapravo perceptron?
- 5. Što je zapravo duboka neuronska mreža?
- 6. Što je točno višeslojni perceptron (MLP)?
- 7. Koju svrhu imaju aktivacijske funkcije u neuronskoj mreži?
- 8. Što je točno gradijentni silazak?
- 9. Što je točno funkcija troška?
- 10. Kako duboke mreže mogu nadmašiti plitke?
- 11. Opišite širenje naprijed.
- 12. Što je povratno širenje?
- 13. U kontekstu dubokog učenja, kako shvaćate izrezivanje gradijenta?
- 14. Što su Softmax i ReLU funkcije?
- 15. Može li se model neuronske mreže trenirati sa svim težinama postavljenim na 0?
- 16. Što razlikuje epohu od serije i iteracije?
- 17. Što su normalizacija serije i ispadanje?
- 18. Što odvaja stohastički gradijentni spuštanje od skupnog gradijentnog spuštanja?
- 19. Zašto je ključno uključiti nelinearnosti u neuronske mreže?
- 20. Što je tenzor u dubokom učenju?
- 21. Kako biste odabrali funkciju aktivacije za model dubokog učenja?
- 22. Što podrazumijevate pod CNN-om?
- 23. Koji su mnogi CNN slojevi?
- 24. Koji su učinci prevelike i premale opremljenosti i kako ih možete izbjeći?
- 25. Što je RNN u dubokom učenju?
- 26. Opišite Adamov optimizator
- 27. Duboki autokoderi: što su oni?
- 28. Što Tensor znači u Tensorflowu?
- 29. Objašnjenje računskog grafa
- 30. Generativne kontradiktorne mreže (GAN): što su one?
- 31. Kako ćete odabrati broj neurona i skrivenih slojeva koje ćete uključiti u neuronsku mrežu dok dizajnirate arhitekturu?
- 32. Koje se vrste neuronskih mreža koriste za duboko potkrepljeno učenje?
- Zaključak
Duboko učenje nije potpuno nova ideja. Umjetne neuronske mreže služe kao jedini temelj podskupa strojnog učenja poznatog kao duboko učenje.
Duboko učenje oponaša ljudski mozak, poput neuronskih mreža, jer su stvorene da oponašaju ljudski mozak.
To postoji već neko vrijeme. Ovih dana svi pričaju o tome budući da nemamo ni približno toliko procesorske snage niti podataka kao sada.
Tijekom proteklih 20 godina duboko učenje i strojno učenje pojavili su se kao rezultat dramatičnog porasta kapaciteta obrade.
Kako bismo vam pomogli da se pripremite za sve upite s kojima biste se mogli susresti dok tražite posao iz snova, ovaj će vas post voditi kroz brojna pitanja za razgovor za duboko učenje, od jednostavnih do kompliciranih.
1. Što je točno Deep Learning?
Ako pohađate a duboko učenje intervjuu, nedvojbeno razumijete što je duboko učenje. Međutim, anketar očekuje da date detaljan odgovor zajedno s ilustracijom kao odgovor na ovo pitanje.
Kako bi trenirao neuronske mreže za duboko učenje moraju se koristiti značajne količine organiziranih ili nestrukturiranih podataka. Kako bi pronašao skrivene obrasce i karakteristike, provodi komplicirane postupke (na primjer, razlikuje sliku mačke od slike psa).
2. Što razlikuje duboko učenje od strojnog učenja?
Kao grana umjetne inteligencije poznata kao strojno učenje, obučavamo računala pomoću podataka te statističkih i algoritamskih tehnika kako bi s vremenom postala bolja.
Kao aspekt stroj za učenje, duboko učenje oponaša arhitekturu neuronske mreže vidljivu u ljudskom mozgu.
3. Koje je vaše trenutno razumijevanje neuronskih mreža?
Umjetni sustavi poznati kao neuronske mreže vrlo nalikuju organskim neuronskim mrežama koje se nalaze u ljudskom tijelu.
Koristeći tehniku koja nalikuje onoj ljudski mozak funkcije, neuronska mreža je zbirka algoritama čiji je cilj identificirati temeljne korelacije u dijelu podataka.
Ovi sustavi stječu znanje specifično za zadatak izlažući se nizu skupova podataka i primjera, radije nego slijedeći pravila specifična za zadatak.
Ideja je da umjesto unaprijed programiranog razumijevanja ovih skupova podataka, sustav uči karakteristike razlikovanja iz podataka koji mu se unose.
Tri mrežna sloja koja se najčešće koriste u neuronskim mrežama su sljedeća:
- Ulazni sloj
- Skriveni sloj
- Izlazni sloj
4. Što je zapravo perceptron?
Biološki neuron koji se nalazi u ljudskom mozgu usporediv je s perceptronom. Višestruke ulaze prima perceptron, koji zatim izvodi brojne transformacije i funkcije i proizvodi izlaz.
U binarnoj klasifikaciji koristi se linearni model nazvan perceptron. Simulira neuron s različitim ulazima, svaki s različitom težinom.
Neuron izračunava funkciju pomoću ovih ponderiranih ulaza i daje rezultate.
5. Što je zapravo duboka neuronska mreža?
Duboka neuronska mreža je umjetna neuronska mreža (ANN) s nekoliko slojeva između ulaznog i izlaznog sloja (DNN).
Duboke neuronske mreže su neuronske mreže duboke arhitekture. Riječ "duboko" odnosi se na funkcije s mnogo razina i jedinica u jednom sloju. Precizniji modeli mogu se stvoriti dodavanjem više i većih slojeva za snimanje većih razina uzoraka.
6. Što je točno višeslojni perceptron (MLP)?
Ulazni, skriveni i izlazni slojevi prisutni su u MLP-ovima, slično kao u neuronskim mrežama. Izgrađen je slično kao jednoslojni perceptron s jednim ili više skrivenih slojeva.
Binarni izlaz jednoslojnog perceptrona može kategorizirati samo linearne separabilne klase (0,1), dok MLP može klasificirati nelinearne klase.
7. Koju svrhu imaju aktivacijske funkcije u neuronskoj mreži?
Aktivacijska funkcija određuje hoće li se neuron aktivirati na najosnovnijoj razini. Bilo koja aktivacijska funkcija može prihvatiti ponderirani zbroj ulaza plus pristranost kao ulaz. Aktivacijske funkcije uključuju funkciju koraka, Sigmoid, ReLU, Tanh i Softmax.
8. Što je točno gradijentni silazak?
Najbolji pristup za minimiziranje troškovne funkcije ili pogreške je gradijentni spust. Cilj je pronaći lokalne-globalne minimume funkcije. Ovo specificira put koji model treba slijediti kako bi se pogreška svela na minimum.
9. Što je točno funkcija troška?
Troškovna funkcija je metrika za procjenu izvedbe vašeg modela; ponekad je poznato kao "gubitak" ili "pogreška". Tijekom povratnog širenja, koristi se za izračunavanje pogreške izlaznog sloja.
Iskorištavamo tu netočnost kako bismo unaprijedili procese obuke neuronske mreže gurajući je natrag kroz neuronsku mrežu.
10. Kako duboke mreže mogu nadmašiti plitke?
Skriveni slojevi dodaju se neuronskim mrežama uz ulazne i izlazne slojeve. Između ulaznog i izlaznog sloja, plitke neuronske mreže koriste jedan skriveni sloj, dok duboke neuronske mreže koriste brojne razine.
Plitka mreža zahtijeva nekoliko parametara kako bi se mogla uklopiti u bilo koju funkciju. Duboke mreže mogu bolje odgovarati funkcijama čak i s malim brojem parametara budući da uključuju nekoliko slojeva.
Duboke mreže sada se preferiraju zbog njihove svestranosti u radu s bilo kojom vrstom modeliranja podataka, bilo da se radi o prepoznavanju govora ili slike.
11. Opišite širenje naprijed.
Unosi se zajedno s težinama prenose u zakopani sloj u procesu poznatom kao prosljeđivanje širenja.
Izlaz aktivacijske funkcije izračunava se u svakom zakopanom sloju prije nego što se obrada može nastaviti na sljedeći sloj.
Proces počinje na ulaznom sloju i napreduje do krajnjeg izlaznog sloja, što je i ime prosljeđivanje.
12. Što je povratno širenje?
Kada se težine i pristranosti prilagode u neuronskoj mreži, širenje unatrag koristi se za smanjenje funkcije troška tako da se prvo promatra kako se vrijednost mijenja.
Razumijevanje gradijenta na svakom skrivenom sloju čini izračun ove promjene jednostavnim.
Proces, poznat kao povratno širenje, počinje na izlaznom sloju i kreće se unatrag prema ulaznim slojevima.
13. U kontekstu dubokog učenja, kako shvaćate izrezivanje gradijenta?
Rezanje gradijenata je metoda za rješavanje problema eksplozivnih gradijenata koji nastaju tijekom širenja unazad (stanje u kojem se značajni netočni gradijenti akumuliraju tijekom vremena, što dovodi do značajnih prilagodbi težina modela neuronske mreže tijekom obuke).
Eksplozivni gradijenti problem su koji nastaju kada gradijenti postanu preveliki tijekom treninga, čineći model nestabilnim. Ako je gradijent prešao očekivani raspon, vrijednosti gradijenta se guraju element po element na unaprijed definiranu minimalnu ili maksimalnu vrijednost.
Gradijentno odsijecanje povećava numeričku stabilnost neuronske mreže tijekom obuke, ali ima minimalan utjecaj na performanse modela.
14. Što su Softmax i ReLU funkcije?
Aktivacijska funkcija nazvana Softmax proizvodi izlaz u rasponu između 0 i 1. Svaki izlaz je podijeljen tako da je zbroj svih izlaza jedan. Za izlazne slojeve često se koristi Softmax.
Ispravljena linearna jedinica, ponekad poznata i kao ReLU, najčešće je korištena funkcija aktivacije. Ako je X pozitivan, ispisuje X, u suprotnom ispisuje nule. ReLU se redovito nanosi na ukopane slojeve.
15. Može li se model neuronske mreže trenirati sa svim težinama postavljenim na 0?
Neuronska mreža nikada neće naučiti dovršiti zadani posao, stoga nije moguće uvježbati model inicijaliziranjem svih težina na 0.
Derivacije će ostati iste za svaku težinu u W [1] ako se sve težine inicijaliziraju na nulu, što će rezultirati time da neuroni uče iste značajke iterativno.
Ne samo inicijaliziranje težina na 0, već na bilo koji oblik konstante vjerojatno će rezultirati lošijim rezultatom.
16. Što razlikuje epohu od serije i iteracije?
Različiti oblici obrade skupova podataka i tehnike gradijentnog spuštanja uključuju seriju, iteraciju i epohu. Epoha uključuje jednokratno prolaženje kroz neuronsku mrežu s punim skupom podataka, naprijed i natrag.
Kako bi se pružili pouzdani rezultati, skup podataka se često prosljeđuje nekoliko puta jer je prevelik za prosljeđivanje u jednom pokušaju.
Ova praksa opetovanog pokretanja male količine podataka kroz neuronsku mrežu naziva se iteracija. Kako bi se zajamčilo da skup podataka uspješno prolazi kroz neuronske mreže, može se podijeliti u više serija ili podskupova, što je poznato kao grupiranje.
Ovisno o veličini zbirke podataka, sve tri metode - epoha, iteracija i veličina serije - u biti su načini korištenja algoritam gradijentnog spuštanja.
17. Što su normalizacija serije i ispadanje?
Dropout sprječava prekomjerno prilagođavanje podataka nasumičnim uklanjanjem vidljivih i skrivenih mrežnih jedinica (obično se ispušta 20 posto čvorova). Udvostručuje broj ponavljanja potrebnih da se mreža konvergira.
Normalizacijom ulaza u svakom sloju da imaju srednju izlaznu aktivaciju od nule i standardnu devijaciju od jedan, skupna normalizacija je strategija za poboljšanje performansi i stabilnosti neuronskih mreža.
18. Što odvaja stohastički gradijentni spuštanje od skupnog gradijentnog spuštanja?
Skupni gradijent spuštanja:
- Kompletan skup podataka koristi se za konstrukciju gradijenta za skupni gradijent.
- Ogromna količina podataka i težine koje se sporo ažuriraju otežavaju konvergenciju.
Stohastički gradijentni pad:
- Stohastički gradijent koristi jedan uzorak za izračunavanje gradijenta.
- Zbog češćih promjena težine, konvergira znatno brže od šaržnog gradijenta.
19. Zašto je ključno uključiti nelinearnosti u neuronske mreže?
Bez obzira na to koliko slojeva postoji, neuronska mreža će se ponašati kao perceptron u nedostatku nelinearnosti, čineći izlaz linearno ovisnim o ulazu.
Drugim riječima, neuronska mreža s n slojeva i m skrivenih jedinica i linearnim aktivacijskim funkcijama ekvivalentna je linearnoj neuronskoj mreži bez skrivenih slojeva i sa sposobnošću otkrivanja samo linearnih granica razdvajanja.
Bez nelinearnosti, neuronska mreža ne može riješiti komplicirana pitanja i točno kategorizirati ulaz.
20. Što je tenzor u dubokom učenju?
Višedimenzionalni niz poznat kao tenzor služi kao generalizacija matrica i vektora. To je ključna struktura podataka za duboko učenje. N-dimenzionalni nizovi temeljnih tipova podataka koriste se za predstavljanje tenzora.
Svaka komponenta tenzora ima isti tip podataka i taj je tip podataka uvijek poznat. Moguće je da je poznat samo dio oblika - naime, koliko dimenzija ima i koliko je svaka velika.
U situacijama kada su ulazi također potpuno poznati, većina operacija proizvodi potpuno poznate tenzore; u drugim slučajevima, oblik tenzora može se ustanoviti samo tijekom izvođenja grafa.
21. Kako biste odabrali funkciju aktivacije za model dubokog učenja?
- Ima smisla upotrijebiti linearnu aktivacijsku funkciju ako je ishod koji se mora očekivati stvaran.
- Sigmoidna funkcija trebala bi se koristiti ako je izlaz koji se mora predvidjeti vjerojatnost binarne klase.
- Tanh funkcija može se koristiti ako projicirani izlaz sadrži dvije klasifikacije.
- Zbog svoje jednostavnosti izračuna, funkcija ReLU primjenjiva je u širokom rasponu situacija.
22. Što podrazumijevate pod CNN-om?
Duboke neuronske mreže koje su specijalizirane za procjenu vizualnih slika uključuju konvolucijske neuronske mreže (CNN ili ConvNet). Ovdje, umjesto u neuronskim mrežama gdje vektor predstavlja ulaz, ulaz je višekanalna slika.
CNN-ovi koriste višeslojne perceptrone na poseban način koji zahtijeva vrlo malo predprocesiranja.
23. Koji su mnogi CNN slojevi?
Konvolucijski sloj: Glavni sloj je konvolucijski sloj, koji ima niz filtara koji se mogu naučiti i receptivno polje. Ovaj početni sloj uzima ulazne podatke i izdvaja njihove karakteristike.
ReLU sloj: čineći mreže nelinearnim, ovaj sloj pretvara negativne piksele u nulu.
Sloj udruživanja: minimiziranjem obrade i mrežnih postavki, sloj udruživanja postupno smanjuje prostornu veličinu prikaza. Maksimalno udruživanje je najčešće korištena metoda udruživanja.
24. Koji su učinci prevelike i premale opremljenosti i kako ih možete izbjeći?
Ovo je poznato kao prekomjerno opremanje kada model nauči zamršenosti i šum u podacima o obuci do točke u kojoj to negativno utječe na modelovo korištenje svježih podataka.
Vjerojatnije je da će se dogoditi s nelinearnim modelima koji su prilagodljiviji tijekom učenja funkcije cilja. Model se može osposobiti za otkrivanje automobila i kamiona, ali može identificirati samo vozila s određenim oblikom kutije.
S obzirom na to da je obučen samo za jednu vrstu kamiona, možda neće moći otkriti kamion s ravnom platformom. Na podacima o obuci, model dobro funkcionira, ali ne iu stvarnom svijetu.
Nedovoljno prilagođeni model odnosi se na onaj koji nije dovoljno uvježban na podacima ili nije sposoban generalizirati nove informacije. To se često događa kada se model obučava s nedostatnim ili netočnim podacima.
Točnost i izvedba ugroženi su nedostatkom opreme.
Ponovno uzorkovanje podataka za procjenu točnosti modela (K-struka unakrsna validacija) i korištenje validacijskog skupa podataka za procjenu modela dva su načina da se izbjegne prekomjerno i nedovoljno uklapanje.
25. Što je RNN u dubokom učenju?
Rekurentne neuronske mreže (RNN), uobičajena vrsta umjetnih neuronskih mreža, nazivaju se skraćenicom RNN. Oni se, između ostalog, koriste za obradu genoma, rukopisa, teksta i nizova podataka. Za potrebnu obuku, RNN-ovi koriste povratno širenje.
26. Opišite Adamov optimizator
Adamov optimizator, poznat i kao adaptivni zamah, tehnika je optimizacije razvijena za rukovanje bučnim situacijama s rijetkim gradijentima.
Uz pružanje ažuriranja po parametru za bržu konvergenciju, Adamov optimizator poboljšava konvergenciju kroz zamah, osiguravajući da model ne ostane zarobljen u sedloj točki.
27. Duboki autokoderi: što su oni?
Duboki autokoder je zajednički naziv za dvije simetrične mreže dubokog uvjerenja koje općenito uključuju četiri ili pet plitkih slojeva za polovicu mreže za kodiranje i još jedan skup od četiri ili pet slojeva za polovicu za dekodiranje.
Ovi slojevi čine temelj dubokih mreža uvjerenja i ograničeni su Boltzmannovim strojevima. Nakon svakog RBM-a, duboki autokoder primjenjuje binarne promjene na skup podataka MNIST.
Također se mogu koristiti u drugim skupovima podataka gdje bi Gaussove ispravljene transformacije bile preferirane u odnosu na RBM.
28. Što Tensor znači u Tensorflowu?
Ovo je još jedno pitanje za razgovor o dubokom učenju koje se redovito postavlja. Tenzor je matematički koncept koji se vizualizira kao višedimenzionalni nizovi.
Tenzori su ti nizovi podataka koji se daju kao ulaz u neuronsku mrežu i imaju različite dimenzije i rangiranja.
29. Objašnjenje računskog grafa
Temelj TensorFlowa je konstrukcija računskog grafa. Svaki čvor funkcionira u mreži čvorova, gdje čvorovi predstavljaju matematičke operacije, a rubovi tenzore.
Ponekad se naziva "grafikon protoka podataka" jer podaci teku u obliku grafikona.
30. Generativne kontradiktorne mreže (GAN): što su one?
U Deep Learningu, generativno modeliranje postiže se korištenjem generativnih kontradiktornih mreža. To je posao bez nadzora gdje se rezultat proizvodi identificiranjem uzoraka u ulaznim podacima.
Diskriminator se koristi za kategorizaciju instanci koje je proizveo generator, dok se generator koristi za proizvodnju novih primjera.
31. Kako ćete odabrati broj neurona i skrivenih slojeva koje ćete uključiti u neuronsku mrežu dok dizajnirate arhitekturu?
S obzirom na poslovni izazov, točan broj neurona i skrivenih slojeva potrebnih za konstrukciju arhitekture neuronske mreže ne može se odrediti nikakvim strogim pravilima.
U neuronskoj mreži veličina skrivenog sloja trebala bi biti negdje u sredini veličine ulaznog i izlaznog sloja.
Ipak, prednost u stvaranju dizajna neuronske mreže može se postići na nekoliko jednostavnih metoda:
Započinjanje s nekim osnovnim sustavnim testiranjem da se vidi što bi bilo najbolje za bilo koji određeni skup podataka na temelju prethodnog iskustva s neuronskim mrežama u sličnim postavkama stvarnog svijeta najbolji je način da se uhvatite u koštac sa svakim jedinstvenim izazovom prediktivnog modeliranja u stvarnom svijetu.
Konfiguracija mreže može se odabrati na temelju nečijeg poznavanja problematične domene i prethodnog iskustva s neuronskom mrežom. Kada se procjenjuje postava neuronske mreže, broj slojeva i neurona koji se koriste za povezane probleme dobro je mjesto za početak.
Složenost neuronske mreže trebala bi se postupno povećavati na temelju projiciranog rezultata i točnosti, počevši od jednostavnog dizajna neuronske mreže.
32. Koje se vrste neuronskih mreža koriste za duboko potkrepljeno učenje?
- U paradigmi strojnog učenja koja se naziva učenje s pojačanjem, model djeluje tako da maksimizira ideju kumulativne nagrade, baš kao što to čine žive stvari.
- I igre i samovozeća vozila opisuju se kao problemi koji uključuju učenje učvršćivanja.
- Zaslon se koristi kao ulaz ako je problem koji se predstavlja igra. Kako bi proizveo izlaz za sljedeće faze, algoritam uzima piksele kao ulaz i obrađuje ih putem mnogih slojeva konvolucijskih neuronskih mreža.
- Rezultati radnji modela, bili povoljni ili loši, djeluju kao potkrepljenje.
Zaključak
Duboko učenje poraslo je u popularnosti tijekom godina, s primjenama u gotovo svim područjima industrije.
Tvrtke sve više traže kompetentne stručnjake koji mogu dizajnirati modele koji repliciraju ljudsko ponašanje koristeći pristupe dubinskog i strojnog učenja.
Kandidati koji prošire svoje vještine i zadrže svoje znanje o ovim vrhunskim tehnologijama mogu pronaći širok raspon radnih prilika s atraktivnom plaćom.
Možete započeti s intervjuima sada kada ste dobro shvatili kako odgovoriti na neka od najčešće traženih pitanja za intervju za duboko učenje. Poduzmite sljedeći korak na temelju svojih ciljeva.
Posjetite Hashdork's Serija intervjua pripremiti se za intervjue.
Ostavi odgovor