Kazalo[Skrij][Pokaži]
- 1. Kaj pravzaprav je globoko učenje?
- 2. Kaj razlikuje globoko učenje od strojnega učenja?
- 3. Kakšno je vaše trenutno razumevanje nevronskih mrež?
- 4. Kaj pravzaprav je perceptron?
- 5. Kaj pravzaprav je globoka nevronska mreža?
- 6. Kaj točno je večplastni perceptron (MLP)?
- 7. Kakšen namen imajo aktivacijske funkcije v nevronski mreži?
- 8. Kaj točno je gradientni spust?
- 9. Kaj točno je funkcija stroškov?
- 10. Kako lahko globoka omrežja prekašajo plitva?
- 11. Opišite širjenje naprej.
- 12. Kaj je povratno širjenje?
- 13. Kako v kontekstu globokega učenja razumete izrezovanje gradientov?
- 14. Kaj sta funkciji Softmax in ReLU?
- 15. Ali je mogoče učiti model nevronske mreže z vsemi utežmi, nastavljenimi na 0?
- 16. Kaj razlikuje epoho od serije in ponovitve?
- 17. Kaj sta paketna normalizacija in opustitev?
- 18. Kaj loči stohastični gradientni spust od paketnega gradientnega spuščanja?
- 19. Zakaj je ključnega pomena vključitev nelinearnosti v nevronske mreže?
- 20. Kaj je tenzor pri globokem učenju?
- 21. Kako bi izbrali aktivacijsko funkcijo za model globokega učenja?
- 22. Kaj mislite s CNN?
- 23. Katere so številne plasti CNN?
- 24. Kakšni so učinki prevelike in premajhne opreme in kako se jim lahko izognete?
- 25. Kaj je RNN pri globokem učenju?
- 26. Opišite Adam Optimizer
- 27. Globoki samodejni kodirniki: kaj so?
- 28. Kaj pomeni Tensor v Tensorflow?
- 29. Razlaga računskega grafa
- 30. Generativna kontradiktorna omrežja (GAN): kaj so?
- 31. Kako boste pri načrtovanju arhitekture izbrali število nevronov in skritih plasti, ki jih boste vključili v nevronsko mrežo?
- 32. Katere vrste nevronskih mrež se uporabljajo za globoko okrepljeno učenje?
- zaključek
Globoko učenje ni povsem nova ideja. Umetne nevronske mreže služijo kot edina osnova podmnožice strojnega učenja, znane kot globoko učenje.
Globoko učenje posnema človeške možgane, podobno kot so nevronske mreže, saj so bile ustvarjene za posnemanje človeških možganov.
To je že nekaj časa. Te dni vsi govorijo o tem, saj nimamo niti približno toliko procesorske moči ali podatkov kot zdaj.
V zadnjih 20 letih sta se globoko in strojno učenje pojavila kot rezultat dramatičnega povečanja zmogljivosti obdelave.
Da bi vam pomagali, da se pripravite na kakršna koli vprašanja, s katerimi se lahko soočite, ko iščete svojo sanjsko službo, vas bo ta objava vodila skozi številna vprašanja o intervjuju za globoko učenje, od preprostih do zapletenih.
1. Kaj pravzaprav je globoko učenje?
Če se udeležite a globoko učenje intervjuju nedvomno razumete, kaj je globoko učenje. Anketar pa pričakuje, da boste na to vprašanje podali podroben odgovor skupaj z ilustracijo.
Da bi trenirali nevronske mreže za globoko učenje je treba uporabiti znatne količine organiziranih ali nestrukturiranih podatkov. Za iskanje skritih vzorcev in značilnosti izvaja zapletene postopke (na primer razlikovanje podobe mačke od podobe psa).
2. Kaj razlikuje globoko učenje od strojnega učenja?
Kot veja umetne inteligence, znana kot strojno učenje, usposabljamo računalnike z uporabo podatkov ter statističnih in algoritemskih tehnik, tako da se sčasoma izboljšujejo.
Kot vidik strojno učenje, globoko učenje posnema arhitekturo nevronske mreže, ki jo vidimo v človeških možganih.
3. Kakšno je vaše trenutno razumevanje nevronskih mrež?
Umetni sistemi, znani kot nevronske mreže, so zelo podobni organskim nevronskim mrežam, ki jih najdemo v človeškem telesu.
Z uporabo tehnike, ki spominja na človeških možganov funkcij, je nevronska mreža zbirka algoritmov, katerih cilj je identificirati temeljne korelacije v delu podatka.
Ti sistemi pridobivajo znanje, specifično za nalogo, tako, da se izpostavljajo nizom podatkov in primerom, namesto da sledijo pravilom, specifičnim za nalogo.
Ideja je, da se sistem namesto vnaprej programiranega razumevanja teh naborov podatkov nauči razločevalnih značilnosti iz podatkov, ki mu jih posreduje.
Trije omrežni sloji, ki se najpogosteje uporabljajo v nevronskih mrežah, so naslednji:
- Vhodni sloj
- Skrit sloj
- Izhodni sloj
4. Kaj pravzaprav je perceptron?
Biološki nevron, ki ga najdemo v človeških možganih, je primerljiv s perceptronom. Več vhodov prejme perceptron, ki nato izvede številne transformacije in funkcije ter ustvari izhod.
V binarni klasifikaciji se uporablja linearni model, imenovan perceptron. Simulira nevron z različnimi vhodi, od katerih ima vsak drugačno težo.
Nevron izračuna funkcijo z uporabo teh tehtanih vnosov in izpiše rezultate.
5. Kaj pravzaprav je globoka nevronska mreža?
Globoka nevronska mreža je umetna nevronska mreža (ANN) z več plastmi med vhodno in izhodno plastjo (DNN).
Globoke nevronske mreže so nevronske mreže globoke arhitekture. Beseda "globoko" se nanaša na funkcije z veliko ravnmi in enotami v enem sloju. Natančnejše modele lahko ustvarite z dodajanjem več in večjih plasti, da zajamete večje ravni vzorcev.
6. Kaj točno je večplastni perceptron (MLP)?
V MLP so prisotni vhodni, skriti in izhodni sloji, podobno kot v nevronskih mrežah. Zgrajen je podobno kot enoslojni perceptron z eno ali več skritimi plastmi.
Binarni izhod enoslojnega perceptrona lahko kategorizira samo linearne ločljive razrede (0,1), medtem ko lahko MLP razvrsti nelinearne razrede.
7. Kakšen namen imajo aktivacijske funkcije v nevronski mreži?
Aktivacijska funkcija določa, ali naj se nevron aktivira na najosnovnejši ravni ali ne. Vsaka aktivacijska funkcija lahko kot vhod sprejme uteženo vsoto vhodov in pristranskost. Aktivacijske funkcije vključujejo funkcijo korakov, Sigmoid, ReLU, Tanh in Softmax.
8. Kaj točno je gradientni spust?
Najboljši pristop za minimiziranje stroškovne funkcije ali napake je gradientni spust. Cilj je najti lokalne-globalne minimume funkcije. To določa pot, po kateri mora model slediti, da zmanjša napako.
9. Kaj točno je funkcija stroškov?
Funkcija stroškov je metrika za oceno, kako dobro deluje vaš model; včasih je znano kot "izguba" ali "napaka". Med povratnim širjenjem se uporablja za izračun napake izhodne plasti.
To netočnost izkoriščamo za pospeševanje procesov usposabljanja nevronske mreže, tako da jo potisnemo nazaj skozi nevronsko mrežo.
10. Kako lahko globoka omrežja prekašajo plitva?
Poleg vhodnih in izhodnih slojev so nevronskim mrežam dodane skrite plasti. Med vhodno in izhodno plastjo plitve nevronske mreže uporabljajo eno samo skrito plast, medtem ko globoke nevronske mreže uporabljajo številne ravni.
Plitvo omrežje zahteva več parametrov, da se lahko prilega kateri koli funkciji. Globoka omrežja lahko bolje ustrezajo funkcijam tudi z majhnim številom parametrov, saj vključujejo več plasti.
Globoka omrežja imajo zdaj prednost zaradi svoje vsestranskosti pri delu s katero koli vrsto podatkovnega modeliranja, pa naj gre za prepoznavanje govora ali slike.
11. Opišite širjenje naprej.
Vhodi se skupaj z utežmi prenesejo v zakopano plast v procesu, znanem kot posredovanje širjenja.
Izhod aktivacijske funkcije se izračuna v vsaki zakopani plasti, preden lahko obdelava preide na naslednjo plast.
Postopek se začne na vhodnem sloju in napreduje do končnega izhodnega sloja, zato se imenuje širjenje naprej.
12. Kaj je povratno širjenje?
Ko se uteži in pristranskosti prilagodijo v nevronski mreži, se za zmanjšanje stroškovne funkcije uporabi širjenje nazaj, tako da se najprej opazuje, kako se vrednost spreminja.
Če razumete preliv na vsaki skriti plasti, je izračun te spremembe preprost.
Proces, znan kot povratno širjenje, se začne na izhodni plasti in se premakne nazaj na vhodne plasti.
13. Kako v kontekstu globokega učenja razumete izrezovanje gradientov?
Gradient Clipping je metoda za reševanje težave z eksplozivnimi gradienti, ki nastanejo med povratnim širjenjem (stanje, v katerem se sčasoma kopičijo precejšnji nepravilni gradienti, kar vodi do pomembnih prilagoditev uteži modela nevronske mreže med usposabljanjem).
Eksplozivni gradienti so težava, ki se pojavi, ko gradienti med vadbo postanejo preveliki, zaradi česar je model nestabilen. Če je gradient presegel pričakovano območje, se vrednosti gradienta element za elementom potisnejo na vnaprej določeno najmanjšo ali največjo vrednost.
Gradientno izrezovanje poveča numerično stabilnost nevronske mreže med usposabljanjem, vendar ima minimalen vpliv na delovanje modela.
14. Kaj sta funkciji Softmax in ReLU?
Aktivacijska funkcija, imenovana Softmax, ustvari izhod v območju med 0 in 1. Vsak izhod je razdeljen tako, da je vsota vseh izhodov ena. Za izhodne plasti se pogosto uporablja Softmax.
Rektificirana linearna enota, včasih znana kot ReLU, je najpogosteje uporabljena aktivacijska funkcija. Če je X pozitiven, izpiše X, sicer izpiše ničle. ReLU se redno nanaša na zakopane plasti.
15. Ali je mogoče učiti model nevronske mreže z vsemi utežmi, nastavljenimi na 0?
Nevronska mreža se ne bo nikoli naučila dokončati določenega dela, zato ni mogoče usposobiti modela z inicializacijo vseh uteži na 0.
Izpeljanke bodo ostale enake za vsako utež v W [1], če so vse uteži inicializirane na nič, zaradi česar se bodo nevroni iterativno učili istih lastnosti.
Ne samo inicializacija uteži na 0, ampak na katero koli obliko konstante bo verjetno povzročila podparelen rezultat.
16. Kaj razlikuje epoho od serije in ponovitve?
Različne oblike obdelave naborov podatkov in tehnike gradientnega spuščanja vključujejo serijo, iteracijo in epoho. Epoch vključuje enkratno nevronsko mrežo s polnim naborom podatkov, naprej in nazaj.
Da bi zagotovili zanesljive rezultate, se nabor podatkov pogosto posreduje večkrat, saj je prevelik za posredovanje v enem poskusu.
Ta praksa ponavljajočega se izvajanja majhne količine podatkov skozi nevronsko mrežo se imenuje iteracija. Da bi zagotovili, da nabor podatkov uspešno prečka nevronske mreže, ga je mogoče razdeliti na več sklopov ali podmnožic, kar je znano kot paketiranje.
Glede na velikost zbiranja podatkov so vse tri metode – epoha, iteracija in velikost serije – v bistvu načini uporabe algoritem gradientnega spuščanja.
17. Kaj sta paketna normalizacija in opustitev?
Dropout preprečuje prekomerno opremljanje podatkov z naključnim odstranjevanjem tako vidnih kot skritih omrežnih enot (običajno izpade 20 odstotkov vozlišč). Podvoji število ponovitev, potrebnih za konvergenco omrežja.
Z normalizacijo vnosov v vsaki plasti, da ima povprečna izhodna aktivacija nič in standardni odklon ena, je paketna normalizacija strategija za izboljšanje učinkovitosti in stabilnosti nevronskih mrež.
18. Kaj loči stohastični gradientni spust od paketnega gradientnega spuščanja?
Paketni gradientni spust:
- Celoten nabor podatkov se uporablja za izdelavo gradienta za paketni gradient.
- Ogromna količina podatkov in uteži, ki se počasi posodabljajo, otežujejo konvergenco.
Stohastični gradientni spust:
- Stohastični gradient uporablja en sam vzorec za izračun gradienta.
- Zaradi pogostejših sprememb teže konvergira bistveno hitreje kot šaržni gradient.
19. Zakaj je ključnega pomena vključitev nelinearnosti v nevronske mreže?
Ne glede na to, koliko plasti obstaja, se bo nevronska mreža v odsotnosti nelinearnosti obnašala kot perceptron, zaradi česar bo izhod linearno odvisen od vhoda.
Povedano drugače, nevronska mreža z n plastmi in m skritimi enotami ter linearnimi aktivacijskimi funkcijami je enakovredna linearni nevronski mreži brez skritih plasti in z zmožnostjo zaznavanja samo linearnih ločilnih meja.
Brez nelinearnosti nevronska mreža ne more rešiti zapletenih vprašanj in natančno kategorizirati vnosa.
20. Kaj je tenzor pri globokem učenju?
Večdimenzionalni niz, znan kot tenzor, služi kot posplošitev matrik in vektorjev. Je ključna podatkovna struktura za globoko učenje. Za predstavitev tenzorjev se uporabljajo N-dimenzionalni nizi osnovnih podatkovnih tipov.
Vsaka komponenta tenzorja ima isti podatkovni tip in ta podatkovni tip je vedno znan. Možno je, da je znan le delček oblike – namreč, koliko dimenzij je in kako velika je vsaka.
V situacijah, ko so tudi vhodi popolnoma znani, večina operacij proizvede popolnoma znane tenzorje; v drugih primerih lahko obliko tenzorja določimo šele med izvajanjem grafa.
21. Kako bi izbrali aktivacijsko funkcijo za model globokega učenja?
- Smiselno je uporabiti linearno aktivacijsko funkcijo, če je rezultat, ki ga je treba predvideti, dejanski.
- Sigmoidno funkcijo je treba uporabiti, če je rezultat, ki ga je treba napovedati, verjetnost binarnega razreda.
- Funkcijo Tanh je mogoče uporabiti, če predvideni rezultat vsebuje dve klasifikaciji.
- Zaradi enostavnega računanja je funkcija ReLU uporabna v številnih situacijah.
22. Kaj mislite s CNN?
Globoke nevronske mreže, ki so specializirane za vrednotenje vizualnih podob, vključujejo konvolucijske nevronske mreže (CNN ali ConvNet). Tukaj, namesto v nevronskih mrežah, kjer vektor predstavlja vhod, je vhod večkanalna slika.
CNN-ji uporabljajo večplastne perceptrone na poseben način, ki zahteva zelo malo predprocesiranja.
23. Katere so številne plasti CNN?
Konvolucijski sloj: Glavni sloj je konvolucijski sloj, ki ima vrsto učljivih filtrov in sprejemljivo polje. Ta začetni sloj sprejme vhodne podatke in izvleče njihove značilnosti.
Plast ReLU: S tem, da so omrežja nelinearna, ta plast spremeni negativne slikovne pike v nič.
Plast združevanja: z minimiziranjem obdelave in omrežnih nastavitev sloj združevanja postopoma zmanjšuje prostorsko velikost predstavitve. Največje združevanje je najpogosteje uporabljena metoda združevanja.
24. Kakšni so učinki prevelike in premajhne opreme in kako se jim lahko izognete?
To je znano kot prekomerno opremljanje, ko se model nauči zapletenosti in šuma v podatkih o usposabljanju do te mere, da to negativno vpliva na uporabo novih podatkov s strani modela.
Bolj verjetno se bo zgodilo z nelinearnimi modeli, ki so bolj prilagodljivi med učenjem ciljne funkcije. Model je mogoče usposobiti za zaznavanje avtomobilov in tovornjakov, vendar bo morda lahko identificiral samo vozila z določeno obliko škatle.
Glede na to, da je bil usposobljen samo za eno vrsto tovornjaka, morda ne bo mogel zaznati tovornjaka s kesonom. Na podatkih o usposabljanju model deluje dobro, vendar ne v dejanskem svetu.
Premalo prilagojen model se nanaša na tistega, ki ni dovolj usposobljen za podatke ali sposoben posplošiti novih informacij. To se pogosto zgodi, ko se model usposablja z nezadostnimi ali netočnimi podatki.
Natančnost in zmogljivost sta ogroženi zaradi premajhne vgradnje.
Ponovno vzorčenje podatkov za oceno točnosti modela (K-kratna navzkrižna validacija) in uporaba nabora validacijskih podatkov za oceno modela sta dva načina, kako se izogniti previsokemu in premajhnemu prilagajanju.
25. Kaj je RNN pri globokem učenju?
Ponavljajoče se nevronske mreže (RNN), običajna različica umetnih nevronskih mrež, se imenujejo RNN. Med drugim jih uporabljajo za obdelavo genomov, rokopisov, besedil in podatkovnih sekvenc. Za potrebno usposabljanje RNN uporabljajo povratno širjenje.
26. Opišite Adam Optimizer
Adamov optimizator, znan tudi kot prilagodljivi zagon, je tehnika optimizacije, razvita za obvladovanje hrupnih situacij z redkimi gradienti.
Poleg tega, da zagotavlja posodobitve parametrov za hitrejšo konvergenco, optimizator Adam izboljša konvergenco prek zagona, s čimer zagotovi, da model ne ostane ujet v sedlu.
27. Globoki samodejni kodirniki: kaj so?
Globoki samodejni kodirnik je skupno ime za dve simetrični omrežji globokih prepričanj, ki na splošno vključujeta štiri ali pet plitvih plasti za kodirno polovico omrežja in drug niz štirih ali petih plasti za dekodirno polovico.
Te plasti tvorijo temelj mrež globokih prepričanj in so omejene z Boltzmannovimi stroji. Po vsakem RBM globoki samodejni kodirnik uporabi binarne spremembe v naboru podatkov MNIST.
Uporabljajo se lahko tudi v drugih nizih podatkov, kjer bi imele Gaussove popravljene transformacije prednost pred RBM.
28. Kaj pomeni Tensor v Tensorflow?
To je še eno vprašanje za razgovor o globokem učenju, ki se redno postavlja. Tenzor je matematični koncept, ki je vizualiziran kot večdimenzionalni nizi.
Tenzorji so ti nizi podatkov, ki so zagotovljeni kot vhod v nevronsko mrežo in imajo različne dimenzije in uvrstitve.
29. Razlaga računskega grafa
Osnova TensorFlow je konstrukcija računalniškega grafa. Vsako vozlišče deluje v omrežju vozlišč, kjer vozlišča predstavljajo matematične operacije, robovi pa tenzorje.
Včasih se imenuje "graf pretoka podatkov", ker podatki tečejo v obliki grafa.
30. Generativna kontradiktorna omrežja (GAN): kaj so?
Pri poglobljenem učenju je generativno modeliranje doseženo z uporabo generativnih kontradiktornih mrež. Gre za nenadzorovano delo, kjer se rezultat ustvari z identifikacijo vzorcev v vhodnih podatkih.
Diskriminator se uporablja za kategorizacijo primerkov, ki jih ustvari generator, medtem ko se generator uporablja za ustvarjanje novih primerov.
31. Kako boste pri načrtovanju arhitekture izbrali število nevronov in skritih plasti, ki jih boste vključili v nevronsko mrežo?
Glede na poslovni izziv natančnega števila nevronov in skritih plasti, potrebnih za izgradnjo arhitekture nevronske mreže, ni mogoče določiti z nobenimi trdimi in hitrimi pravili.
V nevronski mreži mora biti velikost skrite plasti nekje na sredini velikosti vhodne in izhodne plasti.
Začetek ustvarjanja zasnove nevronske mreže je mogoče doseči z nekaj enostavnimi metodami, vendar:
Začeti z osnovnim sistematičnim testiranjem, da bi ugotovili, kaj bi se najbolje obneslo za kateri koli določen nabor podatkov na podlagi predhodnih izkušenj z nevronskimi mrežami v podobnih okoljih v resničnem svetu, je najboljši način za reševanje vsakega edinstvenega izziva napovednega modeliranja v resničnem svetu.
Konfiguracijo omrežja je mogoče izbrati glede na poznavanje problematične domene in predhodne izkušnje z nevronsko mrežo. Ko ocenjujete nastavitev nevronske mreže, je dobro začeti število plasti in nevronov, uporabljenih pri povezanih težavah.
Kompleksnost nevronske mreže je treba postopoma povečevati na podlagi predvidenega rezultata in natančnosti, začenši s preprosto zasnovo nevronske mreže.
32. Katere vrste nevronskih mrež se uporabljajo za globoko okrepljeno učenje?
- V paradigmi strojnega učenja, imenovani okrepljeno učenje, model deluje tako, da maksimira zamisel o kumulativni nagradi, tako kot to počnejo žive stvari.
- Igre in samovozeča vozila so opisani kot težave, ki vključujejo okrepljeno učenje.
- Zaslon se uporablja kot vhod, če je problem, ki ga je treba predstaviti, igra. Da bi ustvaril izhod za naslednje faze, algoritem vzame slikovne pike kot vhod in jih obdela prek številnih plasti konvolucijskih nevronskih mrež.
- Rezultati dejanj modela, ugodni ali slabi, delujejo kot okrepitev.
zaključek
Priljubljenost globokega učenja je z leti narasla z aplikacijami na skoraj vseh področjih industrije.
Podjetja vedno bolj iščejo kompetentne strokovnjake, ki lahko oblikujejo modele, ki posnemajo človeško vedenje z uporabo pristopov globokega in strojnega učenja.
Kandidati, ki izboljšajo svoj nabor spretnosti in ohranijo svoje znanje o teh najsodobnejših tehnologijah, lahko najdejo široko paleto delovnih priložnosti s privlačnim plačilom.
Zdaj lahko začnete z intervjuji, ko dobro veste, kako odgovoriti na nekatera najpogosteje zahtevana vprašanja za intervjuje o globokem učenju. Na podlagi svojih ciljev naredite naslednji korak.
Obiščite Hashdork's Serija intervjujev za pripravo na razgovore.
Pustite Odgovori