Pregled sadržaja[Sakriti][Pokazati]
- 1. Objasnite razlike između strojnog učenja, umjetne inteligencije i dubokog učenja.
- 2. Opišite različite vrste strojnog učenja.
- 3. Što je kompromis pristranosti naspram varijance?
- 4. Algoritmi strojnog učenja značajno su se razvili tijekom vremena. Kako odabrati pravi algoritam za korištenje određenog skupa podataka?
- 5. Kako se kovarijanca i korelacija razlikuju?
- 6. Što klasteriranje znači u strojnom učenju?
- 7. Koji je vaš preferirani algoritam strojnog učenja?
- 8. Linearna regresija u strojnom učenju: što je to?
- 9. Opišite razlike između KNN i k-means klasteriranja.
- 10. Što za vas znači "pristranost odabira"?
- 11. Što je zapravo Bayesov teorem?
- 12. U modelu strojnog učenja, što su 'set za obuku' i 'test set'?
- 13. Što je hipoteza u strojnom učenju?
- 14. Što znači prekomjerno opremanje strojnog učenja i kako se to može spriječiti?
- 15. Što su zapravo Naivni Bayesovi klasifikatori?
- 16. Što znače funkcije troškova i funkcije gubitka?
- 17. Što razlikuje generativni model od diskriminativnog modela?
- 18. Opišite varijacije između pogrešaka tipa I i tipa II.
- 19. U strojnom učenju, što je tehnika ansamblskog učenja?
- 20. Što su zapravo parametrijski modeli? Navedite primjer.
- 21. Opišite kolaborativno filtriranje. Kao i filtriranje temeljeno na sadržaju?
- 22. Što točno mislite pod vremenskom serijom?
- 23. Opišite varijacije između algoritama Gradient Boosting i Random Forest.
- 24. Zašto vam je potrebna matrica zabune? Što je?
- 25. Što je točno analiza glavnih komponenti?
- 26. Zašto je rotacija komponenti tako ključna za PCA (analizu glavnih komponenti)?
- 27. Kako se regularizacija i normalizacija razlikuju jedna od druge?
- 28. Po čemu se normalizacija i standardizacija razlikuju jedna od druge?
- 29. Što točno znači "faktor inflacije varijance"?
- 30. Na temelju veličine skupa za obuku, kako odabrati klasifikator?
- 31. Koji se algoritam u strojnom učenju naziva "lijeni učenik" i zašto?
- 32. Što su ROC krivulja i AUC?
- 33. Što su hiperparametri? Što ih čini jedinstvenima od parametara modela?
- 34. Što znače F1 rezultat, opoziv i preciznost?
- 35. Što je zapravo unakrsna provjera valjanosti?
- 36. Recimo da ste otkrili da vaš model ima značajnu varijancu. Koji je algoritam, po vašem mišljenju, najprikladniji za rješavanje ove situacije?
- 37. Što razlikuje Ridge regresiju od Lasso regresije?
- 38. Što je važnije: izvedba modela ili točnost modela? Kojem ćete i zašto dati prednost?
- 39. Kako biste upravljali skupom podataka s nejednakostima?
- 40. Kako možete razlikovati boosting i bagging?
- 41. Objasnite razlike između induktivnog i deduktivnog učenja.
- Zaključak
Poduzeća koriste vrhunsku tehnologiju, poput umjetne inteligencije (AI) i strojnog učenja, kako bi povećala dostupnost informacija i usluga pojedincima.
Ove tehnologije usvajaju razne industrije, uključujući bankarstvo, financije, maloprodaju, proizvodnju i zdravstvo.
Jedna od najtraženijih organizacijskih uloga koja koristi AI je za podatkovne znanstvenike, inženjere umjetne inteligencije, inženjere strojnog učenja i analitičare podataka.
Ovaj će vas post voditi kroz razne stroj za učenje pitanja za intervju, od osnovnih do složenih, koja će vam pomoći da se pripremite za sva pitanja koja vam se mogu postaviti kada tražite idealan posao.
1. Objasnite razlike između strojnog učenja, umjetne inteligencije i dubokog učenja.
Umjetna inteligencija koristi različite pristupe strojnog učenja i dubokog učenja koji omogućuju računalnim sustavima izvršavanje zadataka koristeći inteligenciju sličnu ljudskoj s logikom i pravilima.
Strojno učenje koristi različite statistike i pristupe dubokog učenja kako bi omogućilo strojevima da uče iz svojih prethodnih performansi i postanu vještiji u samostalnom obavljanju određenih zadataka bez ljudskog nadzora.
Duboko učenje je skup algoritama koji softveru omogućuje učenje od samog sebe i izvršavanje raznih komercijalnih funkcija, kao što je prepoznavanje glasa i slike.
Sustavi koji izlažu svoju višeslojnost neuronske mreže do golemih količina podataka za učenje mogu izvesti duboko učenje.
2. Opišite različite vrste strojnog učenja.
Strojno učenje općenito postoji u tri različite vrste:
- Nadzirano učenje: model stvara predviđanja ili prosudbe koristeći označene ili povijesne podatke u nadziranom strojnom učenju. Skupovi podataka koji su označeni ili označeni kako bi se povećalo njihovo značenje nazivaju se označeni podaci.
- Učenje bez nadzora: Nemamo označene podatke za učenje bez nadzora. U ulaznim podacima model može pronaći obrasce, neobičnosti i korelacije.
- Učenje s potkrepljenjem: Model može učiti korištenjem potkrepljenja učenje i nagrade koje je dobio za svoje prethodno ponašanje.
3. Što je kompromis pristranosti naspram varijance?
Overfitting je rezultat pristranosti, što je stupanj do kojeg model odgovara podacima. Pristranost je uzrokovana netočnim ili previše jednostavnim pretpostavkama u vašem algoritam strojnog učenja.
Varijanca se odnosi na pogreške uzrokovane složenošću vašeg ML algoritma, što proizvodi osjetljivost na velike stupnjeve varijance u podacima o obuci i prekomjernom opremanju.
Varijanca je koliko model varira ovisno o inputima.
Drugim riječima, osnovni modeli su izrazito pristrani, ali stabilni (niska varijanca). Prekomjerno opremanje je problem sa složenim modelima, iako oni ipak hvataju stvarnost modela (niska pristranost).
Kako bi se spriječile velike varijacije i velika pristranost, potreban je kompromis između pristranosti i varijance za najbolje smanjenje pogreške.
4. Algoritmi strojnog učenja značajno su se razvili tijekom vremena. Kako odabrati pravi algoritam za korištenje određenog skupa podataka?
Tehnika strojnog učenja koja bi se trebala koristiti ovisi samo o vrsti podataka u određenom skupu podataka.
Kada su podaci linearni, koristi se linearna regresija. Metoda pakiranja u vrećice bila bi bolja kad bi podaci ukazivali na nelinearnost. Možemo koristiti stabla odlučivanja ili SVM ako podatke treba procijeniti ili interpretirati u komercijalne svrhe.
Neuronske mreže mogu biti korisne za dobivanje točnog odgovora ako skup podataka uključuje fotografije, videozapise i zvuk.
Odabir algoritma za specifičnu okolnost ili prikupljanje podataka ne može se napraviti samo na jednoj mjeri.
Kako bismo razvili metodu koja najbolje odgovara, prvo moramo ispitati podatke pomoću eksplorativne analize podataka (EDA) i razumjeti cilj korištenja skupa podataka.
5. Kako se kovarijanca i korelacija razlikuju?
Kovarijanca procjenjuje kako su dvije varijable povezane jedna s drugom i kako bi se jedna mogla promijeniti kao odgovor na promjene druge.
Ako je rezultat pozitivan, to ukazuje na to da postoji izravna veza između varijabli i da bi se jedna povećala ili smanjila s povećanjem ili smanjenjem osnovne varijable, uz pretpostavku da svi ostali uvjeti ostaju konstantni.
Korelacija mjeri vezu između dviju slučajnih varijabli i ima samo tri različite vrijednosti: 1, 0 i -1.
6. Što klasteriranje znači u strojnom učenju?
Metode učenja bez nadzora koje grupiraju podatkovne točke zajedno nazivaju se klasteriranje. Sa zbirkom podatkovnih točaka može se primijeniti tehnika klasteriranja.
Pomoću ove strategije možete grupirati sve podatkovne točke prema njihovim funkcijama.
Značajke i kvalitete podatkovnih točaka koje spadaju u istu kategoriju su slične, dok su one podatkovnih točaka koje spadaju u zasebne skupine različite.
Ovaj pristup se može koristiti za analizu statističkih podataka.
7. Koji je vaš preferirani algoritam strojnog učenja?
Imate priliku pokazati svoje sklonosti i jedinstvene talente u ovom pitanju, kao i svoje sveobuhvatno znanje o brojnim tehnikama strojnog učenja.
Evo nekoliko tipičnih algoritama strojnog učenja o kojima treba razmisliti:
- Linearna regresija
- Logistička regresija
- Naivni Bayes
- Stabla odlučivanja
- K znači
- Algoritam slučajne šume
- K-najbliži susjed (KNN)
8. Linearna regresija u strojnom učenju: što je to?
Nadzirani algoritam strojnog učenja je linearna regresija.
Koristi se u prediktivnoj analizi za određivanje linearne veze između zavisnih i nezavisnih varijabli.
Jednadžba linearne regresije je sljedeća:
Y = A + BX
gdje su:
- Ulazna ili nezavisna varijabla naziva se X.
- Zavisna ili izlazna varijabla je Y.
- X-ov koeficijent je b, a njegov presjek je a.
9. Opišite razlike između KNN i k-means klasteriranja.
Primarna razlika je da KNN (metoda klasifikacije, nadzirano učenje) treba označene točke, dok k-srednje vrijednosti ne (algoritam klasteriranja, nenadzirano učenje).
Označene podatke možete klasificirati u neoznačenu točku pomoću K-najbližih susjeda. Klasteriranje K-znači koristi prosječnu udaljenost između točaka kako bi naučilo kako grupirati neoznačene točke.
10. Što za vas znači "pristranost odabira"?
Pristranost u fazi uzorkovanja eksperimenta nastala je zbog statističke netočnosti.
Jedna skupina uzoraka bira se češće od ostalih skupina u eksperimentu zbog netočnosti.
Ako se pristranost odabira ne prizna, to bi moglo rezultirati netočnim zaključkom.
11. Što je zapravo Bayesov teorem?
Kada smo svjesni drugih vjerojatnosti, možemo odrediti vjerojatnost koristeći Bayesov teorem. Drugim riječima, nudi posteriornu vjerojatnost događaja na temelju prethodnih informacija.
Ovaj teorem pruža dobru metodu za procjenu uvjetnih vjerojatnosti.
Prilikom razvijanja problema klasifikacijskog prediktivnog modeliranja i prilagođavanja modela treningu skup podataka u strojnom učenju, primjenjuje se Bayesov teorem (tj. Naivni Bayes, Bayesov optimalni klasifikator).
12. U modelu strojnog učenja, što su 'set za obuku' i 'test set'?
Set za trening:
- Skup za obuku sastoji se od instanci koje se šalju modelu na analizu i učenje.
- Ovo su označeni podaci koji će se koristiti za obuku modela.
- Obično se 70% ukupnih podataka koristi kao skup podataka za obuku.
Skup testova:
- Skup testa koristi se za procjenu točnosti generiranja hipoteze modela.
- Testiramo bez označenih podataka, a zatim koristimo oznake za potvrdu rezultata.
- Preostalih 30% koristi se kao testni skup podataka.
13. Što je hipoteza u strojnom učenju?
Strojno učenje omogućuje korištenje postojećih skupova podataka za bolje razumijevanje određene funkcije koja povezuje ulaz s izlazom. Ovo je poznato kao aproksimacija funkcije.
U ovom slučaju, mora se primijeniti aproksimacija za nepoznatu ciljnu funkciju kako bi se na najbolji mogući način prenijela sva zamisliva opažanja temeljena na danoj situaciji.
U strojnom učenju, hipoteza je model koji pomaže u procjeni ciljne funkcije i dovršavanju odgovarajućih preslikavanja ulaza u izlaz.
Odabir i dizajn algoritama omogućuje definiranje prostora mogućih hipoteza koje se mogu prikazati modelom.
Za jednu hipotezu koristi se malo slovo h (h), ali veliko h (H) koristi se za cijeli prostor hipoteze koji se pretražuje. Ukratko ćemo pregledati ove oznake:
- Hipoteza (h) je poseban model koji olakšava mapiranje ulaza u izlaz, koji se kasnije može koristiti za procjenu i predviđanje.
- Skup hipoteza (H) je pretraživi prostor hipoteza koji se može koristiti za mapiranje ulaza u izlaze. Uokvirivanje problema, model i konfiguracija modela nekoliko su primjera generičkih ograničenja.
14. Što znači prekomjerno opremanje strojnog učenja i kako se to može spriječiti?
Kada stroj pokuša učiti iz nedovoljnog skupa podataka, dolazi do prekomjernog opremanja.
Kao rezultat toga, overfitting je obrnuto proporcionalan količini podataka. Pristup unakrsne provjere omogućuje izbjegavanje prekomjernog opremanja za male skupove podataka. Skup podataka se ovom metodom dijeli na dva dijela.
Skup podataka za testiranje i obuku sastojat će se od ova dva dijela. Skup podataka za obuku koristi se za izradu modela, dok se skup podataka za testiranje koristi za evaluaciju modela pomoću različitih ulaza.
Ovo je način kako spriječiti prekomjerno opremanje.
15. Što su zapravo Naivni Bayesovi klasifikatori?
Različite metode klasifikacije čine naivne Bayesove klasifikatore. Skup algoritama poznatih kao ovi klasifikatori rade na istoj temeljnoj ideji.
Pretpostavka naivnih Bayesovih klasifikatora je da prisutnost ili odsutnost jedne značajke nema nikakvog utjecaja na prisutnost ili odsutnost druge značajke.
Drugim riječima, to je ono što nazivamo "naivnim" budući da pretpostavlja da je svaki atribut skupa podataka jednako značajan i neovisan.
Klasifikacija se vrši pomoću naivnih Bayesovih klasifikatora. Jednostavni su za korištenje i daju bolje rezultate od složenijih prediktora kada je premisa neovisnosti istinita.
Oni se koriste u analizi teksta, filtriranju neželjene pošte i sustavima preporuka.
16. Što znače funkcije troškova i funkcije gubitka?
Izraz "funkcija gubitka" odnosi se na proces izračunavanja gubitka kada se u obzir uzme samo jedan podatak.
Suprotno tome, mi koristimo troškovnu funkciju za određivanje ukupne količine pogrešaka za brojne podatke. Ne postoji značajna razlika.
Drugim riječima, dok funkcije troškova agregiraju razliku za cijeli skup podataka za obuku, funkcije gubitaka dizajnirane su za hvatanje razlike između stvarnih i predviđenih vrijednosti za jedan zapis.
17. Što razlikuje generativni model od diskriminativnog modela?
Diskriminativni model uči razlike između nekoliko kategorija podataka. Generativni model preuzima različite vrste podataka.
Što se tiče problema klasifikacije, diskriminativni modeli često nadmašuju druge modele.
18. Opišite varijacije između pogrešaka tipa I i tipa II.
Lažno pozitivni rezultati spadaju u kategoriju pogrešaka tipa I, dok lažno negativni rezultati spadaju u pogreške tipa II (tvrdeći da se ništa nije dogodilo, a zapravo jest).
19. U strojnom učenju, što je tehnika ansamblskog učenja?
Tehnika koja se naziva učenje u ansamblu miješa mnoge modele strojnog učenja kako bi proizvela snažnije modele.
Model se može mijenjati iz raznih razloga. Nekoliko je uzroka:
- Razne populacije
- Razne hipoteze
- Razne metode modeliranja
Naići ćemo na problem dok koristimo podatke o obuci i testiranju modela. Pristranost, varijanca i neumanjiva pogreška mogući su tipovi ove pogreške.
Tu ravnotežu između pristranosti i varijance u modelu nazivamo kompromisom pristranosti i varijance i on bi uvijek trebao postojati. Ovaj kompromis se postiže upotrebom učenja u ansamblu.
Iako su dostupni različiti pristupi ansamblu, postoje dvije uobičajene strategije za kombiniranje mnogih modela:
- Izvorni pristup koji se zove pakiranje koristi set za obuku za proizvodnju dodatnih skupova za obuku.
- Boosting, sofisticiranija tehnika: Slično kao i bagging, boosting se koristi za pronalaženje idealne formule težine za set treninga.
20. Što su zapravo parametrijski modeli? Navedite primjer.
Parametarski modeli imaju ograničen broj parametara. Za predviđanje podataka sve što trebate znati su parametri modela.
Sljedeći su tipični primjeri: logistička regresija, linearna regresija i linearni SVM. Neparametarski modeli su fleksibilni jer mogu sadržavati neograničen broj parametara.
Za predviđanje podataka potrebni su parametri modela i status promatranih podataka. Evo nekoliko tipičnih primjera: tematski modeli, stabla odlučivanja i k-najbliži susjedi.
21. Opišite kolaborativno filtriranje. Kao i filtriranje temeljeno na sadržaju?
Isprobana metoda za stvaranje prilagođenih prijedloga sadržaja je suradničko filtriranje.
Oblik sustava preporuke koji se zove kolaborativno filtriranje predviđa svježi materijal balansiranjem korisničkih preferencija sa zajedničkim interesima.
Korisničke postavke jedino su što sustavi za preporuku temeljeni na sadržaju uzimaju u obzir. U svjetlu prijašnjih odabira korisnika, nove preporuke dane su iz povezanog materijala.
22. Što točno mislite pod vremenskom serijom?
Vremenska serija je zbirka brojeva u rastućem redoslijedu. Tijekom unaprijed određenog vremenskog razdoblja prati kretanje odabranih podatkovnih točaka i povremeno bilježi podatkovne točke.
Nema minimalnog ili maksimalnog unosa vremena za vremenske serije.
Vremenske serije analitičari često koriste za analizu podataka u skladu sa svojim jedinstvenim zahtjevima.
23. Opišite varijacije između algoritama Gradient Boosting i Random Forest.
Slučajna šuma:
- Velik broj stabala odlučivanja skuplja se zajedno na kraju i poznate su kao nasumične šume.
- Dok povećanje gradijenta stvara svako stablo neovisno o drugima, nasumična šuma gradi svako stablo jedno po jedno.
- Multiclass otkrivanje objekta dobro radi s nasumičnim šumama.
Pojačavanje gradijenta:
- Dok se nasumične šume pridružuju stablima odlučivanja na kraju procesa, strojevi za pojačavanje gradijenata kombiniraju ih od početka.
- Ako su parametri odgovarajuće prilagođeni, povećanje gradijenta nadmašuje nasumične šume u smislu rezultata, ali nije pametan izbor ako skup podataka ima mnogo odstupanja, anomalija ili šuma jer bi to moglo uzrokovati da model postane pretjeran.
- Kada postoje neuravnoteženi podaci, kao što je slučaj s procjenom rizika u stvarnom vremenu, pojačanje gradijenta dobro funkcionira.
24. Zašto vam je potrebna matrica zabune? Što je?
Tablica poznata kao matrica zabune, ponekad poznata i kao matrica pogrešaka, naširoko se koristi da pokaže koliko dobro model klasifikacije ili klasifikator radi na skupu testnih podataka za koje su poznate stvarne vrijednosti.
Omogućuje nam da vidimo kako model ili algoritam rade. Olakšava nam uočavanje nesporazuma među različitim tečajevima.
Služi kao način da se ocijeni koliko se dobro izvodi model ili algoritam.
Predviđanja modela klasifikacije sastavljaju se u matricu zabune. Brojčane vrijednosti svake oznake klase korištene su za rastavljanje ukupnog broja točnih i netočnih predviđanja.
Pruža pojedinosti o pogreškama koje je napravio klasifikator, kao io različitim vrstama pogrešaka koje uzrokuju klasifikatori.
25. Što je točno analiza glavnih komponenti?
Minimiziranjem broja varijabli koje su međusobno povezane, cilj je minimizirati dimenzionalnost prikupljanja podataka. Ali važno je zadržati raznolikost što je više moguće.
Varijable se mijenjaju u potpuno novi skup varijabli koji se nazivaju glavne komponente.
Ovi PC-ovi su ortogonalni budući da su svojstveni vektori matrice kovarijance.
26. Zašto je rotacija komponenti tako ključna za PCA (analizu glavnih komponenti)?
Rotacija je ključna u PCA jer optimizira razdvajanje između varijanci dobivenih svakom komponentom, čineći interpretaciju komponente jednostavnijom.
Zahtijevamo proširene komponente za izražavanje varijacije komponente ako komponente nisu rotirane.
27. Kako se regularizacija i normalizacija razlikuju jedna od druge?
Normalizacija:
Podaci se mijenjaju tijekom normalizacije. Trebali biste normalizirati podatke ako imaju drastično različite ljestvice, osobito od niske do visoke. Prilagodite svaki stupac tako da sve osnovne statistike budu kompatibilne.
Ovo može biti korisno kako bi se osiguralo da nema gubitka preciznosti. Detektiranje signala uz ignoriranje šuma jedan je od ciljeva obuke modela.
Postoji mogućnost pretjeranog opremanja ako se modelu da potpuna kontrola kako bi se smanjila pogreška.
Regulacija:
U regularizaciji, funkcija predviđanja je modificirana. To je podložno određenoj kontroli kroz regularizaciju, koja daje prednost jednostavnijim funkcijama prilagođavanja u odnosu na komplicirane.
28. Po čemu se normalizacija i standardizacija razlikuju jedna od druge?
Dvije najčešće korištene tehnike za skaliranje značajki su normalizacija i standardizacija.
Normalizacija:
- Promjena veličine podataka kako bi odgovarali rasponu [0,1] poznata je kao normalizacija.
- Kada svi parametri moraju imati istu pozitivnu ljestvicu, normalizacija je korisna, ali se odstupanja skupa podataka gube.
Regulacija:
- Podaci se ponovno skaliraju kako bi imali srednju vrijednost od 0 i standardnu devijaciju od 1 kao dio procesa standardizacije (varijanca jedinice)
29. Što točno znači "faktor inflacije varijance"?
Omjer varijance modela prema varijanci modela sa samo jednom nezavisnom varijablom poznat je kao faktor inflacije varijacije (VIF).
VIF procjenjuje količinu multikolinearnosti prisutne u skupu nekoliko regresijskih varijabli.
Varijanca modela (VIF) Model s jednom nezavisnom varijablom Varijanca
30. Na temelju veličine skupa za obuku, kako odabrati klasifikator?
Model visoke pristranosti i niske varijance ima bolju izvedbu za kratki set treninga budući da je preopterećenje manje vjerojatno. Naivni Bayes je jedan primjer.
Kako bi se predstavile kompliciranije interakcije za veliki set za obuku, poželjan je model s niskom pristranošću i velikom varijancom. Logistička regresija je dobar primjer.
31. Koji se algoritam u strojnom učenju naziva "lijeni učenik" i zašto?
Spor učenik, KNN je algoritam strojnog učenja. Budući da K-NN dinamički izračunava udaljenost svaki put kada želi klasificirati umjesto učenja bilo kakvih strojno naučenih vrijednosti ili varijabli iz podataka o vježbanju, on pamti skup podataka o vježbanju.
To K-NN čini lijenim učenikom.
32. Što su ROC krivulja i AUC?
Učinkovitost modela klasifikacije na svim pragovima grafički je predstavljena ROC krivuljom. Ima kriterije stvarno pozitivne stope i lažno pozitivne stope.
Jednostavno rečeno, područje ispod ROC krivulje poznato je kao AUC (Area Under the ROC Curve). Mjeri se dvodimenzionalno područje ROC krivulje od (0,0) do AUC (1,1). Za procjenu modela binarne klasifikacije koristi se kao statistika izvedbe.
33. Što su hiperparametri? Što ih čini jedinstvenima od parametara modela?
Interna varijabla modela poznata je kao parametar modela. Koristeći podatke o obuci, vrijednost parametra je aproksimirana.
Nepoznato modelu, hiperparametar je varijabla. Vrijednost se ne može odrediti iz podataka, stoga se oni često koriste za izračun parametara modela.
34. Što znače F1 rezultat, opoziv i preciznost?
Mjera zabune je metrika koja se koristi za mjerenje učinkovitosti modela klasifikacije. Sljedeći izrazi mogu se koristiti za bolje objašnjenje metrike zabune:
TP: Istinske pozitivne vrijednosti – ovo su pozitivne vrijednosti koje su ispravno predviđene. Sugerira da su vrijednosti projicirane i stvarne klase pozitivne.
TN: Istinski negativni - Ovo su nepovoljne vrijednosti koje su točno predviđene. Sugerira da su i vrijednost stvarne klase i očekivane klase negativne.
Ove vrijednosti—lažno pozitivne i lažno negativne—događaju se kada se vaša stvarna klasa razlikuje od očekivane.
Sada,
Omjer stvarne pozitivne stope (TP) i svih opažanja napravljenih u stvarnom razredu naziva se prisjećanje, također poznato kao osjetljivost.
Opoziv je TP/(TP+FN).
Preciznost je mjera pozitivne prediktivne vrijednosti, koja uspoređuje broj pozitivnih rezultata koje model stvarno predviđa s koliko točnih pozitivnih rezultata točno predviđa.
Preciznost je TP/(TP + FP)
Mjerilo izvedbe koje je najlakše razumjeti je točnost, koja je samo udio pravilno predviđenih opažanja u odnosu na sva opažanja.
Točnost je jednaka (TP+TN)/(TP+FP+FN+TN).
Preciznost i sjećanje se ponderiraju i prosječno daju rezultat F1. Kao rezultat toga, ovaj rezultat uzima u obzir i lažno pozitivne i lažno negativne rezultate.
F1 je često vredniji od točnosti, osobito ako imate nejednaku distribuciju klasa, čak i ako intuitivno nije tako jednostavno shvatiti kao točnost.
Najbolja se točnost postiže kada su troškovi lažno pozitivnih i lažno negativnih rezultata usporedivi. Poželjno je uključiti i Precision i Recall ako se troškovi povezani s lažno pozitivnim i lažno negativnim rezultatima značajno razlikuju.
35. Što je zapravo unakrsna provjera valjanosti?
Pristup statističkog ponovnog uzorkovanja koji se naziva unakrsna provjera valjanosti u strojnom učenju koristi nekoliko podskupova podataka za obuku i procjenu algoritma strojnog učenja u više krugova.
Nova serija podataka koja nije korištena za obuku modela testira se unakrsnom provjerom valjanosti da se vidi koliko dobro model to predviđa. Prekomjerno prilagođavanje podataka spriječeno je unakrsnom provjerom valjanosti.
K-Fold Najčešće korištena metoda ponovnog uzorkovanja dijeli cijeli skup podataka u K skupova jednakih veličina. To se zove unakrsna provjera valjanosti.
36. Recimo da ste otkrili da vaš model ima značajnu varijancu. Koji je algoritam, po vašem mišljenju, najprikladniji za rješavanje ove situacije?
Upravljanje velikom varijabilnošću
Trebali bismo koristiti tehniku pakiranja za probleme s velikim varijacijama.
Ponovljeno uzorkovanje nasumičnih podataka upotrijebio bi algoritam za ubacivanje u vrećice za podjelu podataka u podskupine. Nakon što su podaci podijeljeni, možemo upotrijebiti nasumične podatke i poseban postupak obuke za generiranje pravila.
Nakon toga, ispitivanje se može koristiti za kombiniranje predviđanja modela.
37. Što razlikuje Ridge regresiju od Lasso regresije?
Dvije široko korištene metode regulacije su Lasso (također nazvana L1) i Ridge (ponekad nazvana L2) regresija. Koriste se za sprječavanje prekomjernog uklapanja podataka.
Kako bi se otkrilo najbolje rješenje i minimizirala složenost, ove se tehnike koriste za kažnjavanje koeficijenata. Kažnjavanjem ukupnih apsolutnih vrijednosti koeficijenata djeluje Lasso regresija.
Kaznena funkcija u Ridgeovoj ili L2 regresiji izvodi se iz zbroja kvadrata koeficijenata.
38. Što je važnije: izvedba modela ili točnost modela? Kojem ćete i zašto dati prednost?
Ovo je varljivo pitanje, stoga prvo treba razumjeti što je izvedba modela. Ako se izvedba definira kao brzina, onda se oslanja na vrstu aplikacije; svaka aplikacija koja uključuje situaciju u stvarnom vremenu zahtijevala bi veliku brzinu kao ključnu komponentu.
Na primjer, najbolji rezultati pretraživanja postat će manje vrijedni ako do rezultata upita treba predugo.
Ako se izvedba koristi kao opravdanje zašto bi preciznost i prisjećanje trebali imati prioritet ispred točnosti, tada će rezultat F1 biti korisniji od točnosti u demonstriranju poslovnog slučaja za bilo koji skup podataka koji nije uravnotežen.
39. Kako biste upravljali skupom podataka s nejednakostima?
Neuravnoteženi skup podataka može imati koristi od tehnika uzorkovanja. Uzorkovanje se može izvršiti na način premalo ili prekomjerno.
Under Sampling nam omogućuje smanjenje veličine većinske klase kako bi odgovarala manjinskoj klasi, što pomaže u povećanju brzine s obzirom na pohranu i izvršavanje u vrijeme izvođenja, ali također može rezultirati gubitkom vrijednih podataka.
Kako bismo riješili problem gubitka informacija uzrokovan prekomjernim uzorkovanjem, povećavamo uzorkovanje klase Minority; usprkos tome, to dovodi do problema s pretjeranim opremanjem.
Dodatne strategije uključuju:
- Prekomjerno uzorkovanje temeljeno na klasteru - Instance manjinske i većinske klase pojedinačno su podvrgnute tehnici klasteriranja K-srednjih vrijednosti u ovoj situaciji. Ovo se radi kako bi se pronašli klasteri skupova podataka. Zatim se svaki klaster preduzorkuje tako da sve klase imaju istu veličinu i da svi klasteri unutar klase imaju jednak broj instanci.
- SMOTE: Tehnika prekomjernog uzorkovanja sintetičke manjine - Isječak podataka iz klase manjine koristi se kao primjer, nakon čega se proizvode dodatne umjetne instance koje su usporedive s njom i dodaju izvornom skupu podataka. Ova metoda dobro funkcionira s numeričkim podatkovnim točkama.
40. Kako možete razlikovati boosting i bagging?
Ansambl tehnike imaju verzije poznate kao bagging i boosting.
Pakiranje-
Za algoritme s velikom varijacijom, bagging je tehnika koja se koristi za smanjenje varijance. Jedna takva obitelj klasifikatora koja je sklona pristranosti je obitelj stabla odlučivanja.
Vrsta podataka na kojima se stabla odlučivanja treniraju ima značajan utjecaj na njihovu izvedbu. Zbog toga je, čak i s vrlo visokim finim podešavanjem, generalizaciju ishoda ponekad daleko teže postići u njima.
Ako se podaci o obuci stabala odlučivanja promijene, ishodi značajno variraju.
Kao posljedica toga, koristi se bagging, u kojem se stvaraju mnoga stabla odlučivanja, od kojih se svako trenira korištenjem uzorka izvornih podataka, a krajnji rezultat je prosjek svih tih različitih modela.
Pojačavanje:
Boosting je tehnika izrade predviđanja s n-slabim klasifikatorskim sustavom u kojem svaki slabi klasifikator nadoknađuje nedostatke svojih jačih klasifikatora. Klasifikator koji ima lošu izvedbu na danom skupu podataka nazivamo "slabim klasifikatorom".
Poticanje je očito proces, a ne algoritam. Logistička regresija i plitka stabla odlučivanja uobičajeni su primjeri slabih klasifikatora.
Adaboost, Gradient Boosting i XGBoost su dva najpopularnija algoritma za pojačavanje, međutim, ima ih mnogo više.
41. Objasnite razlike između induktivnog i deduktivnog učenja.
Kada se uči na primjeru iz skupa promatranih primjera, model koristi induktivno učenje kako bi došao do generaliziranog zaključka. S druge strane, kod deduktivnog učenja model koristi rezultat prije formiranja vlastitog.
Induktivno učenje je proces izvlačenja zaključaka iz opažanja.
Deduktivno učenje je proces stvaranja zapažanja na temelju zaključaka.
Zaključak
svaka čast! Ovo je 40 i više pitanja za intervju za strojno učenje na koja sada znate odgovore. Znanost o podacima i umjetna inteligencija zanimanja će i dalje biti tražena kako tehnologija napreduje.
Kandidati koji ažuriraju svoje znanje o ovim vrhunskim tehnologijama i poboljšaju svoje vještine mogu pronaći širok izbor mogućnosti zapošljavanja uz konkurentnu plaću.
Možete nastaviti s odgovaranjem na intervjue sada kada dobro razumijete kako odgovoriti na neka od često postavljanih pitanja za intervju o strojnom učenju.
Ovisno o vašim ciljevima, poduzmite sljedeći korak. Pripremite se za intervjue posjetom Hashdorku Serija intervjua.
Ostavi odgovor