Enhavtabelo[Kaŝi][Montri]
- 1. Klarigu la diferencojn inter maŝina lernado, artefarita inteligenteco kaj profunda lernado.
- 2. Bonvolu priskribi la malsamajn specojn de maŝinlernado.
- 3. Kio estas la antaŭjuĝo kontraŭ variankomerco?
- 4. Algoritmoj de maŝinlernado grave evoluis laŭlonge de la tempo. Kiel oni elektas la ĝustan algoritmon por uzi donitan datuman aron?
- 5. Kiel kovarianco kaj korelacio diferencas?
- 6. En maŝina lernado, kion signifas clustering?
- 7. Kio estas via preferata maŝinlernada algoritmo?
- 8. Lineara Regreso en Maŝina Lernado: Kio Ĝi Estas?
- 9. Priskribu la diferencojn inter KNN kaj k-meza amasigo.
- 10. Kion signifas por vi "elekta biaso"?
- 11. Kio precize estas Bayesa Teoremo?
- 12. En Maŝinlernado-Modelo, kio estas 'trejnadaro' kaj 'testaro'?
- 13. Kio estas Hipotezo en Maŝina Lernado?
- 14. Kion signifas maŝinlernado troa ĝustigo, kaj kiel ĝi povas esti malhelpita?
- 15. Kio ĝuste estas Naive Bayes-klasigiloj?
- 16. Kion signifas Kostaj Funkcioj kaj Perdaj Funkcioj?
- 17. Kio distingas generan modelon de diskriminacia modelo?
- 18. Priskribu la variadojn inter Tipo I kaj Tipo II-eraroj.
- 19. En maŝina lernado, kio estas la Ensemblo-lernado-tekniko?
- 20. Kio ĝuste estas parametrikaj modeloj? Donu ekzemplon.
- 21. Priskribu kunlaboran filtradon. Same kiel enhavo-bazita filtrado?
- 22. Kion precize vi volas diri per la serio Time?
- 23. Priskribu la variadojn inter la algoritmoj de Gradient Boosting kaj Random Forest.
- 24. Kial vi bezonas konfuzan matricon? Kio estas tio?
- 25. Kio ĝuste estas principa kompona analizo?
- 26. Kial komponentrotacio estas tiel decida al PCA (ĉefa komponentanalizo)?
- 27. Kiel reguligo kaj normaligo varias unu de la alia?
- 28. Kiel normaligo kaj normigo diferencas unu de la alia?
- 29. Kion precize signifas "varianflacia faktoro"?
- 30. Surbaze de la grandeco de la trejna aro, kiel vi elektas klasigilon?
- 31. Kia algoritmo en maŝina lernado estas nomata "maldiligenta lernanto" kaj kial?
- 32. Kio estas la ROC-Kurbo kaj AUC?
- 33. Kio estas hiperparametroj? Kio faras ilin unikaj de la modelaj parametroj?
- 34. Kion signifas F1-Poentaro, rememoro kaj precizeco?
- 35. Kio ĝuste estas krucvalidado?
- 36. Ni diru, ke vi malkovris, ke via modelo havas signifan variancon. Kiu algoritmo, laŭ vi, plej taŭgas por trakti ĉi tiun situacion?
- 37. Kio distingas Ridge-regreson de Lasso-regreso?
- 38. Kio estas pli grava: modela agado aŭ modela precizeco? Kiun kaj kial vi favoros ĝin?
- 39. Kiel vi administrus datumaron kun malegalecoj?
- 40. Kiel vi povas distingi inter akcelo kaj ensakado?
- 41. Klarigu la diferencojn inter indukta kaj dedukta lernado.
- konkludo
Entreprenoj uzas avangardan teknologion, kiel artefarita inteligenteco (AI) kaj maŝinlernado, por pliigi la alireblecon de informoj kaj servoj al individuoj.
Ĉi tiuj teknologioj estas adoptitaj de diversaj industrioj, inkluzive de bankado, financo, podetala komerco, fabrikado kaj sanservo.
Unu el la plej serĉataj organizaj roloj uzantaj AI estas por datumsciencistoj, inĝenieroj pri artefarita inteligenteco, maŝinlernado-inĝenieroj kaj datumaj analizistoj.
Ĉi tiu afiŝo kondukos vin tra diversaj maŝinlernado intervjuaj demandoj, de bazaj ĝis kompleksaj, por helpi vin prepari vin por ajnaj demandoj, kiujn vi povus fari kiam vi serĉas vian idealan laboron.
1. Klarigu la diferencojn inter maŝina lernado, artefarita inteligenteco kaj profunda lernado.
Artefarita inteligenteco utiligas diversajn maŝinlernadon kaj profundlernajn alirojn kiuj permesas al komputilsistemoj plenumi taskojn utiligantajn homsimilan inteligentecon kun logiko kaj reguloj.
Maŝinlernado uzas diversajn statistikojn kaj Profundan Lernajn alirojn por ebligi maŝinojn lerni de sia antaŭa efikeco kaj iĝi pli lertaj pri farado de certaj taskoj memstare sen homa superrigardo.
Deep Learning estas kolekto de algoritmoj, kiuj permesas al la programaro lerni de si mem kaj plenumi diversajn komercajn funkciojn, kiel voĉa kaj bildrekono.
Sistemoj kiuj elmontras siajn plurtavolajn Neŭraj retoj al vastaj kvantoj da datumoj por lernado kapablas fari profundan lernadon.
2. Bonvolu priskribi la malsamajn specojn de maŝinlernado.
Maŝinlernado ekzistas en tri malsamaj tipoj larĝe:
- Kontrolita Lernado: Modelo kreas antaŭdirojn aŭ juĝojn uzante etikeditajn aŭ historiajn datumojn en kontrolita maŝinlernado. Datumoj kiuj estis etikeditaj aŭ etikeditaj por pliigi sian signifon estas referitaj kiel etikeditaj datenoj.
- Nekontrolita Lernado: Ni ne havas etikeditajn datumojn por nekontrolita lernado. En la envenantaj datumoj, modelo povas trovi ŝablonojn, strangaĵojn kaj korelaciojn.
- Plifortiga Lernado: La modelo povas lerni uzante plifortigon lernado kaj la rekompencojn kiujn ĝi ricevis pro sia antaŭa konduto.
3. Kio estas la antaŭjuĝo kontraŭ variankomerco?
Superfitting estas rezulto de biaso, kio estas la grado al kiu modelo konvenas la datenojn. Biaso estas kaŭzita de malĝustaj aŭ tro simplaj supozoj en via algoritmo de maŝina lernado.
Varianco rilatas al eraroj kaŭzitaj de komplekseco en via ML-algoritmo, kiu produktas sentivecon al grandaj gradoj da variado en trejnaddatumoj kaj troagordado.
Varianco estas kiom multe modelo varias depende de enigaĵoj.
Alivorte, bazaj modeloj estas ekstreme partiaj sed stabilaj (malalta varianco). Superfitting estas problemo kun kompleksaj modeloj, kvankam ili tamen kaptas la realecon de la modelo (malalta biaso).
Por malhelpi kaj altan varion kaj altan biason, komerco inter biaso kaj varianco estas necesa por la plej bona erarredukto.
4. Algoritmoj de maŝinlernado grave evoluis laŭlonge de la tempo. Kiel oni elektas la ĝustan algoritmon por uzi donitan datuman aron?
La maŝinlernado tekniko kiu devus esti utiligita nur dependas de la speco de datumoj en specifa datumaro.
Kiam datumoj estas linearaj, linia regreso estas uzata. La ensakmetodo rezultus pli bone se datenoj indikus ne-linearecon. Ni povas utiligi decidarbojn aŭ SVM se la datumoj devas esti taksitaj aŭ interpretitaj por komercaj celoj.
Neŭralaj retoj povus esti utilaj por akiri precizan respondon se la datumaro inkluzivas fotojn, vidbendojn kaj sonojn.
La elekto de algoritmo por specifa cirkonstanco aŭ kolekto de datumoj ne povas esti farita nur sur ununura mezuro.
Por la celo evoluigi la plej taŭgan metodon, ni unue devas ekzameni la datumojn uzante esploran datuman analizon (EDA) kaj kompreni la celon uzi la datumaron.
5. Kiel kovarianco kaj korelacio diferencas?
Kunvarianco taksas kiel du variabloj estas ligitaj unu al la alia kaj kiel unu povus ŝanĝiĝi en respondo al ŝanĝoj en la alia.
Se la rezulto estas pozitiva, ĝi indikas ke ekzistas rekta ligo inter la variabloj kaj ke oni pliiĝos aŭ malkreskus kun pliiĝo aŭ malkresko en la baza variablo, supozante ke ĉiuj aliaj kondiĉoj restas konstantaj.
Korelacio mezuras la ligon inter du hazardaj variabloj kaj havas nur tri apartajn valorojn: 1, 0, kaj -1.
6. En maŝina lernado, kion signifas clustering?
Nekontrolitaj lernmetodoj kiuj grupigas datenpunktojn kune estas nomitaj clustering. Kun kolekto de datenpunktoj, la clustering tekniko povas esti aplikita.
Vi povas grupigi ĉiujn datumpunktojn laŭ iliaj funkcioj uzante ĉi tiun strategion.
La trajtoj kaj kvalitoj de la datenpunktoj kiuj falas en la saman kategorion estas similaj, dum tiuj de la datenpunktoj kiuj falas en apartajn grupiĝojn estas malsamaj.
Ĉi tiu aliro povas esti uzata por analizi statistikajn datumojn.
7. Kio estas via preferata maŝinlernada algoritmo?
Vi havas la ŝancon montri viajn preferojn kaj unikajn talentojn en ĉi tiu demando, same kiel vian ampleksan scion pri multaj maŝinlernadoteknikoj.
Jen kelkaj tipaj maŝinlernado-algoritmoj por pensi pri:
- Linia regreso
- Loĝistika regreso
- Naivaj Bajoj
- Arboj de Decido
- K signifas
- Hazarda arbara algoritmo
- K-plej proksima najbaro (KNN)
8. Lineara Regreso en Maŝina Lernado: Kio Ĝi Estas?
Kontrolita maŝinlernada algoritmo estas lineara regreso.
Estas utiligite en prognoza analizo por determini la linearan ligon inter la dependaj kaj sendependaj variabloj.
La ekvacio de lineara regreso estas kiel sekvas:
Y = A + BX
kie:
- La enigo aŭ sendependa variablo nomiĝas X.
- La dependa aŭ eliga variablo estas Y.
- La koeficiento de X estas b, kaj ĝia interkapto estas a.
9. Priskribu la diferencojn inter KNN kaj k-meza amasigo.
La primara distingo estas ke KNN (klasifikmetodo, kontrolita lernado) bezonas etikeditajn punktojn dum k-mezo ne faras (clustering-algoritmo, nekontrolita lernado).
Vi povas klasifiki etikeditajn datumojn en neetikeditan punkton per K-Nearest Neighbors. K-means clustering uzas la mezan distancon inter punktoj por lerni kiel grupigi neetikeditajn punktojn.
10. Kion signifas por vi "elekta biaso"?
La biaso en la prova fazo de eksperimento ŝuldiĝas al statistika malprecizeco.
Unu provaĵogrupo estas elektita pli ofte ol la aliaj grupoj en la eksperimento kiel rezulto de la malprecizeco.
Se la elektobiaso ne estas agnoskita, ĝi povus rezultigi malĝustan konkludon.
11. Kio precize estas Bayesa Teoremo?
Kiam ni konscias pri aliaj verŝajnecoj, ni povas determini probablon uzante la teoremon de Bayes. Ĝi ofertas la malantaŭan probablecon de okazo bazita sur antaŭaj informoj, alivorte.
Sona metodo por taksi kondiĉajn probablecojn estas disponigita per tiu teoremo.
Dum evoluigado de klasifikaj prognozaj modeligado de problemoj kaj konvenado de modelo al trejnado datumaro en maŝinlernado, la teoremo de Bayes estas aplikata (t.e. Naive Bayes, Bayes Optimal Classifier).
12. En Maŝinlernado-Modelo, kio estas 'trejnadaro' kaj 'testaro'?
Trejnada aro:
- La trejna aro konsistas el kazoj, kiuj estas senditaj al la modelo por analizo kaj lernado.
- Ĉi tio estas la etikeditaj datumoj, kiuj estos uzataj por trejni la modelon.
- Tipe, 70% de la totalaj datumoj estas uzataj kiel la trejna datumaro.
Testaro:
- La testaro estas uzata por taksi la hipotezan generacioprecizecon de la modelo.
- Ni testas sen etikeditaj datumoj kaj poste uzas etikedojn por konfirmi la rezultojn.
- La ceteraj 30% estas uzataj kiel testa datumaro.
13. Kio estas Hipotezo en Maŝina Lernado?
Maŝina lernado ebligas la uzon de ekzistantaj datumaroj por pli bone kompreni antaŭfiksitan funkcion, kiu ligas enigaĵon al eligo. Ĉi tio estas konata kiel funkcioaproksimado.
En ĉi tiu kazo, aproksimado devas esti utiligita por la nekonata celfunkcio por transdoni ĉiujn imageblajn observaĵojn bazitajn sur la antaŭfiksita situacio laŭ la plej bona maniero ebla.
En maŝinlernado, hipotezo estas modelo kiu helpas pri taksado de la celfunkcio kaj kompletigado de la konvenaj enig-al-eligaj mapadoj.
La elekto kaj dezajno de algoritmoj enkalkulas la difinon de la spaco de eblaj hipotezoj kiuj povas esti reprezentitaj per modelo.
Por ununura hipotezo, minuskla h (h) estas uzata, sed majuskla h (H) estas uzata por la tuta hipoteza spaco, kiun oni serĉas. Ni mallonge revizios ĉi tiujn notaciojn:
- Hipotezo (h) estas speciala modelo kiu faciligas la mapadon de enigaĵo al produktaĵo, kiu poste povas esti utiligita por taksado kaj prognozo.
- Hipoteza aro (H) estas serĉebla spaco de hipotezoj, kiuj povas esti uzataj por mapi enigaĵojn al produktaĵoj. Problema enkadrigo, modelo kaj modela agordo estas kelkaj ekzemploj de ĝeneralaj limigoj.
14. Kion signifas maŝinlernado troa ĝustigo, kaj kiel ĝi povas esti malhelpita?
Kiam maŝino provas lerni de nesufiĉa datumaro, troagordado okazas.
Kiel rezulto, troagordado estas inverse korelaciita kun datenvolumeno. La kruc-validigadaliro permesas superfitting esti evitita por malgrandaj datenserioj. Datenaro estas dividita en du partojn en ĉi tiu metodo.
La datumaro por testado kaj trejnado konsistos el ĉi tiuj du partoj. La trejna datumaro estas uzata por krei modelon, dum la testadatumaro estas uzata por taksi la modelon uzante malsamajn enigaĵojn.
Jen kiel malebligi troagordon.
15. Kio ĝuste estas Naive Bayes-klasigiloj?
Diversaj klasifikmetodoj konsistigas la Naive Bayes-klasigilojn. Aro de algoritmoj konataj kiel ĉi tiuj klasigiloj ĉiuj funkcias en la sama fundamenta ideo.
La supozo farita per naivaj Bayes-klasigiloj estas ke la ĉeesto aŭ foresto de unu trajto havas neniun rilaton al la ĉeesto aŭ foresto de alia trajto.
Alivorte, ĉi tio estas kion ni nomas "naiva" ĉar ĝi faras la supozon, ke ĉiu datumartributo estas same signifa kaj sendependa.
Klasifiko estas farita per naivaj Bayes-klasigiloj. Ili estas simplaj uzeblaj kaj produktas pli bonajn rezultojn ol pli kompleksaj prognoziloj kiam la sendependeca premiso estas vera.
En teksta analizo, spam-filtrado kaj rekomendaj sistemoj, ili estas uzataj.
16. Kion signifas Kostaj Funkcioj kaj Perdaj Funkcioj?
La frazo "perdo funkcio" rilatas al la procezo de komputika perdo kiam nur unu peco de datumoj estas enkalkulita.
Male, ni uzas la kostan funkcion por determini la totalan kvanton da eraroj por multaj datumoj. Neniu grava distingo ekzistas.
Alivorte, dum kostfunkcioj agregas la diferencon por la tuta trejna datumaro, perdfunkcioj estas dizajnitaj por kapti la diferencon inter la realaj kaj antaŭviditaj valoroj por ununura rekordo.
17. Kio distingas generan modelon de diskriminacia modelo?
Diskriminacia modelo lernas la diferencojn inter pluraj datenkategorioj. Genera modelo prenas malsamajn datumtipojn.
Pri klasifikproblemoj, diskriminaciaj modeloj ofte superas aliajn modelojn.
18. Priskribu la variadojn inter Tipo I kaj Tipo II-eraroj.
Falsaj pozitivoj kategoriiĝas sub la kategorio de Tipo I-eraroj, dum falsaj negativoj iras sub Tipo II-eraroj (asertante ke nenio okazis kiam ĝi efektive).
19. En maŝina lernado, kio estas la Ensemblo-lernado-tekniko?
Tekniko nomata ensemblolernado miksas multajn maŝinlernajn modelojn por produkti pli potencajn modelojn.
Modelo povas esti variita pro diversaj kialoj. Pluraj kaŭzoj estas:
- Diversaj Loĝantaroj
- Diversaj Hipotezoj
- Diversaj modelaj metodoj
Ni renkontos problemon dum uzo de la trejnaj kaj testaj datumoj de la modelo. Biaso, varianco kaj nereduktebla eraro estas eblaj specoj de ĉi tiu eraro.
Nun, ni nomas ĉi tiun ekvilibron inter biaso kaj varianco en la modelo bias-variankomerco, kaj ĝi devus ĉiam ekzisti. Ĉi tiu kompromiso estas plenumita per la uzo de ensemblo-lernado.
Kvankam ekzistas diversaj ensemblaj aliroj haveblaj, ekzistas du oftaj strategioj por kombini multajn modelojn:
- Indiĝena aliro nomita ensakado uzas la trejnan aron por produkti kromajn trejnarojn.
- Akcelo, pli altnivela tekniko: Tre kiel ensakado, akcelo estas uzata por trovi la idealan pezformularon por trejnado.
20. Kio ĝuste estas parametrikaj modeloj? Donu ekzemplon.
Estas limigita kvanto de parametroj en parametrikaj modeloj. Por prognozi datumojn, ĉio, kion vi bezonas scii, estas la parametroj de la modelo.
La sekvantaroj estas tipaj ekzemploj: loĝistika regreso, linia regreso, kaj liniaj SVMoj. Ne-parametrikaj modeloj estas flekseblaj ĉar ili povas enhavi senliman nombron da parametroj.
La parametroj de la modelo kaj la statuso de la observitaj datenoj estas postulataj por datenprognozoj. Jen kelkaj tipaj ekzemploj: temmodeloj, decidarboj, kaj k-plej proksimaj najbaroj.
21. Priskribu kunlaboran filtradon. Same kiel enhavo-bazita filtrado?
Provita kaj vera metodo por krei tajlorajn enhavajn sugestojn estas kunlabora filtrado.
Formo de rekomendsistemo nomata kunlabora filtrado antaŭdiras freŝan materialon balancante uzantpreferojn kun komunaj interesoj.
Uzantpreferoj estas la nura afero, kiun enhav-bazitaj rekomendaj sistemoj konsideras. Laŭ la antaŭaj elektoj de la uzanto, novaj rekomendoj estas provizitaj el rilata materialo.
22. Kion precize vi volas diri per la serio Time?
Temposerio estas kolekto de nombroj en kreskanta ordo. Dum antaŭfiksita tempoperiodo, ĝi kontrolas la movadon de la elektitaj datenpunktoj kaj periode kaptas la datumpunktojn.
Ne estas minimuma aŭ maksimuma tempo-enigo por temposerio.
Tempaj serioj estas ofte uzataj de analizistoj por analizi datumojn laŭ siaj unikaj postuloj.
23. Priskribu la variadojn inter la algoritmoj de Gradient Boosting kaj Random Forest.
Hazarda Arbaro:
- Granda nombro da decidarboj estas kunigitaj kune ĉe la fino kaj estas konataj kiel hazardaj arbaroj.
- Dum gradienta akcelo produktas ĉiun arbon sendepende de la aliaj, hazarda arbaro konstruas ĉiun arbon unu je fojo.
- Multiklaso detekto de objektoj funkcias bone kun hazardaj arbaroj.
Pliigo de Gradiento:
- Dum Hazardaj arbaroj aliĝas al decidarboj ĉe la fino de la procezo, Gradient Boosting Machines kombinas ilin de la komenco.
- Se parametroj estas taŭge alĝustigitaj, gradienta akcelo superas hazardajn arbarojn laŭ rezultoj, sed ĝi ne estas saĝa elekto se la datumaro havas multajn eksterordinarojn, anomaliojn aŭ bruon ĉar ĝi povus kaŭzi la modelon tro taŭga.
- Kiam estas malekvilibraj datumoj, kiel ekzistas en realtempa riska taksado, gradienta akcelo funkcias bone.
24. Kial vi bezonas konfuzan matricon? Kio estas tio?
Tablo konata kiel la konfuza matrico, foje konata kiel la erara matrico, estas vaste uzata por montri kiom bone klasifikmodelo, aŭ klasigilo, rezultas sur aro de testdatenoj por kiuj la realaj valoroj estas konataj.
Ĝi ebligas al ni vidi kiel modelo aŭ algoritmo funkcias. Ĝi faciligas por ni ekvidi miskomprenojn inter diversaj kursoj.
Ĝi funkcias kiel maniero taksi kiom bone modelo aŭ algoritmo estas farita.
La antaŭdiroj de klasifikmodelo estas kompilitaj en konfuzmatricon. La kalkulvaloroj de ĉiu klasetikedo estis uzitaj por malkonstrui la tutsumon de ĝustaj kaj malĝustaj prognozoj.
Ĝi disponigas detalojn pri la faŭltoj faritaj de la klasigilo same kiel la malsamaj specoj de eraroj kaŭzitaj de klasigiloj.
25. Kio ĝuste estas principa kompona analizo?
Minimumigante la nombron da variabloj kiuj estas korelaciitaj unu kun la alia, la celo estas minimumigi la dimensiecon de la datenkolekto. Sed gravas konservi la diversecon kiel eble plej multe.
La variabloj estas ŝanĝitaj en tute novan aron de variabloj nomitaj ĉefkomponentoj.
Tiuj Komputiloj estas ortaj ĉar ili estas la ajgenvektoroj de kovarianca matrico.
26. Kial komponentrotacio estas tiel decida al PCA (ĉefa komponentanalizo)?
Rotacio estas decida en PCA ĉar ĝi optimumigas la apartigon inter la variancoj akiritaj per ĉiu komponento, igante komponentinterpreton pli simpla.
Ni postulas plilongigitajn komponentojn por esprimi komponentvarion se la komponentoj ne estas rotaciitaj.
27. Kiel reguligo kaj normaligo varias unu de la alia?
Normaligo:
Datenoj estas ŝanĝitaj dum normaligo. Vi devus normaligi la datumojn se ĝi havas skalojn kiuj estas draste malsamaj, precipe de malalta al alta. Alĝustigu ĉiun kolumnon tiel ke la fundamentaj statistikoj estas ĉiuj kongruaj.
Por certigi, ke ne estas perdo de precizeco, ĉi tio povas esti utila. Detekti la signalon ignorante la bruon estas unu el la celoj de modela trejnado.
Estas ebleco de troagordado se la modelo ricevas kompletan kontrolon por redukti eraron.
Regularigo:
En reguligo, la prognoza funkcio estas modifita. Tio estas kondiĉigita de iu kontrolo per reguligo, kiu preferas pli simplajn konvenajn funkciojn super komplikaj.
28. Kiel normaligo kaj normigo diferencas unu de la alia?
La du plej vaste uzitaj teknikoj por trajtoskalo estas normaligo kaj normigado.
Normaligo:
- Reskali la datenojn por konveni al [0,1] gamo estas konata kiel normaligo.
- Kiam ĉiuj parametroj devas havi la saman pozitivan skalon, normaligo estas helpema, sed la outliers de la datumaro estas perditaj.
Regularigo:
- Datenoj estas reskaligitaj por havi meznombre de 0 kaj norman devion de 1 kiel parto de la normigadprocezo (Unuovarianco)
29. Kion precize signifas "varianflacia faktoro"?
La rilatumo de la varianco de la modelo al la varianco de la modelo kun nur unu sendependa variablo estas konata kiel la varianflaciofaktoro (VIF).
VIF taksas la kvanton de multkolineareco ĉeestanta en aro de pluraj regresvariabloj.
Varianco de la modelo (VIF) Modelo kun Unu Sendependa Variablo
30. Surbaze de la grandeco de la trejna aro, kiel vi elektas klasigilon?
Alta biaso, malalta varianca modelo funkcias pli bone por mallonga trejna aro, ĉar trofido estas malpli verŝajna. Naive Bayes estas unu kazo.
Por reprezenti pli komplikajn interagojn por granda trejnadaro, modelo kun malalta biaso kaj alta varianco estas preferinda. Loĝistika regreso estas bona ekzemplo.
31. Kia algoritmo en maŝina lernado estas nomata "maldiligenta lernanto" kaj kial?
Malvigla lernanto, KNN estas maŝinlernada algoritmo. Ĉar K-NN dinamike kalkulas distancon ĉiufoje kiam ĝi deziras klasifiki anstataŭ lerni iujn ajn maŝinlernitajn valorojn aŭ variablojn de la trejnaddatenoj, ĝi enmemorigas la trejnan datumaron.
Ĉi tio faras K-NN maldiligenta lernanto.
32. Kio estas la ROC-Kurbo kaj AUC?
La prezento de klasifikmodelo ĉe ĉiuj sojloj estas reprezentita grafike per la ROC-kurbo. Ĝi havas veran pozitivan indicon kaj malverajn pozitivajn indicojn.
Simple dirite, la areo sub la ROC-kurbo estas konata kiel AUC (Areo Sub la ROC-Kurbo). La dudimensia areo de la ROC-kurbo de (0,0) ĝis AUC estas mezurita (1,1). Por taksado de binaraj klasifikmodeloj, ĝi estas utiligita kiel spektaklostatistiko.
33. Kio estas hiperparametroj? Kio faras ilin unikaj de la modelaj parametroj?
Interna variablo de la modelo estas konata kiel modelparametro. Utiligante trejnajn datumojn, la valoro de parametro estas proksimuma.
Nekonata al la modelo, hiperparametro estas variablo. La valoro ne povas esti determinita de datenoj, tiel ili estas ofte utiligitaj por kalkuli modelparametrojn.
34. Kion signifas F1-Poentaro, rememoro kaj precizeco?
La konfuza Mezuro estas la metriko utiligita por mezuri la efikecon de la klasifikmodelo. La sekvaj frazoj povas esti uzataj por pli bone klarigi la konfuzmetrikon:
TP: Veraj Pozitivoj - Ĉi tiuj estas la pozitivaj valoroj, kiuj estis antaŭviditaj ĝuste. Ĝi sugestas ke la valoroj de la projekciita klaso kaj la fakta klaso estas ambaŭ pozitivaj.
TN: Veraj Negativoj- Ĉi tiuj estas la malfavoraj valoroj, kiuj estis precize antaŭviditaj. Ĝi sugestas ke kaj la valoro de la fakta klaso kaj la anticipita klaso estas negativaj.
Ĉi tiuj valoroj - falsaj pozitivoj kaj falsaj negativoj - okazas kiam via reala klaso diferencas de la antaŭvidita klaso.
nun,
La rilatumo de la vera pozitiva indico (TP) al ĉiuj observaĵoj faritaj en la fakta klaso estas nomita revoko, ankaŭ konata kiel sentemo.
La revoko estas TP/(TP+FN).
Precizeco estas mezuro de la pozitiva prognoza valoro, kiu komparas la nombron da pozitivoj kiujn la modelo vere antaŭdiras al kiom da ĝustaj pozitivoj ĝi precize antaŭdiras.
Precizeco estas TP/(TP + FP)
La plej facila agado-metriko por kompreni estas precizeco, kio estas nur la proporcio de konvene antaŭdiritaj observaĵoj al ĉiuj observaĵoj.
Precizeco estas egala al (TP+TN)/(TP+FP+FN+TN).
Precizeco kaj Revoko estas pezbalancitaj kaj averaĝigitaj por provizi la F1-Poentaron. Kiel rezulto, ĉi tiu poentaro konsideras kaj falsajn pozitivojn kaj malverajn negativajn.
F1 estas ofte pli valora ol precizeco, precipe se vi havas neegalan klasdistribuon, eĉ se intuicie ĝi ne estas tiel simple komprenebla kiel precizeco.
La plej bona precizeco estas atingita kiam la kosto de falsaj pozitivoj kaj falsaj negativoj estas komparebla. Estas preferinde inkludi kaj Precizecon kaj Rememoron se la kostoj asociitaj kun falsaj pozitivoj kaj falsaj negativoj signife malsamas.
35. Kio ĝuste estas krucvalidado?
Statistika resampling-aliro nomita krucvalidado en maŝinlernado utiligas plurajn datumarsubaron por trejni kaj taksi maŝinlernadalgoritmon tra kelkaj preterpasas.
Nova aro de datumoj, kiuj ne estis uzataj por trejni la modelon, estas provita uzante krucvalidigon por vidi kiom bone la modelo antaŭdiras ĝin. Datumtrofigado estas malhelpita per krucvalidado.
K-Fold La plej ofte uzata resampling metodo dividas la tutan datumaron en K arojn de egalaj grandecoj. Ĝi nomiĝas krucvalidado.
36. Ni diru, ke vi malkovris, ke via modelo havas signifan variancon. Kiu algoritmo, laŭ vi, plej taŭgas por trakti ĉi tiun situacion?
Administrante altan ŝanĝeblecon
Ni devus uzi la ensakteknikon por problemoj kun grandaj varioj.
Ripeta specimenigo de hazardaj datumoj estus uzata de la ensakalgoritmo por dividi la datumojn en subgrupojn. Post kiam la datumoj estas dividitaj, ni povas uzi hazardajn datumojn kaj specifan trejnan proceduron por generi regulojn.
Post tio, balotado povus esti uzita por kombini la prognozojn de la modelo.
37. Kio distingas Ridge-regreson de Lasso-regreso?
Du vaste uzataj reguligaj metodoj estas Lasso (ankaŭ nomata L1) kaj Ridge (foje nomata L2) regreso. Ili estas uzataj por malhelpi la troagordon de datumoj.
Por malkovri la plej bonan solvon kaj minimumigi kompleksecon, tiuj teknikoj estas utiligitaj por puni la koeficientojn. Punante la totalon de la absolutaj valoroj de la koeficientoj, la Lasso-regreso funkcias.
La punfunkcio en Ridge aŭ L2 regreso estas derivita de la sumo de kvadratoj de la koeficientoj.
38. Kio estas pli grava: modela agado aŭ modela precizeco? Kiun kaj kial vi favoros ĝin?
Ĉi tio estas trompa demando, do oni unue devus kompreni kio estas Model Performance. Se rendimento estas difinita kiel rapideco, tiam ĝi dependas de la speco de aplikaĵo; ajna apliko implikanta realtempan situacion postulus altan rapidecon kiel decidan komponenton.
Ekzemple, la plej bonaj Serĉrezultoj fariĝos malpli valoraj se la Serĉrezultoj daŭros tro longe por alveni.
Se Efikeco estas utiligita kiel pravigo por kial precizeco kaj revoko devus esti prioritatitaj super precizeco, tiam F1-poentaro estos pli utila ol precizeco por montri la komercan kazon por iu datumaro kiu estas malekvilibra.
39. Kiel vi administrus datumaron kun malegalecoj?
Malekvilibra datumaro povas profiti el specimenaj teknikoj. Specimenado povas esti farita aŭ sub aŭ trospecimita modo.
Sub Sampling permesas al ni malpligrandigi la grandecon de la plimulta klaso por kongrui kun la minoritata klaso, kio helpas pliigi rapidecon rilate al stokado kaj rultempa ekzekuto sed ankaŭ povas rezultigi la perdon de valoraj datumoj.
Por solvi la problemon de informperdo kaŭzita de trospecimeno, ni superspecimenas la Malplimultan klason; tamen, ĉi tio kaŭzas, ke ni renkontas troajn problemojn.
Kromaj strategioj inkluzivas:
- Cluster-Based Over Sampling- La malplimultaj kaj plimultaj klasokazoj estas individue submetitaj al la K-means clustering-tekniko en ĉi tiu situacio. Ĉi tio estas farita por trovi datumajn aretojn. Tiam, ĉiu areto estas trospecimita tiel ke ĉiuj klasoj havas la saman grandecon kaj ĉiuj aretoj ene de klaso havas egalan nombron da okazoj.
- SMOTE: Synthetic Minority Over-sampling Technique- Tranĉaĵo de datenoj de la minoritatklaso estas utiligita kiel ekzemplo, post kiu kromaj artefaritaj kazoj kiuj estas kompareblaj al ĝi estas produktitaj kaj aldonitaj al la origina datumaro. Ĉi tiu metodo funkcias bone kun nombraj datumpunktoj.
40. Kiel vi povas distingi inter akcelo kaj ensakado?
Ensemble Techniques havas versiojn konatajn kiel ensakado kaj akcelo.
Ensakado-
Por algoritmoj kun alta vario, ensakado estas tekniko uzita por malaltigi la variancon. Unu tia familio de klasigiloj ema al biaso estas la decidarba familio.
La speco de datumoj, sur kiuj decidaj arboj estas trejnitaj, havas signifan efikon al ilia efikeco. Pro tio, eĉ kun tre alta fajnagordado, ĝeneraligo de rezultoj foje estas multe pli malfacile akiri en ili.
Se la trejnaddatenoj de decidarboj estas ŝanĝitaj, la rezultoj varias sufiĉe.
Sekve, ensakado estas uzata, en kiu multaj decidarboj estas kreitaj, ĉiu el kiuj estas trejnita uzante specimenon de la originaj datumoj, kaj la fina rezulto estas la mezumo de ĉiuj ĉi tiuj malsamaj modeloj.
Akcelo:
Akcelo estas la tekniko de farado de prognozoj kun n-malforta klasifiksistemo en kiu ĉiu malforta klasigilo kompensas por la mankoj de siaj pli fortaj klasigiloj. Ni nomas klasigilon, kiu funkcias malbone sur donita datumaro, kiel "malforta klasigilo".
Akcelo estas evidente procezo prefere ol algoritmo. Loĝistika regreso kaj malprofundaj decidarboj estas oftaj ekzemploj de malfortaj klasifikiloj.
Adaboost, Gradient Boosting kaj XGBoost estas la du plej popularaj akcelaj algoritmoj, tamen ekzistas multaj pli.
41. Klarigu la diferencojn inter indukta kaj dedukta lernado.
Dum lernado de ekzemplo de aro de observitaj ekzemploj, modelo uzas induktan lernadon por alveni al ĝeneraligita konkludo. Aliflanke, kun dedukta lernado, la modelo uzas la rezulton antaŭ ol formi sian propran.
Indukta lernado estas la procezo de eltiri konkludojn de observaĵoj.
Dedukta lernado estas la procezo de kreado de observaĵoj bazitaj sur konkludoj.
konkludo
Gratulon! Ĉi tiuj estas la plej bonaj 40 kaj pliaj intervjuaj demandoj por maŝinlernado, pri kiuj vi nun konas la respondojn. Datumscienco kaj artefarita inteligento okupoj daŭre estos postulataj dum teknologio progresas.
Kandidatoj, kiuj ĝisdatigas sian scion pri ĉi tiuj avangardaj teknologioj kaj plibonigas sian kapablon, povas trovi diversajn dungajn eblecojn kun konkurenciva salajro.
Vi povas daŭrigi respondi la intervjuojn nun, kiam vi havas solidan komprenon pri kiel respondi al iuj el la vaste demanditaj maŝinlernado-intervjuaj demandoj.
Depende de viaj celoj, faru la sekvan paŝon. Preparu por intervjuoj vizitante Hashdork's Intervjua Serio.
Lasi Respondon