Innehållsförteckning[Dölj][Visa]
- 1. Förklara skillnaderna mellan maskininlärning, artificiell intelligens och djupinlärning.
- 2. Beskriv de olika typerna av maskininlärning.
- 3. Vad är avvägningen mellan partiskhet och varians?
- 4. Maskininlärningsalgoritmer har utvecklats avsevärt över tiden. Hur väljer man rätt algoritm att använda en given datamängd?
- 5. Hur skiljer sig kovarians och korrelation?
- 6. Vad betyder klustring inom maskininlärning?
- 7. Vilken är din föredragna maskininlärningsalgoritm?
- 8. Linjär regression i maskininlärning: vad är det?
- 9. Beskriv skillnaderna mellan KNN och k-medel klustring.
- 10. Vad betyder "selektionsbias" för dig?
- 11. Vad är Bayes sats egentligen?
- 12. Vad är "träningsset" och "testset" i en maskininlärningsmodell?
- 13. Vad är en hypotes i maskininlärning?
- 14. Vad innebär maskininlärning överanpassning, och hur kan det förebyggas?
- 15. Vad exakt är Naiva Bayes klassificerare?
- 16. Vad betyder kostnadsfunktioner och förlustfunktioner?
- 17. Vad skiljer en generativ modell från en diskriminerande modell?
- 18. Beskriv variationerna mellan typ I- och typ II-fel.
- 19. Vad är Ensemble-inlärningstekniken inom maskininlärning?
- 20. Vad är parametriska modeller egentligen? Ge ett exempel.
- 21. Beskriv kollaborativ filtrering. Samt innehållsbaserad filtrering?
- 22. Vad exakt menar du med Time-serien?
- 23. Beskriv variationerna mellan algoritmerna Gradient Boosting och Random Forest.
- 24. Varför behöver du en förvirringsmatris? Vad är det?
- 25. Vad är egentligen en principkomponentanalys?
- 26. Varför är komponentrotation så avgörande för PCA (principal component analysis)?
- 27. Hur varierar regularisering och normalisering från varandra?
- 28. Hur skiljer sig normalisering och standardisering från varandra?
- 29. Vad exakt betyder "variansinflationsfaktor"?
- 30. Baserat på storleken på träningssetet, hur väljer du en klassificerare?
- 31. Vilken algoritm inom maskininlärning kallas den "lata inläraren" och varför?
- 32. Vad är ROC-kurvan och AUC?
- 33. Vad är hyperparametrar? Vad gör dem unika från modellparametrarna?
- 34. Vad betyder F1-poäng, återkallelse och precision?
- 35. Vad exakt är korsvalidering?
- 36. Låt oss säga att du upptäckte att din modell har en betydande varians. Vilken algoritm enligt dig är mest lämpad för att hantera denna situation?
- 37. Vad skiljer Ridge-regression från Lasso-regression?
- 38. Vilket är viktigast: modellprestanda eller modellnoggrannhet? Vilken och varför kommer du att gynna den?
- 39. Hur skulle du hantera en datauppsättning med ojämlikheter?
- 40. Hur kan du skilja mellan boosting och bagging?
- 41. Förklara skillnaderna mellan induktiv och deduktiv inlärning.
- Slutsats
Företag använder spjutspetsteknologi, såsom artificiell intelligens (AI) och maskininlärning, för att öka tillgängligheten till information och tjänster för individer.
Dessa tekniker används av en mängd olika branscher, inklusive bank, finans, detaljhandel, tillverkning och hälsovård.
En av de mest eftertraktade organisatoriska rollerna som använder AI är för datavetare, artificiell intelligensingenjörer, maskininlärningsingenjörer och dataanalytiker.
Det här inlägget kommer att leda dig genom en mängd olika maskininlärning intervjufrågor, från grundläggande till komplexa, för att hjälpa dig att förbereda dig på alla frågor du kan få när du letar efter ditt idealiska jobb.
1. Förklara skillnaderna mellan maskininlärning, artificiell intelligens och djupinlärning.
Artificiell intelligens använder en mängd olika metoder för maskininlärning och djupinlärning som gör det möjligt för datorsystem att utföra uppgifter med hjälp av mänsklig intelligens med logik och regler.
Maskininlärning använder en mängd olika statistik och metoder för djupinlärning för att göra det möjligt för maskiner att lära av sina tidigare prestationer och bli skickligare på att utföra vissa uppgifter på egen hand utan mänsklig övervakning.
Deep Learning är en samling algoritmer som låter programvaran lära av sig själv och utföra en mängd olika kommersiella funktioner, såsom röst- och bildigenkänning.
System som exponerar sina flerskiktiga neurala nätverk till stora mängder data för lärande kan göra djupinlärning.
2. Beskriv de olika typerna av maskininlärning.
Maskininlärning finns i tre olika typer:
- Övervakad inlärning: En modell skapar förutsägelser eller bedömningar med hjälp av märkta eller historiska data i övervakad maskininlärning. Datauppsättningar som har taggats eller märkts för att öka sin betydelse kallas för märkt data.
- Oövervakat lärande: Vi har inga märkta data för oövervakat lärande. I inkommande data kan en modell hitta mönster, konstigheter och korrelationer.
- Förstärkningsinlärning: Modellen kan lär dig genom att använda förstärkning lärande och de belöningar den fick för sitt tidigare beteende.
3. Vad är avvägningen mellan partiskhet och varians?
Överanpassning är ett resultat av bias, vilket är i vilken grad en modell passar data. Bias orsakas av felaktiga eller för enkla antaganden i din maskininlärningsalgoritm.
Varians hänvisar till misstag som orsakas av komplexitet i din ML-algoritm, vilket ger känslighet för stora grader av varians i träningsdata och överanpassning.
Varians är hur mycket en modell varierar beroende på input.
Med andra ord är grundmodellerna extremt partiska men ändå stabila (låg varians). Övermontering är ett problem med komplexa modeller, även om de ändå fångar modellens verklighet (låg bias).
För att förhindra både hög variation och hög bias är en avvägning mellan bias och varians nödvändig för bästa felreduktion.
4. Maskininlärningsalgoritmer har utvecklats avsevärt över tiden. Hur väljer man rätt algoritm att använda en given datamängd?
Den maskininlärningsteknik som bör användas beror endast på typen av data i en specifik datauppsättning.
När data är linjär används linjär regression. Förpackningsmetoden skulle fungera bättre om data indikerade icke-linjäritet. Vi kan använda beslutsträd eller SVM om uppgifterna ska utvärderas eller tolkas för kommersiella ändamål.
Neurala nätverk kan vara användbara för att få ett korrekt svar om datasetet innehåller foton, videor och ljud.
Valet av algoritm för en specifik omständighet eller insamling av data kan inte göras bara på ett enda mått.
För syftet att utveckla den bästa passformmetoden måste vi först undersöka data med explorativ dataanalys (EDA) och förstå målet med att använda datamängden.
5. Hur skiljer sig kovarians och korrelation?
Kovarians utvärderar hur två variabler är kopplade till varandra och hur den ena kan förändras som svar på förändringar i den andra.
Om resultatet är positivt indikerar det att det finns ett direkt samband mellan variablerna och att man skulle stiga eller minska med en ökning eller minskning av basvariabeln, förutsatt att alla andra förhållanden förblir konstanta.
Korrelation mäter kopplingen mellan två slumpvariabler och har bara tre distinkta värden: 1, 0 och -1.
6. Vad betyder klustring inom maskininlärning?
Oövervakade inlärningsmetoder som grupperar datapunkter tillsammans kallas klustring. Med en samling datapunkter kan klustringstekniken tillämpas.
Du kan gruppera alla datapunkter enligt deras funktioner med denna strategi.
Funktionerna och egenskaperna hos de datapunkter som faller inom samma kategori är likartade, medan de för datapunkterna som faller i separata grupperingar är olika.
Detta tillvägagångssätt kan användas för att analysera statistiska data.
7. Vilken är din föredragna maskininlärningsalgoritm?
Du har chansen att visa dina preferenser och unika talanger i denna fråga, såväl som din omfattande kunskap om många maskininlärningstekniker.
Här är några typiska maskininlärningsalgoritmer att tänka på:
- Linjär regression
- Logistisk återgång
- Naiva Bayes
- Besluts träd
- K betyder
- Slumpmässig skogsalgoritm
- K-närmaste granne (KNN)
8. Linjär regression i maskininlärning: vad är det?
En övervakad maskininlärningsalgoritm är linjär regression.
Den används i prediktiv analys för att bestämma det linjära sambandet mellan de beroende och oberoende variablerna.
Linjär regressions ekvation är följande:
Y = A + BX
där:
- Indata eller oberoende variabel kallas X.
- Den beroende eller utgående variabeln är Y.
- X:s koefficient är b, och dess skärningspunkt är a.
9. Beskriv skillnaderna mellan KNN och k-medel klustring.
Den primära skillnaden är att KNN (en klassificeringsmetod, övervakat lärande) behöver märkta poäng medan k-medel inte gör det (klustringsalgoritm, oövervakad inlärning).
Du kan klassificera märkta data till en omärkt punkt genom att använda K-Närmaste grannar. K-means klustring använder det genomsnittliga avståndet mellan punkter för att lära sig hur man grupperar omärkta punkter.
10. Vad betyder "selektionsbias" för dig?
Biasen i ett experiments provtagningsfas beror på statistisk inexakthet.
En provgrupp väljs oftare än de andra grupperna i experimentet på grund av felaktigheten.
Om urvalsbias inte erkänns kan det resultera i en felaktig slutsats.
11. Vad är Bayes sats egentligen?
När vi är medvetna om andra sannolikheter kan vi bestämma en sannolikhet med hjälp av Bayes sats. Det erbjuder med andra ord den bakre sannolikheten för en händelse baserat på tidigare information.
En bra metod för att uppskatta betingade sannolikheter tillhandahålls av denna sats.
Vid utveckling av klassificering prediktiva modelleringsproblem och anpassning av en modell till en utbildning dataset i maskininlärning, tillämpas Bayes sats (dvs. Naive Bayes, Bayes Optimal Classifier).
12. Vad är "träningsset" och "testset" i en maskininlärningsmodell?
Träningsset:
- Utbildningssetet består av instanser som skickas till modellen för analys och lärande.
- Detta är den märkta data som kommer att användas för att träna modellen.
- Vanligtvis används 70 % av den totala datan som träningsdatauppsättning.
Testuppsättning:
- Testsetet används för att bedöma modellens hypotesgenereringsnoggrannhet.
- Vi testar utan märkta data och använder sedan etiketter för att bekräfta resultaten.
- De återstående 30 % används som en testdatauppsättning.
13. Vad är en hypotes i maskininlärning?
Maskininlärning gör det möjligt att använda befintliga datauppsättningar för att bättre förstå en given funktion som länkar indata till utdata. Detta är känt som funktionsapproximation.
I detta fall måste approximation användas för att den okända målfunktionen ska överföra alla tänkbara observationer utifrån den givna situationen på bästa möjliga sätt.
Inom maskininlärning är en hypotes en modell som hjälper till att uppskatta målfunktionen och slutföra lämpliga in-till-utgång-mappningar.
Valet och designen av algoritmer gör det möjligt att definiera utrymmet för möjliga hypoteser som kan representeras av en modell.
För en enskild hypotes används gemener h (h), men stora h (H) används för hela hypotesutrymmet som genomsöks. Vi ska kortfattat granska dessa noteringar:
- En hypotes (h) är en speciell modell som underlättar kartläggningen av input till output, som sedan kan användas för utvärdering och förutsägelse.
- En hypotesuppsättning (H) är ett sökbart utrymme av hypoteser som kan användas för att mappa indata till utdata. Probleminramning, modell och modellkonfiguration är några exempel på allmänna begränsningar.
14. Vad innebär maskininlärning överanpassning, och hur kan det förebyggas?
När en maskin försöker lära sig av en otillräcklig datauppsättning uppstår överanpassning.
Som ett resultat är överanpassning omvänt korrelerad med datavolym. Korsvalideringsmetoden gör det möjligt att undvika överanpassning för små datamängder. En datauppsättning är uppdelad i två delar i denna metod.
Datauppsättningen för testning och utbildning kommer att bestå av dessa två delar. Utbildningsdataset används för att skapa en modell, medan testdataset används för att utvärdera modellen med olika indata.
Så här förhindrar du överanpassning.
15. Vad exakt är Naiva Bayes klassificerare?
Olika klassificeringsmetoder utgör Naive Bayes klassificerare. En uppsättning algoritmer som kallas dessa klassificerare arbetar alla på samma grundläggande idé.
Det antagande som görs av naiva Bayes-klassificerare är att en egenskaps närvaro eller frånvaro inte har någon betydelse för närvaron eller frånvaron av en annan egenskap.
Med andra ord, detta är vad vi refererar till som "naivt" eftersom det gör antagandet att varje datauppsättningsattribut är lika signifikant och oberoende.
Klassificering görs med naiva Bayes-klassificerare. De är enkla att använda och ger bättre resultat än mer komplexa prediktorer när oberoende premissen är sann.
I textanalys, skräppostfiltrering och rekommendationssystem används de.
16. Vad betyder kostnadsfunktioner och förlustfunktioner?
Frasen "förlustfunktion" hänvisar till processen att beräkna förlust när bara en bit data tas med i beräkningen.
Tvärtom använder vi kostnadsfunktionen för att bestämma den totala mängden misstag för många data. Det finns ingen betydande skillnad.
Med andra ord, medan kostnadsfunktioner aggregerar skillnaden för hela träningsdatauppsättningen, är förlustfunktioner utformade för att fånga skillnaden mellan de faktiska och förutsagda värdena för en enskild post.
17. Vad skiljer en generativ modell från en diskriminerande modell?
En diskriminerande modell lär sig skillnaderna mellan flera datakategorier. En generativ modell tar upp olika datatyper.
När det gäller klassificeringsproblem överträffar diskriminerande modeller ofta andra modeller.
18. Beskriv variationerna mellan typ I- och typ II-fel.
Falska positiva fall faller under kategorin Typ I-fel, medan falska negativa faller under Typ II-fel (påstår att ingenting har hänt när det faktiskt har gjort det).
19. Vad är Ensemble-inlärningstekniken inom maskininlärning?
En teknik som kallas ensemble learning blandar många maskininlärningsmodeller för att producera mer potenta modeller.
En modell kan varieras av olika anledningar. Flera orsaker är:
- Olika populationer
- Olika hypoteser
- Olika modelleringsmetoder
Vi kommer att stöta på ett problem när vi använder modellens tränings- och testdata. Bias, varians och irreducerbara fel är möjliga typer av detta misstag.
Nu kallar vi denna balans mellan bias och varians i modellen för en bias-varians-avvägning, och den borde alltid finnas. Denna avvägning uppnås genom användning av ensembleinlärning.
Även om det finns olika ensemblemetoder tillgängliga, finns det två vanliga strategier för att kombinera många modeller:
- Ett inbyggt tillvägagångssätt som kallas bagging använder träningssetet för att producera ytterligare träningsset.
- Boostning, en mer sofistikerad teknik: Ungefär som säckar, används boosting för att hitta den idealiska viktningsformeln för ett träningsset.
20. Vad är parametriska modeller egentligen? Ge ett exempel.
Det finns ett begränsat antal parametrar i parametriska modeller. För att prognostisera data behöver du bara veta modellens parametrar.
Följande är typiska exempel: logistisk regression, linjär regression och linjära SVM. Icke-parametriska modeller är flexibla eftersom de kan innehålla ett obegränsat antal parametrar.
Modellens parametrar och status för de observerade data krävs för dataförutsägelser. Här är några typiska exempel: ämnesmodeller, beslutsträd och k-närma grannar.
21. Beskriv kollaborativ filtrering. Samt innehållsbaserad filtrering?
En beprövad metod för att skapa skräddarsydda innehållsförslag är kollaborativ filtrering.
En form av rekommendationssystem som kallas kollaborativ filtrering förutsäger nytt material genom att balansera användarpreferenser med delade intressen.
Användarpreferenser är det enda som innehållsbaserade rekommendationssystem tar hänsyn till. I ljuset av användarens tidigare val ges nya rekommendationer från relaterat material.
22. Vad exakt menar du med Time-serien?
En tidsserie är en samling siffror i stigande ordning. Under en förutbestämd tidsperiod övervakar den rörelsen av de valda datapunkterna och fångar periodiskt datapunkterna.
Det finns ingen minimi- eller maxtid för tidsserier.
Tidsserier används ofta av analytiker för att analysera data i enlighet med deras unika krav.
23. Beskriv variationerna mellan algoritmerna Gradient Boosting och Random Forest.
Random Forest:
- Ett stort antal beslutsträd slås samman i slutet och kallas slumpmässiga skogar.
- Medan gradientförstärkning producerar varje träd oberoende av de andra, bygger slumpmässig skog varje träd ett i taget.
- Flerklass objektdetektering fungerar bra med slumpmässiga skogar.
Gradientförstärkning:
- Medan slumpmässiga skogar går med i beslutsträd i slutet av processen, kombinerar Gradient Boosting Machines dem från början.
- Om parametrarna justeras på lämpligt sätt överträffar gradientförstärkning slumpmässiga skogar när det gäller resultat, men det är inte ett smart val om datamängden har många extremvärden, anomalier eller brus eftersom det kan göra att modellen blir överanpassad.
- När det finns obalanserad data, som det finns i realtidsriskbedömning, fungerar gradientförstärkning bra.
24. Varför behöver du en förvirringsmatris? Vad är det?
En tabell som kallas förvirringsmatrisen, ibland känd som felmatrisen, används ofta för att visa hur väl en klassificeringsmodell, eller klassificerare, presterar på en uppsättning testdata för vilka de verkliga värdena är kända.
Det gör det möjligt för oss att se hur en modell eller algoritm presterar. Det gör det enkelt för oss att upptäcka missförstånd mellan olika kurser.
Det fungerar som ett sätt att utvärdera hur väl en modell eller algoritm utförs.
En klassificeringsmodells förutsägelser sammanställs i en förvirringsmatris. Varje klassetiketts räknevärden användes för att bryta ner det totala antalet korrekta och felaktiga förutsägelser.
Den ger detaljer om de fel som klassificeraren gör samt olika typer av fel som orsakas av klassificerare.
25. Vad är egentligen en principkomponentanalys?
Genom att minimera antalet variabler som är korrelerade med varandra är målet att minimera dimensionaliteten i datainsamlingen. Men det gäller att behålla mångfalden så mycket som möjligt.
Variablerna ändras till en helt ny uppsättning variabler som kallas huvudkomponenter.
Dessa datorer är ortogonala eftersom de är en kovariansmatris egenvektorer.
26. Varför är komponentrotation så avgörande för PCA (principal component analysis)?
Rotation är avgörande i PCA eftersom det optimerar separationen mellan varianserna som erhålls av varje komponent, vilket gör komponenttolkningen enklare.
Vi kräver utökade komponenter för att uttrycka komponentvariation om komponenterna inte roteras.
27. Hur varierar regularisering och normalisering från varandra?
Normalisering:
Data ändras under normalisering. Du bör normalisera data om den har skalor som skiljer sig drastiskt, särskilt från låg till hög. Justera varje kolumn så att den grundläggande statistiken är kompatibla.
För att säkerställa att det inte sker någon förlust av precision kan detta vara användbart. Att upptäcka signalen samtidigt som bruset ignoreras är ett av målen med modellträning.
Det finns en risk för övermontering om modellen ges fullständig kontroll för att minska fel.
Regulering:
Vid regularisering modifieras prediktionsfunktionen. Detta är föremål för viss kontroll genom regularisering, vilket gynnar enklare passningsfunktioner framför komplicerade.
28. Hur skiljer sig normalisering och standardisering från varandra?
De två mest använda teknikerna för funktionsskalning är normalisering och standardisering.
Normalisering:
- Omskalning av data för att passa ett [0,1] intervall kallas normalisering.
- När alla parametrar måste ha samma positiva skala är normalisering till hjälp, men datauppsättningens extremvärden går förlorade.
Regulering:
- Data skalas om till att ha ett medelvärde på 0 och en standardavvikelse på 1 som en del av standardiseringsprocessen (enhetsvarians)
29. Vad exakt betyder "variansinflationsfaktor"?
Förhållandet mellan modellens varians och modellens varians med endast en oberoende variabel kallas variationsinflationsfaktorn (VIF).
VIF uppskattar mängden multikollinearitet som finns i en uppsättning av flera regressionsvariabler.
Varians av modellen (VIF) Modell med en oberoende variabel varians
30. Baserat på storleken på träningssetet, hur väljer du en klassificerare?
En modell med hög bias och låg varians presterar bättre för ett kort träningsset eftersom överanpassning är mindre sannolikt. Naiva Bayes är ett exempel.
För att representera mer komplicerade interaktioner för en stor träningsuppsättning är en modell med låg bias och hög varians att föredra. Logistisk regression är ett bra exempel.
31. Vilken algoritm inom maskininlärning kallas den "lata inläraren" och varför?
En trög inlärare, KNN är en maskininlärningsalgoritm. Eftersom K-NN dynamiskt beräknar avstånd varje gång den vill klassificera istället för att lära sig maskininlärda värden eller variabler från träningsdata, memorerar den träningsdatauppsättningen.
Detta gör K-NN till en lat elev.
32. Vad är ROC-kurvan och AUC?
Prestanda för en klassificeringsmodell vid alla tröskelvärden representeras grafiskt av ROC-kurvan. Den har sanna positiva och falska positiva kurskriterier.
Enkelt uttryckt är området under ROC-kurvan känt som AUC (Area Under the ROC Curve). ROC-kurvans tvådimensionella area från (0,0) till AUC mäts (1,1). För att bedöma binära klassificeringsmodeller används den som en prestationsstatistik.
33. Vad är hyperparametrar? Vad gör dem unika från modellparametrarna?
En intern variabel i modellen är känd som en modellparameter. Med hjälp av träningsdata uppskattas en parameters värde.
Okänd för modellen är en hyperparameter en variabel. Värdet kan inte bestämmas från data, därför används de ofta för att beräkna modellparametrar.
34. Vad betyder F1-poäng, återkallelse och precision?
Förvirringsmåttet är det mått som används för att mäta effektiviteten hos klassificeringsmodellen. Följande fraser kan användas för att bättre förklara förvirringsmåttet:
TP: Sanna positiva – Dessa är de positiva värden som förutsågs korrekt. Det tyder på att värdena för den projicerade klassen och den faktiska klassen båda är positiva.
TN: Sanna negativa - Det här är de negativa värdena som prognostiserades korrekt. Det tyder på att både värdet av den faktiska klassen och den förväntade klassen är negativa.
Dessa värden – falska positiva och falska negativa – uppstår när din faktiska klass skiljer sig från den förväntade klassen.
Nu,
Förhållandet mellan den sanna positiva frekvensen (TP) och alla observationer gjorda i den faktiska klassen kallas återkallelse, även känd som känslighet.
Återkallelsen är TP/(TP+FN).
Precision är ett mått på det positiva prediktiva värdet, som jämför antalet positiva som modellen verkligen förutsäger med hur många korrekta positiva den exakt förutsäger.
Precisionen är TP/(TP + FP)
Det enklaste prestandamåttet att förstå är noggrannhet, som bara är andelen korrekt förutspådda observationer till alla observationer.
Noggrannheten är lika med (TP+TN)/(TP+FP+FN+TN).
Precision och Recall är viktade och genomsnittliga för att ge F1-poängen. Som ett resultat tar denna poäng både falska positiva och falska negativa hänsyn.
F1 är ofta mer värdefullt än noggrannhet, särskilt om du har en ojämn klassfördelning, även om den intuitivt inte är lika enkel att förstå som noggrannhet.
Den bästa noggrannheten uppnås när kostnaden för falska positiva och falska negativa är jämförbara. Det är att föredra att inkludera både Precision och Recall om kostnaderna för falska positiva och falska negativa skiljer sig markant.
35. Vad exakt är korsvalidering?
En statistisk omsamplingsmetod som kallas korsvalidering i maskininlärning använder flera datamängder för att träna och utvärdera en maskininlärningsalgoritm över ett antal omgångar.
En ny batch data som inte användes för att träna modellen testas med hjälp av korsvalidering för att se hur väl modellen förutsäger den. Överanpassning av data förhindras genom korsvalidering.
K-Fold Den mest använda omsamplingsmetoden delar upp hela datamängden i K uppsättningar av lika stora. Det kallas korsvalidering.
36. Låt oss säga att du upptäckte att din modell har en betydande varians. Vilken algoritm enligt dig är mest lämpad för att hantera denna situation?
Hantera hög variabilitet
Vi bör använda säcktekniken för problem med stora variationer.
Upprepad sampling av slumpmässiga data skulle användas av påsningsalgoritmen för att dela in data i undergrupper. När uppgifterna har delats upp kan vi använda slumpmässiga data och en specifik träningsprocedur för att generera regler.
Därefter kunde polling användas för att kombinera modellens förutsägelser.
37. Vad skiljer Ridge-regression från Lasso-regression?
Två allmänt använda regulariseringsmetoder är Lasso (även kallad L1) och Ridge (ibland kallad L2) regression. De används för att förhindra överanpassning av data.
För att upptäcka den bästa lösningen och minimera komplexiteten, används dessa tekniker för att straffa koefficienterna. Genom att straffa summan av koefficienternas absoluta värden fungerar Lasso-regressionen.
Strafffunktionen i Ridge- eller L2-regression härleds från summan av kvadraterna av koefficienterna.
38. Vilket är viktigast: modellprestanda eller modellnoggrannhet? Vilken och varför kommer du att gynna den?
Detta är en vilseledande fråga, så man bör först förstå vad Model Performance är. Om prestanda definieras som hastighet, beror det på typen av applikation; alla tillämpningar som involverar en realtidssituation skulle kräva hög hastighet som en avgörande komponent.
Till exempel kommer de bästa sökresultaten att bli mindre värdefulla om sökresultaten tar för lång tid att komma fram.
Om prestanda används som en motivering till varför precision och återkallelse bör prioriteras över noggrannhet, så kommer ett F1-poäng att vara mer användbart än noggrannhet för att visa affärsfallet för alla datauppsättningar som är obalanserade.
39. Hur skulle du hantera en datauppsättning med ojämlikheter?
En obalanserad datauppsättning kan dra nytta av provtagningstekniker. Provtagning kan göras antingen på ett under- eller översamplat sätt.
Under Sampling tillåter oss att krympa storleken på majoritetsklassen för att matcha minoritetsklassen, vilket hjälper till att öka hastigheten med avseende på lagring och körningstid men kan också resultera i förlust av värdefull data.
För att åtgärda problemet med informationsförlust orsakad av översampling, samplar vi upp minoritetsklassen; Detta gör dock att vi stöter på övermonteringsproblem.
Ytterligare strategier inkluderar:
- Klusterbaserad översampling - Minoritets- och majoritetsklassinstanserna utsätts individuellt för K-means-klustringstekniken i denna situation. Detta görs för att hitta datasetkluster. Sedan översamplas varje kluster så att alla klasser har samma storlek och alla kluster inom en klass har lika många instanser.
- SMOTE: Synthetic Minority Oversampling Technique- En del av data från minoritetsklassen används som exempel, varefter ytterligare artificiella instanser som är jämförbara med den produceras och läggs till den ursprungliga datamängden. Denna metod fungerar bra med numeriska datapunkter.
40. Hur kan du skilja mellan boosting och bagging?
Ensemble Techniques har versioner som kallas bagging och boosting.
Säckväv-
För algoritmer med hög variation är påsar en teknik som används för att sänka variansen. En sådan familj av klassificerare som är benägen till partiskhet är beslutsträdsfamiljen.
Den typ av data som beslutsträd tränas på har en betydande inverkan på deras prestanda. På grund av detta, även med mycket hög finjustering, är generalisering av utfall ibland mycket svårare att uppnå i dem.
Om beslutsträdens träningsdata ändras varierar resultaten avsevärt.
Som en konsekvens används säckar, där många beslutsträd skapas, som var och en tränas med ett urval av originaldata, och slutresultatet är genomsnittet av alla dessa olika modeller.
Boost:
Boosting är tekniken att göra förutsägelser med ett n-svagt klassificeraresystem där varje svag klassificerare kompenserar för bristerna hos sina starkare klassificerare. Vi hänvisar till en klassificerare som presterar dåligt på en given datamängd som en "svag klassificerare."
Boost är uppenbarligen en process snarare än en algoritm. Logistisk regression och grunda beslutsträd är vanliga exempel på svaga klassificerare.
Adaboost, Gradient Boosting och XGBoost är de två mest populära förstärkningsalgoritmerna, men det finns många fler.
41. Förklara skillnaderna mellan induktiv och deduktiv inlärning.
När man lär sig genom exempel från en uppsättning observerade exempel, använder en modell induktiv inlärning för att komma fram till en generaliserad slutsats. Å andra sidan, med deduktiv inlärning använder modellen resultatet innan den bildar sitt eget.
Induktivt lärande är processen att dra slutsatser från observationer.
Deduktivt lärande är processen att skapa observationer baserade på slutsatser.
Slutsats
grattis! Det här är de 40 bästa och högre intervjufrågorna för maskininlärning som du nu vet svaren på. Datavetenskap och artificiell intelligens yrken kommer att fortsätta att efterfrågas i takt med att tekniken går framåt.
Kandidater som uppdaterar sina kunskaper om dessa banbrytande teknologier och förbättrar sin kompetens kan hitta en mängd olika anställningsmöjligheter med konkurrenskraftig lön.
Du kan fortsätta med att svara på intervjuerna nu när du har en gedigen förståelse för hur du ska svara på några av de ofta ställda frågorna om maskininlärning.
Beroende på dina mål, ta följande steg. Förbered dig för intervjuer genom att besöka Hashdork's Intervjuserie.
Kommentera uppropet