Inhaltsverzeechnes[Verstoppen][Show]
D'Welt ännert sech séier duerch kënschtlech Intelligenz, a Maschinnléieren, wat en Impakt op all Aspekt vun eisem Alldag huet.
Vun Stëmmassistenten déi NLP a Maschinnléiere benotzen fir Rendez-vousen ze buchen, Eventer op eisem Kalenner opzemaachen, a Musek ze spillen bis Apparater déi sou genau sinn datt se eis Bedierfnesser viraussoen ier mir se iwwerhaapt berücksichtegen.
Computere kënne Schach spillen, Chirurgie maachen an sech zu méi schlau, méi mënschlech-ähnlech Maschinnen entwéckelen mat der Hëllef vu Maschinnléier Algorithmen.
Mir sinn an enger Zäit vu kontinuéierleche technologesche Fortschrëtt, an andeems mir kucken wéi Computeren sech duerch d'Zäit entwéckelt hunn, kënne mir Prognosen maachen iwwer wat an Zukunft wäert geschéien.
D'Demokratiséierung vu Rechentools a Methoden ass ee vun de Schlësselaspekter vun dëser Revolutioun déi erausstécht. Datenwëssenschaftler hunn an de leschte fënnef Joer mächteg Date-Crunching Computeren erstallt andeems se modernste Methodologien ouni Effort implementéiere kënnen. D'Resultater sinn erstaunlech.
An dësem Post wäerte mir genau kucken Maschinn léieren Algorithmen an all hir Variatiounen.
Also, wat sinn Machine Learning Algorithmen?
D'Approche benotzt vum AI System fir seng Aufgab auszeféieren - allgemeng Ausgangswäerter virauszesoen aus bestëmmten Inputdaten - ass bekannt als Maschinnléier Algorithmus.
E Maschinn Léieren Algorithmus ass e Prozess deen Daten benotzt a benotzt gëtt fir Maschinn Léieren Modeller ze kreéieren déi prett sinn fir d'Produktioun. Wann d'Maschinn Léieren den Zuch ass deen eng Aarbecht ausféiert, da sinn d'Maschinn Léieren Algorithmen d'Lokomotiven déi d'Aarbecht réckelen.
Déi bescht Maschinnléieren Approche fir ze benotzen gëtt bestëmmt vum Geschäftsproblem deen Dir probéiert ze adresséieren, der Aart vun der Datesaz déi Dir benotzt, an de Ressourcen déi Dir verfügbar hutt.
Maschinn Léieren Algorithmen sinn déi, déi en Dateset an e Modell maachen. Ofhängeg vun der Aart vum Problem deen Dir probéiert ze beäntweren, d'Veraarbechtungskraaft verfügbar an d'Zort vun Daten déi Dir hutt, iwwerwaacht, net iwwerwaacht oder Verstäerkung Léieralgorithmen kënne gutt Leeschtunge.
Also, mir hu geschwat iwwer iwwerwaacht, net iwwerwaacht, a Verstäerkungsléieren, awer wat sinn se? Loosst eis se entdecken.
Iwwerwaacht, Net iwwerwaacht & Verstäerkung Léieren
Iwwerwaachter Léieren
Am iwwerwaachte Léieren gëtt den AI Modell entwéckelt baséiert op den Input deen geliwwert gouf an dem Label deen dat virausgesot Resultat duerstellt. Baséierend op den Inputen an Ausgänge entwéckelt de Modell eng Kartéierungsgleichung, a benotzt dës Kartéierungsgleichung, prognostizéiert de Label vun den Inputen an Zukunft.
Loosst eis soen, mir mussen e Modell kreéieren, deen tëscht engem Hond an enger Kaz kann ënnerscheeden. Multiple Fotoe vu Kazen an Hënn ginn an de Modell gefüttert mat Etiketten déi uginn ob et Kazen oder Hënn sinn fir de Modell ze trainéieren.
De Modell probéiert eng Equatioun opzebauen, déi d'Etiketten op den Inputfotoen op dës Biller bezéien. Och wann de Modell d'Bild nach ni gesinn huet, nom Training, kann et identifizéieren ob et vun enger Kaz oder engem Hond ass.
Unspervised Learning
Oniwwerwaacht Léieren involvéiert Training en AI Modell nëmmen op Inputen ouni se ze markéieren. De Modell trennt d'Inputdaten a Gruppen mat ähnlechen Charakteristiken.
Den zukünftege Label vum Input gëtt dann prognostizéiert ofhängeg wéi enk seng Attributer mat enger vun de Klassifikatioune passen. Betruecht d'Situatioun wou mir eng Grupp vu roude a bloe Bäll an zwou Kategorien opdeelen mussen.
Loosst eis unhuelen datt déi aner Charakteristiken vun de Bäll identesch sinn, mat Ausnam vu Faarf. Op der Basis wéi et d'Bäll an zwou Klassen opdeele kann, sicht de Modell no de Charakteristiken, déi tëscht de Bäll ënnerscheeden.
Zwee Cluster vu Bäll - eng blo an eng rout - ginn produzéiert wann d'Bäll an zwou Gruppen opgedeelt sinn op Basis vun hirem Téin.
Verstäerkung Léieren
Beim Verstäerkungsléiere probéiert den AI Modell de Gesamtgewënn ze maximéieren andeems se sou gutt handelen wéi et an engem bestëmmten Ëmstänn kann. Feedback iwwer seng fréier Resultater hëlleft dem Modell ze léieren.
Denkt un den Szenario wann e Roboter opgefuerdert gëtt e Wee tëscht Punkten A a B ze wielen.
De Roboter kritt Input op d'Streck déi e mécht a kritt Wëssen dovun. De Roboter kann Input benotzen fir d'Fro ze fixéieren déi nächst Kéier wann et en ähnlechen Ëmstänn begéint.
Zum Beispill, wann de Roboter Optioun B wielt an eng Belounung kritt, sou wéi e positiven Feedback, versteet hien dës Kéier datt et de Wee B muss wielen fir seng Belounung ze erhéijen.
Elo endlech op wat Dir all waart, sinn d'Algorithmen.
Major Machine Learning Algorithmen
1. Linearschrëft Réckgang
Déi einfachst Maschinnléieren Approche déi vum iwwerwaachte Léieren ofwäich ass linear Regressioun. Mat dem Wëssen vun onofhängege Variablen gëtt et meeschtens benotzt fir Regressiounsprobleemer ze léisen an Prognosen iwwer kontinuéierlech ofhängeg Variablen ze kreéieren.
D'Linn vun der Bescht Fit ze fannen, déi hëllefe kann fir d'Resultat fir kontinuéierlech ofhängeg Variabelen virauszesoen, ass d'Zil vun der linearer Regressioun. Hauspräisser, Alter a Léin sinn e puer Beispiller vu kontinuéierleche Wäerter.
E Modell bekannt als einfach linear Regressioun benotzt eng riicht Linn fir d'Associatioun tëscht enger onofhängeger Variabel an enger ofhängeger Variabel ze berechnen. Et gi méi wéi zwou onofhängeg Variabelen a multiple linearer Regressioun.
E linearem Regressiounsmodell huet véier ënnerierdesch Viraussetzungen:
- Linearitéit: Et gëtt eng linear Verbindung tëscht X an dem Moyenne vun Y.
- Homoscedastizitéit: Fir all Wäert vum X ass d'Reschtvarianz d'selwecht.
- Onofhängegkeet: Observatioune sinn onofhängeg vuneneen a punkto Onofhängegkeet.
- Normalitéit: Wann X fix ass, gëtt Y normalerweis verdeelt.
Linear Regressioun funktionéiert bewonnert fir Daten déi laanscht Linnen getrennt kënne ginn. Et kann Iwwerfitting kontrolléieren andeems Dir Regulariséierung, Kräizvalidatioun an Dimensiounsreduktiounstechniken benotzt. Wéi och ëmmer, et ginn Fäll wou extensiv Feature Engineering erfuerderlech ass, wat heiansdo zu Iwwerfitting a Kaméidi resultéiere kann.
2. Logistesch Réckgang
Logistesch Regressioun ass eng aner Maschinnléiertechnik déi vum iwwerwaachte Léieren fortgeet. Seng wichtegst Notzung ass Klassifikatioun, wärend et och fir Regressiounsproblemer benotzt ka ginn.
Logistesch Regressioun gëtt benotzt fir déi kategoresch ofhängeg Variabel ze prognostéieren mat der Informatioun vun den onofhängege Faktoren. D'Zil ass d'Ausgänge klassifizéieren, déi nëmmen tëscht 0 an 1 fale kënnen.
De gewiichtten Total vun den Input gëtt vun der Sigmoid Funktioun veraarbecht, eng Aktivéierungsfunktioun déi Wäerter tëscht 0 an 1 konvertéiert.
D'Basis vun der logistescher Regressioun ass maximal Wahrscheinlechkeet Schätzung, eng Method fir d'Parameteren vun enger ugeholler Wahrscheinlechkeetsverdeelung ze berechnen, gitt spezifesch observéiert Donnéeën.
3. Decisioun Tree
Eng aner Maschinnléiermethod, déi aus iwwerwaacht Léieren ofgeschnidden ass, ass den Entscheedungsbam. Fir béid Klassifikatioun a Regressiounsprobleemer kann d'Entscheedungsbam Approche benotzt ginn.
Dëst Entscheedungsinstrument, wat e Bam ähnelt, benotzt visuell Representatioune fir potenziell Resultater, Käschten an Auswierkunge vun Aktiounen ze weisen. Andeems Dir d'Donnéeën an getrennten Portiounen opdeelt, ass d'Iddi analog zum mënschleche Geescht.
D'Daten goufen an ënnerschiddlech Deeler opgedeelt sou vill wéi mir se kënne granuléieren. D'Haaptziel vun engem Decision Tree ass en Trainingsmodell ze bauen dee ka benotzt ginn fir d'Klass vun der Zilvariabel ze prognostizéieren. Vermësste Wäerter kënnen automatesch mat der Decisiounsbaum gehandhabt ginn.
Et gëtt keng Ufuerderung fir One-Shot Kodéierung, Dummy Variablen oder aner Datevirbehandlungsschrëtt. Et ass steif am Sënn datt et schwéier ass frësch Donnéeën derbäi ze addéieren. Wann Dir zousätzlech markéiert Donnéeën kritt hutt, sollt Dir de Bam op de ganzen Dataset nei trainéieren.
Als Resultat sinn Entscheedungsbeem eng schlecht Wiel fir all Applikatioun déi dynamesch Modellännerung erfuerdert.
Baséierend op der Aart vun der Zilvariabel, ginn Entscheedungsbeem an zwou Zorte klasséiert:
- Kategoresch Variabel: En Entscheedungsbam an deem d'Zilvariabel Kategoresch ass.
- Kontinuéierlech Variabel: En Entscheedungsbam an deem d'Zilvariabel kontinuéierlech ass.
4. Zoufälleg Bësch
D'Zoufälleg Forest Method ass déi nächst Maschinn Léieren Technik an ass e iwwerwaachte Maschinn Léieren Algorithmus extensiv an Klassifikatioun a Regressioun Problemer benotzt. Et ass och eng Bam-baséiert Method, ähnlech wéi en Entscheedungsbam.
E Bësch vu Beem, oder vill Entscheedungsbeem, gëtt vun der zoufälleger Bëschmethod benotzt fir Uerteeler ze maachen. Beim Ëmgank mat Klassifizéierungsaufgaben huet déi zoufälleg Bëschmethod kategoresch Variablen benotzt, während d'Regressiounsaufgaben mat Datesätz behandelt ginn, déi kontinuéierlech Variabelen enthalen.
En Ensembel, oder Mëschung vu ville Modeller, ass wat déi zoufälleg Bëschmethod mécht, dat heescht datt Prognosen mat enger Grupp vu Modeller gemaach ginn anstatt nëmmen een.
D'Fäegkeet fir souwuel Klassifikatioun wéi och Regressiounsproblemer benotzt ze ginn, déi d'Majoritéit vun de modernen Maschinnléieresystemer ausmaachen, ass e Schlësselvirdeel vum zoufällege Bësch.
Zwee verschidde Strategien gi vum Ensemble benotzt:
- Bagging: Andeems Dir dëst maacht, gi méi Daten fir den Trainingsdataset produzéiert. Fir d'Variatioun an de Prognosen ze reduzéieren, gëtt dat gemaach.
- Boosting ass de Prozess fir schwaach Schüler mat staarke Schüler ze kombinéieren andeems se successiv Modeller bauen, wat zu engem definitive Modell mat maximaler Genauegkeet resultéiert.
5. Naiv Bayes
E binäre (zwee-Klass) a Multi-Klass Klassifikatioun Thema kann mat der Naive Bayes Technik geléist ginn. Wann d'Method mat binären oder Kategorie Input Wäerter erkläert gëtt, ass et am einfachsten ze begräifen. Eng Virgab gemaach vun engem Naive Bayes Klassifizéierer ass datt d'Existenz vun enger Feature an enger Klass keen Afloss op d'Präsenz vun all aner Funktiounen huet.
Déi uewe genannte Formel weist:
- P(H): D'Wahrscheinlechkeet datt d'Hypothese H richteg ass. Déi fréier Wahrscheinlechkeet gëtt als dëst bezeechent.
- P(E): D'Wahrscheinlechkeet vun de Beweiser
- P(E|H): D'Wahrscheinlechkeet datt d'Hypothese duerch de Beweis ënnerstëtzt gëtt.
- P(H|E): D'Wahrscheinlechkeet datt d'Hypothese stëmmt, mat de Beweiser.
En Naive Bayes Klassifizéierer géif all eenzel vun dësen Charakteristiken individuell berücksichtegen wann Dir d'Wahrscheinlechkeet vun engem bestëmmte Resultat bestëmmt, och wann dës Attributer matenee verbonne sinn. En Naive Bayesian Modell ass einfach ze konstruéieren an effektiv fir grouss Datesätz.
Et ass bekannt besser ze maachen wéi souguer déi komplexste Kategoriséierungstechniken wärend se Basis sinn. Et ass eng Sammlung vun Algorithmen déi all op dem Bayes 'Theorem baséieren, anstatt op enger eenzeger Method.
6. K-Noosten Noperen
D'K-nächst Noperen (kNN) Technik ass en Ënnerdeel vun iwwerwaachter Maschinnléieren déi benotzt ka ginn fir Klassifikatioun a Regressiounsprobleemer unzegoen. De KNN Algorithmus gëtt ugeholl datt vergläichbar Objeten an der Géigend fonnt kënne ginn.
Ech erënnere mech un et als eng Versammlung vu wéi-minded Individuen. kNN profitéiert vun der Iddi vun der Ähnlechkeet tëscht aneren Datepunkte mat Proximitéit, Proximitéit oder Distanz. Fir déi onsiichtbar Donnéeën ze bezeechnen op Basis vun den nootste markéierten beobachtbaren Datepunkte, gëtt eng mathematesch Method benotzt fir d'Trennung tëscht Punkten op enger Grafik ze bestëmmen.
Dir musst d'Distanz tëscht den Datepunkte bestëmmen fir déi nootste vergläichbare Flecken z'identifizéieren. Distanzmiessunge wéi d'Euklidesch Distanz, Hamming Distanz, Manhattan Distanz, a Minkowski Distanz kënnen dofir benotzt ginn. De K ass bekannt als déi nooste Nopernummer, an et ass dacks eng komesch Zuel.
KNN kann op Klassifikatioun a Regressiounsproblemer applizéiert ginn. D'Prognose gemaach wann KNN fir Regressiounsprobleemer benotzt gëtt baséiert op der Moyenne oder Median vun de K-amst ähnlechen Optriede.
D'Resultat vun engem Klassifikatioun Algorithmus baséiert op KNN kann als Klass mat der héchster Frequenz ënnert de K meescht ähnlechen Optriede bestëmmt ginn. All Instanz mécht wesentlech e Vote fir hir Klass, an d'Prognose gehéiert zu der Klass déi déi meeschte Stëmme kritt.
7. K-heescht
Et ass eng Technik fir oniwwerwaacht Léieren déi Clustering Themen adresséiert. Datesets ginn an eng gewëssen Unzuel vu Stärekéip opgedeelt - ruffe mer et K - op esou eng Manéier datt d'Datepunkte vun all Cluster homogen sinn an ënnerscheeden vun deenen an deenen anere Stärekéip.
K-means Clustering Methodologie:
- Fir all Stärekoup wielt de K-heescht Algorithmus k centroids, oder Punkten.
- Mat den noosten Zentroiden oder K Stärekéip, bildt all Datepunkt e Stärekoup.
- Elo ginn nei Zentroiden produzéiert ofhängeg vun de Clustermemberen déi scho präsent sinn.
- Déi nootste Distanz fir all Datepunkt gëtt mat dësen aktualiséierten Zentroiden berechent. Bis d'Zentroiden net änneren, gëtt dëse Prozess widderholl.
Et ass méi séier, méi zouverlässeg a méi einfach ze verstoen. Wann et Problemer gëtt, mécht d'Adaptatioun vun der k-means Upassung einfach. Wann d'Datesätz ënnerscheet oder gutt vuneneen isoléiert sinn, sinn d'Resultater am beschten. Et kann net onregelméisseg Donnéeën oder Outliers verwalten.
8. Ënnerstëtzung Vecteure Maschinnen
Wann Dir d'SVM Technik benotzt fir Daten ze klassifizéieren, ginn réi Daten als Punkte an engem n-dimensionalen Raum gewisen (wou n d'Zuel vun de Funktiounen ass, déi Dir hutt). D'Donnéeë kënnen dann einfach klasséiert ginn, well de Wäert vun all Feature dann mat enger spezifescher Koordinat verbonnen ass.
Fir d'Donnéeën ze trennen an se op eng Grafik ze setzen, benotzt Linnen bekannt als Klassifizéierer. Dës Approche plott all Datepunkt als Punkt an engem n-dimensionalen Raum, wou n d'Zuel vun de Funktiounen ass, déi Dir hutt an de Wäert vun all Feature e spezifesche Koordinatewäert ass.
Mir wäerten elo eng Zeil fannen, déi d'Donnéeën an zwee Sätz vun Daten opdeelt, déi anescht kategoriséiert goufen. D'Distanz vun den nooste Punkten an all eenzel vun den zwou Gruppen wäerten am wäitste vuneneen laanscht dës Linn sinn.
Well déi zwee nootste Punkten déi sinn, déi am meeschte wäit vun der Linn am Beispill hei uewen sinn, ass d'Linn déi d'Donnéeën an déi zwou Gruppen opdeelt, déi anescht kategoriséiert goufen, d'Mëttlinn. Eis Klassifikatioun ass dës Linn.
9. Dimensionalitéit Reduktioun
Mat der Approche vun der Dimensiounsreduktioun kënnen Trainingsdaten manner Inputvariablen hunn. An einfache Begrëffer bezitt et sech op de Prozess fir d'Gréisst vun Ärem Feature-Set ze schrumpfen. Loosst eis virstellen datt Ären Dataset 100 Kolonnen huet; Dimensiounsreduktioun wäert dee Betrag op 20 Sailen erofgoen.
De Modell gëtt automatesch méi raffinéiert an huet e gréissere Risiko fir ze iwwerpassen wéi d'Zuel vun de Funktiounen eropgeet. Dat gréissten Thema mat Daten a gréisseren Dimensiounen ze schaffen ass dat wat als "Fluch vun der Dimensioun" bekannt ass, wat geschitt wann Är Donnéeën eng exzessiv Unzuel u Charakteristiken enthalen.
Déi folgend Elementer kënne benotzt ginn fir Dimensiounsreduktioun z'erreechen:
- Fir pertinent Charakteristiken ze fannen an ze wielen, gëtt Feature Selektioun benotzt.
- Mat scho existéierende Featuren erstellt Feature Engineering manuell nei Features.
Konklusioun
Oniwwerwaacht oder iwwerwaacht Maschinnléieren ass souwuel méiglech. Wielt iwwerwaacht Léieren wann Är Donnéeën manner reichend a gutt fir Training markéiert sinn.
Grouss Datesets géifen dacks performant a besser Resultater produzéieren mat oniwwerwaachter Léieren. Deep Learning Methode sinn am beschten wann Dir eng sizable Datesammlung hutt déi einfach verfügbar ass.
Verstäerkung léieren an déif Verstäerkung Léieren sinn e puer Themen Dir studéiert. Neural Netzwierker Charakteristiken, Gebrauch, a Contrainten sinn Iech elo kloer. Lescht awer net zulescht, hutt Dir d'Optioune fir verschidde Programméierungssproochen, IDEen, a Plattformen berücksichtegt wann et ëm Är eege komm ass Maschinn léieren Modeller.
Déi nächst Saach déi Dir maache musst ass ze studéieren an all eenzel ze benotzen Maschinn léieren Approche. Och wann d'Thema breet ass, kann all Thema an e puer Stonnen verstane ginn, wann Dir op seng Déift konzentréiert. All Sujet steet eleng vun deenen aneren.
Dir musst iwwer een Thema gläichzäiteg denken, et studéieren, se an d'Praxis ëmsetzen, an eng Sprooch vun Ärer Wiel benotzen fir den Algorithmus(en) dran ëmzesetzen.
Hannerlooss eng Äntwert