Inhaltsverzeichnis[Ausblenden][Zeigen]
Die Welt verändert sich schnell durch künstliche Intelligenz und maschinelles Lernen, was sich auf jeden Aspekt unseres täglichen Lebens auswirkt.
Von Sprachassistenten, die NLP und maschinelles Lernen verwenden, um Termine zu buchen, Ereignisse in unserem Kalender nachzuschlagen und Musik abzuspielen, bis hin zu Geräten, die so genau sind, dass sie unsere Bedürfnisse vorhersehen können, bevor wir sie überhaupt berücksichtigen.
Computer können Schach spielen, Operationen durchführen und sich mit Hilfe von maschinellen Lernalgorithmen zu intelligenteren, menschenähnlicheren Maschinen entwickeln.
Wir befinden uns in einer Zeit des kontinuierlichen technologischen Fortschritts, und wenn wir sehen, wie sich Computer im Laufe der Zeit entwickelt haben, können wir Vorhersagen darüber treffen, was in der Zukunft passieren wird.
Die Demokratisierung von Computerwerkzeugen und -methoden ist einer der herausragenden Schlüsselaspekte dieser Revolution. Datenwissenschaftler haben in den letzten fünf Jahren leistungsstarke, datenverarbeitende Computer entwickelt, indem sie mühelos modernste Methoden implementiert haben. Die Ergebnisse sind erstaunlich.
In diesem Beitrag schauen wir genau hin Maschinelles Lernen Algorithmen und all ihre Variationen.
Was sind Algorithmen für maschinelles Lernen?
Der Ansatz, mit dem das KI-System seine Aufgabe erfüllt – im Allgemeinen die Vorhersage von Ausgabewerten aus gegebenen Eingabedaten –, ist als maschineller Lernalgorithmus bekannt.
Ein maschineller Lernalgorithmus ist ein Prozess, der Daten verwendet und zur Erstellung von produktionsreifen maschinellen Lernmodellen verwendet wird. Wenn maschinelles Lernen der Zug ist, der eine Aufgabe ausführt, dann sind maschinelle Lernalgorithmen die Lokomotiven, die die Arbeit vorantreiben.
Welcher Ansatz für maschinelles Lernen am besten geeignet ist, hängt von dem Geschäftsproblem ab, das Sie angehen möchten, der Art des verwendeten Datensatzes und den verfügbaren Ressourcen.
Algorithmen für maschinelles Lernen sind diejenigen, die einen Datensatz in ein Modell verwandeln. Abhängig von der Art des Problems, das Sie zu beantworten versuchen, der verfügbaren Verarbeitungsleistung und der Art der Daten, die Sie haben, können überwachte, unüberwachte oder bestärkende Lernalgorithmen gute Leistungen erbringen.
Wir haben also über überwachtes, unüberwachtes und bestärkendes Lernen gesprochen, aber was ist das? Lassen Sie uns sie erkunden.
Beaufsichtigtes, unbeaufsichtigtes und verstärkendes Lernen
Überwachtes Lernen
Beim überwachten Lernen wird das KI-Modell basierend auf den bereitgestellten Eingaben und dem Etikett entwickelt, das das vorhergesagte Ergebnis darstellt. Basierend auf den Eingaben und Ausgaben entwickelt das Modell eine Abbildungsgleichung und prognostiziert unter Verwendung dieser Abbildungsgleichung die Bezeichnung der Eingaben in der Zukunft.
Angenommen, wir müssen ein Modell erstellen, das zwischen einem Hund und einer Katze unterscheiden kann. Mehrere Fotos von Katzen und Hunden werden in das Modell eingespeist, wobei Etiketten angeben, ob es sich um Katzen oder Hunde handelt, um das Modell zu trainieren.
Das Modell versucht, eine Gleichung aufzustellen, die die Etiketten auf den Eingabefotografien mit diesen Bildern in Beziehung setzt. Auch wenn das Modell das Bild noch nie zuvor gesehen hat, kann es nach dem Training erkennen, ob es sich um eine Katze oder einen Hund handelt.
Unbeaufsichtigtes Lernen
Beim unüberwachten Lernen wird ein KI-Modell nur mit Eingaben trainiert, ohne sie zu kennzeichnen. Das Modell unterteilt die Eingabedaten in Gruppen mit verwandten Merkmalen.
Die zukünftige Bezeichnung der Eingabe wird dann prognostiziert, je nachdem, wie genau ihre Attribute mit einer der Klassifikationen übereinstimmen. Stellen Sie sich die Situation vor, in der wir eine Gruppe roter und blauer Kugeln in zwei Kategorien einteilen müssen.
Nehmen wir an, dass die anderen Eigenschaften der Kugeln mit Ausnahme der Farbe identisch sind. Anhand dessen, wie es die Bälle in zwei Klassen einteilen kann, sucht das Modell nach den Eigenschaften, die sich zwischen den Bällen unterscheiden.
Zwei Gruppen von Kugeln – eine blaue und eine rote – entstehen, wenn die Kugeln basierend auf ihrem Farbton in zwei Gruppen unterteilt werden.
Verstärkung lernen
Beim Reinforcement Learning versucht das KI-Modell, den Gesamtgewinn zu maximieren, indem es unter bestimmten Umständen so gut wie möglich handelt. Feedback zu früheren Ergebnissen hilft dem Modell beim Lernen.
Stellen Sie sich das Szenario vor, in dem ein Roboter angewiesen wird, eine Route zwischen den Punkten A und B auszuwählen. Der Roboter wählt zuerst einen der Kurse, weil er keine Vorerfahrung hat.
Der Roboter erhält Input über die Route, die er nimmt, und gewinnt daraus Erkenntnisse. Der Roboter kann Eingaben verwenden, um das Problem zu beheben, wenn er das nächste Mal auf einen ähnlichen Umstand trifft.
Wenn der Roboter beispielsweise Option B wählt und eine Belohnung erhält, beispielsweise positives Feedback, versteht er dieses Mal, dass er Weg B wählen muss, um seine Belohnung zu erhöhen.
Worauf Sie jetzt alle warten, sind die Algorithmen.
Wichtige Algorithmen für maschinelles Lernen
1. Lineare Regression
Der einfachste maschinelle Lernansatz, der vom überwachten Lernen abweicht, ist die lineare Regression. Mit dem Wissen aus unabhängigen Variablen wird es hauptsächlich verwendet, um Regressionsprobleme zu lösen und Vorhersagen zu kontinuierlichen abhängigen Variablen zu erstellen.
Ziel der linearen Regression ist es, die Linie der besten Anpassung zu finden, die bei der Vorhersage des Ergebnisses für kontinuierliche abhängige Variablen hilfreich sein kann. Immobilienpreise, Alter und Löhne sind einige Beispiele für kontinuierliche Werte.
Ein Modell, das als einfache lineare Regression bekannt ist, verwendet eine gerade Linie, um den Zusammenhang zwischen einer unabhängigen Variablen und einer abhängigen Variablen zu berechnen. Bei der multiplen linearen Regression gibt es mehr als zwei unabhängige Variablen.
Ein lineares Regressionsmodell hat vier zugrunde liegende Annahmen:
- Linearität: Es besteht ein linearer Zusammenhang zwischen X und dem Mittelwert von Y.
- Homoskedastizität: Für jeden Wert von X ist die Restvarianz gleich.
- Unabhängigkeit: Beobachtungen sind im Sinne der Unabhängigkeit voneinander unabhängig.
- Normalität: Wenn X fest ist, ist Y normalverteilt.
Die lineare Regression funktioniert hervorragend bei Daten, die entlang von Linien getrennt werden können. Es kann eine Überanpassung kontrollieren, indem es Regularisierungs-, Kreuzvalidierungs- und Dimensionsreduktionstechniken verwendet. Es gibt jedoch Fälle, in denen umfangreiches Feature-Engineering erforderlich ist, was gelegentlich zu Überanpassung und Rauschen führen kann.
2. Logistische Regression
Die logistische Regression ist eine weitere Technik des maschinellen Lernens, die vom überwachten Lernen abweicht. Seine Hauptanwendung ist die Klassifizierung, während es auch für Regressionsprobleme verwendet werden kann.
Die logistische Regression wird verwendet, um die kategoriale abhängige Variable anhand der Informationen aus den unabhängigen Faktoren vorherzusagen. Ziel ist es, Ausgänge zu klassifizieren, die nur zwischen 0 und 1 liegen können.
Die gewichtete Summe der Eingaben wird von der Sigmoidfunktion verarbeitet, einer Aktivierungsfunktion, die Werte zwischen 0 und 1 umwandelt.
Die Grundlage der logistischen Regression ist die Maximum-Likelihood-Schätzung, eine Methode zur Berechnung der Parameter einer angenommenen Wahrscheinlichkeitsverteilung bei bestimmten beobachteten Daten.
3. Entscheidungsbaum
Eine weitere Methode des maschinellen Lernens, die sich vom überwachten Lernen abspaltet, ist der Entscheidungsbaum. Sowohl für Klassifizierungs- als auch für Regressionsfragen kann der Entscheidungsbaumansatz verwendet werden.
Diese Entscheidungshilfe, die einem Baum ähnelt, verwendet visuelle Darstellungen, um die voraussichtlichen Ergebnisse, Kosten und Auswirkungen von Maßnahmen aufzuzeigen. Durch die Aufteilung der Daten in getrennte Teile ist die Idee analog zum menschlichen Verstand.
Die Daten wurden so weit wie möglich in verschiedene Teile unterteilt. Das Hauptziel eines Entscheidungsbaums besteht darin, ein Trainingsmodell zu erstellen, das zur Vorhersage der Klasse der Zielvariablen verwendet werden kann. Fehlende Werte können mithilfe des Entscheidungsbaums automatisch behandelt werden.
One-Shot-Codierung, Dummy-Variablen oder andere Datenvorbehandlungsschritte sind nicht erforderlich. Es ist starr in dem Sinne, dass es schwierig ist, neue Daten hinzuzufügen. Wenn Sie zusätzliche beschriftete Daten erhalten haben, sollten Sie den Baum für den gesamten Datensatz neu trainieren.
Daher sind Entscheidungsbäume eine schlechte Wahl für jede Anwendung, die eine dynamische Modelländerung erfordert.
Basierend auf der Art der Zielvariablen werden Entscheidungsbäume in zwei Typen eingeteilt:
- Kategoriale Variable: Ein Entscheidungsbaum, in dem die Zielvariable kategorisch ist.
- Stetige Variable: Ein Entscheidungsbaum, in dem die Zielvariable Stetig ist.
4. Zufälliger Wald
Die Random-Forest-Methode ist die nächste maschinelle Lerntechnik und ein überwachter maschineller Lernalgorithmus, der häufig bei Klassifizierungs- und Regressionsproblemen verwendet wird. Es ist auch eine baumbasierte Methode, ähnlich einem Entscheidungsbaum.
Ein Wald von Bäumen oder viele Entscheidungsbäume werden von der Random-Forest-Methode verwendet, um Urteile zu fällen. Bei der Bearbeitung von Klassifizierungsaufgaben verwendete die Random-Forest-Methode kategoriale Variablen, während Regressionsaufgaben mit Datensätzen behandelt wurden, die kontinuierliche Variablen enthalten.
Ein Ensemble oder eine Mischung vieler Modelle ist das, was die Random-Forest-Methode tut, was bedeutet, dass Vorhersagen unter Verwendung einer Gruppe von Modellen und nicht nur eines gemacht werden.
Die Fähigkeit, sowohl für Klassifizierungs- als auch für Regressionsprobleme verwendet zu werden, die die Mehrheit moderner maschineller Lernsysteme ausmachen, ist ein wesentlicher Vorteil des Random Forest.
Ensemble verwendet zwei unterschiedliche Strategien:
- Bagging: Dadurch werden mehr Daten für den Trainingsdatensatz produziert. Um die Schwankungen in den Prognosen zu verringern, wird dies getan.
- Boosting ist der Prozess, bei dem schwache Lerner mit starken Lernern kombiniert werden, indem aufeinanderfolgende Modelle erstellt werden, was zu einem endgültigen Modell mit maximaler Genauigkeit führt.
5. Naive Bayes
Ein binäres (Zwei-Klassen-) und Multi-Klassen-Klassifizierungsproblem kann mit der Naive-Bayes-Technik gelöst werden. Wenn das Verfahren unter Verwendung von binären oder Kategorieeingabewerten erklärt wird, ist es am einfachsten zu verstehen. Eine Annahme, die von einem Naive-Bayes-Klassifikator gemacht wird, ist, dass das Vorhandensein eines Merkmals in einer Klasse keinen Einfluss auf das Vorhandensein anderer Merkmale hat.
Die obige Formel zeigt:
- P(H): Die Wahrscheinlichkeit, dass Hypothese H richtig ist. Die vorherige Wahrscheinlichkeit wird als this bezeichnet.
- P(E): Die Wahrscheinlichkeit des Beweises
- P(E|H): Die Wahrscheinlichkeit, dass die Hypothese durch die Beweise gestützt wird.
- P(H|E): Die Wahrscheinlichkeit, dass die Hypothese angesichts der Beweise wahr ist.
Ein Naive-Bayes-Klassifikator würde jedes dieser Merkmale bei der Bestimmung der Wahrscheinlichkeit eines bestimmten Ergebnisses einzeln berücksichtigen, auch wenn diese Merkmale miteinander verbunden sind. Ein naives Bayes'sches Modell ist einfach zu konstruieren und für große Datensätze effektiv.
Es ist bekannt, dass es sogar die komplexesten Kategorisierungstechniken übertrifft, obwohl es einfach ist. Es ist eine Sammlung von Algorithmen, die alle auf dem Satz von Bayes basieren, und nicht auf einer einzigen Methode.
6. K-Nächste Nachbarn
Die K-Nächste-Nachbarn-Technik (kNN) ist eine Teilmenge des überwachten maschinellen Lernens, die verwendet werden kann, um Klassifizierungs- und Regressionsprobleme anzugehen. Der KNN-Algorithmus geht davon aus, dass vergleichbare Objekte in der Nähe gefunden werden können.
Ich erinnere mich an eine Versammlung von Gleichgesinnten. kNN macht sich die Idee der Ähnlichkeit zwischen anderen Datenpunkten zunutze, indem Nähe, Nähe oder Distanz verwendet werden. Um die unsichtbaren Daten basierend auf den nächsten markierten beobachtbaren Datenpunkten zu kennzeichnen, wird ein mathematisches Verfahren verwendet, um die Trennung zwischen Punkten in einem Graphen zu bestimmen.
Sie müssen die Entfernung zwischen den Datenpunkten bestimmen, um die nächstgelegenen vergleichbaren Punkte zu identifizieren. Dazu können Distanzmessungen wie die Euklidische Distanz, Hamming-Distanz, Manhattan-Distanz und Minkowski-Distanz verwendet werden. Das K ist als nächste Nachbarzahl bekannt und oft eine ungerade Zahl.
KNN kann auf Klassifikations- und Regressionsprobleme angewendet werden. Die Vorhersage, die gemacht wird, wenn KNN für Regressionsprobleme verwendet wird, basiert auf dem Mittelwert oder Median der K-ähnlichsten Vorkommen.
Das Ergebnis eines auf KNN basierenden Klassifikationsalgorithmus kann als die Klasse mit der höchsten Häufigkeit unter den K ähnlichsten Vorkommen bestimmt werden. Jede Instanz gibt im Wesentlichen eine Stimme für ihre Klasse ab, und die Vorhersage gehört zu der Klasse, die die meisten Stimmen erhält.
7. K-Mittel
Es ist eine Technik für unüberwachtes Lernen, die sich mit Clustering-Problemen befasst. Datensätze werden so in eine bestimmte Anzahl von Clustern – nennen wir es K – unterteilt, dass die Datenpunkte jedes Clusters homogen sind und sich von denen in den anderen Clustern unterscheiden.
K-means-Clustering-Methodik:
- Für jeden Cluster wählt der K-Means-Algorithmus k Zentroide oder Punkte aus.
- Mit den nächsten Zentroiden oder K Clustern bildet jeder Datenpunkt einen Cluster.
- Nun werden abhängig von den bereits vorhandenen Clustermitgliedern neue Schwerpunkte erzeugt.
- Die kürzeste Entfernung für jeden Datenpunkt wird unter Verwendung dieser aktualisierten Zentroide berechnet. Bis sich die Schwerpunkte nicht ändern, wird dieser Vorgang wiederholt.
Es ist schneller, zuverlässiger und einfacher zu verstehen. Wenn es Probleme gibt, macht die Anpassungsfähigkeit von k-means Anpassungen einfach. Wenn die Datensätze unterschiedlich oder gut voneinander isoliert sind, sind die Ergebnisse am besten. Es kann keine unregelmäßigen Daten oder Ausreißer verwalten.
8. Unterstützung von Vektormaschinen
Wenn Sie die SVM-Technik zum Klassifizieren von Daten verwenden, werden Rohdaten als Punkte in einem n-dimensionalen Raum angezeigt (wobei n die Anzahl der vorhandenen Merkmale ist). Die Daten können dann leicht klassifiziert werden, da der Wert jedes Merkmals dann mit einer bestimmten Koordinate verbunden wird.
Um die Daten zu trennen und in einem Diagramm darzustellen, verwenden Sie Linien, die als Klassifikatoren bekannt sind. Bei diesem Ansatz wird jeder Datenpunkt als Punkt in einem n-dimensionalen Raum dargestellt, wobei n die Anzahl der vorhandenen Features und der Wert jedes Features ein bestimmter Koordinatenwert ist.
Wir suchen nun eine Linie, die die Daten in zwei Datensätze unterteilt, die unterschiedlich kategorisiert wurden. Die Entfernungen von den nächsten Punkten in jeder der beiden Gruppen sind entlang dieser Linie am weitesten voneinander entfernt.
Da die beiden nächstgelegenen Punkte im obigen Beispiel diejenigen sind, die am weitesten von der Linie entfernt sind, ist die Linie, die die Daten in die zwei unterschiedlich kategorisierten Gruppen unterteilt, die Mittellinie. Unser Klassifikator ist diese Zeile.
9. Dimensionsreduktion
Unter Verwendung des Ansatzes der Dimensionsreduktion könnten Trainingsdaten weniger Eingabevariablen haben. Einfach ausgedrückt bezieht es sich auf den Prozess der Verkleinerung Ihres Funktionsumfangs. Stellen wir uns vor, Ihr Datensatz hat 100 Spalten. Die Dimensionalitätsreduzierung verringert diesen Betrag auf 20 Spalten.
Das Modell wird automatisch ausgefeilter und birgt ein größeres Risiko der Überanpassung, wenn die Anzahl der Merkmale zunimmt. Das größte Problem bei der Arbeit mit Daten in größeren Dimensionen ist der sogenannte „Fluch der Dimensionalität“, der auftritt, wenn Ihre Daten eine übermäßige Anzahl von Merkmalen enthalten.
Die folgenden Elemente können verwendet werden, um eine Dimensionsreduktion zu erreichen:
- Um relevante Merkmale zu finden und auszuwählen, wird eine Merkmalsauswahl verwendet.
- Unter Verwendung bereits bestehender Merkmale erstellt das Feature-Engineering manuell neue Merkmale.
Zusammenfassung
Sowohl unüberwachtes als auch überwachtes maschinelles Lernen ist möglich. Wählen Sie überwachtes Lernen, wenn Ihre Daten weniger umfangreich und für das Training gut markiert sind.
Große Datensätze würden mit unüberwachtem Lernen oft bessere Ergebnisse erzielen und funktionieren. Tiefes Lernen Methoden sind am besten, wenn Sie über eine umfangreiche Datensammlung verfügen, die leicht verfügbar ist.
Verstärkung lernen und Deep Reinforcement Learning sind einige Themen, die Sie studiert haben. Die Merkmale, Verwendungen und Einschränkungen neuronaler Netze sind Ihnen jetzt klar. Zu guter Letzt haben Sie die Optionen für verschiedene Programmiersprachen, IDEs und Plattformen berücksichtigt, als es darum ging, Ihre eigenen zu erstellen Modelle des maschinellen Lernens.
Das nächste, was Sie tun müssen, ist, mit dem Studium und der Verwendung jedes einzelnen zu beginnen Maschinelles Lernen sich nähern. Auch wenn das Thema breit gefächert ist, lässt sich jedes Thema in wenigen Stunden verstehen, wenn man sich auf die Tiefe konzentriert. Jedes Thema steht allein von den anderen.
Sie müssen jeweils über ein Thema nachdenken, es studieren, in die Praxis umsetzen und eine Sprache Ihrer Wahl verwenden, um den/die Algorithmus(en) darin zu implementieren.
Hinterlassen Sie uns einen Kommentar