Enhavtabelo[Kaŝi][Montri]
La mondo rapide ŝanĝiĝas pro artefarita inteligenteco kaj maŝina lernado, kiu efikas sur ĉiu aspekto de nia ĉiutaga vivo.
De voĉaj asistantoj, kiuj uzas NLP kaj maŝinlernadon, por mendi rendevuojn, serĉi eventojn en nia kalendaro kaj ludi muzikon ĝis aparatoj tiom precizaj ke ili povas antaŭvidi niajn bezonojn antaŭ ol ni eĉ pripensas ilin.
Komputiloj povas ludi ŝakon, fari kirurgion kaj evolui al pli inteligentaj, pli homsimilaj maŝinoj kun la helpo de maŝinlernado-algoritmoj.
Ni estas en tempo de kontinua teknologia progreso, kaj vidante kiel komputiloj evoluis tra la tempo, ni povas fari antaŭdirojn pri kio okazos en la estonteco.
La demokratiigo de komputikaj iloj kaj metodoj estas unu el la ŝlosilaj aspektoj de ĉi tiu revolucio kiu elstaras. Datumaj sciencistoj kreis potencajn datumajn komputilojn dum la lastaj kvin jaroj senpene efektivigante avangardajn metodarojn. La rezultoj estas mirindaj.
En ĉi tiu afiŝo, ni atente rigardos maŝinlernado algoritmoj kaj ĉiuj iliaj varioj.
Do, kio estas Maŝinlernado-algoritmoj?
La aliro uzata de la AI-sistemo por plenumi sian taskon - ĝenerale, antaŭdiri produktaĵvalorojn de donitaj enirdatenoj - estas konata kiel maŝinlernada algoritmo.
Algoritmo de maŝinlernado estas procezo kiu utiligas datumojn kaj estas uzata por krei maŝinlernajn modelojn, kiuj estas pretaj por produktado. Se maŝinlernado estas la trajno kiu plenumas laboron, tiam maŝinlernado-algoritmoj estas la lokomotivoj, kiuj movas la laboron.
La plej bona maŝinlernado por uzi estos determinita de la komerca problemo, kiun vi provas trakti, la tipo de datumaro, kiun vi uzas, kaj la rimedoj, kiujn vi havas disponeblaj.
Maŝinlernado-algoritmoj estas tiuj, kiuj transformas datumon en modelon. Depende de la speco de problemo, kiun vi provas respondi, la pretigpovo disponebla kaj la speco de datumoj kiujn vi havas, kontrolitaj, nekontrolitaj aŭ plifortigaj lernaj algoritmoj povas bone funkcii.
Do, ni parolis pri kontrolata, nekontrolita kaj plifortiga lernado, sed kio ili estas? Ni esploru ilin.
Kontrolita, Nekontrolita & Plifortiga Lernado
Kontrolita Lernado
En kontrolita lernado, la AI-modelo estas evoluigita surbaze de la enigo kiu estis provizita kaj la etikedo kiu reprezentas la antaŭviditan rezulton. Surbaze de la enigaĵoj kaj produktaĵoj, la modelo evoluigas mapan ekvacion, kaj uzante tiun mapan ekvacion, ĝi prognozas la etikedon de la enigaĵoj en la estonteco.
Ni diru, ke ni devas krei modelon, kiu povas distingi inter hundo kaj kato. Multoblaj fotoj de katoj kaj hundoj estas provizitaj en la modelon kun etikedoj indikante ĉu ili estas katoj aŭ hundoj por trejni la modelon.
La modelo serĉas establi ekvacion rilatigantan la etikedojn sur la enirfotoj al tiuj bildoj. Eĉ se la modelo neniam antaŭe vidis la bildon, post trejnado, ĝi povas identigi ĉu ĝi estas de kato aŭ hundo.
Nekontrolita Lernado
Nekontrolita lernado implikas trejni AI-modelon nur sur enigaĵoj sen etikedi ilin. La modelo dividas la enigajn datumojn en grupojn kun rilataj trajtoj.
La estonta etikedo de la enigaĵo tiam estas prognozita depende de kiom proksime ĝiaj atributoj kongruas kun unu el la klasifikoj. Konsideru la situacion, kie ni devas dividi grupon de ruĝaj kaj bluaj pilkoj en du kategoriojn.
Ni supozu, ke la aliaj trajtoj de la pilkoj estas identaj, escepte de koloro. Surbaze de kiel ĝi povas dividi la pilkojn en du klasojn, la modelo serĉas la trajtojn kiuj estas malsamaj inter la pilkoj.
Du aretoj de pilkoj - unu blua kaj unu ruĝa - estas produktitaj kiam la pilkoj estas dividitaj en du grupojn surbaze de sia nuanco.
Plifortiga Lernado
En plifortiga lernado, la AI-modelo serĉas maksimumigi totalan profiton per agado tiel bone kiel ĝi povas en aparta cirkonstanco. Reago pri ĝiaj antaŭaj rezultoj helpas la modelon lerni.
Pensu pri la scenaro kiam roboto estas instrukciita elekti itineron inter punktoj A kaj B. La roboto unue elektas iun el la kursoj ĉar ĝi ne havas antaŭan sperton.
La roboto ricevas enigaĵon sur la itinero kiun ĝi prenas kaj akiras scion de ĝi. La roboto povas uzi enigaĵon por solvi la problemon la venontan fojon kiam ĝi renkontos similan cirkonstancon.
Ekzemple, se la roboto elektas opcion B kaj ricevas rekompencon, kiel pozitivan religon, ĝi komprenas ĉi-foje, ke ĝi devas elekti manieron B por pliigi sian rekompencon.
Nun finfine, kion vi ĉiuj atendas, estas la algoritmoj.
Gravaj Maŝinlernado-Algoritmoj
1. Lineara Regreso
La plej simpla maŝinlernado aliro kiu devias de kontrolita lernado estas linia regreso. Kun la scio de sendependaj variabloj, ĝi estas plejparte utiligita por solvi regresproblemojn kaj krei prognozojn pri kontinuaj dependaj variabloj.
Trovi la linion de plej bona taŭgaĵo, kiu povas helpi en antaŭdiro de la rezulto por kontinuaj dependaj variabloj, estas la celo de linia regreso. Domprezoj, aĝo kaj salajroj estas kelkaj ekzemploj de kontinuaj valoroj.
Modelo konata kiel simpla lineara regreso uzas rektan linion por kalkuli la asocion inter unu sendependa variablo kaj unu dependa variablo. Estas pli ol du sendependaj variabloj en multobla lineara regreso.
Lineara regresmodelo havas kvar subestajn supozojn:
- Lineareco: Estas linia ligo inter X kaj la meznombro de Y.
- Homoscedasteco: Por ĉiu valoro de X, la resta varianco estas la sama.
- Sendependeco: Observaĵoj estas sendependaj unu de la alia laŭ sendependeco.
- Normaleco: Kiam X estas fiksita, Y estas normale distribuita.
Lineara regreso funkcias admirinde por datumoj kiuj povas esti apartigitaj laŭ linioj. Ĝi povas kontroli trofiksadon uzante reguligon, krucvalidigon kaj dimensiecajn reduktajn teknikojn. Tamen, ekzistas kazoj kie ampleksa trajtinĝenieristiko estas postulata, kiu foje povas rezultigi troagordon kaj bruon.
2. Loĝistika Regreso
Loĝistika regreso estas alia maŝinlernada tekniko, kiu foriras de kontrolita lernado. Ĝia plej grava uzo estas klasifiko, dum ĝi ankaŭ povas esti utiligita por regresproblemoj.
Loĝistika regreso kutimas prognozi la kategorian dependan variablon uzante la informojn de la sendependaj faktoroj. La celo estas klasifiki produktaĵojn, kiuj povas nur fali inter 0 kaj 1.
La pezbalancita totalo de la enigaĵoj estas prilaborita per la sigmoida funkcio, aktiviga funkcio kiu konvertas valorojn inter 0 kaj 1.
La bazo de loĝistika regreso estas maksimuma verŝajnectakso, metodo por kalkulado de la parametroj de supozita probablodistribuo surbaze de specifaj observitaj datenoj.
3. Arbo de decido
Alia maŝinlernada metodo, kiu disiĝas de kontrolita lernado, estas la decidarbo. Por kaj klasifiko kaj regresaj temoj, la decidarba aliro povas esti utiligita.
Ĉi tiu decida ilo, kiu similas arbon, uzas vidajn reprezentadojn por montri la eventualajn rezultojn, kostojn kaj sekvojn de agoj. Dividante la datumojn en apartajn partojn, la ideo estas analoga al la homa menso.
La datumoj estis dividitaj en apartajn partojn tiom kiom ni povus granuli ĝin. La ĉefa celo de Decida Arbo estas konstrui trejnan modelon, kiu povas esti uzata por antaŭvidi la klason de la celvariablo. Mankantaj valoroj povas esti traktataj aŭtomate per la Decida Arbo.
Ne estas postulo por unu-pafa kodigado, imitaj variabloj, aŭ aliaj datumpretraktaj paŝoj. Ĝi estas rigida en la senco, ke estas malfacile aldoni freŝajn datumojn al ĝi. Se vi ricevis pliajn etikedajn datumojn, vi devus retrejni la arbon sur la tuta datumaro.
Kiel rezulto, decidarboj estas malbona elekto por iu ajn aplikaĵo kiu postulas dinamikan modelŝanĝon.
Surbaze de la speco de celvariablo, decidarboj estas klasifikitaj en du tipojn:
- Kategoria Variablo: Decida Arbo en kiu la celvariablo estas Kategoria.
- Kontinua Variablo: Decida Arbo en kiu la celvariablo estas Kontinua.
4. Hazarda Arbaro
La Hazarda Arbara Metodo estas la sekva maŝinlernada tekniko kaj estas kontrolita maŝinlernada algoritmo uzata vaste en klasifikaj kaj regresaj aferoj. Ĝi ankaŭ estas arb-bazita metodo, simila al decidarbo.
Arbaro de arboj, aŭ multaj decidarboj, estas uzata per la hazarda arbarmetodo por fari juĝojn. Dum pritraktado de klasifiktaskoj, la hazarda arbarmetodo utiligis kategoriajn variablojn dum pritraktado de regresaj taskoj kun datumaroj kiuj enhavas kontinuajn variablojn.
Ensemblo, aŭ miksado de multaj modeloj, estas kion faras la hazarda arbarmetodo, kio signifas, ke antaŭdiroj estas faritaj uzante grupon de modeloj prefere ol nur unu.
La kapablo esti uzata por kaj klasifikaj kaj regresaj problemoj, kiuj konsistigas la plimulton de modernaj maŝinlernado-sistemoj, estas ŝlosila avantaĝo de la hazarda arbaro.
Du malsamaj strategioj estas uzitaj fare de Ensemble:
- Ensakado: Farante tion, pli da datumoj estas produktitaj por la trejna datumaro. Por malpliigi la variadon en la prognozoj, ĉi tio estas farita.
- Akcelo estas la procezo de kombinado de malfortaj lernantoj kun fortaj lernantoj konstruante sinsekvajn modelojn, rezultigante la finan modelon kun maksimuma precizeco.
5. Naiva Bayes
Binara (duklasa) kaj plurklasa klasifika problemo povas esti solvita uzante la Naive Bayes-teknikon. Kiam la metodo estas klarigita uzante binarajn aŭ kategoriajn enigvalorojn, ĝi estas plej simple ekkompreni. Supozo farita de Naive Bayes-klasigilo estas ke la ekzisto de unu trajto en klaso havas neniun rilaton al la ĉeesto de iuj aliaj ecoj.
La supra formulo indikas:
- P(H): La verŝajneco ke hipotezo H estas ĝusta. La antaŭa probableco estas referita kiel ĉi tio.
- P(E): La verŝajneco de la indico
- P(E|H): La verŝajneco ke la hipotezo estas apogita per la indico.
- P(H|E): La verŝajneco ke la hipotezo estas vera, donita la indicon.
Naive Bayes-klasigilo enkalkulus ĉiun el tiuj karakterizaĵoj individue dum determinado de la verŝajneco de certa rezulto, eĉ se tiuj atributoj estas ligitaj unu al la alia. Naive Bayesian modelo estas simpla por konstrui kaj efika por grandaj datumaroj.
Oni scias, ke ĝi rezultas pli bone ol eĉ la plej kompleksaj kategoriigteknikoj estante baza. Ĝi estas kolekto de algoritmoj kiuj estas ĉiuj bazitaj sur la teoremo de Bayes, prefere ol ununura metodo.
6. K-Plej Proksimaj Najbaroj
La tekniko de K-plej proksimaj najbaroj (kNN) estas subaro de kontrolita maŝinlernado, kiu povas esti uzata por trakti klasifikajn kaj regresajn problemojn. La KNN-algoritmo supozas ke kompareblaj objektoj povas esti trovitaj proksime.
Mi memoras ĝin kiel kunveno de samideanoj. kNN ekspluatas la ideon de simileco inter aliaj datenpunktoj utiligante proksimecon, proksimecon aŭ distancon. Por etikedi la neviditajn datenojn bazitajn sur la plej proksimaj etikeditaj observeblaj datenpunktoj, matematika metodo estas utiligita por determini la apartigon inter punktoj sur grafeo.
Vi devas determini la distancon inter la datumaj punktoj por identigi la plej proksimajn kompareblajn punktojn. Distancmezuradoj kiel ekzemple la eŭklida distanco, Hamming-distanco, Manhatana distanco, kaj Minkowski-distanco povas esti uzataj por tio. La K estas konata kiel la plej proksima najbara nombro, kaj ĝi ofte estas nepara nombro.
KNN povas esti aplikita al klasifikaj kaj regresaj problemoj. La antaŭdiro farita kiam KNN estas uzata por regresaj aferoj baziĝas sur la meznombro aŭ mediano de la K-plej similaj okazoj.
La rezulto de klasifikalgoritmo bazita sur KNN povas esti determinita kiel la klaso kun la plej alta frekvenco inter la K plej similaj okazoj. Ĉiu kazo esence donas voĉon por sia klaso, kaj la antaŭdiro apartenas al la klaso kiu ricevas la plej multajn voĉojn.
7. K-rimedo
Ĝi estas tekniko por nekontrolita lernado, kiu traktas amasigajn problemojn. Datumoj estas dividitaj en certan nombron da aretoj—nomu ni ĝin K—tiel ke la datumpunktoj de ĉiu areto estas homogenaj kaj apartaj de tiuj en la aliaj aretoj.
K-metodaro de clustering:
- Por ĉiu areto, la K-means algoritmo elektas k centroidojn, aŭ punktojn.
- Kun la plej proksimaj centroidoj aŭ K aretoj, ĉiu datenpunkto formas areton.
- Nun, novaj centroidoj estas produktitaj depende de la aretmembroj jam ĉeestantaj.
- La plej proksima distanco por ĉiu datenpunkto estas kalkulita uzante ĉi tiujn ĝisdatigitajn centroidojn. Ĝis la centroidoj ne ŝanĝiĝas, ĉi tiu procezo estas ripetita.
Ĝi estas pli rapida, pli fidinda kaj pli simple komprenebla. Se estas problemoj, la adaptebleco de k-means simpligas alĝustigojn. Kiam la datumaroj estas apartaj aŭ bone izolitaj unu de la alia, la rezultoj estas plej bonaj. Ĝi ne povas administri nekonstantajn datumojn aŭ outliers.
8. Subteno Vektoraj Maŝinoj
Kiam vi uzas la SVM-teknikon por klasifiki datumojn, krudaj datumoj estas montritaj kiel punktoj en n-dimensia spaco (kie n estas la nombro da trajtoj, kiujn vi havas). La datenoj tiam povas esti facile klasifikitaj ĉar la valoro de ĉiu trajto tiam estas ligita al specifa koordinato.
Por apartigi la datumojn kaj meti ilin sur grafeon, uzu liniojn konatajn kiel klasigiloj. Ĉi tiu aliro prezentas ĉiun datenpunkton kiel punkton en n-dimensia spaco, kie n estas la nombro da trajtoj kiujn vi havas kaj la valoro de ĉiu trajto estas specifa koordinatvaloro.
Ni nun lokalizos linion, kiu dividas la datumojn en du arojn da datumoj, kiuj estis kategoriitaj malsame. La distancoj de la plej proksimaj punktoj en ĉiu el la du grupoj estos la plej malproksimaj laŭ tiu ĉi linio.
Ĉar la du plej proksimaj punktoj estas tiuj, kiuj estas plej malproksimaj de la linio en la supra ekzemplo, la linio kiu dividas la datumojn en la du grupojn, kiuj estis kategoriigitaj malsame, estas la meza linio. Nia klasigilo estas ĉi tiu linio.
9. Dimensieco Redukto
Uzante la aliron de dimensiecredukto, trejnaddatenoj eble havos pli malmultajn enirvariablojn. En simplaj terminoj, ĝi rilatas al la procezo de ŝrumpado de la grandeco de via funkcio. Ni imagu, ke via datumaro havas 100 kolumnojn; dimensia redukto malpliigos tiun kvanton al 20 kolumnoj.
La modelo aŭtomate kreskas pli altnivela kaj havas pli grandan riskon de troamplekso kiam la nombro da funkcioj pliiĝas. La plej granda problemo pri laborado kun datumoj en pli grandaj dimensioj estas tio, kio estas konata kiel la "malbeno de dimensieco", kiu okazas kiam viaj datumoj enhavas troan nombron da trajtoj.
La sekvaj elementoj povas esti uzitaj por realigi dimensiecredukton:
- Por trovi kaj elekti trafajn trajtojn, elekta elekto estas uzata.
- Uzante jam ekzistantajn funkciojn, trajto-inĝenierado permane kreas novajn funkciojn.
konkludo
Nekontrolita aŭ kontrolita maŝinlernado estas ambaŭ ebla. Elektu kontrolitan lernadon se viaj datumoj estas malpli abundaj kaj bone etikeditaj por trejnado.
Grandaj datumserioj ofte rezultus kaj produktus pli bonajn rezultojn uzante nekontrolitan lernadon. Profunda lernado metodoj estas plej bonaj se vi havas konsiderindan datumkolekton, kiu estas facile havebla.
Plifortiga lernado kaj profunda plifortiga lernado estas kelkaj temoj, kiujn vi studis. La karakterizaĵoj, uzoj kaj limoj de neŭralaj retoj nun estas klaraj al vi. Laste sed ne malpli, vi pripensis la eblojn por malsamaj programlingvoj, IDEoj kaj platformoj kiam temas pri krei vian propran modeloj pri maŝinlernado.
La sekva afero, kiun vi devas fari, estas komenci studi kaj uzi ĉiun maŝinlernado alproksimiĝo. Eĉ se la temo estas larĝa, iu ajn temo povas esti komprenata en kelkaj horoj, se vi koncentriĝas pri ĝia profundo. Ĉiu subjekto staras sole de la aliaj.
Vi devas pensi pri unu afero samtempe, studi ĝin, praktiki ĝin kaj uzi lingvon de via elekto por efektivigi la algoritmo(j)n en ĝi.
Lasi Respondon