Sisukord[Peida][Näita]
Maailm muutub kiiresti tehisintellekti ja masinõppe tõttu, mis mõjutab meie igapäevaelu kõiki aspekte.
Alates häälassistentidest, kes kasutavad NLP-d ja masinõpet, et broneerida kohtumisi, otsida sündmusi meie kalendrist ja mängida muusikat, kuni seadmeteni, mis on nii täpsed, et suudavad meie vajadusi ette näha juba enne, kui me neid arvesse võtame.
Arvutid saavad masinõppe algoritmide abil malet mängida, operatsioone teha ja areneda nutikamateks, inimesesarnasemateks masinateks.
Oleme pideva tehnoloogilise arengu ajal ja vaadates, kuidas arvutid on aja jooksul arenenud, saame teha ennustusi selle kohta, mis tulevikus juhtub.
Arvutusvahendite ja -meetodite demokratiseerimine on selle revolutsiooni üks peamisi aspekte, mis paistab silma. Andmeteadlased on viimase viie aasta jooksul loonud võimsaid andmeid töötlevaid arvuteid, rakendades vaevata tipptasemel metoodikat. Tulemused on hämmastavad.
Selles postituses vaatleme lähemalt masinõpe algoritmid ja kõik nende variatsioonid.
Niisiis, mis on masinõppe algoritmid?
Lähenemisviisi, mida tehisintellekti süsteem oma ülesande täitmiseks kasutab – tavaliselt antud sisendandmete põhjal väljundväärtuste ennustamine – tuntakse masinõppe algoritmina.
Masinõppealgoritm on protsess, mis kasutab andmeid ja mida kasutatakse tootmiseks valmis masinõppemudelite loomiseks. Kui masinõpe on rong, mis tööd teeb, siis masinõppe algoritmid on vedurid, mis tööd edasi liigutavad.
Parima kasutatava masinõppe lähenemisviisi määrab äriprobleem, mida proovite lahendada, kasutatava andmestiku tüüp ja saadaolevad ressursid.
Masinõppe algoritmid on need, mis muudavad andmekogumi mudeliks. Olenevalt probleemi tüübist, mida proovite vastata, saadaolevast töötlemisvõimsusest ja teie andmete tüübist, võivad järelevalve all olevad, järelevalveta või tugevdatud õppealgoritmid hästi toimida.
Niisiis, me rääkisime juhendatud, juhendamata ja tugevdatud õppimisest, aga mis need on? Uurime neid.
Juhendatud, järelevalveta ja tugevdav õpe
Juhendatud õppimine
Juhendatud õppe puhul töötatakse tehisintellekti mudel välja antud sisendi ja prognoositavat tulemust tähistava sildi põhjal. Sisendite ja väljundite põhjal töötab mudel välja vastendusvõrrandi ning seda vastendusvõrrandit kasutades prognoosib sisendite sildi edaspidiseks.
Oletame, et peame looma mudeli, mis eristab koera ja kassi. Modelli koolitamiseks sisestatakse mudelisse mitu fotot kassidest ja koertest koos siltidega, mis näitavad, kas tegemist on kasside või koertega.
Mudel püüab luua võrrandit, mis seob sisendfotodel olevad sildid nende piltidega. Isegi kui modell pole pilti varem näinud, suudab ta pärast treeningut tuvastada, kas tegemist on kassi või koeraga.
Juhendamata õppimine
Järelevalveta õppimine hõlmab tehisintellekti mudeli koolitamist ainult sisenditel ilma neid märgistamata. Mudel jagab sisendandmed seotud tunnustega rühmadesse.
Seejärel prognoositakse sisendi tulevane silt sõltuvalt sellest, kui täpselt vastavad selle atribuudid mõnele klassifikatsioonile. Mõelge olukorrale, kus peame jagama punaste ja siniste pallide rühma kahte kategooriasse.
Oletame, et pallide muud omadused on identsed, välja arvatud värv. Selle põhjal, kuidas ta suudab pallid kahte klassi jagada, otsib mudel pallide vahel erinevaid omadusi.
Kaks pallikogumit – üks sinine ja teine punane – tekib siis, kui pallid jagatakse nende tooni alusel kahte rühma.
Tugevdusõpe
Õppimise tugevdamisel püüab AI-mudel üldist kasumit maksimeerida, toimides konkreetses olukorras nii hästi, kui suudab. Tagasiside selle varasemate tulemuste kohta aitab mudelil õppida.
Mõelge stsenaariumile, kui robotile antakse korraldus valida marsruut punktide A ja B vahel. Robot valib esmalt ühe kursuse, kuna tal puudub eelnev kogemus.
Robot saab sisendit läbitava marsruudi kohta ja saab sellest teadmisi. Robot saab kasutada sisendit probleemi lahendamiseks järgmisel korral, kui ta sarnase olukorraga kokku puutub.
Näiteks kui robot valib valiku B ja saab tasu, näiteks positiivse tagasiside, mõistab ta seekord, et ta peab oma tasu suurendamiseks valima viisi B.
Nüüd lõpuks see, mida te kõik ootate, on algoritmid.
Peamised masinõppe algoritmid
1. Lineaarne regressioon
Lihtsaim masinõppe lähenemisviis, mis erineb juhendatud õppest, on lineaarne regressioon. Sõltumatutest muutujatest saadud teadmiste põhjal kasutatakse seda enamasti regressiooniprobleemide lahendamiseks ja pidevate sõltuvate muutujate ennustuste loomiseks.
Lineaarse regressiooni eesmärk on leida parim sobivusjoon, mis võib aidata ennustada pidevate sõltuvate muutujate tulemust. Majade hinnad, vanus ja palgad on mõned näited pidevatest väärtustest.
Lihtsa lineaarse regressioonina tuntud mudel kasutab sirgjoont, et arvutada seos ühe sõltumatu muutuja ja ühe sõltuva muutuja vahel. Lineaarses regressioonis on rohkem kui kaks sõltumatut muutujat.
Lineaarsel regressioonimudelil on neli eeldust:
- Lineaarsus: X ja Y keskmise vahel on lineaarne seos.
- Homoskedastilisus: iga X väärtuse korral on jääkvariantsus sama.
- Sõltumatus: Vaatlused on sõltumatuse mõttes üksteisest sõltumatud.
- Normaalsus: kui X on fikseeritud, on Y normaalselt jaotunud.
Lineaarne regressioon toimib suurepäraselt andmete puhul, mida saab joontega eraldada. See saab reguleerimise, ristvalideerimise ja mõõtmete vähendamise tehnikate abil kontrollida ülepaigutamist. Siiski on juhtumeid, kus on vaja ulatuslikku funktsioonide väljatöötamist, mis võib mõnikord põhjustada ülepaigutamist ja müra.
2. Logistiline regressioon
Logistiline regressioon on veel üks masinõppetehnika, mis erineb juhendatud õppest. Selle peamine kasutusala on klassifitseerimine, samas kui seda saab kasutada ka regressiooniprobleemide lahendamiseks.
Logistilist regressiooni kasutatakse kategoorilise sõltuva muutuja prognoosimiseks, kasutades sõltumatutest teguritest saadud teavet. Eesmärk on klassifitseerida väljundeid, mis võivad jääda ainult 0 ja 1 vahele.
Sisendite kaalutud kogusummat töötleb sigmoidfunktsioon, aktiveerimisfunktsioon, mis teisendab väärtused vahemikus 0 kuni 1.
Logistilise regressiooni aluseks on maksimaalse tõenäosuse hindamine, meetod eeldatava tõenäosusjaotuse parameetrite arvutamiseks konkreetsete vaadeldavate andmete alusel.
3. Otsuste puu
Teine masinõppemeetod, mis eraldub juhendatud õppest, on otsustuspuu. Nii klassifitseerimise kui ka regressiooniprobleemide puhul võib kasutada otsustuspuu meetodit.
See puud meenutav otsustustööriist kasutab visuaalseid esitusi, et näidata tegevuste eeldatavaid tulemusi, kulusid ja tagajärgi. Andmete jagamisel eraldi osadeks on idee analoogne inimmõistusega.
Andmed on jagatud erinevateks osadeks nii palju, kui suudame neid granuleerida. Otsustepuu põhieesmärk on luua koolitusmudel, mida saab kasutada sihtmuutuja klassi prognoosimiseks. Puuduvaid väärtusi saab otsustuspuu abil automaatselt käsitleda.
Puudub nõue ühekordse kodeerimise, näivate muutujate või muude andmete eeltöötlusetappide jaoks. See on selles mõttes jäik, et sinna on raske värskeid andmeid lisada. Kui teil on täiendavaid märgistatud andmeid, peaksite kogu andmestiku puu ümber õpetama.
Seetõttu on otsustuspuud kehv valik iga rakenduse jaoks, mis nõuab dünaamilist mudelimuutust.
Sõltuvalt sihtmuutuja tüübist liigitatakse otsustuspuud kahte tüüpi:
- Kategooriline muutuja: otsustuspuu, mille eesmärgi muutuja on kategooriline.
- Pidev muutuja: otsustuspuu, mille eesmärgi muutuja on pidev.
4. Juhuslik mets
Juhuslik metsameetod on järgmine masinõppetehnika ja see on juhendatud masinõppe algoritm, mida kasutatakse laialdaselt klassifitseerimise ja regressiooniprobleemide lahendamisel. See on ka puupõhine meetod, mis sarnaneb otsustuspuuga.
Puude metsa või paljusid otsustuspuid kasutatakse hinnangute andmiseks juhusliku metsameetodi abil. Klassifitseerimisülesannete käsitlemisel kasutas juhusliku metsa meetod kategoorilisi muutujaid, samal ajal kui regressiooniülesandeid käsitleti pidevaid muutujaid sisaldavate andmekogumitega.
Ansambel või paljude mudelite segamine on see, mida teeb juhuslik metsameetod, mis tähendab, et ennustused tehakse mudelite rühma, mitte ainult ühe mudeli abil.
Võimalus kasutada nii klassifitseerimis- kui ka regressiooniprobleemide lahendamiseks, mis moodustavad enamiku kaasaegsetest masinõppesüsteemidest, on juhusliku metsa peamine eelis.
Ensemble kasutab kahte erinevat strateegiat:
- Kottidesse lisamine: seda tehes toodetakse treeningandmestiku jaoks rohkem andmeid. Seda tehakse prognooside erinevuste vähendamiseks.
- Tugevdamine on nõrkade õppijate ja tugevate õppijate ühendamise protsess järjestikuste mudelite loomise teel, mille tulemuseks on maksimaalse täpsusega lõplik mudel.
5. Naiivne Bayes
Binaarse (kahe klassi) ja mitme klassi klassifikatsiooni probleemi saab lahendada Naive Bayesi tehnikaga. Kui meetodit selgitatakse kahend- või kategooria sisendväärtuste abil, on seda kõige lihtsam mõista. Naive Bayesi klassifikaatori eelduseks on, et ühe tunnuse olemasolu klassis ei mõjuta teiste tunnuste olemasolu.
Ülaltoodud valem näitab:
- P(H): tõenäosus, et hüpotees H on õige. Eelnevat tõenäosust nimetatakse selleks.
- P(E): tõendite tõenäosus
- P(E|H): tõenäosus, et hüpoteesi tõendid toetavad.
- P(H|E): tõenäosus, et hüpotees vastab tõenditele.
Naiivne Bayesi klassifikaator võtaks teatud tulemuse tõenäosuse määramisel arvesse kõiki neid omadusi eraldi, isegi kui need atribuudid on üksteisega seotud. Naiivset Bayesi mudelit on lihtne konstrueerida ja see on tõhus suurte andmekogumite jaoks.
Teadaolevalt toimib see paremini kui isegi kõige keerulisemad kategoriseerimistehnikad, olles samas elementaarne. See on algoritmide kogum, mis kõik põhinevad Bayesi teoreemil, mitte ühel meetodil.
6. K-Lähimad Naabrid
K-lähimate naabrite (kNN) tehnika on juhendatud masinõppe alamhulk, mida saab kasutada klassifitseerimis- ja regressiooniprobleemide lahendamiseks. KNN-i algoritm eeldab, et läheduses võib leida võrreldavaid objekte.
Ma mäletan seda kui mõttekaaslaste kogunemist. kNN kasutab ära teiste andmepunktide sarnasuse ideed, kasutades ära lähedust, lähedust või kaugust. Nähtamatute andmete märgistamiseks lähimate märgistatud jälgitavate andmepunktide põhjal kasutatakse graafiku punktide vahelise eralduse määramiseks matemaatilist meetodit.
Lähimate võrreldavate punktide tuvastamiseks peate määrama andmepunktide vahelise kauguse. Selleks saab kasutada kauguse mõõtmisi, nagu Eukleidiline kaugus, Hammingi kaugus, Manhattani kaugus ja Minkowski kaugus. K-d tuntakse lähima naabrinumbrina ja see on sageli paaritu arv.
KNN-i saab rakendada klassifitseerimis- ja regressiooniprobleemidele. Prognoos, mis tehakse, kui KNN-i kasutatakse regressiooniprobleemidega, põhineb kõige sarnasemate K-juhtumite keskmisel või mediaanil.
KNN-il põhineva klassifitseerimisalgoritmi tulemuse saab määrata K kõige sarnasema esinemissageduse seas kõrgeima sagedusega klassina. Iga eksemplar annab sisuliselt hääle oma klassi poolt ja ennustus kuulub kõige rohkem hääli saanud klassile.
7. K-tähendab
See on järelevalveta õppimise tehnika, mis käsitleb klastrite moodustamise probleeme. Andmekogumid jagatakse teatud arvuks klastriteks – nimetagem seda K-ks – nii, et iga klastri andmepunktid on homogeensed ja eristuvad teiste klastrite omadest.
K-tähendab rühmitamise metoodika:
- Iga klastri jaoks valib K-keskmiste algoritm k tsentroidi ehk punkti.
- Lähimate tsentroidide või K-klastritega moodustab iga andmepunkt klastri.
- Nüüd toodetakse uued tsentroidid sõltuvalt juba olemasolevatest klastri liikmetest.
- Nende värskendatud tsentroidide abil arvutatakse iga andmepunkti lähim kaugus. Seda protsessi korratakse seni, kuni tsentroidid ei muutu.
See on kiirem, usaldusväärsem ja lihtsamini mõistetav. Probleemide korral muudab k-keskmise kohanemisvõime kohandamise lihtsaks. Kui andmestikud on erinevad või üksteisest hästi eraldatud, on tulemused parimad. See ei saa hallata ebakorrapäraseid andmeid ega kõrvalekaldeid.
8. Toetage vektormasinaid
Kui kasutate andmete klassifitseerimiseks SVM-tehnikat, kuvatakse algandmed punktidena n-mõõtmelises ruumis (kus n on teie funktsioonide arv). Andmeid saab seejärel kergesti klassifitseerida, kuna iga tunnuse väärtus on seejärel ühendatud konkreetse koordinaadiga.
Andmete eraldamiseks ja graafikule paigutamiseks kasutage klassifikaatoritena tuntud ridu. See lähenemine joonistab iga andmepunkti punktina n-mõõtmelises ruumis, kus n on teie objektide arv ja iga objekti väärtus on konkreetne koordinaatväärtus.
Nüüd leiame rea, mis jagab andmed kaheks erinevalt liigitatud andmekogumiks. Kahe rühma lähimate punktide kaugused on sellel joonel kõige kaugemal.
Kuna kaks lähimat punkti on need, mis on ülaltoodud näite joonest kõige kaugemal, on keskmine joon, mis jagab andmed kahte erinevalt kategoriseeritud rühma. Meie klassifikaator on see rida.
9. Mõõtmete vähendamine
Mõõtmete vähendamise lähenemisviisi kasutades võib treeningandmetel olla vähem sisendmuutujaid. Lihtsamalt öeldes viitab see teie funktsioonide komplekti suuruse vähendamise protsessile. Kujutagem ette, et teie andmestikul on 100 veergu; mõõtmete vähendamine vähendab seda summat 20 veeruni.
Mudel muutub automaatselt keerukamaks ja funktsioonide arvu suurenedes on selle ülepaigutamise oht suurem. Suurim probleem suuremate andmetega töötamisel on nn mõõtmete needus, mis ilmneb siis, kui teie andmed sisaldavad liiga palju omadusi.
Mõõtmete vähendamiseks saab kasutada järgmisi elemente:
- Asjakohaste omaduste leidmiseks ja valimiseks kasutatakse funktsioonide valikut.
- Kasutades juba olemasolevaid funktsioone, loob funktsioonide projekteerimine käsitsi uusi funktsioone.
Järeldus
Võimalikud on nii järelevalveta kui ka järelevalvega masinõpe. Valige juhendatud õpe, kui teie andmed on vähem rikkalikud ja koolituse jaoks hästi märgistatud.
Suured andmekogumid toimiksid sageli ja annaksid paremaid tulemusi, kasutades järelevalveta õppimist. Sügav õppimine meetodid on parimad, kui teil on suur andmekogu, mis on kergesti kättesaadav.
Tugevdusõpe ja sügav tugevdamine on mõned teemad, mida õppisite. Närvivõrkude omadused, kasutusalad ja piirangud on teile nüüd selged. Viimaseks, kuid mitte vähem tähtsaks, kaalusite omaenda loomisel erinevate programmeerimiskeelte, IDE-de ja platvormide võimalusi. masinõppe mudelid.
Järgmine asi, mida peate tegema, on alustada nende uurimist ja kasutamist masinõpe lähenemine. Isegi kui teema on lai, saab igast teemast mõne tunniga aru, kui keskenduda selle sügavusele. Iga teema on teistest eraldiseisev.
Peate mõtlema ühele probleemile korraga, seda uurima, ellu viima ja kasutama selles algoritmi(de) rakendamiseks valitud keelt.
Jäta vastus