Sisällysluettelo[Piilottaa][Näytä]
Maailma muuttuu nopeasti tekoälyn ja koneoppimisen ansiosta, joka vaikuttaa jokapäiväiseen elämäämme.
Ääniavustajista, jotka käyttävät NLP:tä ja koneoppimista varaamaan tapaamisia, etsimään tapahtumia kalenteristamme ja soittamaan musiikkia laitteisiin, jotka ovat niin tarkkoja, että ne voivat ennakoida tarpeitamme ennen kuin edes harkitsemme niitä.
Tietokoneet voivat pelata shakkia, tehdä leikkauksia ja kehittyä älykkäämmiksi, ihmisen kaltaisemmiksi koneiksi koneoppimisalgoritmien avulla.
Elämme jatkuvan teknologisen kehityksen aikaa, ja katsomalla, kuinka tietokoneet ovat kehittyneet ajan myötä, voimme tehdä ennusteita siitä, mitä tulevaisuudessa tapahtuu.
Tietojenkäsittelytyökalujen ja -menetelmien demokratisointi on yksi tämän vallankumouksen avaintekijöistä, joka erottuu joukosta. Tietotieteilijät ovat luoneet tehokkaita datamurskaavia tietokoneita viimeisen viiden vuoden aikana ottamalla vaivattomasti käyttöön huippuluokan menetelmiä. Tulokset ovat hämmästyttäviä.
Tässä viestissä tarkastelemme tarkasti koneoppiminen algoritmit ja kaikki niiden muunnelmat.
Joten mitä ovat koneoppimisalgoritmit?
Tekoälyjärjestelmän käyttämä lähestymistapa tehtävänsä suorittamiseen - yleensä lähtöarvojen ennustamiseen annetuista syöttötiedoista - tunnetaan koneoppimisalgoritmina.
Koneoppimisalgoritmi on dataa hyödyntävä prosessi, jonka avulla luodaan tuotantovalmiita koneoppimismalleja. Jos koneoppiminen on juna, joka suorittaa työn, niin koneoppimisalgoritmit ovat veturit, jotka kuljettavat työtä eteenpäin.
Paras käytettävä koneoppimistapa määräytyy yritysongelman, jota yrität ratkaista, käyttämäsi tietojoukon tyypin ja käytettävissä olevien resurssien perusteella.
Koneoppimisalgoritmit ovat niitä, jotka muuttavat tietojoukon malliksi. Valvotut, valvomattomat tai vahvistavat oppimisalgoritmit voivat toimia hyvin sen mukaan, minkälaista ongelmaa yrität ratkaista, käytettävissä olevasta prosessointitehosta ja käytettävissäsi olevan datan tyypistä.
Puhuimme siis ohjatusta, ohjaamattomasta ja vahvistuksesta oppimisesta, mutta mitä ne ovat? Tutkitaanpa niitä.
Ohjattu, ohjaamaton ja vahvistava oppiminen
Ohjattu oppiminen
Ohjatussa oppimisessa tekoälymalli kehitetään annettujen syötteiden ja ennustettua lopputulosta kuvaavan etiketin perusteella. Tulojen ja lähtöjen perusteella malli kehittää kartoitusyhtälön, jonka avulla se ennustaa syötteiden nimen tulevaisuudessa.
Oletetaan, että meidän on luotava malli, joka erottaa koiran ja kissan. Malliin syötetään useita kuvia kissoista ja koirista, joiden tarrat osoittavat, ovatko he kissoja vai koiria mallin kouluttamiseksi.
Mallilla pyritään muodostamaan yhtälö, joka yhdistää syöttövalokuvien etiketit näihin kuviin. Vaikka malli ei olisi koskaan nähnyt kuvaa ennen, se pystyy koulutuksen jälkeen tunnistamaan, onko kyseessä kissa vai koira.
Valvomaton oppiminen
Ohjaamaton oppiminen sisältää tekoälymallin harjoittamisen vain syötteillä ilman niiden merkitsemistä. Malli jakaa syötetiedot ryhmiin, joilla on toisiinsa liittyvät ominaisuudet.
Tämän jälkeen syötteen tuleva nimiö ennustetaan sen mukaan, kuinka tarkasti sen attribuutit vastaavat jotakin luokittelua. Harkitse tilannetta, jossa meidän on jaettava ryhmä punaisia ja sinisiä palloja kahteen luokkaan.
Oletetaan, että pallojen muut ominaisuudet ovat väriä lukuun ottamatta samat. Sen perusteella, kuinka se pystyy jakamaan pallot kahteen luokkaan, malli etsii pallojen välillä erilaisia ominaisuuksia.
Kaksi palloklusteria – yksi sininen ja yksi punainen – syntyy, kun pallot jaetaan kahteen ryhmään niiden sävyn perusteella.
Vahvistusoppiminen
Vahvistusoppimisessa tekoälymalli pyrkii maksimoimaan kokonaisvoiton toimimalla niin hyvin kuin pystyy tietyssä tilanteessa. Palaute sen aikaisemmista tuloksista auttaa mallia oppimaan.
Ajattele tilannetta, jossa robottia neuvotaan valitsemaan reitti pisteiden A ja B välillä. Robotti valitsee ensin jommankumman kurssista, koska sillä ei ole aikaisempaa kokemusta.
Robotti vastaanottaa syötteitä kulkemansa reitistä ja saa tietoa siitä. Robotti voi käyttää syötettä korjatakseen ongelman seuraavan kerran, kun se kohtaa samanlaisen tilanteen.
Jos robotti esimerkiksi valitsee vaihtoehdon B ja saa palkinnon, kuten positiivisen palautteen, se ymmärtää tällä kertaa, että sen on valittava tapa B lisätäkseen palkintoaan.
Nyt vihdoinkin se, mitä odotatte, ovat algoritmit.
Tärkeimmät koneoppimisalgoritmit
1. Lineaarinen regressio
Yksinkertaisin koneoppimisen lähestymistapa, joka poikkeaa ohjatusta oppimisesta, on lineaarinen regressio. Riippumattomista muuttujista saadun tiedon avulla sitä käytetään enimmäkseen regressioongelmien ratkaisemiseen ja jatkuvien riippuvien muuttujien ennusteiden luomiseen.
Lineaarisen regression tavoitteena on löytää parhaiten sopiva viiva, joka voi auttaa ennustamaan jatkuvien riippuvien muuttujien tulosta. Asuntojen hinnat, ikä ja palkat ovat esimerkkejä jatkuvista arvoista.
Malli, joka tunnetaan nimellä yksinkertainen lineaarinen regressio, käyttää suoraa viivaa laskeakseen yhteyden yhden riippumattoman muuttujan ja yhden riippuvan muuttujan välillä. Useassa lineaarisessa regressiossa on enemmän kuin kaksi riippumatonta muuttujaa.
Lineaarisella regressiomallilla on neljä taustalla olevaa oletusta:
- Lineaarisuus: X:n ja Y:n keskiarvon välillä on lineaarinen yhteys.
- Homoskedastisuus: Jokaisen X:n arvon jäännösvarianssi on sama.
- Riippumattomuus: Havainnot ovat riippumattomia toisistaan riippumattomuuden suhteen.
- Normaalius: Kun X on kiinteä, Y on normaalijakautumassa.
Lineaarinen regressio toimii erinomaisesti tiedoilla, jotka voidaan erottaa viivoja pitkin. Se voi hallita ylisovitusta käyttämällä regularisointi-, ristiinvalidointi- ja mittasuhteiden vähentämistekniikoita. On kuitenkin tapauksia, joissa tarvitaan laajaa ominaisuussuunnittelua, mikä voi toisinaan aiheuttaa yliasennusta ja melua.
2. Logistinen regressio
Logistinen regressio on toinen koneoppimistekniikka, joka poikkeaa ohjatusta oppimisesta. Sen pääasiallinen käyttö on luokittelu, mutta sitä voidaan käyttää myös regressioongelmiin.
Logistista regressiota käytetään kategorisen riippuvan muuttujan ennustamiseen riippumattomien tekijöiden tietojen perusteella. Tavoitteena on luokitella lähdöt, jotka voivat olla vain 0-1.
Syötteiden painotettu kokonaissumma käsitellään sigmoidifunktiolla, aktivointifunktiolla, joka muuntaa arvot välillä 0 ja 1.
Logistisen regression perustana on maksimitodennäköisyysarviointi, menetelmä oletetun todennäköisyysjakauman parametrien laskemiseksi tietyn havainnon perusteella.
3. Päätöspuu
Toinen koneoppimismenetelmä, joka irtoaa ohjatusta oppimisesta, on päätöspuu. Päätöspuun lähestymistapaa voidaan käyttää sekä luokittelu- että regressiokysymyksissä.
Tämä päätöksentekotyökalu, joka muistuttaa puuta, käyttää visuaalisia esityksiä näyttääkseen toimien mahdolliset tulokset, kustannukset ja seuraukset. Jakamalla tiedot erillisiin osiin, idea on analoginen ihmismielen kanssa.
Tiedot on jaettu erillisiin osiin niin paljon kuin pystymme granuloimaan. Päätöspuun päätavoitteena on rakentaa koulutusmalli, jonka avulla voidaan ennustaa kohdemuuttujan luokka. Puuttuvat arvot voidaan käsitellä automaattisesti päätöspuun avulla.
Kertaluonteista koodausta, valemuuttujia tai muita tietojen esikäsittelyvaiheita ei vaadita. Se on jäykkä siinä mielessä, että siihen on vaikea lisätä uutta tietoa. Jos sinulla on lisää merkittyjä tietoja, sinun tulee kouluttaa puu uudelleen koko tietojoukolle.
Tämän seurauksena päätöspuut ovat huono valinta kaikille sovelluksille, jotka edellyttävät dynaamista mallin muutosta.
Päätöspuut luokitellaan kahteen tyyppiin kohdemuuttujan tyypin mukaan:
- Kategorinen muuttuja: Päätöspuu, jossa tavoitemuuttuja on Kategorinen.
- Jatkuva muuttuja: Päätöspuu, jossa tavoitemuuttuja on Jatkuva.
4. Random Forest
Random Forest Method on seuraava koneoppimistekniikka, ja se on valvottu koneoppimisalgoritmi, jota käytetään laajasti luokittelu- ja regressiokysymyksissä. Se on myös puupohjainen menetelmä, samanlainen kuin päätöspuu.
Puiden metsää tai monia päätöspuita käytetään satunnaisella metsämenetelmällä arvioiden tekemiseen. Luokittelutehtäviä käsiteltäessä satunnaismetsämenetelmä käytti kategorisia muuttujia, kun taas regressiotehtäviä käsiteltiin jatkuvia muuttujia sisältävillä tietojoukoilla.
Satunnainen metsämenetelmä tekee kokonaisuuden tai useiden mallien sekoittamisen, mikä tarkoittaa, että ennusteet tehdään käyttämällä mallien ryhmää yhden sijaan.
Mahdollisuus käyttää sekä luokittelu- että regressioongelmiin, jotka muodostavat suurimman osan nykyaikaisista koneoppimisjärjestelmistä, on satunnaismetsän keskeinen etu.
Ensemble käyttää kahta erilaista strategiaa:
- Pussittaminen: Näin harjoitustietojoukolle tuotetaan enemmän dataa. Tämä tehdään ennusteiden vaihtelun vähentämiseksi.
- Tehostaminen on prosessi, jossa yhdistetään heikkoja oppijoita vahvoihin oppijoihin rakentamalla peräkkäisiä malleja, mikä johtaa lopulliseen malliin maksimaalisella tarkkuudella.
5. Naivisti Bayes
Binääri (kaksiluokkainen) ja moniluokkainen luokitteluongelma voidaan ratkaista Naive Bayes -tekniikalla. Kun menetelmää selitetään käyttämällä binääri- tai kategoriasyöttöarvoja, se on yksinkertaisinta ymmärtää. Naive Bayes -luokittajan oletus on, että yhden ominaisuuden olemassaolo luokassa ei vaikuta minkään muun ominaisuuden olemassaoloon.
Yllä oleva kaava osoittaa:
- P(H): Todennäköisyys, että hypoteesi H on oikea. Aikaisempaa todennäköisyyttä kutsutaan nimellä tämä.
- P(E): Todisteiden todennäköisyys
- P(E|H): Todennäköisyys, että todisteet tukevat hypoteesia.
- P(H|E): Todennäköisyys, että hypoteesi pitää paikkansa todisteiden perusteella.
Naiivi Bayes-luokittaja ottaisi jokaisen näistä ominaisuuksista erikseen huomioon määrittäessään tietyn tuloksen todennäköisyyttä, vaikka nämä attribuutit olisivat yhteydessä toisiinsa. Naiivi Bayesin malli on yksinkertainen rakentaa ja tehokas suurille tietojoukoille.
Sen tiedetään toimivan paremmin kuin monimutkaisimmatkin luokittelutekniikat, vaikka se on perus. Se on kokoelma algoritmeja, jotka kaikki perustuvat Bayesin lauseeseen yhden menetelmän sijaan.
6. K-Lähimmät naapurit
K-lähimpien naapureiden (kNN) -tekniikka on osa ohjattua koneoppimista, jota voidaan käyttää luokittelu- ja regressioongelmien ratkaisemiseen. KNN-algoritmi olettaa, että lähistöltä löytyy vertailukelpoisia kohteita.
Muistan sen samanhenkisten ihmisten kokoontumisena. kNN hyödyntää ajatusta muiden datapisteiden samankaltaisuudesta käyttämällä läheisyyttä, läheisyyttä tai etäisyyttä. Näkymättömän datan merkitsemiseksi lähimpien merkittyjen havaittavien tietopisteiden perusteella matemaattista menetelmää käytetään määrittämään kaavion pisteiden välinen ero.
Sinun on määritettävä tietopisteiden välinen etäisyys, jotta voit tunnistaa lähimmät vertailukelpoiset pisteet. Tähän voidaan käyttää etäisyysmittauksia, kuten Euklidinen etäisyys, Hammingin etäisyys, Manhattanin etäisyys ja Minkowskin etäisyys. K tunnetaan lähimpänä naapurilukuna, ja se on usein pariton luku.
KNN:tä voidaan soveltaa luokittelu- ja regressioongelmiin. Ennuste, joka tehdään, kun KNN:ää käytetään regressioongelmiin, perustuu K-samankaltaisimpien esiintymien keskiarvoon tai mediaaniin.
KNN:ään perustuvan luokittelualgoritmin tulos voidaan määrittää K:n samankaltaisimman esiintymistiheyden joukossa eniten esiintyväksi luokaksi. Jokainen esiintymä käytännössä äänestää omaa luokkaansa, ja ennuste kuuluu eniten ääniä saaneelle luokalle.
7. K-keino
Se on ohjaamattoman oppimisen tekniikka, joka käsittelee klusterointiongelmia. Tietojoukot on jaettu tiettyyn määrään klustereita (kutsutaanpa sitä K:ksi) siten, että kunkin klusterin datapisteet ovat homogeenisia ja eroavat muiden klustereiden datapisteistä.
K-välineen klusterointimetodologia:
- Kullekin klusterille K-keskiarvo-algoritmi valitsee k sentroidia tai pistettä.
- Lähimpien sentroidien tai K-klustereiden kanssa jokainen datapiste muodostaa klusterin.
- Nyt tuotetaan uusia sentroideja riippuen jo olemassa olevista klusterin jäsenistä.
- Kunkin datapisteen lähin etäisyys lasketaan näiden päivitettyjen sentroidien avulla. Tämä prosessi toistetaan, kunnes sentroidit eivät muutu.
Se on nopeampi, luotettavampi ja helpompi ymmärtää. Jos ongelmia ilmenee, k-meanin sopeutumiskyky tekee säädöt yksinkertaisia. Kun tietojoukot ovat erillisiä tai hyvin eristettyjä toisistaan, tulokset ovat parhaat. Se ei voi hallita virheellisiä tietoja tai poikkeavia arvoja.
8. Tuki Vector Machines
Kun käytetään SVM-tekniikkaa tietojen luokittelemiseen, raakatiedot näytetään pisteinä n-ulotteisessa avaruudessa (jossa n on käytettävissä olevien ominaisuuksien lukumäärä). Tiedot voidaan sitten helposti luokitella, koska kunkin ominaisuuden arvo yhdistetään sitten tiettyyn koordinaattiin.
Voit erottaa tiedot ja laittaa ne kaavioon käyttämällä luokittelijoina tunnettuja viivoja. Tämä lähestymistapa piirtää jokaisen datapisteen pisteeksi n-ulotteisessa avaruudessa, jossa n on käytettävissä olevien piirteiden lukumäärä ja kunkin ominaisuuden arvo on tietty koordinaattiarvo.
Etsimme nyt rivin, joka jakaa tiedot kahteen tietosarjaan, jotka on luokiteltu eri tavalla. Etäisyydet lähimmistä pisteistä kummassakin ryhmässä ovat kauimpana toisistaan tällä viivalla.
Koska kaksi lähintä pistettä ovat ne, jotka ovat kauimpana yllä olevan esimerkin viivasta, keskiviiva on viiva, joka jakaa tiedot kahteen eri tavalla luokiteltuun ryhmään. Luokittajamme on tämä rivi.
9. Mittasuhteiden vähentäminen
Mittasuhteiden vähentämisen lähestymistapaa käytettäessä harjoitustiedoissa voi olla vähemmän syöttömuuttujia. Yksinkertaisesti sanottuna se viittaa toimintosarjasi koon pienentämiseen. Oletetaan, että tietojoukossasi on 100 saraketta. Mittasuhteiden pienentäminen vähentää määrää 20 sarakkeeseen.
Malli muuttuu automaattisesti kehittyneemmäksi ja sillä on suurempi ylisovitusriski ominaisuuksien määrän kasvaessa. Suurin ongelma suurempien ulottuvuuksien kanssa työskentelemisessä on niin kutsuttu "ulottuvuuden kirous", joka ilmenee, kun tiedoissasi on liikaa ominaisuuksia.
Seuraavia elementtejä voidaan käyttää mittasuhteiden pienentämiseen:
- Oleellisten ominaisuuksien löytämiseksi ja valitsemiseksi käytetään ominaisuuden valintaa.
- Ominaisuussuunnittelu luo uusia ominaisuuksia manuaalisesti käyttämällä jo olemassa olevia ominaisuuksia.
Yhteenveto
Sekä valvomaton että valvottu koneoppiminen ovat mahdollisia. Valitse ohjattu oppiminen, jos tietosi ovat vähemmän runsaita ja hyvin tunnistettuja koulutusta varten.
Suuret tietojoukot toimisivat usein ja tuottaisivat parempia tuloksia käyttämällä ohjaamatonta oppimista. Syvällinen oppiminen menetelmät ovat parhaita, jos sinulla on laaja tietokokoelma, joka on helposti saatavilla.
Vahvistusoppiminen ja syvä vahvistusoppiminen ovat joitakin aiheita, joita opiskelet. Neuroverkkojen ominaisuudet, käyttötarkoitukset ja rajoitukset ovat nyt selvillä. Viimeisenä mutta ei vähäisimpänä, harkitsit eri ohjelmointikielien, IDE:iden ja alustojen vaihtoehtoja luodessasi omia koneoppimismallit.
Seuraavaksi sinun on aloitettava jokaisen opiskelu ja käyttö koneoppiminen lähestyä. Vaikka aihe olisi laaja, mikä tahansa aihe voidaan ymmärtää muutamassa tunnissa, jos keskittyy sen syvyyteen. Jokainen aihe erottuu muista.
Sinun on mietittävä yhtä asiaa kerrallaan, tutkittava sitä, otettava se käytäntöön ja käytettävä valitsemaasi kieltä toteuttaaksesi algoritmi(t) siinä.
Jätä vastaus