Daugelį metų gilus mokymasis buvo technologijų antraštės. Ir nesudėtinga suprasti kodėl.
Ši dirbtinio intelekto šaka keičia sektorius – nuo sveikatos priežiūros iki bankininkystės ir transporto, suteikdama anksčiau neįsivaizduojamą pažangą.
Gilus mokymasis yra pagrįstas sudėtingų algoritmų rinkiniu, kuris mokosi išskirti ir numatyti sudėtingus modelius iš didžiulių duomenų kiekių.
Šiame įraše apžvelgsime 15 geriausių giluminio mokymosi algoritmų – nuo konvoliucinių neuronų tinklų iki generuojamųjų priešpriešinių tinklų iki ilgalaikės trumpalaikės atminties tinklų.
Šis įrašas suteiks esminių įžvalgų, ar esate a pradedantysis arba gilaus mokymosi ekspertas.
1. Transformatorių tinklai
Transformatorių tinklai pasikeitė kompiuterio vizija ir natūralios kalbos apdorojimo (NLP) programos. Jie analizuoja gaunamus duomenis ir naudoja dėmesio procesus, kad užfiksuotų ilgalaikius santykius. Dėl to jie yra greitesni nei įprasti modeliai iš sekos į seką.
Transformatorių tinklai pirmą kartą buvo aprašyti Vaswani ir kt. leidinyje „Attention Is All You Need“.
Jie susideda iš kodavimo ir dekoderio (2017). Transformatoriaus modelis parodė našumą įvairiose NLP programose, įskaitant nuotaikos analizė, teksto skirstymas į kategorijas ir mašininis vertimas.
Transformatorių modeliai taip pat gali būti naudojami kompiuterinėje programoje. Jie gali atlikti objektų atpažinimą ir vaizdų antraštes.
2. Ilgalaikės trumpalaikės atminties tinklai (LSTM)
Ilgalaikiai trumpalaikiai atminties tinklai (LSTM) yra tam tikra forma neuroninis tinklas specialiai sukurtas nuosekliai įvestims valdyti. Jie vadinami „ilgalaikiu trumpalaikiu“, nes gali prisiminti seniai įgytas žinias ir pamiršti nereikalingą informaciją.
LSTM veikia per kai kuriuos „vartus“, kurie valdo informacijos srautą tinkle. Priklausomai nuo to, ar informacija laikoma reikšminga, ar ne, šie vartai gali ją įleisti arba užkirsti kelią.
Ši technika leidžia LSTM prisiminti arba pamiršti informaciją iš praeities laiko žingsnių, o tai labai svarbu atliekant tokias užduotis kaip kalbos atpažinimas, natūralios kalbos apdorojimas ir laiko eilučių numatymas.
LSTM yra labai naudingi bet kuriuo atveju, kai turite nuoseklius duomenis, kuriuos reikia įvertinti ar prognozuoti. Jie dažnai naudojami balso atpažinimo programinėje įrangoje, norint paversti ištartus žodžius į tekstą arba į tekstą vertybinių popierių rinkos analizė, skirta prognozuoti būsimas kainas remiantis ankstesniais duomenimis.
3. Savaiminio organizavimo žemėlapiai (SOM)
SOM yra savotiški dirbtiniai neuroninis tinklas, kuris gali mokytis ir pateikti sudėtingus duomenis mažo matmens aplinkoje. Metodas veikia transformuojant didelės dimensijos įvesties duomenis į dvimatį tinklelį, o kiekvienas vienetas arba neuronas atstovauja skirtingą įvesties erdvės dalį.
Neuronai yra susieti ir sukuria topologinę struktūrą, leidžiančią jiems mokytis ir prisitaikyti prie įvesties duomenų. Taigi, SOM yra pagrįstas neprižiūrimu mokymusi.
Algoritmo nereikia pažymėti duomenys mokytis iš. Vietoj to, jis naudoja statistines įvesties duomenų savybes, kad nustatytų kintamųjų modelius ir koreliacijas.
Treniruotės metu neuronai konkuruoja, kad būtų geriausias įvesties duomenų indikatorius. Ir jie savaime organizuojasi į prasmingą struktūrą. SOM turi platų programų spektrą, įskaitant vaizdo ir kalbos atpažinimą, duomenų gavybą ir šablonų atpažinimą.
Jie yra naudingi sudėtingų duomenų vizualizavimas, sugrupuoti susijusius duomenų taškus ir aptikti anomalijas ar nukrypimus.
4. Gilus stiprinimo mokymasis
giliai Stiprinimo mokymasis yra mašininis mokymasis, kurio metu agentas mokomas priimti sprendimus, pagrįstus atlygio sistema. Jis veikia leisdamas agentui bendrauti su aplinka ir mokytis per bandymus ir klaidas.
Agentas yra apdovanotas už kiekvieną jo atliktą veiksmą, o jo tikslas yra išmokti optimizuoti savo naudą laikui bėgant. Tai gali būti naudojama mokant agentus žaisti žaidimus, vairuoti automobilius ir net valdyti robotus.
Q-Learning yra gerai žinomas gilaus sustiprinimo mokymosi metodas. Jis veikia įvertindamas tam tikro veiksmo tam tikroje būsenoje vertę ir atnaujindamas tą įvertinimą, kai agentas sąveikauja su aplinka.
Tada agentas naudoja šiuos įvertinimus, kad nustatytų, kuris veiksmas greičiausiai atneš didžiausią atlygį. Q-Learning buvo naudojamas mokant agentus žaisti Atari žaidimus, taip pat pagerinti energijos naudojimą duomenų centruose.
Deep Q-Networks yra dar vienas garsus gilaus stiprinimo mokymosi metodas (DQN). DQN yra panašūs į Q-Learning, nes įvertina veiksmų vertes naudodami gilųjį neuroninį tinklą, o ne lentelę.
Tai leidžia jiems susidoroti su didžiuliais, sudėtingais nustatymais su daugybe alternatyvių veiksmų. DQN buvo naudojami mokant agentus žaisti tokius žaidimus kaip „Go“ ir „Dota 2“, taip pat kuriant robotus, galinčius išmokti vaikščioti.
5. Pasikartojantys neuroniniai tinklai (RNN)
RNN yra tam tikras neuroninis tinklas, galintis apdoroti nuoseklius duomenis išlaikant vidinę būseną. Laikykite jį panašiu į asmenį, skaitantį knygą, kai kiekvienas žodis yra virškinamas, palyginti su ankstesniais.
Todėl RNN puikiai tinka tokioms užduotims kaip kalbos atpažinimas, kalbos vertimas ir netgi kito frazės žodžio prognozavimas.
RNN veikia naudodami grįžtamojo ryšio kilpas, kad kiekvieno laiko žingsnio išvestį sujungtų su kito laiko žingsnio įvestimi. Tai leidžia tinklui panaudoti ankstesnio laiko žingsnio informaciją, kad informuotų savo ateities laiko etapus. Deja, tai taip pat reiškia, kad RNN yra pažeidžiami nykstančio gradiento problemos, kai treniruotėms naudojami gradientai tampa labai maži, o tinklas stengiasi išmokti ilgalaikių santykių.
Nepaisant šio akivaizdaus suvaržymo, RNN buvo naudojami įvairiose srityse. Šios programos apima natūralios kalbos apdorojimą, kalbos atpažinimą ir net muzikos kūrimą.
Google TranslatePavyzdžiui, naudoja RNN pagrįstą sistemą, kad išverstų į kitas kalbas, o Siri, virtualus asistentas, naudoja RNN pagrįstą sistemą balsui aptikti. RNN taip pat buvo naudojami akcijų kainoms prognozuoti ir tikroviškam tekstui bei grafikai sukurti.
6. Kapsuliniai tinklai
Kapsulių tinklai yra naujo tipo neuroninio tinklo dizainas, galintis efektyviau nustatyti duomenų modelius ir koreliacijas. Jie suskirsto neuronus į „kapsules“, kurios koduoja tam tikrus įvesties aspektus.
Taip jie gali pateikti tikslesnes prognozes. Kapsulių tinklai iš įvesties duomenų išgauna vis sudėtingesnes savybes, naudodami daugybę kapsulių sluoksnių.
Capsule Networks technika leidžia jiems išmokti hierarchinius pateiktos įvesties vaizdus. Jie gali tinkamai užkoduoti erdvinius ryšius tarp paveikslėlyje esančių elementų, bendraudami tarp kapsulių.
Objektų identifikavimas, vaizdo segmentavimas ir natūralios kalbos apdorojimas yra visos kapsulių tinklų programos.
Kapsulių tinklai gali būti naudojami autonominis vairavimas technologijas. Jie padeda sistemai atpažinti ir atskirti daiktus, tokius kaip automobiliai, žmonės ir kelio ženklai. Šios sistemos gali išvengti susidūrimų, tiksliau prognozuodamos objektų elgesį jų aplinkoje.
7. Variaciniai automatiniai kodavimo įrenginiai (VAE)
VAE yra gilaus mokymosi priemonė, naudojama be priežiūros. Koduodami duomenis į žemesnio matmens erdvę ir iškoduodami atgal į pradinį formatą, jie gali išmokti pastebėti duomenų šablonus.
Jie yra tarsi magas, galintis paversti triušį į kepurę, o paskui vėl į zuikį! VAE yra naudingi kuriant tikroviškus vaizdus ar muziką. Be to, jie gali būti naudojami naujiems duomenims, panašiems į pradinius duomenis, gauti.
VAE yra panašūs į slaptą kodų laužiklį. Jie gali atrasti pagrindą duomenų struktūra suskaidydami jį į paprastesnius fragmentus, panašiai kaip dėlionės skaidymas. Jie gali panaudoti šią informaciją, kad sukurtų naujus duomenis, kurie atrodytų kaip originalūs, kai surūšiavo dalis.
Tai gali būti patogu suglaudinant didžiulius failus arba kuriant naują grafiką ar muziką tam tikru stiliumi. VAE taip pat gali sukurti naują turinį, pvz., naujienas ar muzikos tekstus.
8. Generative Adversarial Networks (GAN)
GAN (Generative Adversarial Networks) yra gilaus mokymosi sistemos forma, kuri generuoja naujus duomenis, panašius į originalą. Jie veikia apmokydami du tinklus: generatoriaus ir diskriminatoriaus tinklą.
Generatorius sukuria naujus duomenis, panašius į pradinius.
Ir diskriminatorius bando atskirti pradinius ir sukurtus duomenis. Abu tinklai yra mokomi kartu, generatorius bando apgauti diskriminatorių, o diskriminatorius bando tinkamai identifikuoti pradinius duomenis.
Laikykite, kad GAN yra klastotojo ir detektyvo kryžius. Generatorius veikia panašiai kaip klastotojas, gamindamas naujus meno kūrinius, panašius į originalą.
Diskriminatorius veikia kaip detektyvas, bandantis atskirti tikrą meno kūrinį nuo klastojimo. Abu tinklai mokomi kartu, generatorius patobulina patikimus padirbinius, o diskriminatorius – atpažįsta jas.
GAN galima naudoti įvairiais būdais: nuo tikroviškų žmonių ar gyvūnų nuotraukų kūrimo iki naujos muzikos ar rašymo. Jie taip pat gali būti naudojami duomenims papildyti, o tai apima pagamintų duomenų sujungimą su tikrais duomenimis, kad būtų sukurtas didesnis duomenų rinkinys, skirtas mokyti mašininio mokymosi modelius.
9. Gilieji Q tinklai (DQN)
Deep Q-Networks (DQN) yra tam tikras sprendimų priėmimo sustiprinimo mokymosi algoritmas. Jie veikia mokydamiesi Q funkcijos, kuri numato laukiamą atlygį už tam tikro veiksmo atlikimą tam tikromis sąlygomis.
Q funkcija mokoma bandymų ir klaidų būdu, o algoritmas bando įvairius veiksmus ir mokosi iš rezultatų.
Apsvarstykite tai kaip a vaizdo žaidimų personažas eksperimentuoja su įvairiais veiksmais ir atranda, kurie iš jų veda į sėkmę! DQN treniruoja Q funkciją naudodami gilųjį neuroninį tinklą, todėl jie yra veiksmingi įrankiai sunkioms sprendimų priėmimo užduotims atlikti.
Jie netgi nugalėjo žmonių čempionus tokiuose žaidimuose kaip „Go“ ir „šachmatai“, taip pat robotikoje ir savaeigiuose automobiliuose. Taigi, apskritai, DQN dirba mokydamiesi iš patirties, kad laikui bėgant pagerintų savo sprendimų priėmimo įgūdžius.
10. Radialiniai funkciniai tinklai (RBFN)
Radialiniai funkciniai tinklai (RBFN) yra tam tikras neuroninis tinklas, naudojamas funkcijoms aproksimuoti ir klasifikavimo užduotims atlikti. Jie veikia transformuodami įvesties duomenis į aukštesnės dimensijos erdvę, naudodami radialinių bazinių funkcijų rinkinį.
Tinklo išvestis yra linijinis pagrindinių funkcijų derinys, o kiekviena radialinė bazinė funkcija reiškia centrinį tašką įvesties erdvėje.
RBFN yra ypač veiksmingi situacijose, kuriose yra sudėtinga įvesties ir išvesties sąveika, ir jie gali būti mokomi naudojant daugybę metodų, įskaitant prižiūrimą ir neprižiūrimą mokymąsi. Jie buvo naudojami bet kam – nuo finansinių prognozių iki vaizdo ir kalbos atpažinimo iki medicininės diagnostikos.
Apsvarstykite RBFN kaip GPS sistemą, kuri naudoja daugybę tvirtinimo taškų, kad rastų kelią per sudėtingą reljefą. Tinklo išvestis yra tvirtinimo taškų, kurie atlieka radialines bazines funkcijas, derinys.
Naudodami RBFN galime naršyti po sudėtingą informaciją ir generuoti tikslias prognozes, kaip pasisuks scenarijus.
11. Daugiasluoksniai perceptronai (MLP)
Įprasta neuroninio tinklo forma, vadinama daugiasluoksniu perceptronu (MLP), naudojama prižiūrimoms mokymosi užduotims, tokioms kaip klasifikavimas ir regresija. Jie veikia sudėdami kelis susietų mazgų arba neuronų sluoksnius, o kiekvienas sluoksnis netiesiškai keičia gaunamus duomenis.
MLP kiekvienas neuronas gauna įvestį iš žemiau esančio sluoksnio neuronų ir siunčia signalą aukščiau esančiame sluoksnyje esantiems neuronams. Kiekvieno neurono išvestis nustatoma naudojant aktyvinimo funkciją, kuri suteikia tinklui netiesiškumą.
Jie gali išmokti sudėtingų įvesties duomenų atvaizdų, nes gali turėti kelis paslėptus sluoksnius.
MLP buvo pritaikytos įvairioms užduotims, tokioms kaip jausmų analizė, sukčiavimo aptikimas ir balso bei vaizdo atpažinimas. MLP galima palyginti su grupe tyrėjų, dirbančių kartu, kad išspręstų sudėtingą bylą.
Kartu jie gali sujungti faktus ir išspręsti nusikaltimą, nepaisant to, kad kiekvienas turi tam tikrą specialybės sritį.
12. Konvoliuciniai neuroniniai tinklai (CNN)
Vaizdai ir vaizdo įrašai apdorojami naudojant konvoliucinius neuroninius tinklus (CNN), neuroninio tinklo formą. Jie veikia naudodami mokomų filtrų arba branduolių rinkinį, kad iš įvesties duomenų išskirtų reikšmingas charakteristikas.
Filtrai slysta virš įvesties paveikslėlio, atlikdami konvoliucijas, kad sukurtų funkcijų žemėlapį, kuriame užfiksuoti pagrindiniai vaizdo aspektai.
Kadangi CNN gali išmokti hierarchinių vaizdo charakteristikų vaizdų, jie ypač naudingi situacijose, kuriose yra didžiulis vaizdinių duomenų kiekis. Jas naudojo kelios programos, pvz., objektų aptikimas, paveikslėlių skirstymas į kategorijas ir veido aptikimas.
Apsvarstykite CNN kaip dailininką, kuris naudoja kelis teptukus, kad sukurtų šedevrą. Kiekvienas teptukas yra branduolys, o menininkas gali sukurti sudėtingą, tikrovišką vaizdą sumaišydamas daugybę branduolių. Iš nuotraukų galime išskirti reikšmingas charakteristikas ir panaudoti jas tiksliai prognozuoti vaizdo turinį naudodami CNN.
13. Gilių įsitikinimų tinklai (DBN)
DBN yra neuroninio tinklo forma, kuri naudojama neprižiūrintoms mokymosi užduotims, tokioms kaip matmenų mažinimas ir funkcijų mokymasis. Jie veikia sudėdami kelis ribotų Boltzmann mašinų (RBM) sluoksnius, kurie yra dviejų sluoksnių neuroniniai tinklai, galintys išmokti atkurti įvesties duomenis.
DBN yra labai naudingi didelių matmenų duomenų problemoms spręsti, nes jie gali išmokti kompaktišką ir efektyvų įvesties atvaizdavimą. Jie buvo naudojami bet kam – nuo balso atpažinimo iki vaizdo skirstymo į kategorijas ir vaistų atradimo.
Pavyzdžiui, mokslininkai naudojo DBN, kad įvertintų vaistų kandidatų prisijungimo prie estrogenų receptorių afinitetą. DBN buvo apmokytas cheminių charakteristikų ir surišimo afinitetų rinkiniu ir galėjo tiksliai numatyti naujų vaistų kandidatų jungimosi afinitetą.
Tai pabrėžia DBN naudojimą kuriant vaistus ir kitas didelio masto duomenų programas.
14. Automatiniai kodavimo įrenginiai
Automatiniai kodavimo įrenginiai yra neuroniniai tinklai, naudojami neprižiūrimoms mokymosi užduotims atlikti. Jie skirti atkurti įvesties duomenis, o tai reiškia, kad jie išmoks užkoduoti informaciją į kompaktišką atvaizdą ir tada iššifruoti ją atgal į pradinį įvestį.
Automatiniai kodavimo įrenginiai yra labai veiksmingi duomenų suspaudimui, triukšmo šalinimui ir anomalijų aptikimui. Jie taip pat gali būti naudojami funkcijų mokymuisi, kai kompaktiškas automatinio kodavimo įrenginio vaizdas įtraukiamas į prižiūrimą mokymosi užduotį.
Laikykite, kad automatiniai kodavimo įrenginiai yra mokiniai, kurie klasėje atlieka pastabas. Studentas išklauso paskaitą ir glaustai bei efektyviai užsirašo aktualiausius dalykus.
Vėliau mokinys gali mokytis ir prisiminti pamoką, naudodamas savo užrašus. Kita vertus, automatinis kodavimo įrenginys užkoduoja įvesties duomenis į kompaktišką atvaizdą, kuris vėliau gali būti naudojamas įvairiems tikslams, pavyzdžiui, anomalijų aptikimui arba duomenų glaudinimui.
15. Apribotos Boltzmann mašinos (ŽSM)
RBM (Restricted Boltzmann Machines) yra tam tikras generacinis neuroninis tinklas, naudojamas neprižiūrimoms mokymosi užduotims atlikti. Jie sudaryti iš matomo ir paslėpto sluoksnių, kurių kiekviename sluoksnyje yra neuronų, susietų, bet ne tame pačiame sluoksnyje.
ŽSM treniruojami naudojant metodą, vadinamą kontrastiniu skirtumu, kuris apima matomų ir paslėptų sluoksnių svorių keitimą, siekiant optimizuoti mokymo duomenų tikimybę. ŽSM gali sukurti naujus duomenis po to, kai yra išmokyti atrinkti iš išmokto paskirstymo.
Vaizdo ir kalbos atpažinimas, bendras filtravimas ir anomalijų aptikimas yra visos programos, kuriose naudojami ŽSM. Jie taip pat buvo naudojami rekomendacijų sistemose, siekiant sukurti pritaikytas rekomendacijas, mokantis iš vartotojo elgesio modelių.
ŽSM taip pat buvo naudojami funkcijų mokymuisi, siekiant sukurti kompaktišką ir efektyvų didelės apimties duomenų atvaizdavimą.
Apibendrinimas ir perspektyvūs pokyčiai horizonte
Giluminio mokymosi metodai, tokie kaip konvoliuciniai neuroniniai tinklai (CNN) ir pasikartojantys neuroniniai tinklai (RNN), yra vieni pažangiausių dirbtinio intelekto metodų. CNN pakeitė vaizdo ir garso atpažinimą, o RNN padarė didelę pažangą natūralios kalbos apdorojimo ir nuoseklios duomenų analizės srityse.
Kitas šių metodų evoliucijos žingsnis greičiausiai bus skirtas pagerinti jų efektyvumą ir mastelį, leidžiantį analizuoti didesnius ir sudėtingesnius duomenų rinkinius, taip pat pagerinti jų aiškinamumą ir gebėjimą mokytis iš mažiau pažymėtų duomenų.
Tobulėjant giluminiam mokymuisi, galima pasiekti perversmų tokiose srityse kaip sveikatos priežiūra, finansai ir autonominės sistemos.
Palikti atsakymą