De jaroj, profunda lernado fariĝas la titoloj en teknologio. Kaj, estas simple kompreni kial.
Ĉi tiu branĉo de artefarita inteligenteco transformas sektorojn de sanservo ĝis bankado ĝis transportado, ebligante antaŭe nepenseblajn progresojn.
Profunda lernado estas konstruita sur aro de kompleksaj algoritmoj, kiuj lernas ĉerpi kaj antaŭdiri komplikajn ŝablonojn el amasaj volumoj de datumoj.
Ni rigardos la plej bonajn 15-algoritmojn de profunda lernado en ĉi tiu afiŝo, de Konvoluciaj Neŭralaj Retoj ĝis Generativaj Kontraŭaj Retoj ĝis Long-Mallongtempa Memoraj retoj.
Ĉi tiu afiŝo donos esencajn sciojn pri ĉu vi estas a komencanto aŭ spertulo pri profunda lernado.
1. Transformilo-Retoj
Transformilretoj transformiĝis komputila vidado kaj aplikaĵoj pri naturlingva prilaborado (NLP). Ili analizas envenantajn datumojn kaj utiligas atentoprocezojn por kapti longdistancajn rilatojn. Tio igas ilin pli rapidaj ol konvenciaj sinsekvaj modeloj.
Transformilretoj unue estis priskribitaj en la publikigo "Attention Is All You Need" fare de Vaswani et al.
Ili konsistas el kodilo kaj malĉifrilo (2017). La transformilo-modelo montris efikecon en diversaj NLP-aplikoj, inkluzive sento-analizo, teksta kategoriigo kaj maŝintradukado.
Transformil-bazitaj modeloj ankaŭ povas esti utiligitaj en komputila vizio por aplikoj. Ili povas fari objektorekonon kaj bildotekston.
2. Longtempaj Memoraj Retoj (LSTMs)
Longa Short-Term Memory Networks (LSTMoj) estas formo de Neŭra reto speciale konstruita por pritrakti sinsekvan enigon. Ili estas referitaj kiel "longa mallongatempa" ĉar ili povas rememori scion de antaŭ longa tempo dum ankaŭ forgesante nenecesajn informojn.
LSTMoj funkcias per iuj "pordegoj" kiuj regas la fluon de informoj ene de la reto. Depende de ĉu la informoj estas juĝitaj signifaj aŭ ne, ĉi tiuj pordegoj povas aŭ enlasi ĝin aŭ malhelpi ĝin.
Ĉi tiu tekniko ebligas al LSTM-oj memori aŭ forgesi informojn de pasintaj tempopaŝoj, kio estas kritika por taskoj kiel parolrekono, naturlingva prilaborado kaj temposerioprognozo.
LSTM-oj estas ekstreme utilaj ĉiuokaze, kie vi havas sinsekvajn datumojn, kiuj devas esti taksitaj aŭ antaŭviditaj. Ili ofte estas uzitaj en voĉrekona programaro por konverti parolitajn vortojn en tekston, aŭ en borso analizo por antaŭvidi estontajn prezojn surbaze de antaŭaj datumoj.
3. Mem-Organizaj Mapoj (SOMs)
SOMoj estas speco de artefaritaj neŭrala reto kiu povas lerni kaj reprezenti komplikajn datumojn en malalt-dimensia medio. La metodo funkciigas transformante alt-dimensiajn enirdatenojn en dudimensian kradon, kie ĉiu unuo aŭ neŭrono reprezentas malsaman parton de la enigspaco.
La neŭronoj estas interligitaj kune kaj kreas topologian strukturon, permesante al ili lerni kaj adaptiĝi al la enirdatenoj. Do, SOM baziĝas sur nekontrolita lernado.
La algoritmo ne bezonas etikeditaj datumoj lerni de. Anstataŭe, ĝi uzas la statistikajn trajtojn de la enirdatenoj por malkovri ŝablonojn kaj korelaciojn inter la variabloj.
Dum la trejna etapo, neŭronoj konkuras por esti la plej bona indiko de la enirdatenoj. Kaj, ili mem-organizas en signifoplenan strukturon. SOMoj havas larĝan gamon de aplikoj, inkluzive de bildo kaj parolrekono, datumminado kaj padronrekono.
Ili estas utilaj por bildigi komplikajn datumojn, kolektante rilatajn datenpunktojn, kaj detektante anomaliojn aŭ eksteraĵojn.
4. Profunda Plifortiga Lernado
profundajn Plifortiga Lernado estas speco de maŝinlernado en kiu agento estas trejnita por fari decidojn bazitajn sur rekompenca sistemo. Ĝi funkcias lasante la agenton interagi kun ĝia ĉirkaŭaĵo kaj lerni per provo kaj eraro.
La agento estas rekompencita pro ĉiu ago, kiun ĝi faras, kaj ĝia celo estas lerni kiel optimumigi ĝiajn avantaĝojn laŭlonge de la tempo. Ĉi tio povas esti uzata por instrui agentojn ludi ludojn, stiri aŭtojn kaj eĉ administri robotojn.
Q-Learning estas konata Profunda Plifortiga Lernado-metodo. Ĝi funkcias taksante la valoron de farado de certa ago en aparta stato kaj ĝisdatigante tiun takson kiam la agento interagas kun la medio.
La agento tiam utiligas ĉi tiujn taksojn por determini kiu ago plej verŝajne rezultigos la plej grandan rekompencon. Q-Learning estis uzita por eduki agentojn por ludi Atari-ludojn, same kiel por plibonigi energiuzon en datumcentroj.
Deep Q-Networks estas alia fama Deep Reinforcement Learning-metodo (DQN). DQNoj estas similaj al Q-Learning ĉar ili taksas agadvalorojn uzante profundan neŭralan reton prefere ol tablon.
Ĉi tio ebligas ilin trakti grandegajn, komplikajn agordojn kun multaj alternativaj agoj. DQNoj estis uzitaj por trejni agentojn por ludi ludojn kiel ekzemple Go kaj Dota 2, same kiel por krei robotojn kiuj povas lerni piediri.
5. Ripetantaj Neŭralaj Retoj (RNNoj)
RNNoj estas speco de neŭrala reto, kiu povas prilabori sinsekvajn datumojn konservante internan staton. Konsideru ĝin simila al persono leganta libron, kie ĉiu vorto estas digestita rilate al tiuj kiuj venis antaŭ ĝi.
RNN-oj do estas idealaj por taskoj kiel parolrekono, lingvotraduko, kaj eĉ prognozi la sekvan vorton en frazo.
RNNoj funkcias uzante sugestajn buklojn por konekti la eliron de ĉiu tempopaŝo reen al la enigo de la sekva tempopaŝo. Tio ebligas al la reto utiligi antaŭajn tempopaŝinformojn por informi ĝiajn prognozojn por estontaj tempopaŝoj. Bedaŭrinde, ĉi tio ankaŭ signifas, ke RNN-oj estas vundeblaj al la malaperanta gradienta afero, en kiu la gradientoj uzataj por trejnado fariĝas tre etaj kaj la reto luktas por lerni longperspektivajn rilatojn.
Malgraŭ tiu ŝajna limo, RNNoj trovis uzon en larĝa gamo de aplikoj. Ĉi tiuj aplikoj inkluzivas naturlingvan prilaboradon, parolrekonon kaj eĉ muzikproduktadon.
Google translate, ekzemple, utiligas RNN-bazitan sistemon por traduki trans lingvojn, dum Siri, la virtuala asistanto, utiligas RNN-bazitan sistemon por detekti voĉon. RNNoj ankaŭ estis uzitaj por prognozi akciajn prezojn kaj krei realisman tekston kaj grafikojn.
6. Kapsula Retoj
Kapsula Retoj estas nova speco de neŭrala reto-dezajno, kiu povas identigi ŝablonojn kaj korelaciojn en datumoj pli efike. Ili organizas neŭronojn en "kapsulojn", kiuj ĉifras certajn aspektojn de enigaĵo.
Tiel ili povas fari pli precizajn prognozojn. Kapsula Retoj ĉerpas laŭstadie komplikajn trajtojn de eniga datumoj uzante multajn tavolojn de kapsuloj.
La tekniko de Capsule Networks ebligas ilin lerni hierarkiajn reprezentadojn de la donita enigaĵo. Ili povas konvene ĉifri spacajn ligojn inter eroj ene de bildo per komunikado inter kapsuloj.
Objektidentigo, bildsegmentado, kaj naturlingva prilaborado estas ĉiuj aplikoj de Capsule Networks.
Kapsula Retoj havas la potencialon esti dungita en aŭtonoma veturado teknologioj. Ili helpas la sistemon rekoni kaj distingi inter eroj kiel aŭtoj, homoj kaj trafiksignoj. Tiuj sistemoj povas eviti koliziojn farante pli precizajn prognozojn pri la konduto de objektoj en sia medio.
7. Variaciaj Aŭtokodiloj (VAEs)
VAEoj estas formo de profunda lernado, kiu estas uzata por nekontrolita lernado. Kodante datenojn en malsupra-dimensian spacon kaj tiam malkodante ĝin reen en la originan formaton, ili povas lerni ekvidi padronojn en datenoj.
Ili estas kiel magiisto, kiu povas transformi kuniklon en ĉapelon kaj poste reen en kunikleton! VAEoj estas utilaj por generi realismajn bildojn aŭ muzikon. Kaj ili povas esti uzataj por produkti novajn datumojn kompareblajn al la originalaj datumoj.
VAEoj similas al sekreta kodrompilo. Ili povas malkovri la subestas strukturo de datumoj rompante ĝin en pli simplajn pecojn, tre kiel kiel enigmo estas rompita. Ili povas utiligi tiujn informojn por konstrui novajn datumojn, kiuj aspektas kiel la originalo, post kiam ili ordigis la partojn.
Ĉi tio povas esti oportuna por kunpremi enormajn dosierojn aŭ produkti freŝajn grafikojn aŭ muzikon en certa stilo. VAEoj ankaŭ povas produkti freŝan enhavon, kiel ekzemple novaĵoj aŭ muzikkantotekstoj.
8. Generativaj Kontraŭaj Retoj (GANoj)
GANoj (Generative Adversarial Networks) estas formo de profunda lernadsistemo, kiu generas novajn datumojn, kiuj similas la originalon. Ili funkcias trejnante du retojn: generatoro kaj diskriminacia reto.
La generatoro produktas novajn datumojn, kiuj estas kompareblaj al la originalo.
Kaj, la diskriminanto provas distingi inter la originaj kaj kreitaj datumoj. La du retoj estas trejnitaj en tandemo, kun la generatoro provanta trompi la diskriminaciiston kaj la diskriminacianto provanta konvene identigi la originajn datenojn.
Konsideru GANojn kiel kruciĝon inter falsisto kaj detektivo. La generatoro funkcias simile al falsisto, produktante novan arton kiu similas la originalon.
La diskriminanto funkcias kiel detektivo, provante distingi inter originala arto kaj falsaĵo. La du retoj estas trejnitaj en tandemo, kie la generatoro pliboniĝas ĉe farado de kredindaj falsaĵoj kaj la diskriminanto plibonigas ĉe rekonado de ili.
GANoj havas plurajn uzojn, intervalante de produktado de realismaj bildoj de homoj aŭ bestoj ĝis kreado de nova muziko aŭ skribo. Ili ankaŭ povas esti uzataj por pliigo de datumoj, kio implikas kombini produktitajn datumojn kun realaj datumoj por konstrui pli grandan datumaron por trejnado de maŝinlernado-modeloj.
9. Profundaj Q-Retoj (DQNoj)
Profundaj Q-Retoj (DQNs) estas speco de decidanta plifortiga lernad algoritmo. Ili funkcias per lernado de Q-funkcio kiu antaŭdiras la atendatan rekompencon por farado de certa ago en aparta kondiĉo.
La Q-funkcio estas instruata per provo kaj eraro, kie la algoritmo provas diversajn agojn kaj lernas de la rezultoj.
Konsideru ĝin kiel a videoludo karaktero eksperimentanta kun diversaj agoj kaj malkovrante kiuj kondukas al sukceso! DQN-oj trejnas la Q-funkcion uzante profundan neŭralan reton, igante ilin efikaj iloj por malfacilaj decidaj taskoj.
Ili eĉ venkis homajn ĉampionojn en ludoj kiel Go kaj ŝako, same kiel en robotiko kaj memveturaj aŭtoj. Do, entute, DQN-oj funkcias per lernado de sperto por plibonigi siajn decidkapablojn laŭlonge de la tempo.
10. Radialbazaj Funkciaj Retoj (RBFNoj)
Radial Basis Function Networks (RBFNoj) estas speco de neŭrala reto kiu estas uzata por aproksimi funkciojn kaj plenumi klasifikajn taskojn. Ili funkciigas transformante la enigdatenojn en pli alt-dimensian spacon uzante kolekton de radialaj bazfunkcioj.
La produktaĵo de la reto estas lineara kombinaĵo de la bazfunkcioj, kaj ĉiu radiala bazfunkcio reprezentas centran punkton en la enirspaco.
RBFNoj estas aparte efikaj por situacioj kun komplikaj enig-produktaj interagoj, kaj ili povas esti instruitaj uzante larĝan gamon de teknikoj, inkluzive de kontrolita kaj nekontrolita lernado. Ili estis uzataj por io ajn, de financaj antaŭdiroj ĝis bilda kaj parolrekono ĝis medicina diagnozo.
Konsideru RBFN-ojn kiel GPS-sistemon, kiu uzas serion da ankropunktoj por trovi sian vojon tra malfacila tereno. La eligo de la reto estas kombinaĵo de la ankropunktoj, kiuj anstataŭas la radialbazajn funkciojn.
Ni povas trarigardi komplikajn informojn kaj generi precizajn prognozojn pri kiel rezultos scenaro uzante RBFN-ojn.
11. Plurtavolaj Perceptronoj (MLPoj)
Tipa formo de neŭrala reto nomita plurtavola perceptrono (MLP) estas uzita por kontrolitaj lernaj taskoj kiel klasifiko kaj regreso. Ili funkciigas stakigante plurajn tavolojn de ligitaj nodoj, aŭ neŭronoj, kie ĉiu tavolo nelinie ŝanĝas la envenantajn datenojn.
En MLP, ĉiu neŭrono ricevas enigon de la neŭronoj en la suba tavolo kaj sendas signalon al la neŭronoj en la supra tavolo. La produktaĵo de ĉiu neŭrono estas determinita uzante aktivigfunkcion, kiu donas al la reto nelinearecon.
Ili kapablas lerni sofistikajn reprezentadojn de la enirdatenoj ĉar ili povas havi plurajn kaŝitajn tavolojn.
MLPoj estis aplikitaj al gamo da taskoj, kiel ekzemple sentanalizo, fraŭdodetekto, kaj voĉo kaj bildrekono. MLPoj povas esti komparitaj kun grupo de enketistoj laborantaj kune por fendi malfacilan kazon.
Kune, ili povas kunmeti la faktojn kaj solvi la krimon malgraŭ la fakto ke ĉiu havas specialan fakon.
12. Konvoluciaj Neŭralaj Retoj (CNNoj)
Bildoj kaj vidbendoj estas prilaboritaj per konvoluciaj neŭralaj retoj (CNNoj), formo de neŭrala reto. Ili funkcias utiligante aron de lerneblaj filtriloj, aŭ kernoj, por ĉerpi signifajn trajtojn de la enirdatenoj.
La filtriloj glitas super la eniga bildo, ekzekutante kunvoluciojn por konstrui trajtomapon kiu kaptas esencajn aspektojn de la bildo.
Ĉar CNN-oj povas lerni hierarkiajn reprezentadojn de la bildkarakterizaĵoj, ili estas precipe helpemaj por situacioj implikantaj enormajn volumojn de vidaj datenoj. Pluraj aplikoj uzis ilin, kiel ekzemple objektodetekto, bildkategoriizado, kaj vizaĝdetekto.
Konsideru CNN-ojn kiel pentriston, kiu uzas plurajn penikojn por krei ĉefverkon. Ĉiu peniko estas kerno, kaj la artisto povas konstrui kompleksan, realisman bildon miksante multajn kernojn. Ni povas ĉerpi signifajn trajtojn de fotoj kaj uzi ilin por precize antaŭvidi la enhavon de la bildo uzante CNN-ojn.
13. Profundaj Kredaj Retoj (DBNoj)
DBNoj estas formo de neŭrala reto kiu estas uzita por nekontrolitaj lernaj taskoj kiel ekzemple dimensiecredukto kaj trajtolernado. Ili funkcias stakigante plurajn tavolojn de Restricted Boltzmann Machines (RBMoj), kiuj estas dutavolaj neŭralaj retoj kapablaj lerni rekonstrui enirdatenojn.
DBNoj estas tre utilaj por altdimensiaj datenproblemoj ĉar ili povas lerni kompaktan kaj efikan reprezentadon de la enigaĵo. Ili estis uzataj por io ajn, de voĉrekono ĝis bildkategoriado ĝis malkovro de drogoj.
Ekzemple, esploristoj uzis DBN por taksi la ligan afinecon de medikamentaj kandidatoj al la estrogenreceptoro. La DBN estis trejnita sur kolekto de kemiaj karakterizaĵoj kaj ligaj afinecoj, kaj ĝi povis precize antaŭdiri la devigan afinecon de novaj drogkandidatoj.
Tio elstarigas la uzon de DBNoj en drogevoluo kaj aliaj altdimensiaj datenaplikoj.
14. Aŭtokodigiloj
Aŭtokodigiloj estas neŭralaj retoj kiuj estas utiligitaj por nekontrolitaj lernaj taskoj. Ili estas celitaj rekonstrui la enigdatenojn, kio implicas ke ili lernos ĉifri la informojn en kompaktan reprezentadon kaj tiam malkodi ĝin reen en la originan enigaĵon.
Aŭtokodigiloj estas tre efikaj por kunpremado de datumoj, forigo de bruo kaj detekto de anomalioj. Ili ankaŭ povas esti uzitaj por trajtolernado, kie la kompakta reprezentado de la aŭtokodilo estas provizita en kontrolitan lernan taskon.
Konsideru aŭtokodilojn kiel studentoj prenantaj notojn en klaso. La studento aŭskultas la prelegon kaj notas la plej gravajn punktojn en konciza kaj efika maniero.
Poste, la studento povas studi kaj memori la lecionon uzante siajn notojn. Aŭtokodigilo, aliflanke, ĉifras la enirdatenojn en kompaktan reprezentadon kiu poste povas esti utiligita por malsamaj celoj kiel ekzemple anomaliodetekto aŭ datenkunpremado.
15. Restriktitaj Boltzmann-Maŝinoj (RBMoj)
RBMoj (Restricted Boltzmann Machines) estas speco de genera neŭrala reto, kiu estas uzata por nekontrolitaj lernaj taskoj. Ili konsistas el videbla tavolo kaj kaŝita tavolo, kun neŭronoj en ĉiu tavolo, ligitaj sed ne ene de la sama tavolo.
RBMoj estas trejnitaj uzante teknikon konatan kiel kontrasta diverĝo, kiu implicas ŝanĝi la pezojn inter la videblaj kaj kaŝitaj tavoloj por optimumigi la probablecon de la trejnaddatenoj. RBMoj povas krei freŝajn datenojn post estado trejnitaj per specimenigo de la lernita distribuo.
Bildo kaj parolrekono, kunlabora filtrado, kaj anomaliodetekto estas ĉiuj aplikoj kiuj utiligis RBMojn. Ili ankaŭ estis utiligitaj en rekomendsistemoj por krei tajloritajn rekomendojn lernante ŝablonojn de uzantkonduto.
RBMoj ankaŭ estis uzitaj en trajtolernado por krei kompaktan kaj efikan reprezentadon de alt-dimensiaj datenoj.
Konsumo kaj Promesplenaj Evoluoj ĉe la Horizonto
Profundaj lernadmetodoj, kiel ekzemple Convolutional Neural Networks (CNNoj) kaj Recurrent Neural Networks (RNNoj), estas inter la plej progresintaj artefaritinteligentaj aliroj. CNNoj transformis bildon kaj sonrekonon, dum RNNoj signife progresis en naturlingva prilaborado kaj sinsekva datumanalizo.
La sekva paŝo en la evoluo de ĉi tiuj aliroj verŝajne fokusiĝos pri plibonigado de ilia efikeco kaj skaleblo, permesante al ili analizi pli grandajn kaj pli komplikajn datumajn arojn, kaj ankaŭ plibonigi ilian interpreteblecon kaj kapablon lerni de malpli etikeditaj datumoj.
Profunda lernado havas la eblecon permesi sukcesojn en kampoj kiel ekzemple sanservo, financo kaj aŭtonomaj sistemoj dum ĝi progresas.
Lasi Respondon