Fun awọn ọdun, ẹkọ ti o jinlẹ ti n ṣe awọn akọle ni imọ-ẹrọ. Ati pe, o rọrun lati ni oye idi.
Ẹka ti itetisi atọwọda n yi awọn apa pada lati ilera si ile-ifowopamọ si gbigbe, ti n mu awọn ilọsiwaju ti a ko le ronu tẹlẹ.
Ẹkọ ti o jinlẹ jẹ itumọ lori ṣeto ti awọn algoridimu fafa ti o kọ ẹkọ lati jade ati asọtẹlẹ awọn ilana idiju lati awọn iwọn nla ti data.
A yoo wo awọn algoridimu ikẹkọ jinlẹ 15 ti o dara julọ ninu ifiweranṣẹ yii, lati Awọn Nẹtiwọọki Neural Convolutional si Awọn Nẹtiwọọki Adversarial Generative si awọn nẹtiwọọki Iranti Igba Kukuru Gigun.
Ifiweranṣẹ yii yoo fun awọn oye pataki si boya o jẹ a alakobere tabi alamọdaju ni ẹkọ ti o jinlẹ.
1. Awọn nẹtiwọki Amunawa
Awọn nẹtiwọki oniyipada ti yipada oju kọmputa ati awọn ohun elo ṣiṣe ede adayeba (NLP). Wọn ṣe itupalẹ data ti nwọle ati lo awọn ilana akiyesi lati mu awọn ibatan gigun-gun. Eyi jẹ ki wọn yara ju awọn awoṣe ilana-si-tẹle mora.
Awọn nẹtiwọọki Ayipada ni akọkọ ṣe apejuwe ninu atẹjade “Ifiyesi Ni Gbogbo Ohun ti O Nilo” nipasẹ Vaswani et al.
Wọn ni kooduopo ati decoder (2017). Awoṣe oluyipada ti ṣe afihan iṣẹ ni ọpọlọpọ awọn ohun elo NLP, pẹlu igbekale ero, tito lẹtọ ọrọ, ati itumọ ẹrọ.
Awọn awoṣe ti o da lori iyipada tun le ṣee lo ni iran kọnputa fun awọn ohun elo. Wọn le ṣe idanimọ ohun ati ifori aworan.
2. Awọn nẹtiwọki Iranti Igba Kukuru Gigun (LSTMs)
Awọn nẹtiwọki Iranti Igba Kukuru Gigun (LSTMs) jẹ fọọmu kan ti Nẹtiwọki ti nhu paapa itumọ ti lati mu lesese input. Wọn tọka si bi “igba kukuru kukuru” nitori wọn le ranti imọ lati igba pipẹ sẹhin lakoko ti wọn gbagbe alaye ti ko wulo.
Awọn LSTM ṣiṣẹ nipasẹ diẹ ninu awọn “bode” ti o ṣe akoso sisan alaye inu netiwọki. Ti o da lori boya alaye naa jẹ idajọ pataki tabi rara, awọn ibode wọnyi le jẹ ki o wọle tabi ṣe idiwọ rẹ.
Ilana yii ngbanilaaye awọn LSTM lati ranti tabi gbagbe alaye lati awọn igbesẹ akoko ti o kọja, eyiti o ṣe pataki fun awọn iṣẹ ṣiṣe bii idanimọ ọrọ, sisọ ede adayeba, ati asọtẹlẹ jara akoko.
Awọn LSTM jẹ anfani pupọ julọ ni eyikeyi ọran nibiti o ni data lẹsẹsẹ ti o ni lati ṣe iṣiro tabi sọtẹlẹ. Nigbagbogbo a lo wọn ni sọfitiwia idanimọ ohun lati yi awọn ọrọ sisọ pada si ọrọ, tabi sinu iṣura oja itupalẹ lati ṣe asọtẹlẹ awọn idiyele iwaju ti o da lori data iṣaaju.
3. Awọn maapu Iṣeto ara ẹni (SOMs)
SOMs jẹ iru atọwọda kan neural nẹtiwọki ti o le ko eko ati ṣe aṣoju data idiju ni agbegbe iwọn-kekere. Ọna naa nṣiṣẹ nipasẹ yiyipada data titẹ sii iwọn-giga sinu akoj onisẹpo meji, pẹlu ẹyọkan kọọkan tabi neuron ti o nsoju apakan ti o yatọ ti aaye titẹ sii.
Awọn neuronu ti wa ni asopọ papọ ati ṣẹda eto ti topological, gbigba wọn laaye lati kọ ẹkọ ati ṣatunṣe si data titẹ sii. Nitorinaa, SOM da lori ẹkọ ti ko ni abojuto.
Algoridimu ko nilo ike data lati ko eko lati. Dipo, o nlo awọn ẹya iṣiro ti data titẹ sii lati ṣawari awọn ilana ati awọn ibamu laarin awọn oniyipada.
Lakoko ipele ikẹkọ, awọn neuronu dije lati jẹ itọkasi ti o dara julọ ti data titẹ sii. Ati pe, wọn ṣeto ara wọn sinu eto ti o nilari. Awọn SOM ni ọpọlọpọ awọn ohun elo, pẹlu aworan ati idanimọ ọrọ, iwakusa data, ati idanimọ apẹrẹ.
Wọn wulo fun visualizing idiju data, ikojọpọ awọn aaye data ti o ni ibatan, ati wiwa awọn aiṣedeede tabi awọn ita.
4. Jin Imudara Learning
jin Ẹkọ Isọdọtun jẹ iru ikẹkọ ẹrọ ninu eyiti a ti kọ oluranlowo lati ṣe awọn ipinnu ti o da lori eto ere. O ṣiṣẹ nipa jijẹ ki oluranlowo ṣe ajọṣepọ pẹlu awọn agbegbe rẹ ati kọ ẹkọ nipasẹ idanwo ati aṣiṣe.
Aṣoju naa ni ẹsan fun gbogbo iṣe ti o ṣe, ati idi rẹ ni lati kọ ẹkọ bii o ṣe le mu awọn anfani rẹ pọ si ni akoko pupọ. Eyi le ṣee lo lati kọ awọn aṣoju lati ṣe awọn ere, wakọ awọn ọkọ ayọkẹlẹ, ati paapaa ṣakoso awọn roboti.
Ẹkọ-Q jẹ ọna Ẹkọ Imudara Jin ti o mọ daradara. O n ṣiṣẹ nipa ṣiṣe iṣiro iye ti ṣiṣe iṣe kan ni ipinlẹ kan pato ati imudojuiwọn ti iṣiro yẹn bi aṣoju ṣe n ba agbegbe ṣiṣẹ.
Aṣoju lẹhinna lo awọn iṣiro wọnyi lati pinnu iru iṣe ti o ṣeese julọ lati ja si ere ti o tobi julọ. A ti lo Q-Learning lati kọ awọn aṣoju lati ṣe awọn ere Atari, bakannaa lati mu ilọsiwaju lilo agbara ni awọn ile-iṣẹ data.
Awọn Nẹtiwọọki Q-jinle jẹ ọna Ẹkọ Imudara Jin miiran ti o gbajumọ (DQN). Awọn DQN jẹ iru si Q-Ẹkọ ni pe wọn ṣe iṣiro awọn iye iṣe nipa lilo nẹtiwọọki ti o jinlẹ ju tabili lọ.
Eyi n gba wọn laaye lati koju awọn eto nla, idiju pẹlu ọpọlọpọ awọn iṣe yiyan. A ti lo awọn DQN lati kọ awọn aṣoju lati ṣe awọn ere bii Go ati Dota 2, bakannaa lati ṣẹda awọn roboti ti o le kọ ẹkọ lati rin.
5. Awọn Nẹtiwọọki Neural Loorekoore (RNNs)
Awọn RNN jẹ iru ti nẹtiwọọki nkankikan ti o le ṣe ilana data lẹsẹsẹ lakoko titọju ipo inu. Gbé rẹ̀ yẹ̀ wò bí ẹni tí ń ka ìwé kan, níbi tí ọ̀rọ̀ kọ̀ọ̀kan ti wà ní ìsopọ̀ pẹ̀lú àwọn tí ó ṣáájú rẹ̀.
Nitorinaa awọn RNN jẹ apẹrẹ fun awọn iṣẹ ṣiṣe bii idanimọ ọrọ, itumọ ede, ati paapaa asọtẹlẹ ọrọ ti o tẹle ninu gbolohun ọrọ kan.
Awọn RNN ṣiṣẹ nipa lilo awọn iyipo esi lati so iṣẹjade ti igbesẹ akoko kọọkan pada si titẹ sii ti igbesẹ akoko atẹle. Eyi ngbanilaaye nẹtiwọọki lati lo alaye igbesẹ akoko iṣaaju lati sọ asọtẹlẹ rẹ fun awọn igbesẹ akoko iwaju. Laanu, eyi tun tumọ si pe awọn RNNs jẹ ipalara si ọran gradient ti o ti sọnu, ninu eyiti awọn gradients ti a lo fun ikẹkọ di kekere pupọ ati pe nẹtiwọọki n tiraka lati kọ awọn ibatan igba pipẹ.
Pelu idiwọ ti o han gbangba yii, awọn RNN ti rii lilo ni ọpọlọpọ awọn ohun elo. Awọn ohun elo wọnyi pẹlu sisẹ ede adayeba, idanimọ ọrọ, ati paapaa iṣelọpọ orin.
tumo gugulu, fun apẹẹrẹ, nlo eto ti o da lori RNN lati ṣe itumọ kọja awọn ede, nigba ti Siri, oluranlọwọ foju, nlo eto orisun RNN lati ṣawari ohun. Awọn RNN tun ti lo lati ṣe asọtẹlẹ awọn idiyele ọja ati ṣẹda ọrọ ojulowo ati awọn aworan.
6. Kapusulu Networks
Awọn Nẹtiwọọki Capsule jẹ iru tuntun ti apẹrẹ nẹtiwọọki nkankikan ti o le ṣe idanimọ awọn ilana ati awọn ibamu ninu data ni imunadoko. Wọn ṣeto awọn neuronu sinu “awọn capsules” ti o fi koodu pa awọn abala kan ti titẹ sii.
Ni ọna yii wọn le ṣe awọn asọtẹlẹ deede diẹ sii. Awọn Nẹtiwọọki Capsule jade awọn ohun-ini idiju ni ilọsiwaju lati inu data titẹ sii nipa lilo ọpọlọpọ awọn fẹlẹfẹlẹ ti awọn capsules.
Ilana Awọn Nẹtiwọọki Capsule jẹ ki wọn kọ ẹkọ awọn aṣoju akoso ti igbewọle ti a fun. Wọn le fi koodu koodu pamọ daradara laarin awọn ohun kan inu aworan nipa sisọ laarin awọn capsules.
Idanimọ nkan, ipin aworan, ati sisẹ ede adayeba jẹ gbogbo awọn ohun elo ti Awọn nẹtiwọki Capsule.
Awọn nẹtiwọki Capsule ni agbara lati gba iṣẹ ni awakọ ti adase awọn imọ-ẹrọ. Wọn ṣe iranlọwọ fun eto ni idanimọ ati iyatọ laarin awọn ohun kan bii awọn ọkọ ayọkẹlẹ, eniyan, ati awọn ami ijabọ. Awọn ọna ṣiṣe wọnyi le yago fun ikọlu nipasẹ ṣiṣe awọn asọtẹlẹ kongẹ diẹ sii nipa ihuwasi awọn nkan ni agbegbe wọn.
7. Ayipada Autoencoders (VAEs)
Awọn VAE jẹ fọọmu ti ohun elo ẹkọ ti o jinlẹ ti a lo fun ẹkọ ti ko ni abojuto. Nipa fifi koodu pamọ sinu aaye iwọn kekere ati lẹhinna yiyipada rẹ pada si ọna kika atilẹba, wọn le kọ ẹkọ lati ṣe iranran awọn ilana ni data.
Wọn dabi alalupayida ti o le yi ehoro kan pada si fila ati lẹhinna pada si bunny! Awọn VAE jẹ anfani fun ṣiṣẹda awọn wiwo ojulowo tabi orin. Ati pe, wọn le ṣee lo lati gbejade data tuntun ti o jẹ afiwera si data atilẹba.
Awọn VAE jọra si codebreaker aṣiri. Wọn le ṣe iwari ipilẹ be ti data nipa kikan si isalẹ sinu rọrun die-die, Elo bi bi a adojuru ti wa ni wó lulẹ. Wọn le lo alaye yẹn lati kọ data tuntun ti o dabi atilẹba lẹhin ti wọn ti ṣeto awọn ẹya naa.
Eyi le jẹ ọwọ fun fisinuirindigbindigbin awọn faili nla tabi iṣelọpọ awọn aworan tuntun tabi orin ni ara kan. VAE tun le gbejade akoonu titun, gẹgẹbi awọn itan iroyin tabi awọn orin orin.
8. Awọn nẹtiwọki Adversarial Generative (GANs)
Awọn GAN (Awọn nẹtiwọki Adversarial Generative) jẹ fọọmu ti eto ẹkọ ti o jinlẹ ti o ṣe agbejade data titun ti o dabi atilẹba. Wọn ṣiṣẹ nipa ikẹkọ awọn nẹtiwọọki meji: olupilẹṣẹ ati nẹtiwọọki iyasoto.
Olupilẹṣẹ ṣe agbejade data tuntun ti o jẹ afiwera si atilẹba.
Ati pe, ẹlẹyamẹya n gbiyanju lati ṣe iyatọ laarin atilẹba ati data ti o ṣẹda. Awọn nẹtiwọọki meji naa ni ikẹkọ ni tandem, pẹlu olupilẹṣẹ n gbiyanju lati tan ẹlẹyamẹya ati ẹlẹyamẹya ngbiyanju lati ṣe idanimọ data atilẹba daradara.
Ro awọn GAN lati jẹ agbelebu laarin oniwadi ati aṣawari kan. Olupilẹṣẹ naa n ṣiṣẹ bakan naa si ayederu, ti n ṣe iṣẹ-ọnà tuntun ti o jọra atilẹba.
Olutayo naa n ṣiṣẹ bi aṣawari, ngbiyanju lati ṣe iyatọ laarin iṣẹ ọna tootọ ati ayederu. Awọn nẹtiwọọki meji naa ni ikẹkọ ni tandem, pẹlu olupilẹṣẹ ni ilọsiwaju ni ṣiṣe awọn iro ti o ṣeeṣe ati iyasọtọ ni ilọsiwaju ni riri wọn.
Awọn GAN ni ọpọlọpọ awọn lilo, ti o wa lati ṣiṣe awọn aworan ojulowo ti eniyan tabi ẹranko si ṣiṣẹda orin tuntun tabi kikọ. Wọn tun le ṣee lo fun imudara data, eyiti o kan apapọ data iṣelọpọ pẹlu data gidi lati kọ data nla kan fun awọn awoṣe ikẹkọ ẹrọ ikẹkọ.
9. Jin Q-Networks (DQNs)
Awọn Nẹtiwọọki Q-jinlẹ (DQNs) jẹ iru ti ṣiṣe ipinnu imuduro ikẹkọ algorithm. Wọn ṣiṣẹ nipa kikọ iṣẹ-Q kan ti o sọ asọtẹlẹ ere ti a nireti fun ṣiṣe iṣe kan ni ipo kan pato.
Iṣẹ-ṣiṣe Q jẹ ẹkọ nipasẹ idanwo ati aṣiṣe, pẹlu algorithm ti n gbiyanju awọn iṣe lọpọlọpọ ati ẹkọ lati awọn abajade.
Ro o bi a video game ti n ṣe idanwo ohun kikọ pẹlu ọpọlọpọ awọn iṣe ati iwari eyiti o yori si aṣeyọri! Awọn DQN ṣe ikẹkọ iṣẹ-Q nipa lilo nẹtiwọọki nkankikan ti o jinlẹ, ṣiṣe wọn awọn irinṣẹ to munadoko fun awọn iṣẹ ṣiṣe ipinnu ti o nira.
Wọn ti ṣẹgun paapaa awọn aṣaju eniyan ni awọn ere bii Go ati chess, ati ni awọn ẹrọ roboti ati awọn ọkọ ayọkẹlẹ ti n wakọ funrararẹ. Nitorinaa, gbogbo rẹ, awọn DQN ṣiṣẹ nipa kikọ ẹkọ lati iriri lati mu awọn ọgbọn ṣiṣe ipinnu wọn pọ si ni akoko pupọ.
10. Awọn nẹtiwọki Iṣẹ Ipilẹ Radial (RBFNs)
Awọn Nẹtiwọọki Iṣẹ Ipilẹ Radial (RBFNs) jẹ too ti nẹtiwọọki nkankikan ti o lo lati ṣe isunmọ awọn iṣẹ ati ṣe awọn iṣẹ ṣiṣe ipin. Wọn ṣiṣẹ nipa yiyipada data titẹ sii sinu aaye ti o ga julọ nipa lilo akojọpọ awọn iṣẹ ipilẹ radial.
Ijade ti nẹtiwọọki jẹ apapo laini ti awọn iṣẹ ipilẹ, ati iṣẹ ipilẹ radial kọọkan duro fun aaye aarin ni aaye titẹ sii.
Awọn RBFN munadoko paapaa fun awọn ipo pẹlu idiju awọn ibaraẹnisọrọ igbewọle-jade, ati pe wọn le kọ wọn ni lilo ọpọlọpọ awọn ilana, pẹlu abojuto ati ikẹkọ ti ko ni abojuto. Wọn ti lo fun ohunkohun lati awọn asọtẹlẹ owo si aworan ati idanimọ ọrọ si awọn iwadii iṣoogun.
Ṣe akiyesi awọn RBFNs gẹgẹbi eto GPS ti o nlo lẹsẹsẹ awọn aaye oran lati wa ọna rẹ kọja ilẹ ti o nija. Ijade ti nẹtiwọọki jẹ apapo awọn aaye oran, eyiti o duro fun awọn iṣẹ ipilẹ radial.
A le lọ kiri nipasẹ alaye idiju ati ṣe ipilẹṣẹ awọn asọtẹlẹ to peye nipa bii oju iṣẹlẹ kan yoo ṣe jade nipa lilo awọn RBFN.
11. Multilayer Perceptrons (MLPs)
Fọọmu aṣoju ti nẹtiwọọki nkankikan ti a pe ni multilayer perceptron (MLP) ni a lo fun awọn iṣẹ ṣiṣe ikẹkọ abojuto bi isọdi ati ipadasẹhin. Wọn ṣiṣẹ nipa tito awọn ipele pupọ ti awọn apa ti o sopọ mọ, tabi awọn neuronu, pẹlu ipele kọọkan lainidi data ti nwọle.
Ninu MLP kan, neuron kọọkan n gba igbewọle lati inu awọn neuronu ni ipele ti o wa ni isalẹ ati fi ami kan ranṣẹ si awọn neuronu ni Layer loke. Iṣẹjade neuron kọọkan jẹ ipinnu nipa lilo iṣẹ imuṣiṣẹ, eyiti o fun nẹtiwọọki aiṣedeede.
Wọn ni agbara lati kọ ẹkọ awọn aṣoju fafa ti data igbewọle nitori wọn le ni ọpọlọpọ awọn fẹlẹfẹlẹ ti o farapamọ.
A ti lo awọn MLP si awọn iṣẹ ṣiṣe lọpọlọpọ, gẹgẹbi itupalẹ itara, iṣawari ẹtan, ati ohun ati idanimọ aworan. Awọn MLPs le ṣe afiwe si ẹgbẹ kan ti awọn oniwadi ti n ṣiṣẹ papọ lati fọ ọran ti o nira.
Papọ, wọn le ṣajọpọ awọn otitọ ati yanju irufin naa laibikita otitọ pe ọkọọkan ni agbegbe pataki kan pato.
12. Awọn nẹtiwọki Neural Convolutional (CNNs)
Awọn aworan ati awọn fidio ti wa ni ilọsiwaju nipa lilo awọn nẹtiwọọki alakikanju (CNNs), ọna ti nẹtiwọọki nkankikan. Wọn ṣiṣẹ nipa lilo eto awọn asẹ ti a kọ ẹkọ, tabi awọn kernels, lati yọkuro awọn abuda pataki lati inu data titẹ sii.
Awọn asẹ naa n yọ lori aworan titẹ sii, ṣiṣe awọn iyipada lati kọ maapu ẹya kan ti o mu awọn abala pataki ti aworan naa.
Bi awọn CNN ṣe ni anfani lati kọ ẹkọ awọn aṣoju akoso ti awọn abuda aworan, wọn ṣe iranlọwọ paapaa fun awọn ipo ti o kan awọn ipele nla ti data wiwo. Awọn ohun elo pupọ ti lo wọn, gẹgẹbi wiwa nkan, tito lẹtọ aworan, ati wiwa oju.
Wo CNNs bi oluyaworan ti o lo ọpọlọpọ awọn gbọnnu lati ṣẹda afọwọṣe kan. Fọlẹ kọọkan jẹ ekuro, ati pe olorin le kọ eka kan, aworan ti o daju nipa didapọ ọpọlọpọ awọn kernels. A le jade awọn abuda pataki lati awọn fọto ki o lo wọn lati ṣe asọtẹlẹ awọn akoonu inu aworan ni deede nipa lilo awọn CNN.
13. Awọn nẹtiwọki Igbagbọ ti o jinlẹ (DBNs)
Awọn DBN jẹ ọna ti nẹtiwọọki nkankikan ti o lo fun awọn iṣẹ ṣiṣe ikẹkọ ti ko ni abojuto gẹgẹbi idinku iwọn ati ẹkọ ẹya. Wọn ṣiṣẹ nipa tito awọn ipele pupọ ti Awọn ẹrọ Boltzmann ti o ni ihamọ (RBMs), eyiti o jẹ awọn nẹtiwọọki ala-meji ti o lagbara lati kọ ẹkọ lati tun data titẹ sii.
Awọn DBN jẹ anfani pupọ fun awọn ọran data iwọn-giga nitori wọn le kọ ẹkọ iwapọ ati aṣoju imudara ti igbewọle naa. Wọn ti jẹ lilo fun ohunkohun lati idanimọ ohun si isori aworan si iṣawari oogun.
Fun apẹẹrẹ, awọn oniwadi lo DBN kan lati ṣe iṣiro isọdọmọ ti awọn oludije oogun si olugba estrogen. A ti gba DBN ikẹkọ lori akojọpọ awọn abuda kemikali ati awọn ibatan abuda, ati pe o ni anfani lati ṣe asọtẹlẹ pipe isọdọkan ti awọn oludije oogun aramada.
Eyi ṣe afihan lilo awọn DBN ni idagbasoke oogun ati awọn ohun elo data iwọn-giga miiran.
14. Autoencoders
Autoencoders jẹ awọn nẹtiwọọki nkankikan ti a lo fun awọn iṣẹ ṣiṣe ikẹkọ ti ko ni abojuto. Wọn ti pinnu lati tun data igbewọle naa ṣe, eyiti o tumọ si pe wọn yoo kọ ẹkọ lati fi ifitonileti koodu naa sinu aṣoju iwapọ ati lẹhinna ṣatunṣe rẹ pada sinu igbewọle atilẹba.
Autoencoders munadoko pupọ fun titẹ data, yiyọ ariwo, ati wiwa anomaly. Wọn tun le ṣee lo fun ẹkọ ẹya, nibiti aṣoju iwapọ autoencoder ti jẹ ifunni sinu iṣẹ ikẹkọ abojuto.
Wo autoencoders lati jẹ awọn ọmọ ile-iwe ti o mu awọn akọsilẹ ni kilasi. Ọmọ ile-iwe naa tẹtisi ikẹkọ naa ati ṣajọ awọn aaye ti o wulo julọ ni ṣoki ati daradara.
Lẹ́yìn náà, akẹ́kọ̀ọ́ náà lè kẹ́kọ̀ọ́ kó sì rántí ẹ̀kọ́ náà nípa lílo àwọn àkọsílẹ̀ wọn. Oluyipada autoencoder, ni ida keji, ṣe koodu data titẹ sii sinu oniduro iwapọ kan ti o le ṣe iṣẹ nigbamii fun awọn idi oriṣiriṣi bii wiwa anomaly tabi funmorawon data.
15. Awọn ẹrọ Boltzmann ni ihamọ (RBMs)
Awọn RBMs (Awọn ẹrọ Boltzmann ti o ni ihamọ) jẹ iru ti nẹtiwọọki ti ipilẹṣẹ ti o lo fun awọn iṣẹ ṣiṣe ikẹkọ ti ko ni abojuto. Wọn ṣe pẹlu ipele ti o han ati ipele ti o farapamọ, pẹlu awọn neurons ni ipele kọọkan, ti a ti sopọ ṣugbọn kii ṣe laarin ipele kanna.
Awọn RBM ti ni ikẹkọ nipa lilo ilana ti a mọ si iyatọ iyatọ, eyiti o kan iyipada awọn iwuwo laarin awọn ipele ti o han ati ti o farapamọ lati le mu iṣeeṣe data ikẹkọ pọ si. Awọn RBM le ṣẹda data tuntun lẹhin ikẹkọ nipasẹ iṣapẹẹrẹ lati pinpin ikẹkọ.
Aworan ati idanimọ ọrọ, sisẹ ifowosowopo, ati wiwa anomaly jẹ gbogbo awọn ohun elo ti o ti gba awọn RBMs. Wọn tun ti lo ni awọn eto iṣeduro lati ṣẹda awọn iṣeduro ti o ni ibamu nipasẹ awọn ilana kikọ lati ihuwasi olumulo.
Awọn RBM tun ti lo ni ẹkọ ẹya lati ṣẹda iwapọ ati aṣoju daradara ti data iwọn-giga.
Ipari-Ipari ati Awọn idagbasoke Ileri lori Horizon
Awọn ọna ẹkọ ti o jinlẹ, gẹgẹbi Awọn Nẹtiwọọki Neural Convolutional (CNNs) ati Awọn Nẹtiwọọki Neural Loorekoore (RNNs), wa laarin awọn ọna itetisi atọwọda ti ilọsiwaju julọ. Awọn CNN ti yi aworan pada ati idanimọ ohun, lakoko ti awọn RNN ti ni ilọsiwaju ni pataki ni sisẹ ede adayeba ati itupalẹ data lẹsẹsẹ.
Igbesẹ t’okan ninu itankalẹ ti awọn isunmọ wọnyi ṣee ṣe lati dojukọ lori imudara imudara wọn ati iwọnwọn, gbigba wọn laaye lati ṣe itupalẹ awọn ipilẹ data ti o tobi ati idiju, bakanna bi imudara itumọ wọn ati agbara lati kọ ẹkọ lati data ti o kere si.
Ẹkọ ti o jinlẹ ni aye ti gbigba awọn aṣeyọri ni awọn aaye bii ilera, iṣuna, ati awọn eto adase bi o ti nlọsiwaju.
Fi a Reply