Për vite me radhë, mësimi i thellë ka qenë titujt kryesorë në teknologji. Dhe, është e thjeshtë të kuptosh pse.
Kjo degë e inteligjencës artificiale po transformon sektorë duke filluar nga kujdesi shëndetësor tek bankat tek transporti, duke mundësuar përparime të pamendueshme më parë.
Të mësuarit e thellë bazohet në një grup algoritmesh të sofistikuara që mësojnë të nxjerrin dhe parashikojnë modele të ndërlikuara nga vëllime masive të dhënash.
Ne do të shohim 15 algoritmet më të mira të të mësuarit të thellë në këtë postim, nga Rrjetet Neurale Konvolucionale te Rrjetet Gjenerative Kundërshtare te Rrjetet e Memories Afatshkurtëra.
Ky postim do të japë njohuri thelbësore nëse jeni një fillestar ose ekspert në të mësuarit e thellë.
1. Rrjetet e transformatorëve
Rrjetet e transformatorëve janë transformuar vizion kompjuteri dhe aplikacionet e përpunimit të gjuhës natyrore (NLP). Ata analizojnë të dhënat hyrëse dhe përdorin procese të vëmendjes për të kapur marrëdhënie me rreze të gjatë. Kjo i bën ata më të shpejtë se modelet konvencionale sekuencë në sekuencë.
Rrjetet e transformatorëve u përshkruan fillimisht në botimin "Vëmendja është gjithçka që ju nevojitet" nga Vaswani et al.
Ato përbëhen nga një kodues dhe një dekoder (2017). Modeli i transformatorit ka demonstruar performancë në një sërë aplikacionesh NLP, duke përfshirë Analiza ndjenjë, kategorizimi i tekstit dhe përkthimi me makinë.
Modelet e bazuara në transformator mund të përdoren gjithashtu në vizionin kompjuterik për aplikacione. Ata mund të kryejnë njohjen e objekteve dhe mbishkrimin e imazhit.
2. Rrjetet e memories afatgjatë (LSTM)
Rrjetet e kujtesës afatshkurtër të gjatë (LSTM) janë një formë e Rrjeti nervoz i ndërtuar posaçërisht për të trajtuar hyrjen sekuenciale. Ata quhen "afatshkurtër afatgjatë" sepse mund të kujtojnë njohuritë e një kohe të gjatë duke harruar gjithashtu informacionin e panevojshëm.
LSTM-të funksionojnë përmes disa "portave" që rregullojnë rrjedhën e informacionit brenda rrjetit. Në varësi të faktit nëse informacioni vlerësohet i rëndësishëm apo jo, këto porta mund ta lejojnë ose ta parandalojnë atë.
Kjo teknikë u mundëson LSTM-ve të kujtojnë ose harrojnë informacionin nga hapat e kaluar kohore, gjë që është kritike për detyra si njohja e të folurit, përpunimi i gjuhës natyrore dhe parashikimi i serive kohore.
LSTM-të janë jashtëzakonisht të dobishme në çdo rast kur keni të dhëna të njëpasnjëshme që duhet të vlerësohen ose të parashikohen. Ato përdoren shpesh në softuerin e njohjes së zërit për të kthyer fjalët e folura në tekst ose në bursë analiza për të parashikuar çmimet e ardhshme bazuar në të dhënat e mëparshme.
3. Hartat vetëorganizuese (SOM)
SOM-të janë një lloj artificial rrjet nervor që mund të mësojë dhe përfaqësojnë të dhëna të ndërlikuara në një mjedis me dimensione të ulëta. Metoda funksionon duke transformuar të dhënat hyrëse me dimensione të larta në një rrjet dy-dimensionale, ku çdo njësi ose neuron përfaqëson një pjesë të ndryshme të hapësirës hyrëse.
Neuronet janë të lidhura së bashku dhe krijojnë një strukturë topologjike, duke i lejuar ata të mësojnë dhe të përshtaten me të dhënat hyrëse. Pra, SOM bazohet në mësimin e pambikëqyrur.
Algoritmi nuk ka nevojë të dhëna të etiketuara për të mësuar nga. Në vend të kësaj, ai përdor tiparet statistikore të të dhënave hyrëse për të zbuluar modele dhe korrelacione midis variablave.
Gjatë fazës së trajnimit, neuronet konkurrojnë për të qenë treguesi më i mirë i të dhënave hyrëse. Dhe, ata vetë-organizohen në një strukturë kuptimplote. SOM-të kanë një gamë të gjerë aplikimesh, duke përfshirë njohjen e imazheve dhe të folurit, nxjerrjen e të dhënave dhe njohjen e modeleve.
Janë të dobishme për vizualizimi i të dhënave të ndërlikuara, grumbullimi i pikave të lidhura të të dhënave dhe zbulimi i anomalive ose të jashtme.
4. Mësimi i përforcimit të thellë
thellë Mësimi i përforcimit është një lloj mësimi makinerie në të cilin një agjent trajnohet për të marrë vendime bazuar në një sistem shpërblimi. Ai funksionon duke e lënë agjentin të ndërveprojë me rrethinën e tij dhe të mësojë nëpërmjet provës dhe gabimit.
Agjenti shpërblehet për çdo veprim që bën dhe qëllimi i tij është të mësojë se si të optimizojë përfitimet e tij me kalimin e kohës. Kjo mund të përdoret për të mësuar agjentët të luajnë lojëra, të ngasin makina dhe madje të menaxhojnë robotë.
Q-Learning është një metodë e njohur e të mësuarit të përforcimit të thellë. Ai funksionon duke vlerësuar vlerën e kryerjes së një veprimi të caktuar në një gjendje të caktuar dhe duke e përditësuar atë vlerësim ndërsa agjenti ndërvepron me mjedisin.
Agjenti më pas përdor këto vlerësime për të përcaktuar se cili veprim ka më shumë gjasa të rezultojë në shpërblimin më të madh. Q-Learning është përdorur për të edukuar agjentët për të luajtur lojëra Atari, si dhe për të përmirësuar përdorimin e energjisë në qendrat e të dhënave.
Deep Q-Networks është një tjetër metodë e famshme e mësimit të përforcimit të thellë (DQN). DQN-të janë të ngjashme me Q-Learning në atë që vlerësojnë vlerat e veprimit duke përdorur një rrjet nervor të thellë dhe jo një tabelë.
Kjo u mundëson atyre të përballen me cilësime të mëdha, të ndërlikuara me veprime të shumta alternative. DQN-të janë përdorur për të trajnuar agjentët për të luajtur lojëra të tilla si Go dhe Dota 2, si dhe për të krijuar robotë që mund të mësojnë të ecin.
5. Rrjetet nervore të përsëritura (RNN)
RNN-të janë një lloj rrjeti nervor që mund të përpunojë të dhëna sekuenciale duke mbajtur një gjendje të brendshme. Konsideroni të ngjashme me një person që lexon një libër, ku çdo fjalë tretet në lidhje me ato që dolën përpara.
Prandaj, RNN-të janë ideale për detyra si njohja e të folurit, përkthimi i gjuhës dhe madje edhe parashikimi i fjalës tjetër në një frazë.
RNN-të funksionojnë duke përdorur unazat e reagimit për të lidhur daljen e çdo hapi kohor me hyrjen e hapit tjetër kohor. Kjo i mundëson rrjetit të përdorë informacionin e hapit kohor të mëparshëm për të informuar parashikimet e tij për hapat kohorë të ardhshëm. Fatkeqësisht, kjo do të thotë gjithashtu se RNN-të janë të cenueshëm ndaj problemit të gradientit që po zhduket, në të cilin gradientët e përdorur për trajnim bëhen shumë të vogla dhe rrjeti lufton për të mësuar marrëdhëniet afatgjata.
Pavarësisht nga ky kufizim i dukshëm, RNN-të kanë gjetur përdorim në një gamë të gjerë aplikimesh. Këto aplikacione përfshijnë përpunimin e gjuhës natyrore, njohjen e të folurit dhe madje edhe prodhimin e muzikës.
Google Translate, për shembull, përdor një sistem të bazuar në RNN për të përkthyer nëpër gjuhë, ndërsa Siri, asistenti virtual, përdor një sistem të bazuar në RNN për të zbuluar zërin. RNN-të janë përdorur gjithashtu për të parashikuar çmimet e aksioneve dhe për të krijuar tekst dhe grafikë realiste.
6. Rrjetet e kapsulave
Capsule Networks është një lloj i ri i dizajnit të rrjetit nervor që mund të identifikojë modelet dhe korrelacionet në të dhëna në mënyrë më efektive. Ata organizojnë neuronet në "kapsula" që kodojnë disa aspekte të një hyrjeje.
Në këtë mënyrë ata mund të bëjnë parashikime më të sakta. Rrjetet e kapsulave nxjerrin veti të ndërlikuara në mënyrë progresive nga të dhënat hyrëse duke përdorur shtresa të shumta kapsulash.
Teknika e Rrjeteve të Kapsulave u mundëson atyre të mësojnë paraqitjet hierarkike të hyrjes së dhënë. Ata mund të kodojnë siç duhet lidhjet hapësinore midis artikujve brenda një fotografie duke komunikuar midis kapsulave.
Identifikimi i objekteve, segmentimi i figurës dhe përpunimi i gjuhës natyrore janë të gjitha aplikimet e Rrjeteve të Kapsulave.
Rrjetet e kapsulave kanë potencialin për t'u punësuar në ngarje autonome teknologjive. Ato ndihmojnë sistemin në njohjen dhe dallimin midis sendeve të tilla si automobilat, njerëzit dhe shenjat e trafikut. Këto sisteme mund të shmangin përplasjet duke bërë parashikime më të sakta për sjelljen e objekteve në mjedisin e tyre.
7. Autoenkodues variacional (VAE)
VAE-të janë një formë e mjetit të të mësuarit të thellë që përdoret për mësimin e pambikëqyrur. Duke koduar të dhënat në një hapësirë me dimensione më të ulëta dhe më pas duke i deshifruar ato në formatin origjinal, ata mund të mësojnë të dallojnë modelet në të dhëna.
Ata janë si një magjistar që mund të transformojë një lepur në një kapele dhe më pas të kthehet në një lepur! VAE-të janë të dobishme për gjenerimin e pamjeve ose muzikës realiste. Dhe, ato mund të përdoren për të prodhuar të dhëna të reja që janë të krahasueshme me të dhënat origjinale.
VAE-të janë të ngjashme me kodthyesin sekret. Ata mund të zbulojnë themelin struktura e të dhënave duke e zbërthyer në pjesë më të thjeshta, njësoj si zbërthehet një enigmë. Ata mund ta përdorin atë informacion për të ndërtuar të dhëna të reja që duken si origjinale pasi të kenë renditur pjesët.
Kjo mund të jetë e dobishme për të kompresuar skedarë të mëdhenj ose për të prodhuar grafika ose muzikë të freskët në një stil të caktuar. VAE-të mund të prodhojnë gjithashtu përmbajtje të freskëta, të tilla si lajme ose tekste muzikore.
8. Rrjetet kundërshtare gjeneruese (GAN)
GANs (Generative Adversarial Networks) janë një formë e një sistemi të të mësuarit të thellë që gjeneron të dhëna të reja që i ngjajnë origjinalit. Ata operojnë duke trajnuar dy rrjete: një gjenerues dhe një rrjet diskriminues.
Gjeneratori prodhon të dhëna të reja që janë të krahasueshme me origjinalin.
Dhe, diskriminuesi përpiqet të bëjë dallimin midis të dhënave origjinale dhe të krijuara. Të dy rrjetet trajnohen së bashku, me gjeneratorin që përpiqet të mashtrojë diskriminuesin dhe diskriminuesi që përpiqet të identifikojë siç duhet të dhënat origjinale.
Konsideroni GAN-et si një kryqëzim midis një falsifikuesi dhe një detektivi. Gjeneratori funksionon në mënyrë të ngjashme me një falsifikator, duke prodhuar vepra të reja arti që i ngjan origjinalit.
Diskriminuesi vepron si një detektiv, duke u përpjekur të bëjë dallimin midis veprave të vërteta të artit dhe falsifikimit. Të dy rrjetet janë trajnuar së bashku, me gjeneratorin që përmirësohet në krijimin e falsifikimeve të besueshme dhe diskriminuesi që përmirësohet në njohjen e tyre.
GAN-et kanë disa përdorime, duke filluar nga prodhimi i fotografive realiste të njerëzve ose kafshëve deri te krijimi i muzikës ose shkrimit të ri. Ato mund të përdoren gjithashtu për shtimin e të dhënave, që përfshin kombinimin e të dhënave të prodhuara me të dhënat reale për të ndërtuar një grup të dhënash më të madhe për trajnimin e modeleve të mësimit të makinerive.
9. Rrjetet e thella Q (DQN)
Rrjetet e thella Q (DQN) janë një lloj algoritmi mësimor për përforcimin e vendimmarrjes. Ata veprojnë duke mësuar një funksion Q që parashikon shpërblimin e pritur për kryerjen e një veprimi të caktuar në një gjendje të caktuar.
Funksioni Q mësohet me provë dhe gabim, me algoritmin që tenton veprime të ndryshme dhe mëson nga rezultatet.
Konsideroni atë si një lojë video personazhi që eksperimenton me veprime të ndryshme dhe zbulon se cilat prej tyre çojnë në sukses! DQN-të trajnojnë funksionin Q duke përdorur një rrjet nervor të thellë, duke i bërë ato mjete efektive për detyra të vështira vendimmarrëse.
Ata madje kanë mundur kampionët njerëzorë në lojëra të tilla si Go dhe shah, si dhe në robotikë dhe automobila që drejtojnë vetë. Pra, në përgjithësi, DQN-të punojnë duke mësuar nga përvoja për të përmirësuar aftësitë e tyre vendimmarrëse me kalimin e kohës.
10. Rrjetet e funksionit me bazë radiale (RBFN)
Rrjetet e funksionit të bazës radiale (RBFN) janë një lloj rrjeti nervor që përdoret për të përafruar funksionet dhe për të kryer detyra klasifikimi. Ato funksionojnë duke transformuar të dhënat hyrëse në një hapësirë me dimensione më të larta duke përdorur një koleksion funksionesh bazë radiale.
Dalja e rrjetit është një kombinim linear i funksioneve bazë, dhe çdo funksion bazë radial përfaqëson një pikë qendrore në hapësirën hyrëse.
RBFN-të janë veçanërisht efektive për situatat me ndërveprime të ndërlikuara hyrje-dalje dhe ato mund të mësohen duke përdorur një gamë të gjerë teknikash, duke përfshirë mësimin e mbikëqyrur dhe të pambikëqyrur. Ato janë përdorur për çdo gjë, nga parashikimet financiare deri te njohja e figurës dhe e të folurit deri te diagnostifikimi mjekësor.
Konsideroni RBFN-të si një sistem GPS që përdor një sërë pikash ankorimi për të gjetur rrugën e tij nëpër terrene sfiduese. Dalja e rrjetit është një kombinim i pikave të ankorimit, të cilat qëndrojnë për funksionet e bazës radiale.
Ne mund të shfletojmë informacione të ndërlikuara dhe të gjenerojmë parashikime të sakta se si do të dalë një skenar duke përdorur RBFN.
11. Perceptronet me shumë shtresa (MLP)
Një formë tipike e rrjetit nervor e quajtur një perceptron me shumë shtresa (MLP) përdoret për detyrat e të mësuarit të mbikëqyrura si klasifikimi dhe regresioni. Ato funksionojnë duke grumbulluar disa shtresa nyjesh të lidhura, ose neurone, me secilën shtresë që ndryshon në mënyrë jolineare të dhënat hyrëse.
Në një MLP, çdo neuron merr të dhëna nga neuronet në shtresën më poshtë dhe dërgon një sinjal tek neuronet në shtresën e mësipërme. Dalja e çdo neuroni përcaktohet duke përdorur një funksion aktivizimi, i cili i jep rrjetit jolinearitet.
Ata janë të aftë të mësojnë paraqitje të sofistikuara të të dhënave hyrëse pasi ato mund të kenë disa shtresa të fshehura.
MLP-të janë aplikuar për një sërë detyrash, të tilla si analiza e ndjenjave, zbulimi i mashtrimit dhe njohja e zërit dhe e figurës. MLP-të mund të krahasohen me një grup hetuesish që punojnë së bashku për të goditur një çështje të vështirë.
Së bashku, ata mund të bashkojnë faktet dhe të zgjidhin krimin, pavarësisht nga fakti se secili ka një fushë të veçantë specialiteti.
12. Rrjetet nervore konvolucionale (CNN)
Imazhet dhe videot përpunohen duke përdorur rrjetet nervore konvolucionale (CNN), një formë e rrjetit nervor. Ato funksionojnë duke përdorur një grup filtrash ose bërthamash të mësuar për të nxjerrë karakteristika të rëndësishme nga të dhënat hyrëse.
Filtrat rrëshqasin mbi figurën hyrëse, duke ekzekutuar konvolucione për të ndërtuar një hartë të veçorive që kap aspektet thelbësore të imazhit.
Duke qenë se CNN-të janë në gjendje të mësojnë paraqitje hierarkike të karakteristikave të figurës, ato janë veçanërisht të dobishme për situatat që përfshijnë vëllime të mëdha të dhënash vizuale. Disa aplikacione i kanë përdorur ato, si zbulimi i objekteve, kategorizimi i fotografive dhe zbulimi i fytyrës.
Konsideroni CNN-të si një piktor që përdor disa furça për të krijuar një kryevepër. Çdo furçë është një bërthamë dhe artisti mund të ndërtojë një imazh kompleks dhe realist duke përzier shumë bërthama. Ne mund të nxjerrim karakteristika të rëndësishme nga fotot dhe t'i përdorim ato për të parashikuar me saktësi përmbajtjen e imazhit duke përdorur CNN.
13. Rrjetet e besimit të thellë (DBN)
DBN-të janë një formë e rrjetit nervor që përdoret për detyrat e të mësuarit të pambikëqyrura, si zvogëlimi i dimensioneve dhe mësimi i veçorive. Ato funksionojnë duke grumbulluar disa shtresa të makinave të kufizuara Boltzmann (RBM), të cilat janë rrjete nervore me dy shtresa të afta të mësojnë të rindërtojnë të dhënat hyrëse.
DBN-të janë shumë të dobishme për çështjet e të dhënave me dimensione të larta, sepse ato mund të mësojnë një paraqitje kompakte dhe efikase të hyrjes. Ato janë përdorur për çdo gjë, nga njohja e zërit deri te kategorizimi i fotografive deri te zbulimi i drogës.
Për shembull, studiuesit përdorën një DBN për të vlerësuar afinitetin lidhës të kandidatëve për mjekim me receptorin e estrogjenit. DBN u trajnua mbi një koleksion karakteristikash kimike dhe afinitetesh lidhëse, dhe ishte në gjendje të parashikonte me saktësi afinitetin lidhës të kandidatëve të rinj të drogës.
Kjo nxjerr në pah përdorimin e DBN-ve në zhvillimin e barnave dhe aplikacione të tjera të të dhënave me dimensione të larta.
14. Autoenkoder
Autoenkoderët janë rrjete nervore që përdoren për detyra të pambikëqyrura mësimore. Ato synojnë të rindërtojnë të dhënat hyrëse, gjë që nënkupton se ata do të mësojnë të kodojnë informacionin në një paraqitje kompakte dhe më pas ta deshifrojnë atë në hyrjen origjinale.
Autoenkoderët janë shumë efektivë për kompresimin e të dhënave, heqjen e zhurmës dhe zbulimin e anomalive. Ato mund të përdoren gjithashtu për mësimin e veçorive, ku përfaqësimi kompakt i koduesit automatik futet në një detyrë mësimore të mbikëqyrur.
Konsideroni kodifikuesit automatikë si studentë që mbajnë shënime në klasë. Studenti dëgjon ligjëratën dhe shënon pikat më të rëndësishme në një mënyrë koncize dhe efikase.
Më vonë, studenti mund të studiojë dhe të kujtojë mësimin duke përdorur shënimet e tij. Një kodues automatik, nga ana tjetër, kodon të dhënat hyrëse në një paraqitje kompakte që mund të përdoret më pas për qëllime të ndryshme, si zbulimi i anomalive ose kompresimi i të dhënave.
15. Makinat e kufizuara Boltzmann (RBM)
RBM-të (Makinat e kufizuara Boltzmann) janë një lloj rrjeti nervor gjenerues që përdoret për detyra mësimore të pambikëqyrura. Ato përbëhen nga një shtresë e dukshme dhe një shtresë e fshehur, me neurone në secilën shtresë, të lidhur, por jo brenda së njëjtës shtresë.
RBM-të trajnohen duke përdorur një teknikë të njohur si divergjenca kontrastive, e cila përfshin ndryshimin e peshave midis shtresave të dukshme dhe të fshehura në mënyrë që të optimizohet probabiliteti i të dhënave të trajnimit. RBM-të mund të krijojnë të dhëna të freskëta pasi të trajnohen duke marrë mostra nga shpërndarja e mësuar.
Njohja e imazhit dhe e të folurit, filtrimi i përbashkët dhe zbulimi i anomalive janë të gjitha aplikacione që kanë përdorur RBM. Ato janë përdorur gjithashtu në sistemet e rekomandimeve për të krijuar rekomandime të përshtatura duke mësuar modele nga sjellja e përdoruesit.
RBM-të janë përdorur gjithashtu në mësimin e veçorive për të krijuar një paraqitje kompakte dhe efikase të të dhënave me dimensione të larta.
Përmbyllje dhe zhvillime premtuese në horizont
Metodat e të mësuarit të thellë, të tilla si Rrjetet Neurale Konvolutional (CNN) dhe Rrjetet Neural Recurrent (RNNs), janë ndër qasjet më të avancuara të inteligjencës artificiale. CNN-të kanë transformuar njohjen e figurës dhe audios, ndërsa RNN-të kanë avancuar ndjeshëm në përpunimin e gjuhës natyrore dhe analizën sekuenciale të të dhënave.
Hapi tjetër në evoluimin e këtyre qasjeve ka të ngjarë të përqendrohet në përmirësimin e efikasitetit dhe shkallëzueshmërisë së tyre, duke i lejuar ata të analizojnë grupe të dhënash më të mëdha dhe më të ndërlikuara, si dhe të përmirësojnë interpretueshmërinë dhe aftësinë e tyre për të mësuar nga të dhënat më pak të etiketuara.
Mësimi i thellë ka mundësinë të lejojë përparime në fusha të tilla si kujdesi shëndetësor, financa dhe sistemet autonome ndërsa përparon.
Lini një Përgjigju