Dapoi anni, l'apprendimentu prufondu hà fattu i tituli in a tecnulugia. È, hè simplice per capisce perchè.
Stu ramu di l'intelligenza artificiale trasforma i settori chì varienu da l'assistenza sanitaria à a banca à u trasportu, permettendu avanzamenti prima impensabili.
L'apprendimentu prufondu hè custruitu annantu à un inseme di algoritmi sofisticati chì amparanu à estrattà è prediche mudelli complicati da volumi massivi di dati.
Fighjemu i migliori 15 algoritmi di apprendimentu profondu in questu post, da e Reti Neurali Convoluzionali à Reti Adversariali Generative à Reti di Memoria à Cortu-Term Long.
Questu post vi darà insights essenziali nantu à se site un principianti o un espertu in l'apprendimentu prufondu.
1. Reti Transformer
E rete di trasformatori anu trasfurmatu visione per computer è applicazioni di trasfurmazioni di lingua naturale (NLP). Analizanu e dati entranti è impieganu prucessi d'attenzione per catturà relazioni à longu andà. Questu li rende più veloci di i mudelli convenzionali di sequenza à sequenza.
E rete di trasformatori sò stati prima descritti in a publicazione "Attention Is All You Need" da Vaswani et al.
Sò custituiti da un codificatore è un decodificatore (2017). U mudellu di trasformatore hà dimustratu prestazioni in una varietà di applicazioni NLP, cumprese analisi di sintimentu, categurizazione di testu è traduzzione automatica.
I mudelli basati in trasformatori ponu ancu esse utilizati in a visione di computer per l'applicazioni. Puderanu fà ricunniscenza di l'ughjettu è captioning di l'imaghjini.
2. Reti di Memoria à Cortu-Term (LSTM)
Reti di Memoria à Cortu-Term Long (LSTM) sò una forma di reta neurale specialmente custruitu per trattà input sequenziale. Sò riferiti cum'è "long short term" perchè ponu ricurdà a cunniscenza da un bellu pezzu, è ancu scurdate di l'infurmazioni innecessarii.
I LSTM operanu attraversu certi "porte" chì guvernanu u flussu di l'infurmazioni in a reta. Sicondu s'ellu l'infurmazione hè ghjudicata significativa o micca, queste porte ponu sia lascià o impediscenu.
Sta tecnica permette à i LSTM di ricurdà o di scurdà l'infurmazioni da i passi di u tempu passatu, chì hè criticu per i travaglii cum'è u ricunniscenza di a parolla, l'elaborazione di a lingua naturale è a predizione di serie temporale.
I LSTM sò estremamente benefizii in ogni casu induve avete dati sequenziali chì deve esse valutati o previsti. Sò spessu usati in u software di ricunniscenza di voce per cunvertisce e parolle parlate in testu, o in mercatu scorta analisi per a previsione di i prezzi futuri basatu nantu à dati previ.
3. Maps autourganizzanti (SOM)
I SOM sò una sorta di artificiale rete neurale chì pò amparà è rapprisentanu dati cumplicati in un ambiente di dimensioni bassu. U metudu opera transformendu e dati di input di alta dimensione in una griglia bidimensionale, cù ogni unità o neurona chì rapprisenta una parte sfarente di u spaziu di input.
I neuroni sò ligati inseme è creanu una struttura topologica, chì li permette di amparà è aghjustà à i dati di input. Dunque, SOM hè basatu annantu à l'apprendimentu senza supervisione.
L'algoritmu ùn hà micca bisognu dati etichettati per amparà da. Invece, usa e caratteristiche statistiche di i dati di input per scopre mudelli è correlazioni trà e variàbili.
Duranti u stadiu di furmazione, i neuroni cumpetenu per esse a megliu indicazione di i dati di input. È, s'autourganizanu in una struttura significativa. I SOM anu una larga gamma di applicazioni, cumprese a ricunniscenza di l'imaghjini è di a voce, a minazione di dati è a ricunniscenza di mudelli.
Sò utili per visualizendu dati complicati, clustering punti di dati cunnessi, è rileva anormalità o outliers.
4. Deep Reinforcement Learning
Deep Apprendimentu di rinfurzamentu hè una sorta di machine learning in quale un agentu hè furmatu per piglià decisioni basatu annantu à un sistema di ricumpensa. Funziona lascendu l'agente interagisce cù u so circondu è amparà per prucessu è errore.
L'agente hè ricumpinsatu per ogni azzione chì face, è u so scopu hè di amparà à ottimisà i so benefici cù u tempu. Questu pò esse usatu per insegnà l'agenti à ghjucà, guidà l'automobile, è ancu gestisce i robot.
Q-Learning hè un metudu ben cunnisciutu di Deep Reinforcement Learning. Opera per evaluà u valore di fà una certa azzione in un statu particulari è aghjurnà quella stima cum'è l'agente interagisce cù l'ambiente.
Allora l'agente utilizeghja sti stimi per determinà quale azzione hè più prubabile di risultatu in a più grande ricumpensa. Q-Learning hè stata utilizata per educà l'agenti per ghjucà à i ghjochi Atari, è ancu per migliurà l'usu di l'energia in i centri di dati.
Deep Q-Networks hè un altru famosu metudu di Deep Reinforcement Learning (DQN). I DQN sò simili à Q-Learning in quantu stimanu i valori d'azzione utilizendu una rete neurale profonda piuttostu cà una tavola.
Questu li permette di trattà cun paràmetri enormi è complicati cù numerosi azzioni alternative. I DQN sò stati utilizati per furmà l'agenti per ghjucà ghjochi cum'è Go è Dota 2, è ancu per creà robots chì ponu amparà à caminari.
5. Reti Neural Recurrents (RNNs)
I RNN sò una sorta di rete neurale chì ponu processà e dati sequenziale mentre mantene un statu internu. Cunsiderate cum'è una persona chì leghje un libru, induve ogni parolla hè digerita in relazione à quelli chì sò vinuti prima.
I RNN sò dunque ideali per i travaglii cum'è a ricunniscenza di parlà, a traduzzione di a lingua, è ancu a previsione di a prossima parolla in una frase.
I RNN travaglianu utilizendu loops di feedback per cunnette l'output di ogni passu di tempu à l'input di u passu prossimu. Questu permette à a rete di utilizà l'infurmazioni di u passu di u tempu prima per informà e so previsioni per i passi di u tempu futuri. Sfurtunatamente, questu significa ancu chì i RNN sò vulnerabili à u prublema di u gradiente chì svanisce, in quale i gradienti utilizati per a furmazione diventanu assai picculi è a reta lotta per amparà relazioni à longu andà.
Malgradu sta limitazione apparente, i RNN anu truvatu l'usu in una larga gamma di applicazioni. Queste appiicazioni includenu l'elaborazione di a lingua naturale, u ricunniscenza di parlà, è ancu a produzzione di musica.
Google traduzzione, per esempiu, impiega un sistema basatu in RNN per traduce in diverse lingue, mentri Siri, l'assistente virtuale, utilizeghja un sistema basatu in RNN per detectà a voce. I RNN sò stati ancu utilizati per previsione di i prezzi di l'azzioni è creanu testu è grafici realistichi.
6. Capsule Networks
Capsule Networks hè un novu tipu di disignu di rete neurale chì pò identificà mudelli è correlazioni in dati in modu più efficace. Organizzanu i neuroni in "capsule" chì codificanu certi aspetti di un input.
Questu modu ponu fà predizioni più precise. Capsule Networks estrae proprietà progressivamente complicate da dati di input utilizendu numerosi strati di capsule.
A tecnica di Capsule Networks li permette di amparà rapprisintazioni gerarchiche di l'input datu. Puderanu codificà currettamente e cunnessione spaziali trà l'articuli in una stampa cumunicanu trà e capsule.
L'identificazione di l'ughjettu, a segmentazione di l'imaghjini è u trattamentu di a lingua naturale sò tutte l'applicazioni di Capsule Networks.
I Capsule Networks anu u putenziale di esse impiegati guida autonoma tecnulugia. Asistenu u sistema à ricunnosce è distingue trà l'articuli cum'è l'automobile, e persone è i segni di trafficu. Questi sistemi ponu evità scontri facendu predizioni più precise nantu à u cumpurtamentu di l'uggetti in u so ambiente.
7. Autoencoders Variational (VAE)
I VAE sò una forma di strumentu d'apprendimentu profondu chì hè utilizatu per l'apprendimentu senza supervisione. Encoding data in un spaziu dimensionale più bassu è poi decodificà torna in u formatu originale, ponu amparà à spotted patterns in data.
Sò cum'è un magu chì pò trasfurmà un cunigliu in un cappellu è poi torna in un cunigliu! I VAE sò benefizii per generà visuali o musica realistichi. È, ponu esse usatu per pruduce novi dati chì sò paragunabili à i dati originali.
I VAE sò simili à u codice secretu. Puderanu scopre u sottu struttura di dati scindendulu in pezzi più simplici, cum'è cumu si sparte un puzzle. Puderanu aduprà sta informazione per custruisce novi dati chì pareanu l'uriginale dopu avè risoltu e parti.
Questu pò esse utile per cumpressione di fugliali enormi o pruduce grafica fresca o musica in un certu stile. I VAE ponu ancu pruduce cuntenutu frescu, cum'è storie di notizie o testi di musica.
8. Reti Adversariali Generative (GAN)
GANs (Generative Adversarial Networks) sò una forma di un sistema di apprendimentu prufondu chì genera novi dati chì s'assumiglia à l'uriginale. Operanu da a furmazione di duie rete: un generatore è una reta di discriminatore.
U generatore pruduce novi dati chì sò paragunabili à l'uriginale.
E, u discriminatore prova di distinguishà trà i dati originali è creati. E duie rete sò furmatu in tandem, cù u generatore chì prova à ingannà u discriminatore è u discriminatore chì prova à identificà bè i dati originali.
Cunsiderate i GAN per esse un incruciamentu trà un falsificatore è un detective. U generatore funziona in modu simili à un falsificatore, producendu novi opere d'arte chì s'assumiglia à l'uriginale.
U discriminatore agisce cum'è un detective, tentativu di distingue trà l'opera d'arte genuina è a falsificazione. E duie rete sò furmatu in tandem, cù u generatore chì migliurà à fà falsi plausibili è u discriminatore chì migliura à ricunnosce.
I GAN anu parechji usi, chì varienu da a pruduzzione di ritratti realistichi di l'omu o l'animali à a creazione di musica o scrittura nova. Puderanu ancu esse aduprati per l'aumentu di dati, chì implica a cumminazione di dati produtti cù dati reali per custruisce un dataset più grande per a furmazione di mudelli di apprendimentu di machine.
9. Deep Q-Networks (DQN)
Deep Q-Networks (DQN) sò una sorta di algoritmu di apprendimentu di rinforzu per a decisione. Operanu imparendu una funzione Q chì predice a ricumpensa prevista per fà una certa azzione in una cundizione particulare.
A funzione Q hè insegnata da prova è errore, cù l'algoritmu chì prova diverse azzioni è apprendu da i risultati.
Cunsiderate cum'è a Video ghjocu caratteru chì sperimenta diverse azzioni è scopre quale portanu à u successu! I DQN addestranu a funzione Q aduprendu una rete neurale profonda, chì li rende strumenti efficaci per i travaglii di decisione difficili.
Anu ancu scunfittu campioni umani in ghjochi cum'è Go è scacchi, è ancu in robotica è autubuli autoguidati. Dunque, in tuttu, i DQN travaglianu imparendu da l'esperienza per rinfurzà e so cumpetenze di decisione in u tempu.
10. Reti di Funzioni di Basi Radiali (RBFNs)
Radial Basis Function Networks (RBFN) sò una sorta di rete neurale chì hè aduprata per apprussimarà e funzioni è eseguisce funzioni di classificazione. Operanu trasfurmendu e dati di input in un spaziu di dimensione più altu utilizendu una cullizzioni di funzioni di basa radiali.
L'output di a reta hè una cumminazione lineale di e funzioni di basa, è ogni funzione di basa radiale rapprisenta un puntu centru in u spaziu di input.
I RBFN sò particularmente efficaci per situazioni cù interazzioni input-output complicate, è ponu esse insignati utilizendu una larga gamma di tecniche, cumpresu l'apprendimentu supervisatu è senza supervisione. Sò stati utilizati per qualsiasi cosa, da e previsioni finanziarie à l'imaghjini è u ricunniscenza di parlà à i diagnostichi medichi.
Cunsiderate l'RBFN cum'è un sistema GPS chì usa una seria di punti di ancora per truvà u so modu in terreni sfida. L'output di a reta hè una cumminazione di i punti di ancora, chì si trovanu per e funzioni di basa radiali.
Pudemu navigà à traversu l'infurmazioni cumplicate è generà previsioni precise nantu à cumu si sarà un scenariu utilizendu RBFN.
11. Multilayer Perceptrons (MLP)
Una forma tipica di rete neurale chjamata perceptron multilayer (MLP) hè aduprata per i travaglii di apprendimentu supervisati cum'è a classificazione è a regressione. Operanu impilando parechji strati di nodi cunnessi, o neuroni, cù ogni strata chì cambia in modu non lineale i dati entranti.
In un MLP, ogni neurone riceve input da i neuroni in a capa sottu è manda un signalu à i neuroni in a capa sopra. L'output di ogni neurone hè determinatu utilizendu una funzione di attivazione, chì dà a rete non linearità.
Sò capaci di amparà rapprisintazioni sofisticati di i dati di input postu chì ponu avè parechje strati nascosti.
I MLP sò stati applicati à una varietà di attività, cum'è l'analisi di sentimenti, a rilevazione di fraude è a ricunniscenza di voce è di stampa. I MLP ponu esse paragunati à un gruppu di investigatori chì travaglianu inseme per scaccià un casu difficiule.
Inseme, ponu riunisce i fatti è risolve u crimine malgradu u fattu chì ognunu hà un spaziu particulari di specialità.
12. Reti Neural Convolutional (CNN)
L'imaghjini è i video sò trattati cù e rete neurali cunvoluzionali (CNN), una forma di rete neurale. Funzionanu aduprendu un inseme di filtri apprendibili, o kernels, per caccià e caratteristiche significative da i dati di input.
I filtri scorri nantu à a stampa di input, eseguendu cunvoluzioni per custruisce una mappa di funzioni chì cattura aspetti essenziali di l'imaghjini.
Siccomu i CNN sò capaci di amparà rapprisintazioni gerarchiche di e caratteristiche di l'imaghjini, sò particularmente utili per situazioni chì implicanu volumi enormi di dati visuali. Diversi appricazzioni anu fattu usu di elli, cum'è a rilevazione di l'ughjetti, a categurizazione di l'imaghjini è a rilevazione di faccia.
Cunsiderate i CNN cum'è un pittore chì usa parechje spazzole per creà un capolavoru. Ogni spazzola hè un kernel, è l'artista pò custruisce una maghjina cumplessa è realista mischjendu parechji kernels. Pudemu estrattà caratteristiche significative da e foto è aduprà per previsione accuratamente u cuntenutu di l'imaghjini utilizendu CNN.
13. Deep Belief Networks (DBNs)
I DBN sò una forma di rete neurale chì hè aduprata per i travaglii di apprendimentu senza supervisione cum'è a riduzione di dimensionalità è l'apprendimentu di funzioni. Funzionanu impilando parechji strati di Restricted Boltzmann Machines (RBM), chì sò reti neurali di dui strati capaci di amparà à ricustituisce dati di input.
I DBN sò assai benefizii per i prublemi di dati di grande dimensione perchè ponu amparà una rapprisintazioni compatta è efficiente di l'input. Sò stati utilizati per qualsiasi cosa, da u ricunniscenza di a voce à a categurizazione di l'imaghjini à a scuperta di droghe.
Per esempiu, i circadori anu impiegatu un DBN per stimà l'affinità di ubligatoriu di i candidati di medicazione à u receptore di l'estrogenu. U DBN hè statu furmatu nantu à una cullizzioni di caratteristiche chimiche è affinità di ubligatoriu, è hà sappiutu predichendu accuratamente l'affinità di ubligatoriu di novi candidati di droga.
Questu mette in risaltu l'usu di DBNs in u sviluppu di droghe è altre applicazioni di dati d'alta dimensione.
14. Autoencoders
L'autocodificatori sò reti neurali chì sò aduprate per attività di apprendimentu senza supervisione. Sò destinati à ricustruisce i dati di input, chì implica chì amparanu à codificà l'infurmazioni in una rapprisintazioni compacta è poi decode torna in l'input originale.
L'autocodificatori sò assai efficaci per a cumpressione di dati, a rimozione di u rumore è a rilevazione di anomalie. Puderanu ancu esse aduprati per l'apprendimentu di funzioni, induve a rapprisentazione compatta di l'autocoder hè alimentata in un compitu di apprendimentu supervisatu.
Cunsiderate l'autocodificatori per esse studienti chì piglianu note in classe. U studiente ascolta a lezione è scrive i punti più pertinenti in modu concisu è efficace.
In seguitu, u studiente pò studià è ricurdà a lezziò cù e so note. Un autocodificatore, invece, codifica i dati di input in una rapprisintazioni compatta chì poi pò esse impiegata per scopi diversi, cum'è a rilevazione di anomalie o cumpressione di dati.
15. Restricted Boltzmann Machines (RBMs)
RBMs (Restricted Boltzmann Machines) sò una sorta di rete neurale generativa chì hè aduprata per i travaglii di apprendimentu senza supervisione. Sò custituiti da una strata visibile è una strata oculata, cù neuroni in ogni strata, ligate ma micca in u stessu stratu.
I RBM sò furmatu cù una tecnica cunnisciuta cum'è divergenza cuntrastiva, chì implica cambià i pesi trà i strati visibili è oculati per ottimisà a probabilità di e dati di furmazione. I RBM ponu creà dati freschi dopu esse furmatu da campionamentu da a distribuzione appresa.
A ricunniscenza di l'imaghjini è di a voce, u filtru cullaburazione è a rilevazione di anomalie sò tutte l'applicazioni chì anu impiegatu RBM. Sò stati ancu utilizati in sistemi di ricunniscenza per creà cunsiglii adattati per apprendu mudelli da u cumpurtamentu di l'utilizatori.
I RBM sò stati ancu utilizati in l'apprendimentu di funzioni per creà una rapprisintazioni compatta è efficiente di dati di grande dimensione.
Wrap-Up è Sviluppi promettenti à l'orizzonte
I metudi d'apprendimentu prufondu, cum'è e Reti Neural Convolutional (CNN) è Recurrent Neural Networks (RNN), sò trà l'approcciu di intelligenza artificiale più avanzata. I CNN anu trasfurmatu u ricunniscenza di l'imaghjini è l'audio, mentre chì i RNN anu avanzatu significativamente in l'elaborazione di a lingua naturale è l'analisi di dati sequenziale.
U prossimu passu in l'evoluzione di sti approcci hè prubabile di fucalizza nantu à migliurà a so efficienza è scalabilità, chì li permettenu di analizà datasets più grande è più cumplicati, è ancu di rinfurzà a so interpretabilità è a capacità d'amparà da dati menu etichettati.
L'apprendimentu prufondu hà a pussibilità di permette sfondate in campi cum'è l'assistenza sanitaria, a finanza è i sistemi autonomi mentre avanza.
Lascia un Audiolibro