Selama bertahun-tahun, pembelajaran mendalam telah menjadi tajuk utama dalam teknologi. Dan, mudah untuk memahami sebabnya.
Cabang kecerdasan buatan ini mengubah sektor daripada penjagaan kesihatan kepada perbankan kepada pengangkutan, membolehkan kemajuan yang tidak difikirkan sebelum ini.
Pembelajaran mendalam dibina di atas satu set algoritma canggih yang belajar mengekstrak dan meramalkan corak rumit daripada volum data yang besar.
Kami akan melihat 15 algoritma pembelajaran mendalam terbaik dalam siaran ini, daripada Rangkaian Neural Konvolusi kepada Rangkaian Adversarial Generatif kepada rangkaian Memori Jangka Pendek Panjang.
Siaran ini akan memberikan pandangan penting sama ada anda seorang pemula atau pakar dalam pembelajaran mendalam.
1. Rangkaian Transformer
Rangkaian pengubah telah berubah penglihatan komputer dan aplikasi pemprosesan bahasa semula jadi (NLP). Mereka menganalisis data masuk dan menggunakan proses perhatian untuk menangkap hubungan jarak jauh. Ini menjadikan mereka lebih cepat daripada model jujukan-ke-jujukan konvensional.
Rangkaian Transformer pertama kali diterangkan dalam penerbitan "Perhatian Adalah Semua yang Anda Perlukan" oleh Vaswani et al.
Mereka terdiri daripada pengekod dan penyahkod (2017). Model pengubah telah menunjukkan prestasi dalam pelbagai aplikasi NLP, termasuk analisis sentimen, pengkategorian teks dan terjemahan mesin.
Model berasaskan pengubah juga boleh digunakan dalam penglihatan komputer untuk aplikasi. Mereka boleh melakukan pengecaman objek dan kapsyen imej.
2. Rangkaian Memori Jangka Pendek Panjang (LSTM)
Rangkaian Memori Jangka Pendek Panjang (LSTM) ialah satu bentuk rangkaian neural terutamanya dibina untuk mengendalikan input berjujukan. Mereka dirujuk sebagai "jangka pendek panjang" kerana mereka boleh mengingati pengetahuan dari masa dahulu dan juga melupakan maklumat yang tidak diperlukan.
LSTM beroperasi melalui beberapa "pintu" yang mengawal aliran maklumat di dalam rangkaian. Bergantung pada sama ada maklumat itu dinilai penting atau tidak, gerbang ini sama ada boleh membiarkannya masuk atau menghalangnya.
Teknik ini membolehkan LSTM mengingat atau melupakan maklumat daripada langkah masa lalu, yang penting untuk tugas seperti pengecaman pertuturan, pemprosesan bahasa semula jadi dan ramalan siri masa.
LSTM amat berfaedah dalam apa jua keadaan di mana anda mempunyai data berurutan yang perlu dinilai atau diramalkan. Ia sering digunakan dalam perisian pengecaman suara untuk menukar perkataan yang dituturkan kepada teks, atau dalam pasaran saham analisis untuk meramalkan harga masa hadapan berdasarkan data sebelumnya.
3. Peta Penyusunan Sendiri (SOM)
SOM adalah sejenis tiruan rangkaian saraf yang boleh belajar dan mewakili data rumit dalam persekitaran berdimensi rendah. Kaedah ini beroperasi dengan mengubah data input berdimensi tinggi kepada grid dua dimensi, dengan setiap unit atau neuron mewakili bahagian ruang input yang berbeza.
Neuron disambungkan bersama dan mencipta struktur topologi, membolehkan mereka belajar dan menyesuaikan diri dengan data input. Jadi, SOM adalah berdasarkan pembelajaran tanpa pengawasan.
Algoritma tidak perlu data berlabel untuk belajar daripada. Sebaliknya, ia menggunakan ciri statistik data input untuk menemui corak dan korelasi antara pembolehubah.
Semasa peringkat latihan, neuron bersaing untuk menjadi petunjuk terbaik data input. Dan, mereka menyusun sendiri ke dalam struktur yang bermakna. SOM mempunyai pelbagai aplikasi, termasuk pengecaman imej dan pertuturan, perlombongan data dan pengecaman corak.
Mereka berguna untuk menggambarkan data yang rumit, mengelompokkan titik data berkaitan dan mengesan keabnormalan atau outlier.
4. Pembelajaran Peneguhan Dalam
Deep Pembelajaran Pengukuhan ialah sejenis pembelajaran mesin di mana ejen dilatih untuk membuat keputusan berdasarkan sistem ganjaran. Ia berfungsi dengan membenarkan ejen berinteraksi dengan persekitarannya dan belajar melalui percubaan dan kesilapan.
Ejen diberi ganjaran untuk setiap tindakan yang dilakukannya dan tujuannya adalah untuk mempelajari cara mengoptimumkan faedahnya dari semasa ke semasa. Ini boleh digunakan untuk mengajar ejen bermain permainan, memandu kereta dan juga mengurus robot.
Q-Learning ialah kaedah Pembelajaran Pengukuhan Dalam yang terkenal. Ia beroperasi dengan menilai nilai melakukan tindakan tertentu dalam keadaan tertentu dan mengemas kini anggaran itu semasa ejen berinteraksi dengan persekitaran.
Ejen kemudiannya menggunakan anggaran ini untuk menentukan tindakan yang paling mungkin menghasilkan ganjaran terbesar. Q-Learning telah digunakan untuk mendidik ejen bermain permainan Atari, serta meningkatkan penggunaan tenaga di pusat data.
Deep Q-Networks ialah satu lagi kaedah Pembelajaran Pengukuhan Dalam (DQN) yang terkenal. DQN adalah serupa dengan Q-Learning kerana mereka menganggarkan nilai tindakan menggunakan rangkaian saraf dalam dan bukannya jadual.
Ini membolehkan mereka menangani tetapan yang besar dan rumit dengan pelbagai tindakan alternatif. DQN telah digunakan untuk melatih ejen bermain permainan seperti Go dan Dota 2, serta mencipta robot yang boleh belajar berjalan.
5. Rangkaian Neural Berulang (RNN)
RNN ialah sejenis rangkaian saraf yang boleh memproses data berurutan sambil mengekalkan keadaan dalaman. Pertimbangkan ia serupa dengan seseorang yang membaca buku, di mana setiap perkataan dicerna berhubung dengan perkataan yang datang sebelum itu.
Oleh itu, RNN sesuai untuk tugas seperti pengecaman pertuturan, terjemahan bahasa dan juga meramalkan perkataan seterusnya dalam frasa.
RNN berfungsi dengan menggunakan gelung maklum balas untuk menyambungkan output setiap langkah kembali ke input langkah masa seterusnya. Ini membolehkan rangkaian menggunakan maklumat langkah masa terdahulu untuk memaklumkan ramalannya untuk langkah masa hadapan. Malangnya, ini juga bermakna RNN terdedah kepada isu kecerunan yang hilang, di mana kecerunan yang digunakan untuk latihan menjadi sangat kecil dan rangkaian bergelut untuk mempelajari hubungan jangka panjang.
Walaupun terdapat kekangan yang ketara ini, RNN telah didapati digunakan dalam pelbagai aplikasi. Aplikasi ini termasuk pemprosesan bahasa semula jadi, pengecaman pertuturan, dan juga pengeluaran muzik.
Terjemahan Google, sebagai contoh, menggunakan sistem berasaskan RNN untuk menterjemah merentas bahasa, manakala Siri, pembantu maya, menggunakan sistem berasaskan RNN untuk mengesan suara. RNN juga telah digunakan untuk meramalkan harga saham dan mencipta teks dan grafik yang realistik.
6. Rangkaian Kapsul
Capsule Networks ialah reka bentuk rangkaian neural jenis baharu yang boleh mengenal pasti corak dan korelasi dalam data dengan lebih berkesan. Mereka menyusun neuron menjadi "kapsul" yang mengekod aspek tertentu input.
Dengan cara ini mereka boleh membuat ramalan yang lebih tepat. Rangkaian Kapsul mengekstrak sifat yang semakin rumit daripada data input dengan menggunakan pelbagai lapisan kapsul.
Teknik Capsule Networks membolehkan mereka mempelajari perwakilan hierarki input yang diberikan. Mereka boleh mengekod sambungan spatial antara item dalam gambar dengan betul dengan berkomunikasi antara kapsul.
Pengenalpastian objek, pembahagian gambar dan pemprosesan bahasa semula jadi adalah semua aplikasi Rangkaian Kapsul.
Rangkaian Kapsul mempunyai potensi untuk diambil bekerja di memandu autonomi teknologi. Mereka membantu sistem dalam mengenali dan membezakan antara item seperti kereta, orang ramai dan papan tanda lalu lintas. Sistem ini boleh mengelakkan perlanggaran dengan membuat ramalan yang lebih tepat tentang kelakuan objek dalam persekitaran mereka.
7. Pengekod Auto Variasi (VAE)
VAE ialah satu bentuk alat pembelajaran mendalam yang digunakan untuk pembelajaran tanpa pengawasan. Dengan mengekod data ke dalam ruang berdimensi lebih rendah dan kemudian menyahkodnya kembali ke format asal, mereka mungkin belajar untuk mengesan corak dalam data.
Mereka seperti ahli silap mata yang boleh mengubah arnab menjadi topi dan kemudian kembali menjadi arnab! VAE bermanfaat untuk menghasilkan visual atau muzik yang realistik. Dan, ia boleh digunakan untuk menghasilkan data baharu yang setanding dengan data asal.
VAE adalah serupa dengan pemecah kod rahsia. Mereka boleh menemui asasnya struktur data dengan memecahkannya kepada bit yang lebih mudah, sama seperti bagaimana teka-teki dipecahkan. Mereka mungkin menggunakan maklumat tersebut untuk membina data baharu yang kelihatan seperti yang asal selepas mereka menyusun bahagian.
Ini boleh berguna untuk memampatkan fail besar atau menghasilkan grafik atau muzik segar dalam gaya tertentu. VAE juga boleh menghasilkan kandungan segar, seperti cerita berita atau lirik muzik.
8. Rangkaian Musuh Generatif (GAN)
GAN (Generative Adversarial Networks) ialah satu bentuk sistem pembelajaran mendalam yang menjana data baharu yang menyerupai yang asal. Mereka beroperasi dengan melatih dua rangkaian: penjana dan rangkaian diskriminator.
Penjana menghasilkan data baharu yang setanding dengan yang asal.
Dan, diskriminator cuba membezakan antara data asal dan data yang dicipta. Kedua-dua rangkaian itu dilatih seiring, dengan penjana cuba memperdayakan diskriminator dan diskriminator cuba mengenal pasti data asal dengan betul.
Pertimbangkan GAN sebagai kacukan antara pemalsu dan detektif. Penjana berfungsi sama seperti pemalsu, menghasilkan karya seni baharu yang menyerupai karya asal.
Diskriminator bertindak sebagai detektif, cuba membezakan antara karya seni tulen dan pemalsuan. Kedua-dua rangkaian itu dilatih seiring, dengan penjana bertambah baik dalam membuat palsu yang munasabah dan diskriminator bertambah baik dalam mengenalinya.
GAN mempunyai beberapa kegunaan, daripada menghasilkan gambar realistik manusia atau haiwan kepada mencipta muzik atau tulisan baharu. Ia juga boleh digunakan untuk penambahan data, yang melibatkan penggabungan data yang dihasilkan dengan data sebenar untuk membina set data yang lebih besar untuk melatih model pembelajaran mesin.
9. Rangkaian Q Dalam (DQN)
Deep Q-Networks (DQNs) ialah sejenis algoritma pembelajaran pengukuhan membuat keputusan. Mereka beroperasi dengan mempelajari fungsi Q yang meramalkan ganjaran yang diharapkan untuk melakukan tindakan tertentu dalam keadaan tertentu.
Fungsi Q diajar melalui percubaan dan kesilapan, dengan algoritma mencuba pelbagai tindakan dan belajar daripada hasilnya.
Anggap ia seperti a permainan video watak bereksperimen dengan pelbagai tindakan dan menemui mana yang membawa kepada kejayaan! DQN melatih fungsi Q menggunakan rangkaian saraf yang mendalam, menjadikannya alat yang berkesan untuk tugas membuat keputusan yang sukar.
Mereka juga telah mengalahkan juara manusia dalam permainan seperti Go dan catur, serta dalam robotik dan kereta pandu sendiri. Jadi, secara keseluruhannya, DQN bekerja dengan belajar daripada pengalaman untuk meningkatkan kemahiran membuat keputusan mereka dari semasa ke semasa.
10. Rangkaian Fungsi Asas Radial (RBFNs)
Rangkaian Fungsi Asas Radial (RBFN) ialah sejenis rangkaian saraf yang digunakan untuk menganggarkan fungsi dan melaksanakan tugas pengelasan. Mereka beroperasi dengan mengubah data input menjadi ruang berdimensi lebih tinggi menggunakan koleksi fungsi asas jejarian.
Output rangkaian ialah gabungan linear bagi fungsi asas, dan setiap fungsi asas jejari mewakili titik tengah dalam ruang input.
RBFN amat berkesan untuk situasi dengan interaksi input-output yang rumit, dan ia mungkin diajar menggunakan pelbagai teknik, termasuk pembelajaran diselia dan tanpa pengawasan. Ia telah digunakan untuk apa sahaja daripada ramalan kewangan kepada pengiktirafan gambar dan pertuturan kepada diagnostik perubatan.
Pertimbangkan RBFN sebagai sistem GPS yang menggunakan satu siri mata penambat untuk mencari laluannya merentasi rupa bumi yang mencabar. Output rangkaian adalah gabungan mata penambat, yang berdiri dalam untuk fungsi asas jejarian.
Kami boleh menyemak imbas maklumat yang rumit dan menjana ramalan yang tepat tentang cara sesuatu senario akan berlaku dengan menggunakan RBFN.
11. Multilayer Perceptrons (MLPs)
Bentuk rangkaian neural yang biasa dipanggil multilayer perceptron (MLP) digunakan untuk tugasan pembelajaran yang diselia seperti klasifikasi dan regresi. Ia beroperasi dengan menyusun beberapa lapisan nod terpaut, atau neuron, dengan setiap lapisan mengubah data masuk secara tidak linear.
Dalam MLP, setiap neuron mendapat input daripada neuron dalam lapisan di bawah dan menghantar isyarat kepada neuron dalam lapisan di atas. Keluaran setiap neuron ditentukan menggunakan fungsi pengaktifan, yang memberikan ketaklinearan rangkaian.
Mereka mampu mempelajari perwakilan canggih data input kerana mereka boleh mempunyai beberapa lapisan tersembunyi.
MLP telah digunakan untuk pelbagai tugas, seperti analisis sentimen, pengesanan penipuan dan pengecaman suara dan gambar. MLP boleh dibandingkan dengan sekumpulan penyiasat yang bekerjasama untuk memecahkan kes yang sukar.
Bersama-sama, mereka boleh mengumpulkan fakta dan menyelesaikan jenayah walaupun pada hakikatnya masing-masing mempunyai bidang kepakaran tertentu.
12. Rangkaian Neural Konvolusi (CNN)
Imej dan video diproses menggunakan rangkaian neural convolutional (CNN), satu bentuk rangkaian saraf. Ia berfungsi dengan menggunakan satu set penapis yang boleh dipelajari, atau kernel, untuk mengekstrak ciri penting daripada data input.
Penapis meluncur ke atas gambar input, melaksanakan konvolusi untuk membina peta ciri yang menangkap aspek penting imej.
Memandangkan CNN dapat mempelajari perwakilan hierarki ciri-ciri gambar, ia amat membantu untuk situasi yang melibatkan volum besar data visual. Beberapa aplikasi telah menggunakannya, seperti pengesanan objek, pengkategorian gambar dan pengesanan muka.
Pertimbangkan CNN sebagai pelukis yang menggunakan beberapa berus untuk mencipta karya agung. Setiap berus adalah kernel, dan artis boleh membina imej yang kompleks dan realistik dengan mencampurkan banyak kernel. Kami boleh mengekstrak ciri penting daripada foto dan menggunakannya untuk meramalkan kandungan imej dengan tepat dengan menggunakan CNN.
13. Rangkaian Kepercayaan Dalam (DBN)
DBN ialah satu bentuk rangkaian saraf yang digunakan untuk tugas pembelajaran tanpa pengawasan seperti pengurangan dimensi dan pembelajaran ciri. Ia berfungsi dengan menyusun beberapa lapisan Mesin Boltzmann Terhad (RBM), yang merupakan rangkaian saraf dua lapisan yang mampu belajar untuk menyusun semula data input.
DBN sangat bermanfaat untuk isu data berdimensi tinggi kerana mereka boleh mempelajari perwakilan input yang padat dan cekap. Mereka telah digunakan untuk apa sahaja daripada pengecaman suara kepada pengkategorian gambar kepada penemuan dadah.
Sebagai contoh, penyelidik menggunakan DBN untuk menganggarkan pertalian mengikat calon ubat kepada reseptor estrogen. DBN telah dilatih mengenai koleksi ciri kimia dan pertalian pengikatan, dan ia dapat meramalkan perkaitan pengikatan calon ubat novel dengan tepat.
Ini menyerlahkan penggunaan DBN dalam pembangunan ubat dan aplikasi data dimensi tinggi yang lain.
14. Pengekod automatik
Autoencoders ialah rangkaian saraf yang digunakan untuk tugas pembelajaran tanpa pengawasan. Mereka bertujuan untuk membina semula data input, yang membayangkan bahawa mereka akan belajar untuk mengekod maklumat menjadi perwakilan padat dan kemudian menyahkodnya semula ke input asal.
Pengekod automatik sangat berkesan untuk pemampatan data, penyingkiran hingar dan pengesanan anomali. Ia juga boleh digunakan untuk pembelajaran ciri, di mana perwakilan padat pengekod auto dimasukkan ke dalam tugas pembelajaran yang diselia.
Pertimbangkan pengekod auto sebagai pelajar yang mengambil nota dalam kelas. Pelajar mendengar syarahan dan mencatat perkara yang paling relevan dengan cara yang ringkas dan cekap.
Kemudian, pelajar boleh belajar dan mengingati pelajaran menggunakan nota mereka. Pengekod auto, sebaliknya, mengekod data input ke dalam perwakilan padat yang kemudiannya boleh digunakan untuk tujuan berbeza seperti pengesanan anomali atau pemampatan data.
15. Mesin Boltzmann Terhad( RBM)
RBM (Mesin Boltzmann Terhad) ialah sejenis rangkaian saraf generatif yang digunakan untuk tugas pembelajaran tanpa pengawasan. Ia terdiri daripada lapisan yang kelihatan dan lapisan tersembunyi, dengan neuron dalam setiap lapisan, dipautkan tetapi tidak dalam lapisan yang sama.
RBM dilatih menggunakan teknik yang dikenali sebagai kontrastif divergence, yang memerlukan perubahan pemberat antara lapisan yang kelihatan dan tersembunyi untuk mengoptimumkan kebarangkalian data latihan. RBM boleh mencipta data baharu selepas dilatih dengan pensampelan daripada pengedaran yang dipelajari.
Pengecaman imej dan pertuturan, penapisan kolaboratif dan pengesanan anomali adalah semua aplikasi yang telah menggunakan RBM. Mereka juga telah digunakan dalam sistem pengesyoran untuk membuat pengesyoran yang disesuaikan dengan mempelajari corak daripada tingkah laku pengguna.
RBM juga telah digunakan dalam pembelajaran ciri untuk mencipta perwakilan data berdimensi tinggi yang padat dan cekap.
Bungkus dan Perkembangan Menjanjikan di Horizon
Kaedah pembelajaran mendalam, seperti Convolutional Neural Networks (CNNs) dan Recurrent Neural Networks (RNNs), adalah antara pendekatan kecerdasan buatan yang paling maju. CNN telah mengubah pengecaman gambar dan audio, manakala RNN telah maju dengan ketara dalam pemprosesan bahasa semula jadi dan analisis data berjujukan.
Langkah seterusnya dalam evolusi pendekatan ini mungkin akan menumpukan pada meningkatkan kecekapan dan kebolehskalaan mereka, membolehkan mereka menganalisis set data yang lebih besar dan lebih rumit, serta meningkatkan kebolehtafsiran dan keupayaan mereka untuk belajar daripada data yang kurang berlabel.
Pembelajaran mendalam berkemungkinan membenarkan kejayaan dalam bidang seperti penjagaan kesihatan, kewangan dan sistem autonomi semasa ia berkembang.
Sila tinggalkan balasan anda