Со години, длабокото учење е на насловните страници во технологијата. И, едноставно е да се разбере зошто.
Оваа гранка на вештачката интелигенција ги трансформира секторите кои се движат од здравствена заштита до банкарство до транспорт, овозможувајќи досега незамисливи напредок.
Длабокото учење е изградено на збир на софистицирани алгоритми кои учат да извлекуваат и предвидуваат комплицирани обрасци од огромни количини на податоци.
Ќе ги разгледаме најдобрите 15 алгоритми за длабоко учење во овој пост, од конволуциони невронски мрежи до генеративни противнички мрежи до мрежи со долга краткорочна меморија.
Овој пост ќе даде суштински увид за тоа дали сте а почетник или експерт за длабоко учење.
1. Трансформаторски мрежи
Трансформаторските мрежи се трансформираа компјутерска визија и апликации за обработка на природен јазик (NLP). Тие ги анализираат дојдовните податоци и користат процеси на внимание за да доловат врски на долг дострел. Ова ги прави побрзи од конвенционалните модели од секвенца до секвенца.
Трансформаторските мрежи првпат беа опишани во публикацијата „Внимание е сè што ви треба“ од Васвани и сор.
Тие се состојат од енкодер и декодер (2017). Моделот на трансформаторот покажа перформанси во различни NLP апликации, вклучувајќи анализа на чувства, категоризација на текст и машински превод.
Моделите базирани на трансформатори, исто така, може да се користат во компјутерската визија за апликации. Тие можат да вршат препознавање на објекти и титлови на слики.
2. Мрежи со долга краткорочна меморија (LSTM)
Мрежите за долга краткорочна меморија (LSTM) се форма на невронска мрежа специјално изграден за справување со секвенцијален влез. Тие се нарекуваат „долгорочни краткорочни“ затоа што можат да се потсетат на знаење од многу одамна, а исто така да заборават на непотребните информации.
LSTM функционираат низ некои „порти“ кои управуваат со протокот на информации внатре во мрежата. Во зависност од тоа дали информацијата е оценета како значајна или не, овие порти можат или да ја пуштат или да ја спречат.
Оваа техника им овозможува на LSTM да се сеќаваат или забораваат информации од минати временски чекори, што е критично за задачи како што се препознавање говор, обработка на природен јазик и предвидување временски серии.
LSTM се исклучително корисни во секој случај кога имате секвенцијални податоци што треба да се проценат или прогнозираат. Тие често се користат во софтверот за препознавање глас за претворање на изговорените зборови во текст или во берзата анализа за прогноза на идните цени врз основа на претходните податоци.
3. Самоорганизирачки карти (СОМ)
СОМ се еден вид вештачки невронска мрежа која може да учи и претставуваат комплицирани податоци во нискодимензионална средина. Методот функционира со трансформирање на високодимензионални влезни податоци во дводимензионална мрежа, при што секоја единица или неврон претставува различен дел од влезниот простор.
Невроните се поврзани заедно и создаваат тополошка структура, овозможувајќи им да учат и да се приспособат на влезните податоци. Значи, СОМ се заснова на учење без надзор.
Алгоритмот не треба означени податоци да се учи од. Наместо тоа, ги користи статистичките карактеристики на влезните податоци за да открие шеми и корелации меѓу променливите.
За време на фазата на обука, невроните се натпреваруваат да бидат најдобар показател за влезните податоци. И, тие се самоорганизираат во значајна структура. СОМ имаат широк опсег на апликации, вклучувајќи препознавање слики и говор, ископување податоци и препознавање на шаблони.
Тие се корисни за визуелизирање на комплицирани податоци, групирање поврзани точки на податоци и откривање абнормалности или оддалечени.
4. Учење за длабоко засилување
длабоко Засилување на учењето е еден вид машинско учење во кое агентот е обучен да донесува одлуки врз основа на систем за наградување. Функционира така што му дозволува на агентот да комуницира со околината и да учи преку обиди и грешки.
Агентот е награден за секоја акција што ја прави, а неговата цел е да научи како да ги оптимизира неговите придобивки со текот на времето. Ова може да се користи за да ги научи агентите да играат игри, да возат автомобили, па дури и да управуваат со роботи.
Q-Learning е добро познат метод за учење со длабоко засилување. Работи со проценка на вредноста на извршувањето на одредена акција во одредена состојба и ажурирање на таа проценка додека агентот е во интеракција со околината.
Агентот потоа ги користи овие проценки за да одреди која акција најверојатно ќе резултира со најголема награда. Q-Learning се користи за едукација на агентите да играат игри на Atari, како и за подобрување на употребата на енергија во центрите за податоци.
Deep Q-Networks е уште еден познат метод за учење за длабоко засилување (DQN). DQN се слични на Q-Learning по тоа што ги проценуваат вредностите на акција користејќи длабока невронска мрежа наместо табела.
Ова им овозможува да се справат со огромни, комплицирани поставки со бројни алтернативни дејства. DQN се користат за обука на агенти да играат игри како Go и Dota 2, како и за создавање роботи кои можат да научат да одат.
5. Рекурентни невронски мрежи (RNN)
RNN се еден вид невронска мрежа која може да обработува секвенцијални податоци додека одржува внатрешна состојба. Сметајте дека е слично на човек што чита книга, каде што секој збор се вари во однос на оние што биле пред него.
Затоа, RNN се идеални за задачи како што се препознавање говор, превод на јазик, па дури и предвидување на следниот збор во фраза.
RNN-ите работат со користење јамки за повратни информации за поврзување на излезот од секој временски чекор назад со влезот на следниот временски чекор. Ова ѝ овозможува на мрежата да ги користи информациите за претходните временски чекори за да ги информира своите предвидувања за идните временски чекори. За жал, ова исто така значи дека RNN се ранливи на проблемот со градиентот што исчезнува, во кој градиентите што се користат за обука стануваат многу мали и мрежата се бори да научи долгорочни врски.
И покрај ова очигледно ограничување, RNN најдоа употреба во широк опсег на апликации. Овие апликации вклучуваат обработка на природен јазик, препознавање говор, па дури и продукција на музика.
Гугл преведувач, на пример, користи систем базиран на RNN за преведување на различни јазици, додека Siri, виртуелниот асистент, користи систем базиран на RNN за откривање глас. RNN се користеа и за предвидување на цените на акциите и создавање реални текстови и графики.
6. Мрежи со капсули
Capsule Networks е нов вид дизајн на невронска мрежа што може поефективно да ги идентификува обрасците и корелациите во податоците. Тие ги организираат невроните во „капсули“ кои кодираат одредени аспекти на влезот.
На овој начин тие можат да направат поточни предвидувања. Мрежите на капсули извлекуваат прогресивно комплицирани својства од влезните податоци со користење на бројни слоеви на капсули.
Техниката на Capsule Networks им овозможува да научат хиерархиски претстави на дадениот влез. Тие можат правилно да ги кодираат просторните врски помеѓу предметите во сликата преку комуникација помеѓу капсулите.
Идентификација на објекти, сегментација на слики и обработка на природен јазик се сите апликации на Capsule Networks.
Capsule Networks имаат потенцијал да се вработат во автономно возење технологии. Тие му помагаат на системот да препознае и разликува предмети како што се автомобили, луѓе и сообраќајни знаци. Овие системи можат да избегнат судири со правење попрецизни предвидувања за однесувањето на предметите во нивната околина.
7. Варијацијални автоенкодери (VAE)
VAE се форма на алатка за длабоко учење што се користи за учење без надзор. Со кодирање на податоците во простор со пониски димензии и потоа декодирање назад во оригиналниот формат, тие може да научат да забележуваат обрасци во податоците.
Тие се како волшебник кој може да го претвори зајакот во капа, а потоа да го врати во зајаче! VAE се корисни за генерирање реални визуелни слики или музика. И, тие може да се користат за производство на нови податоци кои се споредливи со оригиналните податоци.
VAE се слични на таен разбивач на кодови. Тие можат да ја откријат основата структура на податоци со разложување на поедноставни делови, слично на тоа како се разложува сложувалката. Тие може да ги искористат тие информации за да изградат нови податоци што личат на оригиналот откако ќе ги средат деловите.
Ова може да биде корисно за компресирање на огромни датотеки или за производство на свежа графика или музика во одреден стил. VAE исто така може да произведуваат свежа содржина, како што се вести или музички текстови.
8. Генеративни противнички мрежи (GAN)
GANs (Generative Adversarial Networks) се форма на систем за длабоко учење кој генерира нови податоци кои личат на оригиналот. Тие работат со обука на две мрежи: генератор и дискриминаторска мрежа.
Генераторот произведува нови податоци кои се споредливи со оригиналот.
И, дискриминаторот се обидува да направи разлика помеѓу оригиналните и креираните податоци. Двете мрежи се обучуваат во тандем, при што генераторот се обидува да го измами дискриминаторот и дискриминаторот се обидува правилно да ги идентификува оригиналните податоци.
Сметаат дека GANs се вкрстување помеѓу фалсификатор и детектив. Генераторот функционира слично како фалсификаторот, создавајќи нови уметнички дела што личат на оригиналот.
Дискриминаторот делува како детектив, обидувајќи се да направи разлика помеѓу вистинско уметничко дело и фалсификат. Двете мрежи се обучени во тандем, при што генераторот се подобрува во правењето веродостојни фалсификати и дискриминаторот се подобрува во нивното препознавање.
ГАН имаат неколку намени, почнувајќи од создавање реални слики на луѓе или животни до создавање на нова музика или пишување. Тие, исто така, може да се користат за зголемување на податоците, што вклучува комбинирање произведени податоци со реални податоци за да се изгради поголема база на податоци за обука на модели за машинско учење.
9. Длабоки Q-мрежи (DQN)
Длабоките Q-мрежи (DQN) се еден вид алгоритам за учење за зајакнување на одлучувањето. Тие работат со учење на Q-функција која ја предвидува очекуваната награда за извршување на одредена акција во одредена состојба.
Q-функцијата се предава со обиди и грешки, при што алгоритмот се обидува да прави различни дејства и учи од резултатите.
Сметајте го како а видео игри лик експериментира со различни дејства и открива кои од нив водат до успех! DQN ја обучуваат Q-функцијата користејќи длабока невронска мрежа, што ги прави ефективни алатки за тешки задачи за донесување одлуки.
Тие дури и ги победија човечките шампиони во игрите како Go и шахот, како и во роботиката и самоуправувачките автомобили. Значи, сè на сè, DQN-ите работат со учење од искуство за да ги подобрат своите вештини за донесување одлуки со текот на времето.
10. Функциони мрежи со радијална основа (RBFN)
Радијалните основни функциски мрежи (RBFN) се еден вид невронска мрежа што се користи за приближување на функциите и извршување на задачите за класификација. Тие функционираат со трансформирање на влезните податоци во простор со поголема димензија со помош на збирка од функции на радијална основа.
Излезот од мрежата е линеарна комбинација на основните функции, а секоја радијална основна функција претставува централна точка во влезниот простор.
RBFN се особено ефикасни за ситуации со комплицирани влезно-излезни интеракции и тие може да се предаваат со користење на широк опсег на техники, вклучувајќи надгледувано и ненадгледувано учење. Тие се користени за се, од финансиски предвидувања до препознавање слики и говор до медицинска дијагностика.
Размислете за RBFN како GPS систем кој користи низа точки за прицврстување за да го најде својот пат низ предизвикувачки терен. Излезот на мрежата е комбинација од точките за прицврстување, кои се за функциите на радијалната основа.
Можеме да прелистуваме низ комплицирани информации и да генерираме прецизни предвидувања за тоа како ќе испадне некое сценарио со користење на RBFN.
11. Повеќеслојни перцептрони (MLPs)
Типична форма на невронска мрежа наречена повеќеслојна перцептрон (MLP) се користи за надгледувани задачи за учење како класификација и регресија. Тие работат со натрупување на неколку слоеви поврзани јазли или неврони, при што секој слој нелинеарно ги менува дојдовните податоци.
Во MLP, секој неврон добива влез од невроните во слојот подолу и испраќа сигнал до невроните во слојот погоре. Излезот на секој неврон се одредува со помош на функцијата за активирање, што и дава на мрежата нелинеарност.
Тие се способни да научат софистицирани претстави на влезните податоци бидејќи можат да имаат неколку скриени слоеви.
MLP се применуваат за различни задачи, како што се анализа на чувствата, откривање измами и препознавање глас и слика. MLPs може да се споредат со група истражители кои работат заедно за да расчистат тежок случај.
Заедно, тие можат да ги спојат фактите и да го решат злосторството и покрај фактот што секој од нив има одредена област на специјалност.
12. Конволутивни невронски мрежи (CNN)
Сликите и видеата се обработуваат со помош на конволутивни невронски мрежи (CNN), форма на невронска мрежа. Тие функционираат со користење на збир на филтри за учење, или кернели, за да се извлечат значајни карактеристики од влезните податоци.
Филтрите се лизгаат над влезната слика, извршувајќи конволуции за да се изгради мапа на карактеристики што ги доловува суштинските аспекти на сликата.
Бидејќи CNN се способни да научат хиерархиски претстави на карактеристиките на сликата, тие се особено корисни за ситуации кои вклучуваат огромни количини на визуелни податоци. Неколку апликации ги искористија, како што се откривање објекти, категоризација на слики и откривање лица.
Сметајте ги CNN како сликар кој користи неколку четки за да создаде ремек-дело. Секоја четка е јадро, а уметникот може да изгради сложена, реална слика со мешање на многу кернели. Можеме да извлечеме значајни карактеристики од фотографиите и да ги искористиме за прецизно предвидување на содржината на сликата со користење на CNN.
13. Мрежи за длабоко верување (DBN)
DBN се форма на невронска мрежа што се користи за задачи за учење без надзор, како што се намалување на димензионалноста и учење на карактеристики. Тие функционираат со натрупување на неколку слоеви на ограничени Болцман машини (RBM), кои се двослојни невронски мрежи способни да научат да ги реконструираат влезните податоци.
DBN се многу корисни за проблеми со податоци со високи димензии бидејќи можат да научат компактна и ефикасна претстава на влезот. Тие се користени за се, од препознавање глас до категоризација на слики до откривање дрога.
На пример, истражувачите користеа DBN за да го проценат врзувачкиот афинитет на кандидатите за лекови со естрогенскиот рецептор. DBN беше обучен за збирка хемиски карактеристики и сврзувачки афинитети, и беше во можност точно да го предвиди врзувачкиот афинитет на новите кандидати за лекови.
Ова ја нагласува употребата на DBN во развојот на лекови и други апликации за податоци со високи димензии.
14. Автоенкодери
Автоенкодерите се невронски мрежи кои се користат за задачи за учење без надзор. Тие се наменети да ги реконструираат влезните податоци, што подразбира дека тие ќе научат да ги кодираат информациите во компактна претстава и потоа да ги декодираат назад во оригиналниот влез.
Автоенкодерите се многу ефикасни за компресија на податоци, отстранување на шум и откривање аномалии. Тие, исто така, може да се користат за учење на функции, каде што компактното претставување на автоенкодерот се внесува во надгледувана задача за учење.
Сметаат дека автоенкодерите се студенти кои прават белешки на часот. Студентот го слуша предавањето и ги запишува најрелевантните точки на концизен и ефикасен начин.
Подоцна, ученикот може да учи и да се сеќава на лекцијата користејќи ги своите белешки. Авто-кодерот, од друга страна, ги шифрира влезните податоци во компактен приказ кој последователно може да се користи за различни цели, како што се откривање аномалија или компресија на податоци.
15. Ограничени Болцман машини (РБМ)
RBMs (Restricted Boltzmann Machines) се еден вид генеративна невронска мрежа што се користи за задачи за учење без надзор. Тие се составени од видлив слој и скриен слој, со неврони во секој слој, поврзани, но не во истиот слој.
RBM се обучуваат со помош на техника позната како контрастна дивергенција, која подразбира промена на тежините помеѓу видливите и скриените слоеви со цел да се оптимизира веројатноста за податоците за обуката. RBM може да создаваат свежи податоци откако ќе бидат обучени со земање примероци од научената дистрибуција.
Препознавање на слики и говор, филтрирање со соработка и откривање аномалии се сите апликации што користат RBM. Тие исто така се користени во системите за препораки за да се создадат приспособени препораки преку учење на модели од однесувањето на корисниците.
RBM се користат и во учењето на карактеристики за да се создаде компактна и ефикасна репрезентација на податоци со високи димензии.
Завршување и ветувачки развој на хоризонтот
Методите за длабоко учење, како што се конволуционите невронски мрежи (CNN) и рекурентните невронски мрежи (RNN), се меѓу најнапредните пристапи за вештачка интелигенција. CNN го трансформираа препознавањето на слики и аудио, додека RNN значително напредуваа во обработката на природниот јазик и секвенцијалната анализа на податоци.
Следниот чекор во еволуцијата на овие пристапи најверојатно ќе се фокусира на подобрување на нивната ефикасност и приспособливост, овозможувајќи им да анализираат поголеми и покомплицирани збирки на податоци, како и подобрување на нивната интерпретабилност и способност да учат од помалку означени податоци.
Длабокото учење има можност да дозволи напредок во областите како што се здравството, финансиите и автономните системи како што напредува.
Оставете Одговор