Годинама је дубоко учење на насловницама у техници. И, једноставно је разумети зашто.
Ова грана вештачке интелигенције трансформише секторе у распону од здравствене заштите преко банкарства до транспорта, омогућавајући раније незамислив напредак.
Дубоко учење је изграђено на скупу софистицираних алгоритама који уче да издвајају и предвиђају компликоване обрасце из огромних количина података.
У овом посту ћемо погледати 15 најбољих алгоритама дубоког учења, од конволуцијских неуронских мрежа до генеративних супарничких мрежа до мрежа дуготрајне меморије.
Овај пост ће дати суштински увид у то да ли сте а почетник или стручњак за дубоко учење.
1. Трансформаторске мреже
Трансформаторске мреже су се трансформисале рачунарски вид и апликације за обраду природног језика (НЛП). Они анализирају долазне податке и користе процесе пажње како би ухватили дугорочне односе. То их чини бржим од конвенционалних модела од секвенце до секвенце.
Трансформаторске мреже су први пут описане у публикацији „Аттентион Ис Алл Иоу Неед“ аутора Васванија ет ал.
Састоје се од енкодера и декодера (2017). Модел трансформатора је показао перформансе у различитим НЛП апликацијама, укључујући анализа сентимента, категоризација текста и машинско превођење.
Модели засновани на трансформаторима се такође могу користити у компјутерском виду за апликације. Они могу да обављају препознавање објеката и натписе слика.
2. Мреже дуготрајне меморије (ЛСТМ)
Мреже дуготрајне меморије (ЛСТМ) су облик неуронска мрежа посебно направљен за руковање секвенцијалним уносом. Називају се „дугорочним краткорочним” јер могу да се присете знања из давнина, а такође забораве непотребне информације.
ЛСТМ функционишу кроз неке „капије“ које управљају протоком информација унутар мреже. У зависности од тога да ли је информација процењена као значајна или не, ове капије могу да их пропусте или спрече.
Ова техника омогућава ЛСТМ-има да се присете или забораве информације из прошлих временских корака, што је кључно за задатке као што су препознавање говора, обрада природног језика и предвиђање временских серија.
ЛСТМ-ови су изузетно корисни у сваком случају када имате секвенцијалне податке који се морају проценити или предвидети. Често се користе у софтверу за препознавање гласа за претварање изговорених речи у текст или у берза анализа за предвиђање будућих цена на основу претходних података.
3. Самоорганизоване мапе (СОМ)
СОМ су нека врста вештачких неуронска мрежа која може да учи и представљају компликоване податке у нискодимензионалном окружењу. Метода функционише тако што трансформише високодимензионалне улазне податке у дводимензионалну мрежу, при чему свака јединица или неурон представља другачији део улазног простора.
Неурони су међусобно повезани и стварају тополошку структуру, омогућавајући им да уче и прилагођавају се улазним подацима. Дакле, СОМ се заснива на учењу без надзора.
Алгоритам не треба означени подаци да учим од. Уместо тога, користи статистичке карактеристике улазних података да открије обрасце и корелације између варијабли.
Током фазе обуке, неурони се такмиче ко ће бити најбољи показатељ улазних података. И, они се самоорганизују у смислену структуру. СОМ-ови имају широк спектар примена, укључујући препознавање слика и говора, рударење података и препознавање образаца.
Они су корисни за визуелизација компликованих података, груписање повезаних тачака података и откривање абнормалности или одступања.
4. Дееп Реинфорцемент Леарнинг
Дубоко Учење ојачања је врста машинског учења у којој је агент обучен да доноси одлуке на основу система награђивања. Функционише тако што дозвољава агенту да комуницира са околином и учи путем покушаја и грешака.
Агент је награђен за сваку акцију коју уради, а његова сврха је да научи како да оптимизује своје предности током времена. Ово се може користити за подучавање агената да играју игрице, возе аутомобиле, па чак и да управљају роботима.
К-Леарнинг је добро позната метода учења дубоког појачања. Он функционише тако што процењује вредност обављања одређене радње у одређеном стању и ажурира ту процену како агент ступа у интеракцију са окружењем.
Агент затим користи ове процене да би одредио која радња ће највероватније довести до највеће награде. К-Леарнинг је коришћен за едукацију агената да играју Атари игре, као и за побољшање коришћења енергије у центрима података.
Дееп К-Нетворкс је још један познати метод учења дубоког појачања (ДКН). ДКН-ови су слични К-учењу по томе што процењују вредности акције користећи дубоку неуронску мрежу, а не табелу.
Ово им омогућава да се носе са огромним, компликованим поставкама уз бројне алтернативне радње. ДКН-ови су коришћени за обуку агената да играју игрице као што су Го и Дота 2, као и за стварање робота који могу да науче да ходају.
5. Понављајуће неуронске мреже (РНН)
РНН-ови су врста неуронске мреже која може да обрађује секвенцијалне податке задржавајући интерно стање. Сматрајте то сличним особи која чита књигу, где се свака реч пробавља у односу на оне које су биле пре ње.
РНН су стога идеални за задатке као што су препознавање говора, превод језика, па чак и предвиђање следеће речи у фрази.
РНН-ови раде тако што користе повратне везе за повезивање излаза сваког временског корака назад са улазом следећег временског корака. Ово омогућава мрежи да користи информације о претходним временским корацима за информисање о својим предвиђањима за будуће временске кораке. Нажалост, ово такође значи да су РНН-ови рањиви на проблем нестајања градијента, у којем градијенти који се користе за обуку постају веома мали и мрежа се бори да научи дугорочне односе.
Упркос овом очигледном ограничењу, РНН су нашли примену у широком спектру апликација. Ове апликације укључују обраду природног језика, препознавање говора, па чак и музичку продукцију.
Гоогле Транслате, на пример, користи систем заснован на РНН-у за превођење на више језика, док Сири, виртуелни асистент, користи систем заснован на РНН-у за откривање гласа. РНН-ови су такође коришћени за предвиђање цена акција и стварање реалистичног текста и графике.
6. Мреже капсула
Цапсуле Нетворкс је нова врста дизајна неуронске мреже која може ефикасније идентификовати обрасце и корелације у подацима. Они организују неуроне у „капсуле“ које кодирају одређене аспекте улаза.
На овај начин могу да направе прецизнија предвиђања. Мреже капсула извлаче прогресивно компликована својства из улазних података употребом бројних слојева капсула.
Техника Цапсуле Нетворкс им омогућава да науче хијерархијске репрезентације датог улаза. Они могу правилно кодирати просторне везе између ставки унутар слике комуницирајући између капсула.
Идентификација објеката, сегментација слике и обрада природног језика су све апликације Цапсуле Нетворкс.
Мреже капсула имају потенцијал да се упосле аутономна вожња технологије. Они помажу систему у препознавању и разликовању ствари као што су аутомобили, људи и саобраћајни знаци. Ови системи могу да избегну колизије дајући прецизнија предвиђања о понашању објеката у свом окружењу.
7. Варијацијски аутоматски кодери (ВАЕ)
ВАЕ су облик алата за дубоко учење који се користи за учење без надзора. Кодирањем података у простор ниже димензије, а затим их декодирањем назад у оригинални формат, они могу научити да уоче обрасце у подацима.
Они су као мађионичар који може да трансформише зеца у шешир, а затим поново у зеца! ВАЕ су корисни за генерисање реалистичних визуелних приказа или музике. И могу се користити за производњу нових података који су упоредиви са оригиналним подацима.
ВАЕ су слични разбијачима тајних шифри. Они могу открити суштину структура података тако што ћете га разложити на једноставније делове, слично као што се разлаже слагалица. Они могу да искористе те информације да направе нове податке који изгледају као оригинални након што разврстају делове.
Ово може бити згодно за компресовање огромних датотека или производњу свеже графике или музике у одређеном стилу. ВАЕ такође могу да произведу свеж садржај, као што су вести или музички текстови.
8. Генеративне адверсаријске мреже (ГАН)
ГАН (Генеративе Адверсариал Нетворкс) су облик система дубоког учења који генерише нове податке који личе на оригинал. Они раде тако што обучавају две мреже: генераторску и дискриминаторску мрежу.
Генератор производи нове податке који су упоредиви са оригиналним.
И, дискриминатор покушава да направи разлику између оригиналних и креираних података. Две мреже су обучене у тандему, при чему генератор покушава да превари дискриминатора, а дискриминатор покушава да правилно идентификује оригиналне податке.
Сматрајте ГАН-ове крстом између фалсификата и детектива. Генератор функционише слично фалсификатору, стварајући нова уметничка дела која личе на оригинал.
Дискриминатор се понаша као детектив, покушавајући да направи разлику између правог уметничког дела и фалсификата. Две мреже су обучене у тандему, при чему се генератор побољшава у стварању веродостојних фалсификата, а дискриминатор се побољшава у препознавању.
ГАН-ови имају неколико употреба, у распону од стварања реалистичних слика људи или животиња до стварања нове музике или писања. Такође се могу користити за повећање података, што укључује комбиновање произведених података са стварним подацима како би се изградио већи скуп података за обуку модела машинског учења.
9. Дубоке К-мреже (ДКН)
Дубоке К-мреже (ДКН) су нека врста алгоритма за учење уз помоћ доношења одлука. Они раде тако што уче К-функцију која предвиђа очекивану награду за обављање одређене радње у одређеном стању.
К-функција се учи методом покушаја и грешака, при чему алгоритам покушава различите акције и учи из резултата.
Сматрајте то као а видео игре лик експериментише са разним акцијама и открива које од њих воде ка успеху! ДКН обучавају К-функцију користећи дубоку неуронску мрежу, чинећи их ефикасним алатима за тешке задатке доношења одлука.
Чак су победили људске шампионе у играма као што су Го и шах, као и у роботици и самовозећим аутомобилима. Дакле, све у свему, ДКН раде тако што уче из искуства како би временом побољшали своје вештине доношења одлука.
10. Мреже радијалних основних функција (РБФН)
Мреже радијалних основних функција (РБФН) су врста неуронске мреже која се користи за апроксимацију функција и обављање задатака класификације. Они функционишу тако што трансформишу улазне податке у вишедимензионални простор користећи колекцију радијалних базних функција.
Излаз мреже је линеарна комбинација основних функција, а свака радијална базна функција представља централну тачку у улазном простору.
РБФН су посебно ефикасни у ситуацијама са компликованим улазно-излазним интеракцијама и могу се подучавати коришћењем широког спектра техника, укључујући учење под надзором и учење без надзора. Коришћени су за било шта, од финансијских предвиђања до препознавања слике и говора до медицинске дијагностике.
Замислите РБФН као ГПС систем који користи низ тачака сидришта да би пронашао пут преко изазовног терена. Излаз мреже је комбинација тачака сидрења, које замењују функције радијалне базе.
Можемо да претражујемо кроз компликоване информације и генеришемо прецизна предвиђања о томе како ће се сценарио испоставити коришћењем РБФН-ова.
11. Вишеслојни перцептрони (МЛП)
Типичан облик неуронске мреже назван вишеслојни перцептрон (МЛП) користи се за надгледане задатке учења као што су класификација и регресија. Они раде тако што слажу неколико слојева повезаних чворова, или неурона, при чему сваки слој нелинеарно мења долазне податке.
У МЛП-у, сваки неурон добија улаз од неурона у слоју испод и шаље сигнал неуронима у слоју изнад. Излаз сваког неурона се одређује коришћењем активационе функције, која мрежи даје нелинеарност.
Они су у стању да науче софистициране репрезентације улазних података јер могу имати неколико скривених слојева.
МЛП-ови су примењени на различите задатке, као што су анализа осећања, откривање превара и препознавање гласа и слике. МЛП-ови се могу упоредити са групом истражитеља који раде заједно на откривању тешког случаја.
Заједно, они могу спојити чињенице и решити злочин упркос чињеници да свако има одређену област специјалности.
12. Конволуционе неуронске мреже (ЦНН)
Слике и видео снимци се обрађују помоћу конволуционих неуронских мрежа (ЦНН), облика неуронске мреже. Они функционишу тако што користе скуп филтера који се могу научити, или кернела, како би издвојили значајне карактеристике из улазних података.
Филтери клизе преко улазне слике, изводећи конволуције да би се направила мапа карактеристика која обухвата битне аспекте слике.
Пошто ЦНН могу да науче хијерархијске репрезентације карактеристика слике, оне су посебно корисне у ситуацијама које укључују огромне количине визуелних података. Неколико апликација их је користило, као што су детекција објеката, категоризација слике и препознавање лица.
Замислите ЦНН као сликара који користи неколико четкица да створи ремек-дело. Свака четкица је језгро и уметник може да изгради сложену, реалистичну слику мешањем многих језгара. Можемо издвојити значајне карактеристике из фотографија и користити их за прецизно предвиђање садржаја слике коришћењем ЦНН-а.
13. Мреже дубоког веровања (ДБН)
ДБН су облик неуронске мреже која се користи за задатке учења без надзора као што су смањење димензионалности и учење карактеристика. Они функционишу тако што слажу неколико слојева ограничених Болцманових машина (РБМ), које су двослојне неуронске мреже способне да науче да реконституишу улазне податке.
ДБН-ови су веома корисни за проблеме са високодимензионалним подацима јер могу научити компактно и ефикасно представљање улаза. Коришћени су за било шта, од препознавања гласа до категоризације слика до откривања лекова.
На пример, истраживачи су користили ДБН да би проценили афинитет везивања кандидата за лек за рецептор естрогена. ДБН је био обучен за збирку хемијских карактеристика и афинитета везивања, и био је у стању да прецизно предвиди афинитет везивања нових кандидата за лек.
Ово наглашава употребу ДБН-а у развоју лекова и другим апликацијама података високе димензије.
14. Аутоенцодерс
Аутоенкодери су неуронске мреже које се користе за задатке учења без надзора. Они су намењени да реконструишу улазне податке, што имплицира да ће научити да кодирају информације у компактну репрезентацију, а затим их декодирају назад у оригинални улаз.
Аутоенкодери су веома ефикасни за компресију података, уклањање шума и детекцију аномалија. Такође се могу користити за учење карактеристика, где се компактна репрезентација аутоенкодера уноси у задатак учења под надзором.
Сматрајте да су аутокодери ученици који праве белешке на часу. Студент слуша предавање и на сажет и ефикасан начин бележи најважније тачке.
Касније, ученик може проучити и запамтити лекцију користећи своје белешке. Са друге стране, аутоматски кодер кодира улазне податке у компактну репрезентацију која се касније може користити у различите сврхе као што је откривање аномалија или компресија података.
15. Ограничене Болцманове машине (РБМ)
РБМ (Рестрицтед Болтзманн Мацхинес) су нека врста генеративне неуронске мреже која се користи за задатке учења без надзора. Састоје се од видљивог и скривеног слоја, са неуронима у сваком слоју, повезаним, али не унутар истог слоја.
РБМ се обучавају коришћењем технике познате као контрастивна дивергенција, која подразумева промену тежине између видљивих и скривених слојева како би се оптимизовала вероватноћа података за обуку. РБМ-ови могу креирати свеже податке након што су обучени узорковањем из научене дистрибуције.
Препознавање слике и говора, колаборативно филтрирање и откривање аномалија су све апликације које користе РБМ-ове. Такође су коришћени у системима препорука за креирање прилагођених препорука учењем образаца из понашања корисника.
РБМ-ови су такође коришћени у учењу карактеристика да би се створила компактна и ефикасна репрезентација високодимензионалних података.
Закључак и обећавајући развој на хоризонту
Методе дубоког учења, као што су конволуционе неуронске мреже (ЦНН) и рекурентне неуронске мреже (РНН), спадају међу најнапредније приступе вештачкој интелигенцији. ЦНН-ови су трансформисали препознавање слике и звука, док су РНН-ови значајно напредовали у обради природног језика и секвенцијалној анализи података.
Следећи корак у еволуцији ових приступа ће се вероватно фокусирати на побољшање њихове ефикасности и скалабилности, омогућавајући им да анализирају веће и компликованије скупове података, као и на побољшање њихове интерпретабилности и способности да уче из мање означених података.
Дубоко учење има могућност да омогући напредак у областима као што су здравство, финансије и аутономни системи како напредује.
Ostavite komentar