Преглед садржаја[Сакрити][Прикажи]
- 1. Шта је тачно дубоко учење?
- 2. Шта разликује дубоко учење од машинског учења?
- 3. Каква су ваша тренутна схватања неуронских мрежа?
- 4. Шта је заправо перцептрон?
- 5. Шта је заправо дубока неуронска мрежа?
- 6. Шта је тачно вишеслојни перцептрон (МЛП)?
- 7. Коју сврху имају функције активације у неуронској мрежи?
- 8. Шта је тачно Градијентно спуштање?
- 9. Шта је тачно функција трошкова?
- 10. Како дубоке мреже могу надмашити плитке?
- 11. Опишите пропагацију унапред.
- 12. Шта је пропагација уназад?
- 13. У контексту дубоког учења, како схватате исечење градијента?
- 14. Шта су Софтмак и РеЛУ функције?
- 15. Може ли се модел неуронске мреже обучити са свим тежинама постављеним на 0?
- 16. Шта разликује епоху од серије и итерације?
- 17. Шта су нормализација серије и напуштање?
- 18. Шта одваја стохастички градијентни пад од групног градијентног спуштања?
- 19. Зашто је кључно укључити нелинеарности у неуронске мреже?
- 20. Шта је тензор у дубоком учењу?
- 21. Како бисте одабрали функцију активације за модел дубоког учења?
- 22. Шта подразумевате под ЦНН?
- 23. Који су многи слојеви ЦНН-а?
- 24. Који су ефекти прекомерне и недовољне опреме и како их можете избећи?
- 25. У дубоком учењу, шта је РНН?
- 26. Опишите Адам Оптимизер
- 27. Дубоки аутоенкодери: шта су они?
- 28. Шта Тензор значи у Тенсорфлов-у?
- 29. Објашњење рачунског графа
- 30. Генеративне адверсарилне мреже (ГАН): шта су оне?
- 31. Како ћете изабрати број неурона и скривених слојева које ћете укључити у неуронску мрежу док дизајнирате архитектуру?
- 32. Које врсте неуронских мрежа се користе у учењу са дубоким поткрепљењем?
- Zakljucak
Дубоко учење није потпуно нова идеја. Вештачке неуронске мреже служе као једина основа подскупа машинског учења познатог као дубоко учење.
Дубоко учење је имитација људског мозга, баш као што су неуронске мреже, јер су створене да имитирају људски мозак.
Ово је било неко време. Ових дана сви причају о томе јер немамо ни приближно толико процесорске снаге или података као сада.
Током протеклих 20 година, дубоко учење и машинско учење су се појавили као резултат драматичног пораста капацитета обраде.
Да бисмо вам помогли да се припремите за све упите са којима се можете суочити када тражите посао из снова, овај пост ће вас водити кроз низ питања за интервјуе за дубоко учење, од једноставних до компликованих.
1. Шта је тачно дубоко учење?
Ако похађате а дубоко учење интервјуу, несумњиво разумете шта је дубоко учење. Анкетар, међутим, очекује да дате детаљан одговор заједно са илустрацијом као одговор на ово питање.
Да би тренирао неуронске мреже за дубоко учење морају се користити значајне количине организованих или неструктурираних података. Да би пронашао скривене обрасце и карактеристике, ради компликоване процедуре (на пример, разликује слику мачке од слике пса).
2. Шта разликује дубоко учење од машинског учења?
Као грана вештачке интелигенције позната као машинско учење, ми обучавамо рачунаре користећи податке и статистичке и алгоритамске технике тако да временом постају све бољи.
Као аспект Машина учење, дубоко учење имитира архитектуру неуронске мреже која се види у људском мозгу.
3. Каква су ваша тренутна схватања неуронских мрежа?
Вештачки системи познати као неуронске мреже веома личе на органске неуронске мреже које се налазе у људском телу.
Користећи технику која личи на људски мозак функције, неуронска мрежа је колекција алгоритама која има за циљ да идентификује основне корелације у делу података.
Ови системи стичу специфично знање за задатак тако што се излажу низу скупова података и примера, уместо да прате било која правила специфична за задатак.
Идеја је да уместо да има унапред програмирано разумевање ових скупова података, систем учи карактеристике разликовања од података које добија.
Три мрежна слоја који се најчешће користе у неуронским мрежама су:
- Улазни слој
- Скривени слој
- Излазни слој
4. Шта је заправо перцептрон?
Биолошки неурон који се налази у људском мозгу је упоредив са перцептроном. Перцептрон прима више улаза, који затим врши бројне трансформације и функције и производи излаз.
Линеарни модел који се назива перцептрон користи се у бинарној класификацији. Он симулира неурон са различитим улазима, сваки са различитом тежином.
Неурон израчунава функцију користећи ове пондерисане улазе и даје резултате.
5. Шта је заправо дубока неуронска мрежа?
Дубока неуронска мрежа је вештачка неуронска мрежа (АНН) са неколико слојева између улазног и излазног слоја (ДНН).
Дубоке неуронске мреже су неуронске мреже дубоке архитектуре. Реч „дубоко“ се односи на функције са много нивоа и јединица у једном слоју. Прецизнији модели се могу креирати додавањем више и већих слојева да би се ухватили већи нивои узорака.
6. Шта је тачно вишеслојни перцептрон (МЛП)?
Улазни, скривени и излазни слојеви су присутни у МЛП-овима, слично као у неуронским мрежама. Изграђен је слично као једнослојни перцептрон са једним или више скривених слојева.
Бинарни излаз једнослојног перцептрона може категоризовати само линеарне одвојиве класе (0,1), док МЛП може класификовати нелинеарне класе.
7. Коју сврху имају функције активације у неуронској мрежи?
Функција активације одређује да ли неурон треба да се активира на најосновнијем нивоу. Било која функција активирања може прихватити пондерисани збир улаза плус пристрасност као улаз. Функције активације укључују функцију корака, Сигмоид, РеЛУ, Танх и Софтмак.
8. Шта је тачно Градијентно спуштање?
Најбољи приступ за минимизирање функције трошкова или грешке је градијентни пад. Проналажење локално-глобалних минимума функције је циљ. Ово одређује путању коју модел треба да прати да би се грешка свела на минимум.
9. Шта је тачно функција трошкова?
Функција трошкова је метрика за процену колико добро функционише ваш модел; понекад је познат као „губитак“ или „грешка“. Током пропагације уназад, користи се за израчунавање грешке излазног слоја.
Ми користимо ту непрецизност да бисмо унапредили процесе обуке неуронске мреже тако што смо је гурали назад кроз неуронску мрежу.
10. Како дубоке мреже могу надмашити плитке?
Скривени слојеви се додају у неуронске мреже поред улазних и излазних слојева. Између улазног и излазног слоја, плитке неуронске мреже користе један скривени слој, док дубоке неуронске мреже користе бројне нивое.
Плитка мрежа захтева неколико параметара да би се могла уклопити у било коју функцију. Дубоке мреже могу боље да одговарају функцијама чак и са малим бројем параметара јер укључују неколико слојева.
Дубоке мреже су сада пожељније због њихове свестраности у раду са било којом врстом моделирања података, било да се ради о препознавању говора или слике.
11. Опишите пропагацију унапред.
Уноси се заједно са тежинама преносе у закопани слој у процесу познатом као прослеђивање пропагације.
Излаз функције активације се израчунава у сваком закопаном слоју пре него што обрада може да пређе на следећи слој.
Процес почиње на улазном слоју и напредује до крајњег излазног слоја, тако да је име напредно ширење.
12. Шта је пропагација уназад?
Када се тежине и пристрасности прилагођавају у неуронској мрежи, пропагација уназад се користи за смањење функције трошкова тако што се прво посматра како се вредност мења.
Разумевање градијента на сваком скривеном слоју чини израчунавање ове промене једноставним.
Процес, познат као пропагација уназад, почиње на излазном слоју и креће се уназад до улазних слојева.
13. У контексту дубоког учења, како схватате исечење градијента?
Одсецање градијента је метод за решавање проблема експлодирајућих градијената који настају током пропагације уназад (стање у којем се током времена акумулирају значајни нетачни градијенти, што доводи до значајних прилагођавања тежина модела неуронске мреже током тренинга).
Експлодирајући градијенти је проблем који се јавља када градијенти постану превелики током тренинга, чинећи модел нестабилним. Ако је градијент прешао очекивани опсег, вредности градијента се гурају елемент по елемент на унапред дефинисану минималну или максималну вредност.
Одсецање градијента побољшава нумеричку стабилност неуронске мреже током тренинга, али има минималан утицај на перформансе модела.
14. Шта су Софтмак и РеЛУ функције?
Функција за активирање која се зове Софтмак производи излаз у опсегу између 0 и 1. Сваки излаз је подељен тако да је збир свих излаза један. За излазне слојеве, Софтмак се често користи.
Исправљена линеарна јединица, понекад позната као РеЛУ, је најчешће коришћена функција активације. Ако је Кс позитиван, он даје Кс, у супротном даје нуле. РеЛУ се редовно примењује на закопане слојеве.
15. Може ли се модел неуронске мреже обучити са свим тежинама постављеним на 0?
Неуронска мрежа никада неће научити да заврши дати посао, стога није могуће обучити модел иницијализацијом свих тежина на 0.
Деривати ће остати исти за сваку тежину у В [1] ако су све тежине иницијализоване на нулу, што ће резултирати да неурони итеративно уче исте карактеристике.
Не само иницијализација пондера на 0, већ на било који облик константе вероватно ће резултирати подпарним резултатом.
16. Шта разликује епоху од серије и итерације?
Различити облици обраде скупова података и технике градијентног спуштања укључују серију, итерацију и епоху. Епоха укључује једнократну неуронску мрежу са пуним скупом података, напред и назад.
Да би се обезбедили поуздани резултати, скуп података се често прослеђује неколико пута пошто је превелик за пролазак у једном покушају.
Ова пракса узастопног покретања мале количине података кроз неуронску мрежу се назива итерација. Да би се гарантовало да скуп података успешно пролази кроз неуронске мреже, може се поделити на неколико група или подскупова, што је познато као батцхинг.
У зависности од величине прикупљања података, све три методе — епоха, итерација и величина серије — су у суштини начини коришћења алгоритам градијентног спуштања.
17. Шта су нормализација серије и напуштање?
Одустајање спречава преоптерећење података тако што насумично уклања и видљиве и скривене мрежне јединице (обично се испушта 20 процената чворова). То удвостручује број итерација потребних да би се мрежа конвергирала.
Нормализацијом улаза у сваком слоју да имају средњу излазну активацију од нуле и стандардну девијацију од један, нормализација серије је стратегија за побољшање перформанси и стабилности неуронских мрежа.
18. Шта одваја стохастички градијентни пад од групног градијентног спуштања?
Патцх Градијентни спуштање:
- Комплетан скуп података се користи за конструисање градијента за групни градијент.
- Огромна количина података и пондери који се споро ажурирају отежавају конвергенцију.
Стохастички градијент пад:
- Стохастички градијент користи један узорак за израчунавање градијента.
- Због чешћих промена тежине, конвергира знатно брже од градијента серије.
19. Зашто је кључно укључити нелинеарности у неуронске мреже?
Без обзира на то колико слојева има, неуронска мрежа ће се понашати као перцептрон у одсуству нелинеарности, чинећи излаз линеарно зависним од улаза.
Другим речима, неуронска мрежа са н слојева и м скривених јединица и функција линеарне активације је еквивалентна линеарној неуронској мрежи без скривених слојева и са способношћу да детектује искључиво границе линеарног раздвајања.
Без нелинеарности, неуронска мрежа није у стању да реши компликована питања и прецизно категоризује улаз.
20. Шта је тензор у дубоком учењу?
Вишедимензионални низ познат као тензор служи као генерализација матрица и вектора. То је кључна структура података за дубоко учење. Н-димензионални низови основних типова података се користе за представљање тензора.
Свака компонента тензора има исти тип података, а овај тип података је увек познат. Могуће је да је познат само део облика — наиме, колико димензија има и колика је свака од њих.
У ситуацијама када су улази такође потпуно познати, већина операција производи потпуно познате тензоре; у другим случајевима, облик тензора се може успоставити само током извршавања графа.
21. Како бисте одабрали функцију активације за модел дубоког учења?
- Има смисла користити линеарну активациону функцију ако је исход који се мора очекивати стварни.
- Сигмоидну функцију треба користити ако је излаз који се мора предвидети вероватноћа бинарне класе.
- Танх функција се може користити ако пројектовани излаз садржи две класификације.
- Због своје лакоће израчунавања, РеЛУ функција је применљива у широком спектру ситуација.
22. Шта подразумевате под ЦНН?
Дубоке неуронске мреже које су специјализоване за процену визуелних слика укључују конволуционе неуронске мреже (ЦНН или ЦонвНет). Овде, уместо у неуронским мрежама где вектор представља улаз, улаз је вишеканална слика.
Вишеслојне перцептроне користе ЦНН на посебан начин који захтева врло мало предпроцесирања.
23. Који су многи слојеви ЦНН-а?
Конволуцијски слој: Главни слој је конволуцијски слој, који има низ филтера који се могу научити и пријемчиво поље. Овај почетни слој узима улазне податке и издваја његове карактеристике.
РеЛУ слој: Чинећи мреже нелинеарним, овај слој претвара негативне пикселе у нулу.
Слој обједињавања: Минимизирањем обраде и мрежних подешавања, слој обједињавања постепено минимизира просторну величину репрезентације. Максимално обједињавање је најчешће коришћени метод удруживања.
24. Који су ефекти прекомерне и недовољне опреме и како их можете избећи?
Ово је познато као претеривање када модел научи замршености и шум у подацима о обуци до тачке у којој то негативно утиче на употребу нових података од стране модела.
Вероватније је да ће се то догодити са нелинеарним моделима који су прилагодљивији док уче функцију циља. Модел се може обучити да открива аутомобиле и камионе, али може бити у стању да идентификује само возила са одређеним обликом кутије.
С обзиром да је био обучен само за једну врсту камиона, можда неће моћи да открије камион с равним платформама. На подацима о обуци, модел ради добро, али не у стварном свету.
Недовољно опремљен модел односи се на онај који није довољно обучен за податке или није у стању да генерализује на нове информације. Ово се често дешава када се модел обучава са недовољним или нетачним подацима.
Прецизност и перформансе су угрожени недостатком опреме.
Поновно узорковање података за процену тачности модела (К-фолд унакрсна валидација) и коришћење скупа података за валидацију за процену модела су два начина да се избегне претерано и недовољно прилагођавање.
25. У дубоком учењу, шта је РНН?
Рекурентне неуронске мреже (РНН), уобичајена врста вештачких неуронских мрежа, иду под скраћеницом РНН. Користе се за обраду генома, рукописа, текста и низова података, између осталог. За неопходну обуку, РНН користе пропагацију уназад.
26. Опишите Адам Оптимизер
Адам оптимизатор, такође познат као адаптивни моментум, је техника оптимизације развијена за руковање бучним ситуацијама са ретким градијентима.
Поред обезбеђивања ажурирања по параметру за бржу конвергенцију, Адам оптимизатор побољшава конвергенцију кроз замах, обезбеђујући да модел не буде заробљен у тачки седла.
27. Дубоки аутоенкодери: шта су они?
Дубоки аутоенкодер је заједнички назив за две симетричне дубоке мреже веровања које генерално укључују четири или пет плитких слојева за половину мреже за кодирање и други сет од четири или пет слојева за половину за декодирање.
Ови слојеви чине основу дубоких мрежа веровања и ограничени су Болцмановим машинама. Након сваког РБМ-а, дубоки аутоматски кодер примењује бинарне промене на скуп података МНИСТ.
Они се такође могу користити у другим скуповима података где би Гаусове исправљене трансформације биле пожељније у односу на РБМ.
28. Шта Тензор значи у Тенсорфлов-у?
Ово је још једно питање за интервју за дубоко учење које се редовно поставља. Тензор је математички концепт који се визуализује као низови више димензије.
Тензори су ови низови података који се дају као улаз у неуронску мрежу и имају различите димензије и рангирање.
29. Објашњење рачунског графа
Основа ТенсорФлов-а је конструкција рачунарског графа. Сваки чвор функционише у мрежи чворова, где чворови представљају математичке операције, а ивице за тензоре.
Понекад се назива „Граф протока података“ јер подаци теку у облику графикона.
30. Генеративне адверсарилне мреже (ГАН): шта су оне?
У дубоком учењу, генеративно моделирање се постиже коришћењем генеративних супарничких мрежа. То је посао без надзора где се резултат производи идентификацијом образаца у улазним подацима.
Дискриминатор се користи за категоризацију инстанци произведених од стране генератора, док се генератор користи за производњу нових примера.
31. Како ћете изабрати број неурона и скривених слојева које ћете укључити у неуронску мрежу док дизајнирате архитектуру?
С обзиром на пословни изазов, прецизан број неурона и скривених слојева потребних за конструисање архитектуре неуронске мреже не може се одредити ниједним чврстим и брзим правилима.
У неуронској мрежи, величина скривеног слоја треба да падне негде на средину величине улазног и излазног слоја.
Ипак, почетак у креирању дизајна неуронске мреже може се постићи на неколико једноставних метода:
Почевши од неког основног систематског тестирања да би се видело шта би најбоље радило за било који одређени скуп података на основу претходног искуства са неуронским мрежама у сличним поставкама у стварном свету, најбољи је начин да се ухвати у коштац са сваким јединственим изазовом предиктивног моделирања у стварном свету.
Конфигурација мреже се може изабрати на основу нечијег знања о домену проблема и претходног искуства у неуронској мрежи. Приликом процене подешавања неуронске мреже, број слојева и неурона који се користе за сродне проблеме је добро место за почетак.
Сложеност неуронске мреже треба постепено повећавати на основу пројектованог излаза и тачности, почевши од једноставног дизајна неуронске мреже.
32. Које врсте неуронских мрежа се користе у учењу са дубоким поткрепљењем?
- У парадигми машинског учења која се зове учење уз помоћ, модел делује тако да максимизира идеју кумулативне награде, баш као што то раде живе ствари.
- Игре и самовозећа возила су описани као проблеми који укључују учење ојачавања.
- Екран се користи као улаз ако је проблем који се представља игра. Да би произвео излаз за наредне фазе, алгоритам узима пикселе као улаз и обрађује их преко многих слојева конволуционих неуронских мрежа.
- Резултати деловања модела, повољни или лоши, делују као поткрепљење.
Zakljucak
Дубоко учење је порасло у популарности током година, са применама у готово свим областима индустрије.
Компаније све више траже компетентне стручњаке који могу дизајнирати моделе који реплицирају људско понашање користећи приступе дубоког учења и машинског учења.
Кандидати који унапреде своје вештине и задрже своје знање о овим најсавременијим технологијама могу пронаћи широк спектар радних прилика уз атрактивну плату.
Можете почети са интервјуима сада када сте добро разумели како да одговорите на нека од најчешће тражених питања за интервју за дубоко учење. Предузмите следећи корак на основу ваших циљева.
Посетите Хасхдорк'с Интервиев Сериес да се припреми за интервјуе.
Ostavite komentar