Содржина[Крие][Прикажи]
- 1. Што точно е длабоко учење?
- 2. Што го разликува длабокото учење од машинското учење?
- 3. Кои се вашите моментални сфаќања за невронските мрежи?
- 4. Што точно е перцепрон?
- 5. Што всушност е длабока невронска мрежа?
- 6. Што е точно повеќеслоен перцептрон (MLP)?
- 7. Каква цел имаат функциите за активирање во невронската мрежа?
- 8. Што е точно спуштањето на градиент?
- 9. Која е точно функцијата на трошоците?
- 10. Како длабоките мрежи можат да ги надминат плитките?
- 11. Опишете го ширењето напред.
- 12. Што е заднинско размножување?
- 13. Во контекст на длабокото учење, како го разбирате клипингот на градиент?
- 14. Кои се функциите Softmax и ReLU?
- 15. Може ли да се обучи модел на невронска мрежа со сите тежини поставени на 0?
- 16. Што ја разликува епохата од серија и повторување?
- 17. Што се нормализација на сериите и откажување?
- 18. Што го одделува Стохастичкото спуштање на градиент од сериското спуштање на градиент?
- 19. Зошто е клучно да се вклучат нелинеарности во невронските мрежи?
- 20. Што е тензор во длабокото учење?
- 21. Како би ја одбрале функцијата за активирање за модел за длабоко учење?
- 22. Што мислиш под CNN?
- 23. Кои се многуте слоеви на CNN?
- 24. Кои се ефектите од прекумерното и недоволното вклопување, и како можете да ги избегнете?
- 25. Во длабокото учење, што е RNN?
- 26. Опишете го Adam Optimizer
- 27. Длабоки автоенкодери: што се тие?
- 28. Што значи Tensor во Tensorflow?
- 29. Објаснување на пресметковен график
- 30. Генеративни противнички мрежи (ГАН): кои се тие?
- 31. Како ќе го изберете бројот на неврони и скриени слоеви што ќе ги вклучите во невронската мрежа додека ја дизајнирате архитектурата?
- 32. Какви видови невронски мрежи се користат со учењето со длабоко засилување?
- Заклучок
Длабокото учење не е сосема нова идеја. Вештачките невронски мрежи служат како единствена основа на подмножеството за машинско учење познато како длабоко учење.
Длабокото учење е имитација на човечкиот мозок, исто како и невронските мрежи, бидејќи тие се создадени за да го имитираат човечкиот мозок.
Ова го има веќе некое време. Деновиве, сите зборуваат за тоа бидејќи немаме ни приближно толкава процесорска моќ или податоци како сега.
Во текот на изминатите 20 години, длабокото учење и машинското учење се појавија како резултат на драматичниот пораст на капацитетот за обработка.
Со цел да ви помогне да се подготвите за какви било прашања со кои би можеле да се соочите кога ја барате вашата работа од соништата, овој пост ќе ве води низ голем број прашања за интервју за длабоко учење, кои се движат од едноставни до комплицирани.
1. Што точно е длабоко учење?
Ако присуствувате на длабоко учење интервју, вие несомнено разбирате што е длабоко учење. Интервјуерот, сепак, очекува да дадете детален одговор заедно со илустрација како одговор на ова прашање.
За да тренирате нервните мрежи за длабоко учење, мора да се користат значителни количини на организирани или неструктурирани податоци. За да пронајде скриени обрасци и карактеристики, прави комплицирани процедури (на пример, разликување на сликата на мачка од онаа на кучето).
2. Што го разликува длабокото учење од машинското учење?
Како гранка на вештачката интелигенција позната како машинско учење, ние ги обучуваме компјутерите користејќи податоци и статистички и алгоритамски техники за да бидат подобри со текот на времето.
Како аспект на машинско учење, длабокото учење ја имитира архитектурата на невронската мрежа што се гледа во човечкиот мозок.
3. Кои се вашите моментални сфаќања за невронските мрежи?
Вештачките системи познати како невронски мрежи многу блиску личат на органските невронски мрежи кои се наоѓаат во човечкото тело.
Користење на техника која наликува на тоа како човечки мозок функции, невронска мрежа е збирка на алгоритми кои имаат за цел да ги идентификуваат основните корелации во дел од податоците.
Овие системи стекнуваат знаење специфични за задачите со изложување на низа збирки на податоци и примери, наместо со следење на правила специфични за задачата.
Идејата е дека наместо да има однапред програмирано разбирање за овие збирки на податоци, системот учи да ги разликува карактеристиките од податоците што ги внесува.
Трите мрежни слоеви кои најчесто се користат во невронските мрежи се како што следува:
- Влезен слој
- Скриен слој
- Излезен слој
4. Што точно е перцепрон?
Биолошкиот неврон пронајден во човечкиот мозок е споредлив со перцепрон. Повеќекратни влезови се примаат од перцептронот, кој потоа врши бројни трансформации и функции и произведува излез.
Во бинарната класификација се користи линеарен модел наречен перцептрон. Симулира неврон со различни влезови, секој со различна тежина.
Невронот пресметува функција користејќи ги овие пондерирани влезови и ги дава резултатите.
5. Што всушност е длабока невронска мрежа?
Длабока невронска мрежа е вештачка невронска мрежа (ANN) со неколку слоеви помеѓу влезните и излезните слоеви (DNN).
Длабоките невронски мрежи се невронски мрежи со длабока архитектура. Зборот „длабоко“ се однесува на функции со многу нивоа и единици во еден слој. Може да се создадат попрецизни модели со додавање на повеќе и поголеми слоеви за да се доловат поголеми нивоа на обрасци.
6. Што е точно повеќеслоен перцептрон (MLP)?
Влезните, скриените и излезните слоеви се присутни во MLP, слично како во невронските мрежи. Тој е изграден слично на еднослоен перцептрон со еден или повеќе скриени слоеви.
Бинарниот излез на перцептрон од еден слој може да категоризира само линеарни одделни класи (0,1), додека MLP може да класифицира нелинеарни класи.
7. Каква цел имаат функциите за активирање во невронската мрежа?
Функцијата за активирање одредува дали невронот треба да се активира или не на најфундаментално ниво. Секоја функција за активирање може да ја прифати пондерираната сума на влезовите плус пристрасноста како влез. Функциите за активирање вклучуваат чекор функција, Sigmoid, ReLU, Tanh и Softmax.
8. Што е точно спуштањето на градиент?
Најдобар пристап за минимизирање на функцијата на трошоците или грешката е спуштањето на градиент. Пронаоѓањето на локално-глобалните минимуми на функцијата е целта. Ова ја одредува патеката што треба да ја следи моделот за да се минимизира грешката.
9. Која е точно функцијата на трошоците?
Функцијата на трошоците е метрика за да се процени колку добро функционира вашиот модел; понекогаш е познато како „загуба“ или „грешка“. За време на заднинското ширење, се користи за пресметување на грешката на излезниот слој.
Ние ја користиме таа неточност за да ги унапредиме процесите на обука на невронската мрежа со тоа што ја туркаме назад низ невронската мрежа.
10. Како длабоките мрежи можат да ги надминат плитките?
Скриените слоеви се додаваат во невронските мрежи покрај влезните и излезните слоеви. Помеѓу влезните и излезните слоеви, плитките невронски мрежи користат еден скриен слој, додека длабоките невронски мрежи користат бројни нивоа.
Плитка мрежа бара неколку параметри за да може да се вклопи во која било функција. Длабоките мрежи можат подобро да одговараат на функциите дури и со мал број параметри бидејќи вклучуваат неколку слоеви.
Сега се претпочитаат длабоки мрежи поради нивната разновидност во работата со секаков вид моделирање на податоци, без разлика дали се работи за препознавање говор или слика.
11. Опишете го ширењето напред.
Влезовите се пренесуваат заедно со тегови до закопаниот слој во процес познат како пропагирање проследување.
Излезот на функцијата за активирање се пресметува во секој закопан слој пред обработката да продолжи на следниот слој.
Процесот започнува во влезниот слој и напредува до крајниот излезен слој, со што се добива името напред пропагирање.
12. Што е заднинско размножување?
Кога тежините и предрасудите се приспособуваат во невронската мрежа, се користи назад пропагирање за да се намали функцијата на трошоците со прво набљудување како се менува вредноста.
Разбирањето на градиентот на секој скриен слој го олеснува пресметувањето на оваа промена.
Процесот, познат како backpropagation, започнува од излезниот слој и се движи назад кон влезните слоеви.
13. Во контекст на длабокото учење, како го разбирате клипингот на градиент?
Градиент клипинг е метод за решавање на проблемот со експлодирачките градиенти кои се појавуваат за време на заостанатото ширење (состојба во која со текот на времето се акумулираат значителни неточни градиенти, што доведува до значителни прилагодувања на тежините на моделите на нервната мрежа за време на обуката).
Експлодирачките градиенти е проблем што се јавува кога наклоните стануваат преголеми за време на тренингот, што го прави моделот нестабилен. Ако градиентот го надминал очекуваниот опсег, вредностите на градиентот се туркаат елемент по елемент до однапред дефинирана минимална или максимална вредност.
Пресекот на градиент ја подобрува нумеричката стабилност на невронската мрежа за време на тренингот, но има минимално влијание врз перформансите на моделот.
14. Кои се функциите Softmax и ReLU?
Функцијата за активирање наречена Softmax произведува излез во опсег помеѓу 0 и 1. Секој излез е поделен така што збирот на сите излези е еден. За излезните слоеви, Softmax често се користи.
Поправената линеарна единица, понекогаш позната како ReLU, е најкористената функција за активирање. Ако X е позитивен, излегува X, инаку дава нули. ReLU редовно се нанесува на закопаните слоеви.
15. Може ли да се обучи модел на невронска мрежа со сите тежини поставени на 0?
Невронската мрежа никогаш нема да научи да заврши дадена работа, затоа не е можно да се обучи модел со иницијализирање на сите тежини на 0.
Дериватите ќе останат исти за секоја тежина во W [1] ако сите тежини се иницијализираат на нула, што ќе резултира со невроните да ги учат истите карактеристики итеративно.
Не само иницијализирањето на тежините на 0, туку на која било форма на константа веројатно ќе резултира со подпаричен резултат.
16. Што ја разликува епохата од серија и повторување?
Различни форми на обработка на збирки на податоци и техники на спуштање на градиент вклучуваат серија, повторување и епоха. Епохата вклучува еднаш преку невронска мрежа со целосна база на податоци, и напред и назад.
Со цел да се обезбедат веродостојни резултати, базата на податоци често се пренесува неколку пати бидејќи е преголема за да се пренесе во еден обид.
Оваа практика на постојано водење на мала количина на податоци преку невронска мрежа се нарекува итерација. За да се гарантира дека множеството податоци успешно ги поминува невронските мрежи, може да се подели на голем број серии или подмножества, што е познато како сериско поврзување.
Во зависност од големината на собирањето податоци, сите три методи - епоха, повторување и големина на серија - во суштина се начини за користење на алгоритам за спуштање на градиент.
17. Што се нормализација на сериите и откажување?
Откажувањето спречува преоптоварување на податоците со случајно отстранување и видливи и скриени мрежни единици (обично испуштајќи 20 проценти од јазлите). Го удвојува бројот на повторувања потребни за да се спои мрежата.
Со нормализирање на влезовите во секој слој за да имаат средно излезно активирање нула и стандардно отстапување од еден, нормализацијата на серијата е стратегија за подобрување на перформансите и стабилноста на невронските мрежи.
18. Што го одделува Стохастичкото спуштање на градиент од сериското спуштање на градиент?
Сериско спуштање со градиент:
- Целосната база на податоци се користи за да се конструира градиент за серискиот градиент.
- Огромната количина на податоци и бавно ажурираните тежини ја отежнуваат конвергенцијата.
Стохастичко спуштање со градиент:
- Стохастичкиот градиент користи еден примерок за да го пресмета градиентот.
- Поради почестите промени на тежината, тој се конвергира значително побрзо од градиентот на серијата.
19. Зошто е клучно да се вклучат нелинеарности во невронските мрежи?
Без разлика колку слоеви има, невронската мрежа ќе се однесува како перцептрон во отсуство на нелинеарности, правејќи го излезот линеарно зависен од влезот.
Поинаку кажано, невронска мрежа со n слоеви и m скриени единици и линеарни функции за активирање е еквивалентна на линеарна невронска мрежа без скриени слоеви и со способност за откривање исклучиво линеарни разделни граници.
Без нелинеарности, невронската мрежа не е во состојба да реши комплицирани прашања и прецизно да го категоризира влезот.
20. Што е тензор во длабокото учење?
Повеќедимензионална низа позната како тензор служи како генерализација на матрици и вектори. Тоа е клучна структура на податоци за длабоко учење. За претставување на тензори се користат N-димензионални низи од основни типови на податоци.
Секоја компонента на тензорот има ист тип на податоци и овој тип на податоци е секогаш познат. Можно е да се знае само дел од обликот - имено, колку димензии има и колку е голема секоја од нив.
Во ситуации кога влезовите се исто така целосно познати, поголемиот дел од операциите произведуваат целосно познати тензори; во други случаи, формата на тензор може да се утврди само при извршување на графикот.
21. Како би ја одбрале функцијата за активирање за модел за длабоко учење?
- Има смисла да се користи линеарна функција за активирање ако исходот што треба да се очекува е реален.
- Сигмоидна функција треба да се користи ако излезот што треба да се предвиди е веројатност од бинарна класа.
- Функцијата Tanh може да се користи ако проектираниот излез содржи две класификации.
- Поради леснотијата на пресметување, функцијата ReLU е применлива во широк опсег на ситуации.
22. Што мислиш под CNN?
Длабоките невронски мрежи кои се специјализирани за евалуација на визуелни слики вклучуваат конволутивни невронски мрежи (CNN или ConvNet). Овде, наместо во невронските мрежи каде што вектор го претставува влезот, влезот е повеќеканална слика.
Повеќеслојните перцептрони се користат на посебен начин од страна на CNN што бара многу малку претпроцесирање.
23. Кои се многуте слоеви на CNN?
Конволуционен слој: Главниот слој е конволуциониот слој, кој има различни филтри за учење и приемливо поле. Овој почетен слој ги зема влезните податоци и ги извлекува неговите карактеристики.
ReLU Layer: Со тоа што мрежите се нелинеарни, овој слој ги претвора негативните пиксели во нула.
Слој за здружување: со минимизирање на поставките за обработка и мрежа, слојот за здружување постепено ја минимизира просторната големина на претставата. Max pooling е најкористениот метод на здружување.
24. Кои се ефектите од прекумерното и недоволното вклопување, и како можете да ги избегнете?
Ова е познато како преоптоварување кога моделот ги учи сложеноста и бучавата во податоците за обука до точка каде што негативно влијае на користењето на свежи податоци од страна на моделот.
Поверојатно е да се случи со нелинеарни модели кои се поприлагодливи додека се учи функцијата на целта. Моделот може да биде обучен да открива автомобили и камиони, но може да може да идентификува возила само со одредена форма на кутија.
Со оглед на тоа што бил обучен само на еден тип на камион, можеби нема да може да открие камион со рамно лежиште. На податоците за обуката, моделот работи добро, но не во вистинскиот свет.
Недоволно опремен модел се однесува на модел кој не е доволно обучен за податоци или способен да се генерализира на нови информации. Ова често се случува кога моделот се обучува со недоволни или неточни податоци.
И прецизноста и перформансите се компромитирани со недоволно вклопување.
Преземање примероци од податоците за да се процени точноста на моделот (К-пати вкрстена валидација) и користење на база на податоци за валидација за проценка на моделот се два начина да се избегне преоптоварување и недоволно усогласување.
25. Во длабокото учење, што е RNN?
Рекурентни невронски мрежи (RNN), вообичаена разновидност на вештачки невронски мрежи, се користат по кратенката RNN. Тие се користат за обработка на геноми, ракопис, текст и секвенци на податоци, меѓу другото. За потребната обука, РНН користат заднинско размножување.
26. Опишете го Adam Optimizer
Адам оптимизатор, исто така познат како адаптивен моментум, е техника за оптимизација развиена за справување со бучни ситуации со ретки градиенти.
Покрај обезбедувањето ажурирања по параметар за побрзо конвергенција, оптимизаторот Adam ја подобрува конвергенцијата преку моментумот, обезбедувајќи моделот да не остане заробен во точката на седлото.
27. Длабоки автоенкодери: што се тие?
Длабок автоенкодер е колективно име за две симетрични мрежи за длабоки верувања кои генерално вклучуваат четири или пет плитки слоеви за шифрираната половина од мрежата и уште еден сет од четири или пет слоеви за половината за декодирање.
Овие слоеви ја формираат основата на мрежите на длабоки верувања и се ограничени од Болцмановите машини. По секој RBM, длабок автоенкодер применува бинарни промени на датата на податоци MNIST.
Тие, исто така, може да се користат во други збирки на податоци каде што Гаусови поправени трансформации би биле претпочитани пред RBM.
28. Што значи Tensor во Tensorflow?
Ова е уште едно прашање за интервју за длабоко учење што редовно се поставува. Тензор е математички концепт кој се визуелизира како низи со повисоки димензии.
Тензори се овие низи на податоци кои се обезбедуваат како влез во невронската мрежа и имаат различни димензии и рангирање.
29. Објаснување на пресметковен график
Основата на TensorFlow е изградбата на пресметковен график. Секој јазол функционира во мрежа од јазли, каде што јазлите значат математички операции и рабовите за тензорите.
Понекогаш се нарекува „График на проток на податоци“ бидејќи податоците течат во форма на график.
30. Генеративни противнички мрежи (ГАН): кои се тие?
Во Deep Learning, генеративното моделирање се постигнува со користење на генеративни противнички мрежи. Тоа е работа без надзор каде што резултатот се произведува со идентификување на обрасци во влезните податоци.
Дискриминаторот се користи за категоризација на примероците произведени од генераторот, додека генераторот се користи за производство на нови примери.
31. Како ќе го изберете бројот на неврони и скриени слоеви што ќе ги вклучите во невронската мрежа додека ја дизајнирате архитектурата?
Со оглед на деловниот предизвик, прецизниот број на неврони и скриени слоеви потребни за изградба на архитектура на невронска мрежа не може да се одреди со никакви тешки и брзи правила.
Во невронската мрежа, големината на скриениот слој треба да падне некаде во средината на големината на влезните и излезните слоеви.
Почетокот за создавање на дизајн на невронска мрежа може да се постигне со неколку едноставни методи, иако:
Почнувајќи со некои основни систематски тестирања за да се види што најдобро би функционирало за која било специфична база на податоци врз основа на претходно искуство со невронски мрежи во слични поставки во реалниот свет е најдобриот начин да се справите со секој уникатен предизвик за предвидливо моделирање во реалниот свет.
Конфигурацијата на мрежата може да се избере врз основа на познавање на доменот на проблемот и претходно искуство во невронската мрежа. Кога се проценува поставеноста на невронската мрежа, бројот на слоеви и неврони што се користат за поврзани проблеми е добро место за почеток.
Комплексноста на невронската мрежа треба постепено да се зголемува врз основа на проектираниот излез и точност, почнувајќи со едноставен дизајн на невронска мрежа.
32. Какви видови невронски мрежи се користат со учењето со длабоко засилување?
- Во парадигмата за машинско учење наречена засилено учење, моделот дејствува за да ја максимизира идејата за кумулативна награда, исто како што прават живите работи.
- Игрите и самоуправувачките возила се опишани како проблеми кои вклучуваат зајакнување на учење.
- Екранот се користи како влез ако проблемот што треба да се претстави е игра. Со цел да се произведе излез за следните фази, алгоритмот ги зема пикселите како влез и ги обработува преку многу слоеви на конволутивни невронски мрежи.
- Резултатите од постапките на моделот, поволни или лоши, делуваат како засилување.
Заклучок
Длабокото учење се зголеми во популарност со текот на годините, со апликации во речиси секоја индустриска област.
Компаниите се повеќе бараат компетентни експерти кои можат да дизајнираат модели кои го реплицираат човечкото однесување користејќи пристапи за длабоко учење и машинско учење.
Кандидатите кои го зголемуваат својот сет на вештини и го одржуваат своето знаење за овие најсовремени технологии можат да најдат широк спектар на можности за работа со атрактивна плата.
Можете да започнете со интервјуата сега кога имате силно разбирање за тоа како да одговорите на некои од најчесто бараните прашања за интервју за длабоко учење. Направете го следниот чекор врз основа на вашите цели.
Посетете го Хашдорк Серија на интервјуа да се подготват за интервјуа.
Оставете Одговор