Зміст[Сховати][Показати]
- 1. Поясніть відмінності між машинним навчанням, штучним інтелектом і глибоким навчанням.
- 2. Будь ласка, опишіть різні типи машинного навчання.
- 3. Що таке компроміс зміщення проти дисперсії?
- 4. Алгоритми машинного навчання значно еволюціонували з часом. Як вибрати правильний алгоритм для використання заданого набору даних?
- 5. Чим відрізняються коваріація та кореляція?
- 6. Що означає кластеризація в машинному навчанні?
- 7. Який алгоритм машинного навчання ви віддаєте перевагу?
- 8. Лінійна регресія в машинному навчанні: що це таке?
- 9. Опишіть відмінності між KNN і кластеризацією k-середніх.
- 10. Що для вас означає «упередженість відбору»?
- 11. Що таке теорема Байєса?
- 12. Що таке «навчальний набір» і «тестовий набір» у моделі машинного навчання?
- 13. Що таке гіпотеза в машинному навчанні?
- 14. Що означає переобладнання машинного навчання і як цьому можна запобігти?
- 15. Що таке наївні байєсівські класифікатори?
- 16. Що означають функції витрат і функції збитків?
- 17. Чим генеративна модель відрізняється від дискримінаційної?
- 18. Опишіть відмінності між помилками типу I та типу II.
- 19. Що таке методика ансамблевого навчання в машинному навчанні?
- 20. Що таке параметричні моделі? Наведіть приклад.
- 21. Опишіть спільну фільтрацію. А також фільтрація на основі вмісту?
- 22. Що саме ви маєте на увазі під часовим рядом?
- 23. Опишіть відмінності між алгоритмами Gradient Boosting і Random Forest.
- 24. Для чого потрібна матриця плутанини? Що це?
- 25. Що таке аналіз основних компонентів?
- 26. Чому ротація компонентів є такою важливою для PCA (аналіз головних компонентів)?
- 27. Як регулярізація та нормалізація відрізняються одна від одної?
- 28. Чим нормалізація та стандартизація відрізняються одна від одної?
- 29. Що саме означає «фактор інфляції відхилень»?
- 30. Виходячи з розміру навчального набору, як вибрати класифікатор?
- 31. Який алгоритм у машинному навчанні називають «ледачим учнем» і чому?
- 32. Що таке крива ROC і AUC?
- 33. Що таке гіперпараметри? Що робить їх унікальними з модельних параметрів?
- 34. Що означають F1 Score, запам'ятовування та точність?
- 35. Що таке перехресна перевірка?
- 36. Припустімо, ви виявили, що ваша модель має значну дисперсію. Який алгоритм, на вашу думку, найбільше підходить для вирішення цієї ситуації?
- 37. Що відрізняє регресію Ріджа від регресії Ласо?
- 38. Що важливіше: продуктивність моделі чи точність моделі? Якому з них і чому ви віддасте перевагу?
- 39. Як би ви керували набором даних із нерівностями?
- 40. Як можна відрізнити бустінг від пакетування?
- 41. Поясніть відмінності між індуктивним і дедуктивним навчанням.
- Висновок
Компанії використовують передові технології, такі як штучний інтелект (ШІ) і машинне навчання, щоб підвищити доступність інформації та послуг для людей.
Ці технології впроваджуються в різних галузях, зокрема в банківській справі, фінансах, роздрібній торгівлі, виробництві та охороні здоров’я.
Однією з найбільш затребуваних посад в організації, де використовується штучний інтелект, є науковці з обробки даних, інженери зі штучного інтелекту, інженери з машинного навчання та аналітики даних.
Ця публікація проведе вас через різноманітні навчання за допомогою машини запитання для співбесіди, від основних до складних, щоб допомогти вам підготуватися до будь-яких запитань, які вам можуть поставити під час пошуку ідеальної роботи.
1. Поясніть відмінності між машинним навчанням, штучним інтелектом і глибоким навчанням.
Штучний інтелект використовує різноманітні підходи до машинного та глибокого навчання, які дозволяють комп’ютерним системам виконувати завдання, використовуючи людський інтелект із логікою та правилами.
Машинне навчання використовує різноманітні статистичні дані та підходи до глибокого навчання, щоб дозволити машинам навчатися на основі їх попередньої продуктивності та стати більш вправними у виконанні певних завдань самостійно без нагляду людини.
Глибоке навчання — це набір алгоритмів, які дозволяють програмному забезпеченню навчатися на самому собі та виконувати різноманітні комерційні функції, наприклад розпізнавання голосу та зображення.
Системи, які піддають їх багатошаровості нейронні мережі до величезних обсягів даних для навчання здатні проводити глибоке навчання.
2. Будь ласка, опишіть різні типи машинного навчання.
Машинне навчання існує в трьох різних типах:
- Контрольоване навчання: модель створює прогнози або судження, використовуючи позначені або історичні дані в керованому машинному навчанні. Набори даних, які позначені тегами або мітками, щоб підвищити їх значення, називаються даними з мітками.
- Неконтрольоване навчання: у нас немає позначених даних для неконтрольованого навчання. У вхідних даних модель може знайти закономірності, дивацтва та кореляції.
- Навчання з підкріпленням: модель може вчитися за допомогою підкріплення навчання та винагороди, які він отримав за свою попередню поведінку.
3. Що таке компроміс зміщення проти дисперсії?
Переобладнання є результатом зсуву, який є ступенем, до якого модель відповідає даним. Упередженість викликана неправильними або занадто простими припущеннями у вашому алгоритм машинного навчання.
Дисперсія стосується помилок, спричинених складністю вашого алгоритму ML, що створює чутливість до великого ступеня дисперсії в навчальних даних і переобладнання.
Дисперсія – це те, наскільки модель змінюється залежно від вхідних даних.
Іншими словами, базові моделі надзвичайно зміщені, але стабільні (низька дисперсія). Переобладнання є проблемою складних моделей, хоча вони, тим не менш, фіксують реальність моделі (низьке зміщення).
Щоб запобігти як великій варіації, так і високій похибці, необхідний компроміс між похибкою та дисперсією для найкращого зменшення помилок.
4. Алгоритми машинного навчання значно еволюціонували з часом. Як вибрати правильний алгоритм для використання заданого набору даних?
Техніка машинного навчання, яку слід використовувати, залежить лише від типу даних у конкретному наборі даних.
Якщо дані лінійні, використовується лінійна регресія. Метод укладання в мішки працював би краще, якби дані вказували на нелінійність. Ми можемо використовувати дерева рішень або SVM, якщо дані потрібно оцінити або інтерпретувати в комерційних цілях.
Нейронні мережі можуть бути корисними для отримання точної відповіді, якщо набір даних містить фотографії, відео та аудіо.
Вибір алгоритму для конкретної обставини або збору даних не може бути зроблений лише на одному вимірі.
Щоб розробити найкращий метод, ми повинні спочатку перевірити дані за допомогою дослідницького аналізу даних (EDA) і зрозуміти мету використання набору даних.
5. Чим відрізняються коваріація та кореляція?
Коваріація оцінює, як дві змінні пов’язані одна з одною та як одна може змінитися у відповідь на зміни в іншій.
Якщо результат позитивний, це вказує на те, що між змінними існує прямий зв’язок і що один буде зростати або зменшуватися зі збільшенням або зменшенням базової змінної, припускаючи, що всі інші умови залишаються постійними.
Кореляція вимірює зв’язок між двома випадковими змінними та має лише три різні значення: 1, 0 і -1.
6. Що означає кластеризація в машинному навчанні?
Методи неконтрольованого навчання, які групують точки даних разом, називаються кластеризацією. За допомогою набору точок даних можна застосувати техніку кластеризації.
За допомогою цієї стратегії можна згрупувати всі точки даних відповідно до їхніх функцій.
Характеристики та якості точок даних, які належать до однієї категорії, подібні, тоді як точки даних, які належать до окремих груп, відрізняються.
Цей підхід можна використовувати для аналізу статистичних даних.
7. Який алгоритм машинного навчання ви віддаєте перевагу?
Ви маєте шанс продемонструвати свої вподобання та унікальні таланти в цьому питанні, а також свої всебічні знання численних методів машинного навчання.
Ось кілька типових алгоритмів машинного навчання, над якими слід подумати:
- Лінійна регресія
- Логістична регресія
- Наївні Баєси
- Рішення дерев
- K означає
- Алгоритм випадкового лісу
- K-найближчий сусід (KNN)
8. Лінійна регресія в машинному навчанні: що це таке?
Контрольований алгоритм машинного навчання — це лінійна регресія.
Він використовується в прогнозному аналізі для визначення лінійного зв’язку між залежними та незалежними змінними.
Рівняння лінійної регресії має такий вигляд:
Y = A + BX
де:
- Вхідна або незалежна змінна називається X.
- Залежною або вихідною змінною є Y.
- Коефіцієнт X дорівнює b, а його відрізок дорівнює a.
9. Опишіть відмінності між KNN і кластеризацією k-середніх.
Основна відмінність полягає в тому, що KNN (метод класифікації, контрольоване навчання) потребує позначених точок, тоді як k-середні – ні (алгоритм кластеризації, неконтрольоване навчання).
Ви можете класифікувати позначені дані в непозначену точку за допомогою K-найближчих сусідів. Кластеризація K-means використовує середню відстань між точками, щоб навчитися групувати точки без міток.
10. Що для вас означає «упередженість відбору»?
Похибка на етапі вибірки експерименту спричинена статистичною неточністю.
Одна група вибірки вибирається частіше, ніж інші групи в експерименті, внаслідок неточності.
Якщо упередженість вибору не визнається, це може призвести до неправильного висновку.
11. Що таке теорема Байєса?
Коли нам відомі інші ймовірності, ми можемо визначити ймовірність за допомогою теореми Байєса. Іншими словами, він пропонує апостериорну ймовірність події на основі попередньої інформації.
Ця теорема забезпечує надійний метод оцінки умовних ймовірностей.
При розробці завдань класифікаційного прогнозного моделювання та адаптації моделі до навчання набір даних у машинному навчанні, застосована теорема Байєса (тобто Наївний Байєс, оптимальний класифікатор Байєса).
12. Що таке «навчальний набір» і «тестовий набір» у моделі машинного навчання?
Навчальний набір:
- Навчальний набір складається з примірників, які надсилаються в модель для аналізу та навчання.
- Це позначені дані, які використовуватимуться для навчання моделі.
- Як правило, 70% загальних даних використовується як навчальний набір даних.
Тестовий набір:
- Тестовий набір використовується для оцінки точності формування гіпотези моделі.
- Ми тестуємо без мічених даних, а потім використовуємо мітки для підтвердження результатів.
- Решта 30% використовуються як тестовий набір даних.
13. Що таке гіпотеза в машинному навчанні?
Машинне навчання дає змогу використовувати наявні набори даних для кращого розуміння певної функції, яка зв’язує вхідні дані з вихідними. Це відомо як апроксимація функції.
У цьому випадку необхідно застосувати наближення для невідомої цільової функції, щоб передати всі можливі спостереження на основі даної ситуації найкращим чином.
У машинному навчанні гіпотеза — це модель, яка допомагає оцінити цільову функцію та завершити відповідне відображення вхідних даних і вихідних даних.
Вибір і проектування алгоритмів дозволяють визначити простір можливих гіпотез, які можуть бути представлені моделлю.
Для однієї гіпотези використовується малий регістр h (h), але велика h (H) використовується для всього простору гіпотез, у якому здійснюється пошук. Коротко розглянемо ці позначення:
- Гіпотеза (h) — це конкретна модель, яка полегшує відображення вхідних даних і вихідних даних, які згодом можуть бути використані для оцінювання та прогнозування.
- Набір гіпотез (H) — це простір гіпотез з можливістю пошуку, який можна використовувати для відображення входів і виходів. Фреймування проблеми, модель і конфігурація моделі є кількома прикладами загальних обмежень.
14. Що означає переобладнання машинного навчання і як цьому можна запобігти?
Коли машина намагається навчатися з недостатнього набору даних, відбувається переобладнання.
У результаті переобладнання обернено корелює з обсягом даних. Підхід перехресної перевірки дозволяє уникнути переобладнання невеликих наборів даних. У цьому методі набір даних розбивається на дві частини.
Набір даних для тестування та навчання складатиметься з цих двох частин. Навчальний набір даних використовується для створення моделі, а тестовий набір даних використовується для оцінки моделі за допомогою різних вхідних даних.
Ось як запобігти переобладнанню.
15. Що таке наївні байєсівські класифікатори?
Різні методи класифікації складають наївні класифікатори Байєса. Набір алгоритмів, відомий як ці класифікатори, працює на одній фундаментальній ідеї.
Припущення, зроблене наївними класифікаторами Байєса, полягає в тому, що наявність або відсутність однієї ознаки не має жодного відношення до наявності чи відсутності іншої ознаки.
Іншими словами, це те, що ми називаємо «наївним», оскільки припускаємо, що кожен атрибут набору даних є однаково значущим і незалежним.
Класифікація виконується за допомогою наївних класифікаторів Байєса. Вони прості у використанні та дають кращі результати, ніж складніші предиктори, якщо передумова незалежності вірна.
Вони використовуються в аналізі тексту, фільтрації спаму та системах рекомендацій.
16. Що означають функції витрат і функції збитків?
Фраза «функція втрат» відноситься до процесу обчислення втрат, коли враховується лише одна частина даних.
І навпаки, ми використовуємо функцію вартості, щоб визначити загальну кількість помилок для багатьох даних. Жодної істотної різниці немає.
Іншими словами, у той час як функції вартості агрегують різницю для всього навчального набору даних, функції втрат призначені для фіксації різниці між фактичними та прогнозованими значеннями для одного запису.
17. Чим генеративна модель відрізняється від дискримінаційної?
Дискримінаційна модель вивчає відмінності між кількома категоріями даних. Генеративна модель підбирає різні типи даних.
У проблемах класифікації дискримінаційні моделі часто перевершують інші моделі.
18. Опишіть відмінності між помилками типу I та типу II.
Помилкові спрацьовування підпадають під категорію помилок типу I, тоді як хибні від’ємні результати належать до помилок типу II (стверджуючи, що нічого не сталося, хоча це насправді сталося).
19. Що таке методика ансамблевого навчання в машинному навчанні?
Техніка під назвою ансамблеве навчання змішує багато моделей машинного навчання для створення більш потужних моделей.
Модель може змінюватися з різних причин. Кілька причин:
- Різні групи населення
- Різні гіпотези
- Різні способи моделювання
Ми зіткнемося з проблемою під час використання даних навчання та тестування моделі. Зміщення, дисперсія та незнижувана помилка є можливими типами цієї помилки.
Тепер ми називаємо цей баланс між зміщенням і дисперсією в моделі компромісом зміщення та дисперсії, і він завжди повинен існувати. Цей компроміс досягається завдяки використанню ансамблевого навчання.
Хоча існують різні підходи до ансамблю, існує дві загальні стратегії поєднання багатьох моделей:
- Власний підхід, який називається пакетування, використовує навчальний набір для створення додаткових навчальних наборів.
- Бустінг, більш складна техніка: подібно до мішків, бустінг використовується для пошуку ідеальної формули зважування для тренувального набору.
20. Що таке параметричні моделі? Наведіть приклад.
У параметричних моделях існує обмежена кількість параметрів. Щоб спрогнозувати дані, все, що вам потрібно знати, це параметри моделі.
Нижче наведено типові приклади: логістична регресія, лінійна регресія та лінійні SVM. Непараметричні моделі є гнучкими, оскільки можуть містити необмежену кількість параметрів.
Для прогнозування даних потрібні параметри моделі та статус спостережуваних даних. Ось кілька типових прикладів: тематичні моделі, дерева рішень і k-найближчі сусіди.
21. Опишіть спільну фільтрацію. А також фільтрація на основі вмісту?
Перевіреним і надійним методом створення індивідуальних пропозицій вмісту є спільне фільтрування.
Форма системи рекомендацій, яка називається спільним фільтруванням, передбачає свіжий матеріал шляхом збалансування уподобань користувача зі спільними інтересами.
Налаштування користувача — це єдине, що враховують системи рекомендацій на основі вмісту. У світлі попереднього вибору користувача нові рекомендації надаються з відповідних матеріалів.
22. Що саме ви маєте на увазі під часовим рядом?
Часовий ряд – це сукупність чисел у порядку зростання. Протягом попередньо визначеного періоду часу він відстежує рух вибраних точок даних і періодично фіксує точки даних.
Немає мінімального або максимального часу введення для часових рядів.
Часові ряди часто використовуються аналітиками для аналізу даних відповідно до їхніх унікальних вимог.
23. Опишіть відмінності між алгоритмами Gradient Boosting і Random Forest.
Випадковий ліс:
- Велика кількість дерев рішень об’єднується в кінці і відомі як випадкові ліси.
- Тоді як підсилення градієнта створює кожне дерево незалежно від інших, випадковий ліс створює кожне дерево по одному.
- Багатокласовий виявлення об'єкта добре працює з випадковими лісами.
Посилення градієнта:
- У той час як випадкові ліси приєднуються до дерев рішень у кінці процесу, Gradient Boosting Machines об’єднує їх із самого початку.
- Якщо параметри належним чином налаштовані, посилення градієнта перевершує випадкові ліси з точки зору результатів, але це нерозумний вибір, якщо набір даних має багато викидів, аномалій або шуму, оскільки це може спричинити перевиконання моделі.
- Коли є незбалансовані дані, як це відбувається під час оцінки ризику в реальному часі, посилення градієнта працює добре.
24. Для чого потрібна матриця плутанини? Що це?
Таблиця, відома як матриця плутанини, іноді відома як матриця помилок, широко використовується, щоб показати, наскільки добре модель класифікації або класифікатор працює на наборі тестових даних, для яких відомі реальні значення.
Це дозволяє нам побачити, як працює модель або алгоритм. Це дозволяє нам легко виявляти непорозуміння між різними курсами.
Він слугує способом оцінки того, наскільки добре виконується модель або алгоритм.
Прогнози моделі класифікації складаються в матрицю плутанини. Значення підрахунку кожної мітки класу використовувалися для розподілу загальної кількості правильних і неправильних передбачень.
Він містить детальну інформацію про помилки, зроблені класифікатором, а також про різні типи помилок, викликаних класифікаторами.
25. Що таке аналіз основних компонентів?
Зводячи до мінімуму кількість змінних, які корелюють одна з одною, мета полягає в тому, щоб мінімізувати розмірність збору даних. Але важливо зберегти якомога більше різноманітності.
Змінні змінюються на абсолютно новий набір змінних, які називаються головними компонентами.
Ці ПК є ортогональними, оскільки вони є власними векторами коваріаційної матриці.
26. Чому ротація компонентів є такою важливою для PCA (аналіз головних компонентів)?
Ротація має вирішальне значення в PCA, оскільки вона оптимізує поділ між дисперсіями, отриманими кожним компонентом, спрощуючи інтерпретацію компонентів.
Нам потрібні розширені компоненти для вираження варіації компонентів, якщо компоненти не обертаються.
27. Як регулярізація та нормалізація відрізняються одна від одної?
Нормалізація:
Під час нормалізації дані змінюються. Ви повинні нормалізувати дані, якщо вони мають масштаби, які різко відрізняються, особливо від низького до високого. Налаштуйте кожен стовпець так, щоб фундаментальна статистика була сумісною.
Це може бути корисним, щоб гарантувати відсутність втрати точності. Виявлення сигналу при ігноруванні шуму є однією з цілей навчання моделі.
Існує ймовірність переобладнання, якщо повністю контролювати модель для зменшення помилок.
Регулярізація:
При регуляризації функція передбачення змінюється. Це підлягає певному контролю через регуляризацію, яка надає перевагу більш простим функціям підгонки над складними.
28. Чим нормалізація та стандартизація відрізняються одна від одної?
Два найпоширеніші методи масштабування ознак – нормалізація та стандартизація.
Нормалізація:
- Перемасштабування даних відповідно до діапазону [0,1] називається нормалізацією.
- Коли всі параметри повинні мати однаковий позитивний масштаб, нормалізація корисна, але викиди набору даних втрачаються.
Регулярізація:
- У рамках процесу стандартизації дані змінюються, щоб отримати середнє значення 0 і стандартне відхилення 1 (одиниця дисперсії)
29. Що саме означає «фактор інфляції відхилень»?
Відношення дисперсії моделі до дисперсії моделі лише з однією незалежною змінною відоме як варіаційний фактор інфляції (VIF).
VIF оцінює ступінь мультиколінеарності в наборі кількох регресійних змінних.
Дисперсія моделі (VIF) Модель з однією незалежною змінною дисперсією
30. Виходячи з розміру навчального набору, як вибрати класифікатор?
Модель з високим зміщенням і низькою дисперсією працює краще для короткого тренувального набору, оскільки переобладнання менш імовірне. Наївний Байєс є одним із прикладів.
Для представлення більш складних взаємодій для великого навчального набору перевага надається моделі з низьким зміщенням і високою дисперсією. Хорошим прикладом є логістична регресія.
31. Який алгоритм у машинному навчанні називають «ледачим учнем» і чому?
Повільно навчається, KNN — це алгоритм машинного навчання. Оскільки K-NN динамічно обчислює відстань щоразу, коли хоче класифікувати, замість того, щоб вивчати будь-які машинно-навчені значення або змінні з навчальних даних, він запам’ятовує навчальний набір даних.
Це робить K-NN ледачим учнем.
32. Що таке крива ROC і AUC?
Ефективність моделі класифікації на всіх порогових значеннях представлена графічно кривою ROC. Він має критерії істинного позитивного показника та помилкового позитивного показника.
Простіше кажучи, площа під кривою ROC відома як AUC (площа під кривою ROC). Вимірюється двовимірна площа кривої ROC від (0,0) до AUC (1,1). Для оцінки моделей бінарної класифікації вона використовується як статистика ефективності.
33. Що таке гіперпараметри? Що робить їх унікальними з модельних параметрів?
Внутрішня змінна моделі відома як параметр моделі. Використовуючи навчальні дані, значення параметра наближено.
Невідомий моделі, гіперпараметр є змінною. Значення не можна визначити з даних, тому вони часто використовуються для розрахунку параметрів моделі.
34. Що означають F1 Score, запам'ятовування та точність?
Міра плутанини – це показник, який використовується для вимірювання ефективності моделі класифікації. Щоб краще пояснити показник плутанини, можна використати наступні фрази:
TP: Справжні позитивні значення – це позитивні значення, які були належним чином передбачені. Це означає, що значення прогнозованого класу та фактичного класу є позитивними.
TN: Справжні негативи – це несприятливі значення, які були точно спрогнозовані. Це означає, що як значення фактичного класу, так і очікуваного класу є від’ємними.
Ці значення — помилкові позитивні та помилкові негативні — виникають, коли ваш фактичний клас відрізняється від очікуваного.
тепер,
Відношення істинної позитивної частоти (TP) до всіх спостережень, зроблених у фактичному класі, називається запам'ятовуванням, також відомим як чутливість.
Відкликання TP/(TP+FN).
Точність – це міра позитивного прогностичного значення, яке порівнює кількість позитивних результатів, які дійсно передбачає модель, із кількістю правильних позитивних результатів, які вона точно передбачає.
Точність TP/(TP + FP)
Найпростішим для розуміння показником продуктивності є точність, яка є лише пропорцією належно передбачених спостережень до всіх спостережень.
Точність дорівнює (TP+TN)/(TP+FP+FN+TN).
Точність і запам'ятовування зважені та усереднені, щоб отримати оцінку F1. У результаті ця оцінка враховує як хибнопозитивні, так і хибнонегативні результати.
F1 часто є більш цінним, ніж точність, особливо якщо у вас нерівномірний розподіл класів, навіть якщо інтуїтивно це не так просто зрозуміти, як точність.
Найкраща точність досягається, коли вартість помилкових спрацьовувань і помилково негативних результатів порівнянна. Бажано включати як Precision, так і Recall, якщо витрати, пов’язані з помилковими позитивними результатами, і помилково негативними результатами значно відрізняються.
35. Що таке перехресна перевірка?
Підхід статистичної повторної вибірки, який називається перехресною перевіркою в машинному навчанні, використовує кілька підмножин наборів даних для навчання та оцінки алгоритму машинного навчання в кількох раундах.
Новий пакет даних, який не використовувався для навчання моделі, перевіряється за допомогою перехресної перевірки, щоб побачити, наскільки добре модель прогнозує це. Переобладнання даних запобігає перехресній перевірці.
K-Fold Найбільш часто використовуваний метод повторної вибірки розбиває весь набір даних на K наборів однакового розміру. Це називається перехресною перевіркою.
36. Припустімо, ви виявили, що ваша модель має значну дисперсію. Який алгоритм, на вашу думку, найбільше підходить для вирішення цієї ситуації?
Управління високою мінливістю
Ми повинні використовувати техніку мішків для задач із великими варіаціями.
Повторна вибірка випадкових даних використовуватиметься алгоритмом пакетування для поділу даних на підгрупи. Після того, як дані були розділені, ми можемо використовувати випадкові дані та спеціальну навчальну процедуру для створення правил.
Після цього опитування можна використовувати для об’єднання прогнозів моделі.
37. Що відрізняє регресію Ріджа від регресії Ласо?
Двома широко використовуваними методами регуляризації є регресія Ласо (також називається L1) і регресія Ріджа (іноді називається L2). Вони використовуються для запобігання переобладнанню даних.
Щоб знайти найкраще рішення та мінімізувати складність, ці методи використовуються для покарання коефіцієнтів. Штрафуючи на загальну суму абсолютних значень коефіцієнтів, працює регресія Лассо.
Штрафна функція в регресії Ріджа або L2 виводиться із суми квадратів коефіцієнтів.
38. Що важливіше: продуктивність моделі чи точність моделі? Якому з них і чому ви віддасте перевагу?
Це оманливе питання, тому спочатку слід зрозуміти, що таке продуктивність моделі. Якщо продуктивність визначається як швидкість, то вона залежить від типу програми; будь-яка програма, що стосується ситуації в реальному часі, вимагатиме високої швидкості як важливого компонента.
Наприклад, найкращі результати пошуку стануть менш цінними, якщо результати запиту надходять надто довго.
Якщо продуктивність використовується як обґрунтування того, чому точність і запам’ятовування мають бути пріоритетними над точністю, тоді оцінка F1 буде більш корисною, ніж точність, для демонстрації бізнес-обґрунтування будь-якого незбалансованого набору даних.
39. Як би ви керували набором даних із нерівностями?
Незбалансований набір даних може отримати користь від методів вибірки. Вибірка може здійснюватися як з недостатньою, так і з надмірною вибіркою.
Under Sampling дозволяє нам зменшити розмір основного класу, щоб відповідати меншому класу, що сприяє збільшенню швидкості зберігання та виконання під час виконання, але також може призвести до втрати цінних даних.
Щоб усунути проблему втрати інформації, спричинену надмірною дискретизацією, ми підвищуємо дискретизацію класу Minority; тим не менш, це призводить до того, що ми стикаємося з проблемами переобладнання.
Додаткові стратегії включають:
- Надвибірка на основі кластерів. У цій ситуації екземпляри класів меншості та більшості окремо піддаються методу кластеризації K-середніх. Це робиться для пошуку кластерів набору даних. Потім для кожного кластера виконується надлишкова вибірка, щоб усі класи мали однаковий розмір і всі кластери в класі мали однакову кількість екземплярів.
- SMOTE: Техніка надлишкової вибірки синтетичної меншості. Як приклад використовується зріз даних із класу меншості, після чого створюються додаткові штучні екземпляри, які можна порівняти з ним, і додаються до вихідного набору даних. Цей метод добре працює з числовими точками даних.
40. Як можна відрізнити бустінг від пакетування?
Техніка ансамблю має версії, відомі як мішок і посилення.
упаковка-
Для алгоритмів із високою варіацією пакетування — це техніка, яка використовується для зменшення дисперсії. Одним із таких класифікаторів, схильних до упередженості, є сімейство дерева рішень.
Тип даних, на яких навчаються дерева рішень, значно впливає на їх продуктивність. Через це, навіть з дуже високою точністю, узагальнення результатів іноді набагато складніше отримати в них.
Якщо навчальні дані дерева рішень змінюються, результати суттєво відрізняються.
Як наслідок, використовується пакетування, у якому створюється багато дерев рішень, кожне з яких навчається з використанням вибірки вихідних даних, а кінцевим результатом є середнє значення всіх цих різних моделей.
Підвищення:
Підвищення — це техніка прогнозування за допомогою n-слабкої системи класифікаторів, у якій кожен слабкий класифікатор компенсує недоліки своїх сильніших класифікаторів. Ми називаємо класифікатор, який погано працює на заданому наборі даних, як «слабкий класифікатор».
Зрозуміло, що підвищення — це процес, а не алгоритм. Логістична регресія та неглибокі дерева рішень є типовими прикладами слабких класифікаторів.
Adaboost, Gradient Boosting і XGBoost є двома найпопулярнішими алгоритмами підвищення, однак їх набагато більше.
41. Поясніть відмінності між індуктивним і дедуктивним навчанням.
Під час навчання на прикладі з набору спостережуваних прикладів модель використовує індуктивне навчання, щоб дійти до узагальненого висновку. З іншого боку, при дедуктивному навчанні модель використовує результат перед формуванням власного.
Індуктивне навчання – це процес створення висновків на основі спостережень.
Дедуктивне навчання — це процес створення спостережень на основі висновків.
Висновок
Вітаю! Це 40 і більше запитань для співбесіди для машинного навчання, на які ви знаєте відповіді. Наука про дані та штучний інтелект професії залишаться затребуваними в міру розвитку технологій.
Кандидати, які оновлюють свої знання про ці передові технології та покращують свої навички, можуть знайти широкий спектр можливостей працевлаштування з конкурентоспроможною оплатою.
Ви можете продовжити відповідати на інтерв’ю тепер, коли маєте чітке розуміння того, як відповідати на деякі з поширених запитань машинного навчання.
Залежно від ваших цілей зробіть наступний крок. Підготуйтеся до співбесід, відвідавши Hashdork Серія інтерв'ю.
залишити коментар