Зміст[Сховати][Показати]
Світ швидко змінюється завдяки штучному інтелекту та машинному навчанню, яке впливає на всі аспекти нашого повсякденного життя.
Від голосових помічників, які використовують НЛП і машинне навчання для бронювання зустрічей, пошуку подій у нашому календарі та відтворення музики, до пристроїв, які настільки точні, що вони можуть передбачити наші потреби ще до того, як ми їх розглянемо.
За допомогою алгоритмів машинного навчання комп’ютери можуть грати в шахи, робити операції та розвиватися в розумніші, більш схожі на людину машини.
Ми знаходимося в часі постійного технологічного прогресу, і, бачачи, як комп’ютери розвивалися з часом, ми можемо прогнозувати, що станеться в майбутньому.
Демократизація обчислювальних засобів і методів є одним із ключових аспектів цієї революції, яка виділяється. Вчені-дані протягом останніх п’яти років створили потужні комп’ютери, що обробляють дані, без зусиль впроваджуючи передові методики. Результати вражають.
У цій публікації ми уважно розглянемо навчання за допомогою машини алгоритми та всі їх варіації.
Отже, що таке алгоритми машинного навчання?
Підхід, який використовується системою штучного інтелекту для виконання свого завдання — як правило, передбачення вихідних значень із заданих вхідних даних — відомий як алгоритм машинного навчання.
Алгоритм машинного навчання – це процес, який використовує дані і використовується для створення готових до виробництва моделей машинного навчання. Якщо машинне навчання — це потяг, який виконує роботу, то алгоритми машинного навчання — це локомотиви, які рухають роботу.
Найкращий підхід машинного навчання для використання буде визначатися бізнес-проблемою, яку ви намагаєтеся вирішити, типом набору даних, який ви використовуєте, і наявними ресурсами.
Алгоритми машинного навчання – це ті, які перетворюють набір даних у модель. Залежно від типу проблеми, на яку ви намагаєтеся вирішити, доступної потужності обробки та типу даних, які ви маєте, алгоритми навчання під наглядом, без нагляду або з підкріпленням можуть працювати добре.
Отже, ми говорили про навчання під наглядом, навчання без нагляду та навчання з підкріпленням, але що це таке? Давайте дослідимо їх.
Навчання під наглядом, без нагляду та навчання з підкріпленням
Навчання під наглядом
У навчанні з наглядом модель ШІ розробляється на основі введених даних і мітки, яка представляє прогнозований результат. На основі вхідних і вихідних даних модель розробляє рівняння відображення і, використовуючи це рівняння відображення, прогнозує мітку вхідних даних у майбутньому.
Скажімо, нам потрібно створити модель, яка зможе відрізнити собаку від кішки. Кілька фотографій кішок і собак подаються в модель з мітками, які вказують, чи це кішки чи собаки, щоб навчити модель.
Модель намагається встановити рівняння, що зв’язує мітки на вхідних фотографіях з цими зображеннями. Навіть якщо модель ніколи раніше не бачила зображення, після тренування вона зможе визначити, чи це кішка чи собака.
Навчання без нагляду
Навчання без нагляду передбачає навчання моделі штучного інтелекту лише на вхідних даних без позначення їх. Модель розбиває вхідні дані на групи зі спорідненими характеристиками.
Майбутня мітка вхідних даних прогнозується залежно від того, наскільки його атрибути відповідають одній із класифікацій. Розглянемо ситуацію, коли ми повинні розділити групу червоних і синіх куль на дві категорії.
Припустимо, що інші характеристики кульок ідентичні, за винятком кольору. На основі того, як вона може розділити м’ячі на два класи, модель шукає характеристики, які відрізняються між кульками.
Дві скупчення кульок — одна синя та одна червона — утворюються, коли кульки поділяються на дві групи за їх відтінком.
Навчання зміцненню
У навчанні з підкріпленням модель штучного інтелекту прагне максимізувати загальний прибуток, діючи якнайкраще в певних обставинах. Відгуки про попередні результати допомагають моделі навчатися.
Подумайте про сценарій, коли робот отримує вказівку вибрати маршрут між точками A і B. Робот спочатку обирає будь-який із курсів, оскільки він не має попереднього досвіду.
Робот отримує інформацію про маршрут, який він пройде, і отримує знання від нього. Робот може використовувати вхідні дані, щоб вирішити проблему наступного разу, коли він зіткнеться з подібною обставиною.
Наприклад, якщо робот вибирає варіант B і отримує винагороду, наприклад позитивний відгук, він розуміє, що цього разу він повинен вибрати спосіб B, щоб збільшити свою винагороду.
Тепер, нарешті, ви всі чекаєте алгоритмів.
Основні алгоритми машинного навчання
1. Лінійна регресія
Найпростіший підхід до машинного навчання, який відрізняється від навчання під керівництвом, — це лінійна регресія. Маючи знання з незалежних змінних, вони в основному використовуються для вирішення проблем регресії та створення прогнозів щодо безперервних залежних змінних.
Метою лінійної регресії є пошук лінії найкращого підходу, яка може допомогти у прогнозуванні результату для безперервних залежних змінних. Ціни на житло, вік і заробітна плата є деякими прикладами безперервних цінностей.
Модель, відома як проста лінійна регресія, використовує пряму лінію для обчислення зв’язку між однією незалежною змінною та однією залежною змінною. У множинній лінійній регресії є більше двох незалежних змінних.
Модель лінійної регресії має чотири основні припущення:
- Лінійність: існує лінійний зв’язок між X і середнім значенням Y.
- Гомоскедастичність: для кожного значення X залишкова дисперсія однакова.
- Незалежність: спостереження незалежні один від одного з точки зору незалежності.
- Нормальність: коли X фіксований, Y розподіляється нормально.
Лінійна регресія чудово працює для даних, які можна розділити уздовж ліній. Він може контролювати переобладнання, використовуючи методи регуляризації, перехресної перевірки та зменшення розмірності. Однак існують випадки, коли потрібний великий розробка функцій, що іноді може призвести до переобладнання та шуму.
2. Логістична регресія
Логістична регресія – це ще один метод машинного навчання, який відходить від навчання під керівництвом. Його головне використання — класифікація, а також для задач регресії.
Логістична регресія використовується для прогнозування категоріальної залежної змінної з використанням інформації від незалежних факторів. Мета полягає в тому, щоб класифікувати результати, які можуть бути лише в межах від 0 до 1.
Зважена сума вхідних даних обробляється сигмоподібною функцією, функцією активації, яка перетворює значення від 0 до 1.
Основою логістичної регресії є оцінка максимальної правдоподібності, метод розрахунку параметрів передбачуваного розподілу ймовірностей за конкретними спостережуваними даними.
3. Дерево рішень
Іншим методом машинного навчання, який відокремлюється від навчання з наглядом, є дерево рішень. Для питань класифікації та регресії можна використовувати підхід дерева рішень.
Цей інструмент прийняття рішень, який нагадує дерево, використовує візуальні уявлення, щоб показати очікувані результати дій, витрати та наслідки. Розділивши дані на окремі частини, ця ідея аналогічна людському розуму.
Дані були розділені на окремі частини настільки, наскільки ми могли їх гранулювати. Основна мета дерева рішень — побудувати навчальну модель, яку можна використовувати для прогнозування класу цільової змінної. Відсутні значення можна обробляти автоматично за допомогою дерева рішень.
Немає вимог до одноразового кодування, фіктивних змінних або інших етапів попередньої обробки даних. Він жорсткий у тому сенсі, що до нього важко додати нові дані. Якщо ви отримали додаткові позначені дані, вам слід перенавчати дерево для всього набору даних.
В результаті дерева рішень є поганим вибором для будь-якої програми, яка потребує динамічної зміни моделі.
На основі типу цільової змінної дерева рішень поділяються на два типи:
- Категорична змінна: дерево рішень, у якому змінна цілі є категоричною.
- Безперервна змінна: дерево рішень, у якому змінна цілі є безперервною.
4. Випадковий ліс
Метод випадкового лісу — це наступна техніка машинного навчання та контрольований алгоритм машинного навчання, який широко використовується в питаннях класифікації та регресії. Це також метод на основі дерева, подібний до дерева рішень.
Ліс дерев або багато дерев рішень використовується методом випадкових лісів для прийняття суджень. При обробці завдань класифікації метод випадкового лісу використовував категоріальні змінні, а завдання регресії — з наборами даних, які містять безперервні змінні.
Ансамбль або змішування багатьох моделей — це те, що робить метод випадкового лісу, що означає, що передбачення робляться за допомогою групи моделей, а не лише однієї.
Можливість використовувати як для задач класифікації, так і для задач регресії, які складають більшість сучасних систем машинного навчання, є ключовою перевагою випадкового лісу.
Ансамбль використовує дві різні стратегії:
- Розміщення: завдяки цьому для набору навчальних даних створюється більше даних. Це робиться, щоб зменшити різницю в прогнозах.
- Підвищення – це процес поєднання слабких учнів із сильними шляхом побудови послідовних моделей, що призводить до кінцевої моделі з максимальною точністю.
5. Наївний Байєс
Проблему бінарної (двокласової) та багатокласової класифікації можна вирішити за допомогою методики наївного Байєса. Коли метод пояснюється з використанням двійкових або категорійних вхідних значень, його найпростіше зрозуміти. Припущення, зроблене наївним класифікатором Байєса, полягає в тому, що існування однієї ознаки в класі не має відношення до наявності будь-яких інших ознак.
Наведена вище формула вказує:
- P(H): Ймовірність того, що гіпотеза H є правильною. Попередня ймовірність називається такою.
- P(E): Імовірність доказів
- P(E|H): ймовірність того, що гіпотеза підтверджується доказами.
- P(H|E): Імовірність того, що гіпотеза вірна, з огляду на докази.
Наївний байєсівський класифікатор враховує кожну з цих характеристик окремо при визначенні ймовірності певного результату, навіть якщо ці атрибути пов’язані один з одним. Наївна байєсівська модель проста у побудові й ефективна для великих наборів даних.
Відомо, що він працює краще, ніж навіть найскладніші методи категоризації, будучи базовим. Це набір алгоритмів, які базуються на теоремі Байєса, а не на одному методі.
6. K-найближчі сусіди
Техніка K-найближчих сусідів (kNN) — це підмножина контрольованого машинного навчання, яку можна використовувати для вирішення проблем класифікації та регресії. Алгоритм KNN припускає, що порівнянні об’єкти можна знайти поблизу.
Я згадую це як зібрання однодумців. kNN використовує ідею подібності між іншими точками даних, використовуючи близькість, близькість або відстань. Щоб позначити невидимі дані на основі найближчих позначених спостережуваних точок, використовується математичний метод для визначення поділу між точками на графіку.
Ви повинні визначити відстань між точками даних, щоб визначити найближчі порівняні точки. Для цього можна використовувати такі вимірювання відстані, як евклідова відстань, відстань Хеммінга, відстань Манхеттена та відстань Мінковського. K відомий як число найближчого сусіда, і воно часто є непарним числом.
KNN можна застосувати до задач класифікації та регресії. Прогноз, зроблений, коли KNN використовується для регресії, ґрунтується на середньому чи медіані K-найбільш схожих випадків.
Результат алгоритму класифікації на основі KNN можна визначити як клас з найвищою частотою серед K найбільш подібних випадків. Кожен екземпляр, по суті, голосує за свій клас, і прогноз належить тому класу, який отримав найбільшу кількість голосів.
7. К-середні
Це техніка неконтрольованого навчання, яка вирішує проблеми кластеризації. Набори даних поділяються на певну кількість кластерів — назвемо це K — таким чином, що точки даних кожного кластера є однорідними та відмінними від тих в інших кластерах.
Методологія кластеризації K-середніх:
- Для кожного кластера алгоритм K-середніх вибирає k центроїдів, або точок.
- З найближчими центроїдами або K кластерами кожна точка даних утворює кластер.
- Тепер нові центроїди створюються в залежності від уже присутніх членів кластера.
- Найближча відстань для кожної точки даних обчислюється за допомогою цих оновлених центроїдів. До тих пір, поки центроїди не зміняться, цей процес повторюється.
Це швидше, надійніше і простіше для розуміння. Якщо є проблеми, адаптивність k-means полегшує коригування. Коли набори даних відрізняються або добре ізольовані один від одного, результати є найкращими. Він не може керувати помилковими даними або викидами.
8. Машини опорних векторів
При використанні методики SVM для класифікації даних вихідні дані відображаються у вигляді крапок у n-вимірному просторі (де n — кількість функцій, які ви маєте). Дані можна легко класифікувати, оскільки значення кожної характеристики потім пов’язується з певною координатою.
Щоб розділити дані та помістити їх на графік, використовуйте лінії, відомі як класифікатори. Цей підхід зображує кожну точку даних як точку в n-вимірному просторі, де n — кількість наявних у вас об’єктів, а значення кожної функції — конкретне значення координат.
Тепер ми знайдемо рядок, який розділяє дані на два набори даних, які були класифіковані по-різному. Відстані від найближчих точок у кожній із двох груп будуть найвіддаленішими вздовж цієї лінії.
Оскільки дві найближчі точки — це ті, які найбільш віддалені від лінії у наведеному вище прикладі, лінія, яка розділяє дані на дві групи, класифіковані по-різному, є середньою лінією. Наш класифікатор - це рядок.
9. Зменшення розмірності
Використовуючи підхід зменшення розмірності, навчальні дані можуть мати менше вхідних змінних. Простіше кажучи, це стосується процесу зменшення розміру вашого набору функцій. Уявімо, що ваш набір даних має 100 стовпців; зменшення розмірності зменшить цю кількість до 20 стовпців.
Модель автоматично стає більш складною та має більший ризик переобладнання зі збільшенням кількості функцій. Найбільша проблема з роботою з даними у більших вимірах — це так відоме як «прокляття розмірності», яке виникає, коли ваші дані містять надмірну кількість характеристик.
Для зменшення розмірності можна використовувати такі елементи:
- Щоб знайти та вибрати відповідні характеристики, використовується вибірка характеристик.
- Використовуючи вже наявні функції, інженерія функцій вручну створює нові функції.
Висновок
Можливе як неконтрольоване, так і контрольоване машинне навчання. Вибирайте навчання з наглядом, якщо ваші дані менш рясні та добре позначені для навчання.
Великі набори даних часто дають кращі результати, використовуючи навчання без нагляду. Глибоке навчання Методи найкращі, якщо у вас є значний збір даних, який легко доступний.
Підсилення навчання і глибоке навчання з підкріпленням – це деякі теми, які ви вивчали. Тепер вам зрозумілі характеристики, використання та обмеження нейронних мереж. І останнє, але не менш важливе: ви розглянули варіанти для різних мов програмування, IDE та платформ, коли дійшло до створення власної моделі машинного навчання.
Наступне, що вам потрібно зробити, це почати вивчати та використовувати кожен навчання за допомогою машини підхід. Навіть якщо тема широка, будь-яку тему можна зрозуміти за кілька годин, якщо зосередитися на її глибині. Кожен предмет стоїть окремо від інших.
Ви повинні думати про одне питання за раз, вивчати його, застосовувати на практиці та використовувати мову за своїм вибором, щоб реалізувати в ньому алгоритм(и).
залишити коментар