תוכן העניינים[להתחבא][הופעה]
העולם משתנה במהירות עקב בינה מלאכותית ולמידת מכונה, אשר משפיעה על כל היבט בחיי היומיום שלנו.
מעוזרות קוליות שמשתמשות ב-NLP ולמידת מכונה ועד הזמנת פגישות, חיפוש אירועים בלוח השנה שלנו והשמעת מוזיקה ועד למכשירים כל כך מדויקים שהם יכולים לצפות את הצרכים שלנו לפני שאנחנו בכלל שוקלים אותם.
מחשבים יכולים לשחק שח, לעשות ניתוח ולהתפתח למכונות חכמות יותר, דמויות אנושיות, בעזרת אלגוריתמים של למידת מכונה.
אנו נמצאים בתקופה של התקדמות טכנולוגית מתמדת, ועל ידי ראייה כיצד מחשבים התפתחו לאורך זמן, אנו יכולים לחזות מה יקרה בעתיד.
הדמוקרטיזציה של כלי ושיטות מחשוב היא אחד ההיבטים המרכזיים של מהפכה זו הבולטת. מדעני נתונים יצרו מחשבים רבי עוצמה למחץ נתונים במהלך חמש השנים האחרונות על ידי הטמעת מתודולוגיות מתקדמות ללא מאמץ. התוצאות מדהימות.
בפוסט זה, נסתכל מקרוב על למידת מכונה אלגוריתמים וכל הווריאציות שלהם.
אז מה הם אלגוריתמים של למידת מכונה?
הגישה שבה משתמשת מערכת הבינה המלאכותית כדי לבצע את המשימה שלה - בדרך כלל, חיזוי ערכי פלט מנתוני קלט נתונים - ידועה כאלגוריתם למידת מכונה.
אלגוריתם למידת מכונה הוא תהליך המנצל נתונים ומשמש ליצירת מודלים של למידת מכונה שמוכנים לייצור. אם למידת מכונה היא הרכבת שמבצעת עבודה, אז אלגוריתמי למידת מכונה הם הקטרים שמניעים את העבודה.
גישת למידת המכונה הטובה ביותר לשימוש תיקבע על פי הבעיה העסקית שבה אתה מנסה לטפל, סוג מערך הנתונים שאתה משתמש בו והמשאבים העומדים לרשותך.
אלגוריתמים של למידת מכונה הם אלו שהופכים מערך נתונים למודל. בהתאם לסוג הבעיה שאתה מנסה לענות עליהן, כוח העיבוד הזמין וסוג הנתונים שיש לך, אלגוריתמי למידה בפיקוח, ללא פיקוח או חיזוק יכולים לתפקד היטב.
אז דיברנו על למידה בפיקוח, ללא פיקוח וחיזוק, אבל מה הם? בואו נחקור אותם.
למידה בפיקוח, ללא פיקוח וחיזוק
למידה מפוקחת
בלמידה מפוקחת, מודל הבינה המלאכותית פותח על סמך הקלט שסופק והתווית המייצגת את התוצאה החזויה. בהתבסס על התשומות והתפוקות, המודל מפתח משוואת מיפוי, ובאמצעות משוואת מיפוי זו, הוא חוזה את התווית של התשומות בעתיד.
נניח שאנחנו צריכים ליצור מודל שיוכל להבחין בין כלב לחתול. מספר תמונות של חתולים וכלבים מוזנים לדגם עם תוויות המציינות אם הם חתולים או כלבים על מנת לאמן את הדוגמנית.
המודל מבקש ליצור משוואה המקשרת בין התוויות בתצלומי הקלט לאותן תמונות. גם אם הדוגמנית מעולם לא ראתה את התמונה לפני כן, לאחר האימון, היא יכולה לזהות אם היא של חתול או כלב.
למידה ללא פיקוח
למידה ללא פיקוח כוללת אימון של מודל בינה מלאכותית רק על תשומות מבלי לסמן אותן. המודל מחלק את נתוני הקלט לקבוצות עם מאפיינים קשורים.
התווית העתידית של הקלט צפויה לאחר מכן בהתאם למידת ההתאמה של התכונות שלו לאחד הסיווגים. שקול את המצב שבו עלינו לחלק קבוצה של כדורים אדומים וכחולים לשתי קטגוריות.
נניח ששאר המאפיינים של הכדורים זהים, למעט צבע. על בסיס איך הוא יכול לחלק את הכדורים לשתי מחלקות, המודל מחפש את המאפיינים השונים בין הכדורים.
שני אשכולות של כדורים - אחד כחול ואחד אדום - נוצרים כאשר הכדורים מחולקים לשתי קבוצות על סמך הגוון שלהם.
לימוד עם חיזוקים
בלימוד חיזוק, מודל הבינה המלאכותית שואף למקסם את הרווח הכולל על ידי פעולה טובה ככל האפשר בנסיבות מסוימות. משוב על התוצאות הקודמות שלו עוזר למודל ללמוד.
חשבו על התרחיש כאשר רובוט מקבל הוראה לבחור מסלול בין נקודות A ו-B. הרובוט בוחר תחילה באחד מהקורסים כי אין לו ניסיון קודם.
הרובוט מקבל קלט על המסלול שהוא עובר וצובר ממנו ידע. הרובוט יכול להשתמש בקלט כדי לתקן את הבעיה בפעם הבאה שהוא נתקל בנסיבות דומה.
לדוגמה, אם הרובוט בוחר באפשרות ב' ומקבל תגמול, כמו משוב חיובי, הוא מבין הפעם שעליו לבחור בדרך ב' כדי להגדיל את התגמול שלו.
עכשיו סוף סוף מה שכולכם מחכים לו, זה האלגוריתמים.
אלגוריתמים עיקריים של למידת מכונה
1. רגרסיה לינארית
גישת למידת המכונה הפשוטה ביותר החורגת מלמידה מפוקחת היא רגרסיה לינארית. עם הידע ממשתנים בלתי תלויים, הוא מנוצל בעיקר כדי לפתור בעיות רגרסיה וליצור תחזיות על משתנים תלויים מתמשכים.
מציאת קו ההתאמה הטובה ביותר, שיכול לסייע בחיזוי התוצאה עבור משתנים תלויים מתמשכים, היא המטרה של רגרסיה ליניארית. מחירי הדירות, הגיל והשכר הם כמה דוגמאות לערכים מתמשכים.
מודל המכונה רגרסיה ליניארית פשוטה משתמש בקו ישר כדי לחשב את הקשר בין משתנה בלתי תלוי אחד למשתנה תלוי אחד. ישנם יותר משני משתנים בלתי תלויים ברגרסיה ליניארית מרובה.
למודל רגרסיה ליניארי יש ארבע הנחות יסוד:
- לינאריות: יש קשר ליניארי בין X לממוצע של Y.
- הומוסקדסטיות: עבור כל ערך של X, השונות השיורית זהה.
- עצמאות: תצפיות אינן תלויות זו בזו מבחינת עצמאות.
- נורמליות: כאשר X קבוע, Y מתחלק באופן נורמלי.
רגרסיה לינארית מתפקדת בצורה יוצאת דופן עבור נתונים שניתן להפריד לאורך קווים. זה יכול לשלוט בהתאמה יתר על ידי שימוש בטכניקות רגוליזציה, אימות צולב והפחתת מימדים. עם זאת, ישנם מקרים שבהם נדרשת הנדסת תכונות מקיפה, מה שעלול לגרום מדי פעם להתאמת יתר ולרעש.
2. רגרסיה לוגיסטית
רגרסיה לוגיסטית היא טכניקת למידת מכונה נוספת היוצאת מלמידה מפוקחת. השימוש העיקרי שלו הוא סיווג, בעוד שניתן להשתמש בו גם לבעיות רגרסיה.
רגרסיה לוגיסטית משמשת כדי לחזות את המשתנה התלוי הקטגורי תוך שימוש במידע מהגורמים הבלתי תלויים. המטרה היא לסווג תפוקות, שיכולות ליפול רק בין 0 ל-1.
הסכום המשוקלל של התשומות מעובד על ידי הפונקציה sigmoid, פונקציית הפעלה הממירה ערכים בין 0 ל-1.
הבסיס של רגרסיה לוגיסטית הוא הערכת סבירות מקסימלית, שיטה לחישוב הפרמטרים של התפלגות הסתברות משוערת בהינתן נתונים נצפים ספציפיים.
3. עץ החלטות
שיטת למידת מכונה נוספת שמתפצלת מלמידה מפוקחת היא עץ ההחלטות. הן בנושאי סיווג והן בנושאי רגרסיה, ניתן להשתמש בגישת עץ ההחלטות.
כלי קבלת החלטות זה, הדומה לעץ, משתמש בייצוגים חזותיים כדי להציג את התוצאות, העלויות וההשלכות הפוטנציאליות של פעולות. על ידי חלוקת הנתונים לחלקים נפרדים, הרעיון הוא אנלוגי למוח האנושי.
הנתונים חולקו לחלקים נפרדים ככל שיכולנו לגרגר אותם. המטרה העיקרית של עץ החלטה היא לבנות מודל אימון שניתן להשתמש בו כדי לחזות את המעמד של משתנה היעד. ניתן לטפל בערכים חסרים באופן אוטומטי באמצעות עץ ההחלטות.
אין דרישה לקידוד חד-פעמי, משתני דמה או שלבי טיפול מקדים אחרים בנתונים. הוא נוקשה במובן זה שקשה להוסיף לו נתונים טריים. אם קיבלת נתונים מתויגים נוספים, עליך לאמן מחדש את העץ במערך הנתונים כולו.
כתוצאה מכך, עצי החלטה הם בחירה גרועה עבור כל יישום הדורש שינוי מודל דינמי.
בהתבסס על סוג משתנה היעד, עצי החלטה מסווגים לשני סוגים:
- משתנה קטגורי: עץ החלטות שבו משתנה המטרה הוא קטגורי.
- משתנה מתמשך: עץ החלטות שבו משתנה המטרה הוא מתמשך.
4. יער אקראי
שיטת היער האקראי היא טכניקת למידת המכונה הבאה והיא אלגוריתם למידת מכונה מפוקחת בשימוש נרחב בנושאי סיווג ורגרסיה. זוהי גם שיטה מבוססת עץ, בדומה לעץ החלטות.
יער של עצים, או עצי החלטה רבים, משמש בשיטת היער האקראי לביצוע שיפוטים. בעת טיפול במשימות סיווג, שיטת היער האקראי השתמשה במשתנים קטגוריים תוך טיפול במשימות רגרסיה עם מערכי נתונים המכילים משתנים רציפים.
אנסמבל, או ערבוב של מודלים רבים, הוא מה שעושה שיטת היער האקראי, כלומר תחזיות נעשות באמצעות קבוצה של מודלים ולא רק אחד.
היכולת לשמש הן לבעיות סיווג והן לבעיות רגרסיה, המהוות את רוב מערכות למידת המכונה המודרניות, היא יתרון מרכזי של היער האקראי.
שתי אסטרטגיות שונות משמשות את אנסמבל:
- שקיות: על ידי כך, יותר נתונים מופקים עבור מערך ההדרכה. כדי להפחית את השונות בתחזיות, זה נעשה.
- חיזוק הוא תהליך של שילוב לומדים חלשים עם לומדים חזקים על ידי בניית מודלים עוקבים, וכתוצאה מכך המודל הסופי עם דיוק מרבי.
5. נאיב בייס
ניתן לפתור בעיית סיווג בינארי (שתי מחלקות) ורב מחלקות באמצעות טכניקת Bayes Naive. כאשר השיטה מוסברת באמצעות ערכי קלט בינאריים או קטגוריות, היא הכי פשוטה לתפיסה. הנחה שנעשתה על ידי מסווג Bayes נאיבי היא שלקיומה של תכונה אחת במחלקה אין כל קשר לנוכחות של תכונות אחרות.
הנוסחה לעיל מציינת:
- P(H): הסבירות שהשערה H נכונה. ההסתברות הקודמת מכונה זו.
- פ(ה): סבירות הראיות
- P(E|H): הסבירות שההשערה נתמכת בראיות.
- P(H|E): הסבירות שההשערה נכונה, בהינתן הראיות.
מסווג Bayes נאיבי ייקח בחשבון כל אחד מהמאפיינים הללו בנפרד בעת קביעת הסבירות לתוצאה מסוימת, גם אם תכונות אלו קשורות זו לזו. מודל בייסיאני נאיבי הוא פשוט לבנייה ויעיל עבור מערכי נתונים גדולים.
ידוע שהוא מתפקד טוב יותר אפילו מטכניקות הסיווג המורכבות ביותר תוך כדי היותו בסיסי. זהו אוסף של אלגוריתמים שמבוססים כולם על משפט בייס, ולא על שיטה אחת.
6. K-השכנים הקרובים
טכניקת K-nearest neighbours (kNN) היא תת-קבוצה של למידת מכונה מפוקחת שניתן להשתמש בה כדי לטפל בבעיות סיווג ורגרסיה. אלגוריתם KNN מניח שניתן למצוא אובייקטים דומים בקרבת מקום.
אני זוכר את זה כמפגש של אנשים בעלי דעות דומות. kNN מנצל את הרעיון של דמיון בין נקודות נתונים אחרות תוך שימוש בסמיכות, קרבה או מרחק. על מנת לתייג את הנתונים הבלתי נראים בהתבסס על נקודות הנתונים הניתנות לצפייה הקרובות ביותר המסומנות, שיטה מתמטית משמשת כדי לקבוע את ההפרדה בין נקודות בגרף.
עליך לקבוע את המרחק בין נקודות הנתונים כדי לזהות את הנקודות הקרובות ביותר להשוואה. ניתן להשתמש במדידות מרחק כגון המרחק האוקלידי, מרחק האמינג, מרחק מנהטן ומרחק מינקובסקי. ה-K ידוע כמספר השכן הקרוב, ולעתים קרובות הוא מספר אי-זוגי.
ניתן ליישם KNN על בעיות סיווג ורגרסיה. החיזוי שנעשה כאשר KNN משמש לבעיות רגרסיה מבוסס על הממוצע או החציון של ההתרחשויות הדומות ביותר ל-K.
ניתן לקבוע את התוצאה של אלגוריתם סיווג המבוסס על KNN כמחלקה בעלת התדירות הגבוהה ביותר מבין ההתרחשויות הדומות ביותר של K. כל מקרה בעצם מצביע עבור הכיתה שלו, והתחזית שייכת לכיתה שמקבלת הכי הרבה קולות.
7. K-אמצעים
זוהי טכניקה ללמידה ללא פיקוח המטפלת בבעיות מקבץ. מערכי נתונים מחולקים למספר מסוים של אשכולות - נקרא לזה K - בצורה כזו שנקודות הנתונים של כל אשכול הן הומוגניות ונבדלות מאלו שבאשכולות האחרים.
מתודולוגיית אשכולות K-means:
- עבור כל אשכול, אלגוריתם K-means בוחר K centroids, או נקודות.
- עם הצנטרואידים או ה-K אשכולות הקרובים ביותר, כל נקודת נתונים יוצרת אשכול.
- כעת, צנטרואידים חדשים מיוצרים בהתאם לאברי האשכול שכבר קיימים.
- המרחק הקרוב ביותר עבור כל נקודת נתונים מחושב באמצעות הסנטרואידים המעודכנים הללו. עד שהמרכזים לא משתנים, תהליך זה חוזר על עצמו.
זה מהיר יותר, אמין יותר ופשוט יותר להבנה. אם יש בעיות, יכולת ההסתגלות של k-means הופכת את ההתאמות לפשוטות. כאשר מערכי הנתונים שונים או מבודדים היטב אחד מהשני, התוצאות הן הטובות ביותר. זה לא יכול לנהל נתונים לא קבועים או חריגים.
8. תמיכה במכונות וקטור
בעת שימוש בטכניקת SVM לסיווג נתונים, נתונים גולמיים מוצגים כנקודות במרחב n-ממדי (כאשר n הוא מספר התכונות שיש לך). לאחר מכן ניתן לסווג את הנתונים בקלות מכיוון שהערך של כל תכונה מחובר לאחר מכן לקואורדינטה ספציפית.
כדי להפריד את הנתונים ולשים אותם על גרף, השתמש בקווים המכונים מסווגים. גישה זו משרטטת כל נקודת נתונים כנקודה במרחב N-ממדי, כאשר n הוא מספר התכונות שיש לך והערך של כל תכונה הוא ערך קואורדינטה ספציפי.
כעת נאתר שורה המחלקת את הנתונים לשתי קבוצות של נתונים שסווגו באופן שונה. המרחקים מהנקודות הקרובות ביותר בכל אחת משתי הקבוצות יהיו הרחוקים ביותר זה מזה לאורך קו זה.
מכיוון ששתי הנקודות הקרובות ביותר הן אלה המרוחקות ביותר מהקו בדוגמה למעלה, הקו המחלק את הנתונים לשתי הקבוצות שסווגו באופן שונה הוא הקו האמצעי. המסווגן שלנו הוא הקו הזה.
9. צמצום מימדיות
באמצעות הגישה של הפחתת ממדי, נתוני אימון עשויים לכלול פחות משתני קלט. במילים פשוטות, זה מתייחס לתהליך של כיווץ גודל מערך התכונות שלך. בוא נדמיין למערך הנתונים שלך יש 100 עמודות; הפחתת הממד תקטין את הכמות הזו ל-20 עמודות.
הדגם גדל אוטומטית יותר ומתוחכם ויש לו סיכון גדול יותר להתאמת יתר ככל שמספר התכונות עולה. הבעיה הגדולה ביותר בעבודה עם נתונים בממדים גדולים יותר היא מה שמכונה "קללת הממדיות", המתרחשת כאשר הנתונים שלך מכילים מספר מוגזם של מאפיינים.
ניתן להשתמש באלמנטים הבאים כדי להשיג הפחתת מימד:
- כדי למצוא ולבחור מאפיינים רלוונטיים, נעשה שימוש בבחירת תכונות.
- באמצעות תכונות קיימות כבר, הנדסת תכונות יוצרת תכונות חדשות באופן ידני.
סיכום
למידת מכונה ללא פיקוח או בפיקוח אפשרית. בחר למידה מפוקחת אם הנתונים שלך פחות שופעים ומתויגים היטב לאימון.
ערכות נתונים גדולות היו לרוב מתפקדות ומפיקות תוצאות טובות יותר באמצעות למידה ללא פיקוח. למידה עמוקה השיטות הטובות ביותר אם יש לך אוסף נתונים גדול וזמין.
לימוד עם חיזוקים ולמידת חיזוק עמוק הם כמה נושאים שלמדת. המאפיינים, השימושים והאילוצים של רשתות עצביות ברורים לך כעת. אחרון חביב, שקלת את האפשרויות לשפות תכנות שונות, IDEs ופלטפורמות שונות בכל הנוגע ליצירת משלך. מודלים ללימוד מכונה.
הדבר הבא שאתה צריך לעשות הוא להתחיל ללמוד ולהשתמש בכל אחד מהם למידת מכונה גִישָׁה. גם אם הנושא רחב, ניתן להבין כל נושא תוך מספר שעות אם מתמקדים בעומקו. כל נושא עומד לבדו מהאחרים.
עליך לחשוב על נושא אחד בכל פעם, ללמוד אותו, ליישם אותו, ולהשתמש בשפה שתבחר כדי ליישם בו את האלגוריתמים.
השאירו תגובה