טיש פון קאָנטענץ[באַהאַלטן][ווייַזן]
די וועלט איז געשווינד טשאַנגינג רעכט צו קינסטלעך סייכל, און מאַשין לערנען, וואָס האט אַ פּראַל אויף יעדער אַספּעקט פון אונדזער וואָכעדיק לעבן.
פון קול אַסיסטאַנץ וואָס נוצן NLP און מאַשין לערנען צו בוך אַפּוינטמאַנץ, קוק אַרויף געשעענישן אויף אונדזער קאַלענדאַר און שפּילן מוזיק צו דעוויסעס וואָס זענען אַזוי פּינטלעך אַז זיי קענען אַנטיסאַפּייט אונדזער באדערפענישן איידער מיר אפילו באַטראַכטן זיי.
קאָמפּיוטערס קענען שפּילן שאָך, דורכפירן כירורגיע און אַנטוויקלען זיך אין סמאַרטער, מער מענטש-ווי מאַשינז מיט די הילף פון מאַשין לערנען אַלגערידאַמז.
מיר זענען אין אַ צייט פון קעסיידערדיק טעקנאַלאַדזשיקאַל אנטוויקלונג, און דורך זען ווי קאָמפּיוטערס האָבן דעוועלאָפּעד דורך צייט, מיר קענען מאַכן פֿאָרויסזאָגן וועגן וואָס וועט פּאַסירן אין דער צוקונפֿט.
די דעמאָקראַטיזיישאַן פון קאַמפּיוטינג מכשירים און מעטהאָדס איז איינער פון די שליסל אַספּעקץ פון דעם רעוואָלוציע וואָס שטייט אויס. דאַטן סייאַנטיס האָבן באשאפן שטאַרק דאַטן-קראַנטשינג קאָמפּיוטערס אין די לעצטע פינף יאָר דורך עפערטלאַסלי ימפּלאַמענינג קאַטינג-ברעג מעטאַדאַלאַדזשיז. די רעזולטאַטן זענען אַמייזינג.
אין דעם פּאָסטן, מיר וועלן קוקן ענג אויף מאַשין וויסן אַלגערידאַמז און אַלע זייער ווערייישאַנז.
אַזוי, וואָס זענען מאַשין לערנען אַלגערידאַמז?
דער צוגאַנג געניצט דורך די אַי סיסטעם צו דורכפירן זיין אַרבעט - אין אַלגעמיין, פּרידיקטינג רעזולטאַט וואַלועס פֿון געגעבן אַרייַנשרייַב דאַטן - איז באקאנט ווי אַ מאַשין לערנען אַלגערידאַם.
א מאַשין לערנען אַלגערידאַם איז אַ פּראָצעס וואָס ניצט דאַטן און איז געניצט צו שאַפֿן מאַשין לערנען מאָדעלס וואָס זענען גרייט פֿאַר פּראָדוקציע. אויב מאַשין לערנען איז דער באַן וואָס פירט אַ אַרבעט, מאַשין לערנען אַלגערידאַמז זענען די לאָוקאַמאָוטיווז וואָס מאַך די אַרבעט צוזאמען.
דער בעסטער מאַשין לערנען צוגאַנג צו נוצן וועט זיין באשלאסן דורך די געשעפט פּראָבלעם איר פּרוּווט צו אַדרעס, די טיפּ פון דאַטאַסעט איר נוצן און די רעסורסן איר האָבן בנימצא.
מאַשין לערנען אַלגערידאַמז זענען די וואָס מאַכן אַ דאַטן שטעלן אין אַ מאָדעל. דעפּענדינג אויף די סאָרט פון פּראָבלעם איר פּרוּווט צו ענטפֿערן, די פּראַסעסינג מאַכט בנימצא און די טיפּ פון דאַטן איר האָבן, סופּערווייזד, אַנסופּערווייזד אָדער ריינפאָרסמאַנט לערנען אַלגערידאַמז קענען זיין גוט.
אַזוי, מיר גערעדט וועגן סופּערווייזד, אַנסופּערווייזד און ריינפאָרסמאַנט לערנען, אָבער וואָס זענען זיי? זאל ס ויספאָרשן זיי.
סופּערווייזד, ונסופּערוויסעד און ריינפאָרסמאַנט לערנען
סופּערווייזד לערנען
אין סופּערווייזד לערנען, די אַי מאָדעל איז דעוועלאָפּעד באזירט אויף די אַרייַנשרייַב וואָס איז געווען צוגעשטעלט און די פירמע וואָס רעפּראַזענץ די פּרעדיקטעד רעזולטאַט. באַזירט אויף די ינפּוץ און אַוטפּוץ, דער מאָדעל דעוועלאָפּס אַ מאַפּינג יקווייזשאַן, און ניצן די מאַפּינג יקווייזשאַן, עס פאָרקאַסץ די פירמע פון די ינפּוץ אין דער צוקונפֿט.
זאל ס זאָגן מיר דאַרפֿן צו מאַכן אַ מאָדעל וואָס קענען ויסטיילן צווישן אַ הונט און אַ קאַץ. קייפל פאָטאָס פון קאַץ און הינט זענען פאסטעכער אין די מאָדעל מיט לאַבעלס וואָס ינדיקייץ צי זיי זענען קאַץ אָדער הינט אין סדר צו באַן די מאָדעל.
דער מאָדעל זוכט צו פאַרלייגן אַ יקווייזשאַן מיט די לאַבעלס אויף די אַרייַנשרייַב פאָוטאַגראַפס צו די בילדער. אפילו אויב דער מאָדעל האט קיינמאָל געזען די בילד פריער, נאָך טריינינג, עס קענען ידענטיפיצירן צי עס איז פון אַ קאַץ אָדער אַ הונט.
ונסופּערוויסעד לערנען
ונסופּערוויסעד לערנען ינוואַלווז טריינינג אַן אַי מאָדעל בלויז אויף ינפּוץ אָן לייבלינג זיי. דער מאָדעל דיוויידז די אַרייַנשרייַב דאַטן אין גרופּעס מיט פֿאַרבונדענע קעראַקטעריסטיקס.
דער צוקונפֿט פירמע פון די אַרייַנשרייַב איז דעמאָלט פאָרויסזאָגן דיפּענדינג אויף ווי ענג די אַטריביוץ גלייַכן איינער פון די קלאַסאַפאַקיישאַנז. באַטראַכטן די סיטואַציע ווו מיר מוזן טיילן אַ גרופּע פון רויט און בלוי באַללס אין צוויי קאַטעגאָריעס.
זאל ס יבערנעמען אַז די באַללס 'אנדערע קעראַקטעריסטיקס זענען יידעניקאַל, מיט די ויסנעם פון קאָלירן. אויף דער באזע פון ווי עס קענען טיילן די באַללס אין צוויי קלאסן, דער מאָדעל קוקט פֿאַר די קעראַקטעריסטיקס וואָס זענען אַנדערש צווישן די באַללס.
צוויי קלאַסטערז פון באַללס - איין בלוי און איין רויט - זענען געשאפן ווען די באַללס זענען צעטיילט אין צוויי גרופּעס באזירט אויף זייער כיו.
ריינפאָרסמאַנט לערנען
אין ריינפאָרסמאַנט לערנען, די אַי מאָדעל זוכט צו מאַקסאַמייז קוילעלדיק נוץ דורך אַקטינג ווי געזונט ווי עס קענען אין אַ באַזונדער צושטאנדן. באַמערקונגען אויף די פריערדיקע רעזולטאַטן העלפּס די מאָדעל לערנען.
טראַכטן וועגן דעם סצענאַר ווען אַ ראָבאָט איז געלערנט צו אויסקלייַבן אַ מאַרשרוט צווישן די פונקטן א און ב. דער ראָבאָט ערשטער טשוזיז איינער פון די קאָרסאַז ווייַל עס האט קיין פריערדיק דערפאַרונג.
דער ראָבאָט נעמט אַרייַנשרייַב אויף דער מאַרשרוט עס נעמט און גיינז וויסן פון עס. דער ראָבאָט קענען נוצן אַרייַנשרייַב צו פאַרריכטן דעם אַרויסגעבן די ווייַטער מאָל עס ינקאַונטערז אַ ענלעך ומשטאַנד.
פֿאַר בייַשפּיל, אויב דער ראָבאָט טשוזיז אָפּציע ב און באקומט אַ באַלוינונג, אַזאַ ווי positive באַמערקונגען, עס פארשטייט דאָס מאָל אַז עס מוזן אויסקלייַבן וועג ב צו פאַרגרעסערן זיין באַלוינונג.
איצט לעסאָף וואָס איר אַלע ווארטן פֿאַר, איז די אַלגערידאַמז.
הויפּט מאַשין לערנען אַלגערידאַמז
1. לינעאַר רעגרעססיאָן
די סימפּלאַסט מאַשין לערנען צוגאַנג וואָס דיוויייץ פון סופּערווייזד לערנען איז לינעאַר ראַגרעשאַן. מיט די וויסן פון פרייַ וועריאַבאַלז, עס איז מערסטנס יוטאַלייזד צו סאָלווע ראַגרעשאַן ישוז און שאַפֿן פֿאָרויסזאָגן אויף קעסיידערדיק אָפענגיק וועריאַבאַלז.
דער ציל פון לינעאַר ראַגרעשאַן איז צו געפֿינען די בעסטער פּאַסיק שורה, וואָס קענען אַרוישעלפן אין פּרידיקטינג די רעזולטאַט פֿאַר קעסיידערדיק אָפענגיק וועריאַבאַלז. הויז פּרייסיז, עלטער און לוין זענען עטלעכע ביישפילן פון קעסיידערדיק וואַלועס.
א מאָדעל באקאנט ווי פּשוט לינעאַר ראַגרעשאַן ניצט אַ גלייַך שורה צו רעכענען די פאַרבאַנד צווישן איין פרייַ בייַטעוודיק און איין אָפענגיק בייַטעוודיק. עס זענען מער ווי צוויי פרייַ וועריאַבאַלז אין קייפל לינעאַר ראַגרעשאַן.
א לינעאַר ראַגרעשאַן מאָדעל האט פיר אַנדערלייינג אַסאַמפּשאַנז:
- לינעאַריטי: עס איז אַ לינעאַר קשר צווישן X און די מיטל פון Y.
- האָמאָסעדאַסטיסיטי: פֿאַר יעדער ווערט פון X, די ריזידזשואַל וועריאַנס איז די זעלבע.
- זעלבסטשטענדיקייט: אַבזערוויישאַנז זענען פרייַ פון איינער דעם אנדערן אין טערמינען פון זעלבסטשטענדיקייַט.
- נאָרמאַליטי: ווען X איז פאַרפעסטיקט, י איז נאָרמאַלי פונאנדערגעטיילט.
לינעאַר ראַגרעשאַן פּערפאָרמז אַדמראַבלי פֿאַר דאַטן וואָס קענען זיין אפגעשיידט צוזאמען די שורות. עס קענען קאָנטראָלירן אָוווערפיטטינג דורך ניצן רעגולאַריזאַטיאָן, קרייַז-וואַלאַדיישאַן און דימענשאַנאַליטי רעדוקציע טעקניקס. אָבער, עס זענען קאַסעס ווו ברייט שטריך ינזשעניעריע איז פארלאנגט, וואָס קען טייל מאָל רעזולטאַט אין אָוווערפיטטינג און ראַש.
2. לאָגיסטיק רעגרעססיאָן
לאָגיסטיק ראַגרעשאַן איז אן אנדער מאַשין לערנען טעכניק וואָס דיפּאַרץ פון סופּערווייזד לערנען. זייַן הויפּט נוצן איז קלאַסאַפאַקיישאַן, בשעת עס קענען אויך זיין יוטאַלייזד פֿאַר ראַגרעשאַן פּראָבלעמס.
לאָגיסטיק ראַגרעשאַן איז געניצט צו פאָרויסזאָגן די קאַטאַגאָריקאַל אָפענגיק בייַטעוודיק ניצן די אינפֿאָרמאַציע פון די פרייַ סיבות. דער ציל איז צו קלאַסיפיצירן אַוטפּוץ, וואָס קענען בלויז פאַלן צווישן 0 און 1.
די ווייטיד גאַנץ פון די ינפּוץ איז פּראַסעסט דורך די סיגמאָיד פונקציע, אַן אַקטאַוויישאַן פונקציע וואָס קאַנווערץ וואַלועס צווישן 0 און 1.
די יקער פון לאָגיסטיק ראַגרעשאַן איז מאַקסימום ליקעליהאָאָד אָפּשאַצונג, אַ מעטאָד פֿאַר קאַלקיאַלייטינג די פּאַראַמעטערס פון אַ אנגענומען מאַשמאָעס פאַרשפּרייטונג געגעבן ספּעציפיש באמערקט דאַטן.
3. באַשלוס טרי
אן אנדער מאַשין לערנען אופֿן אַז ספּלינטערז אַוועק פון סופּערווייזד לערנען איז דער באַשלוס בוים. פֿאַר ביידע קלאַסאַפאַקיישאַן און ראַגרעשאַן ישוז, דער באַשלוס בוים צוגאַנג קענען זיין אָנגעשטעלט.
דעם באַשלוס-מאכן געצייַג, וואָס ריזעמבאַלז אַ בוים, ניצט וויזשאַוואַל רעפּראַזאַנטיישאַנז צו ווייַזן די פּראָספּעקטיוו רעזולטאַטן, קאָס און ריפּערקוסשאַנז פון אַקשאַנז. דורך דיוויידינג די דאַטן אין באַזונדער פּאָרשאַנז, דער געדאַנק איז אַנאַלאָג צו דער מענטש מיינונג.
די דאַטן זענען צעטיילט אין בוילעט פּאַרץ ווי פיל ווי מיר קענען גראַנולירן עס. די הויפּט אָביעקטיוו פון אַ באַשלוס טרי איז צו בויען אַ טריינינג מאָדעל וואָס קענען ווערן גענוצט צו פאָרויסזאָגן די קלאַס פון די ציל בייַטעוודיק. פעלנדיק וואַלועס קענען זיין כאַנדאַלד אויטאָמאַטיש ניצן די דיסיזשאַן טרי.
עס איז קיין פאָדערונג פֿאַר איין-שאָס קאָדירונג, באָק וועריאַבאַלז אָדער אנדערע דאַטן פּרעטרעאַטמענט סטעפּס. עס איז שטרענג אין דעם זינען אַז עס איז שווער צו לייגן פריש דאַטן צו עס. אויב איר באַקומען נאָך לייבאַלד דאַטן, איר זאָל ריטיין דעם בוים אויף די גאנצע דאַטאַסעט.
ווי אַ רעזולטאַט, באַשלוס ביימער זענען אַ נעבעך ברירה פֿאַר קיין אַפּלאַקיישאַן וואָס ריקווייערז דינאַמיש מאָדעל ענדערונג.
באַזירט אויף די טיפּ פון ציל בייַטעוודיק, באַשלוס ביימער זענען קלאַסאַפייד אין צוויי טייפּס:
- קאַטאַגאָריקאַל וואַריאַבלע: א באַשלוס טרי אין וואָס דער ציל בייַטעוודיק איז קאַטאַגאָריקאַל.
- קעסיידערדיק וואַריאַבלע: א באַשלוס טרי אין וואָס דער ציל בייַטעוודיק איז קעסיידערדיק.
4. טראַפ פאָרעסט
די ראַנדאָם וואַלד מעטאַד איז דער ווייַטער מאַשין לערנען טעכניק און איז אַ סופּערווייזד מאַשין לערנען אַלגערידאַם געניצט יקסטענסיוולי אין קלאַסאַפאַקיישאַן און ראַגרעשאַן ישוז. עס איז אויך אַ בוים-באזירט אופֿן, ענלעך צו אַ באַשלוס בוים.
א וואַלד פון ביימער, אָדער פילע באַשלוס ביימער, איז געניצט דורך די טראַפ - וואַלד אופֿן צו מאַכן משפטים. ווען האַנדלינג קלאַסאַפאַקיישאַן טאַסקס, די טראַפ - וואַלד אופֿן געוויינט קאַטאַגאָריקאַל וועריאַבאַלז בשעת האַנדלינג ראַגרעשאַן טאַסקס מיט דאַטאַסעץ וואָס אַנטהאַלטן קעסיידערדיק וועריאַבאַלז.
אַן אַנסאַמבאַל, אָדער מיקסינג פון פילע מאָדעלס, איז וואָס די טראַפ - וואַלד אופֿן טוט, וואָס מיטל די פֿאָרויסזאָגן זענען געמאכט מיט אַ גרופּע פון מאָדעלס אלא ווי בלויז איין.
די פיייקייט צו זיין געוויינט פֿאַר ביידע קלאַסאַפאַקיישאַן און ראַגרעשאַן פּראָבלעמס, וואָס מאַכן די מערהייַט פון מאָדערן מאַשין לערנען סיסטעמען, איז אַ שליסל נוץ פון די טראַפ - וואַלד.
צוויי פאַרשידענע סטראַטעגיעס זענען געניצט דורך אַנסאַמבאַל:
- באַגינג: דורך טאן דעם, מער דאַטן זענען געשאפן פֿאַר די טריינינג דאַטאַסעט. צו פאַרמינערן די ווערייישאַן אין די פאָרקאַסץ, דאָס איז געטאן.
- בוסטינג איז דער פּראָצעס פון קאַמביינינג שוואַך לערנערז מיט שטאַרק לערנערז דורך בויען סאַקסעסיוו מאָדעלס, ריזאַלטינג אין די לעצט מאָדעל מיט מאַקסימום אַקיעראַסי.
5. נאַיוו בייעס
א ביינערי (צוויי-קלאַס) און מאַלטי-קלאַס קלאַסאַפאַקיישאַן אַרויסגעבן קענען זיין סאַלווד מיט די נאַיוו בייעס טעכניק. ווען דער אופֿן איז דערקלערט מיט ביינערי אָדער קאַטעגאָריע אַרייַנשרייַב וואַלועס, עס איז סימפּלאַסט צו אָנכאַפּן. אַ האַשאָרע געמאכט דורך אַ נאַיוו בייעס קלאַססיפיער איז אַז די עקזיסטענץ פון איין שטריך אין אַ קלאַס האט קיין שייַכעס אויף דעם בייַזייַן פון קיין אנדערע פֿעיִקייטן.
די אויבן פאָרמולע ינדיקייץ:
- פּ (ה): די ליקעליהאָאָד אַז כייפּאַטאַסאַס ה איז ריכטיק. די פריערדיקע מאַשמאָעס איז ריפערד צו ווי דעם.
- P (E): די ליקעליהאָאָד פון די זאָגן
- P(E|H): די ליקעליהאָאָד אַז די כייפּאַטאַסאַס איז געשטיצט דורך די זאָגן.
- P(H|E): די ליקעליהאָאָד אַז די כייפּאַטאַסאַס איז אמת, געגעבן די זאָגן.
א נאַיוו בייעס קלאַססיפיער וואָלט נעמען אין חשבון יעדער פון די קעראַקטעריסטיקס ינדיווידזשואַלי ווען דיטערמאַנינג די ליקעליהאָאָד פון אַ זיכער רעזולטאַט, אפילו אויב די אַטריביוץ זענען פארבונדן צו איינער דעם אנדערן. א נאַיוו בייעסיאַן מאָדעל איז פּשוט צו בויען און עפעקטיוו פֿאַר גרויס דאַטאַסעץ.
עס איז באקאנט צו דורכפירן בעסער ווי אפילו די מערסט קאָמפּלעקס קאַטאַגעריזיישאַן טעקניקס בשעת יקערדיק. עס איז אַ זאַמלונג פון אַלגערידאַמז וואָס זענען אַלע באזירט אויף די Bayes 'טהעאָרעם, אלא ווי אַ איין אופֿן.
6. ק-נעאַראַסט נעיגהבאָורס
די ק-נעאַראַסט שכנים (קנן) טעכניק איז אַ סאַבסעט פון סופּערווייזד מאַשין לערנען וואָס קענען זיין געוויינט צו אַדרעס קלאַסאַפאַקיישאַן און ראַגרעשאַן ישוז. די KNN אַלגערידאַם פּריסומז אַז פאַרגלייַכלעך אַבדזשעקץ קענען זיין געפֿונען נירביי.
איך געדענקען עס ווי אַ זאַמלונג פון ווי-מיינדיד מענטשן. kNN ניצט דעם געדאַנק פון געראָטנקייַט צווישן אנדערע דאַטן פונקטן מיט פּראַקסימאַטי, נאָענטקייט אָדער ווייַטקייט. אין סדר צו לייבלינג די ומבאַמערקט דאַטן באזירט אויף די ניראַסט לייבאַלד אָבסערוואַבלע דאַטן פונקטן, אַ מאַטאַמאַטיקאַל אופֿן איז אָנגעשטעלט צו באַשטימען די צעשיידונג צווישן ווייזט אויף אַ גראַפיק.
איר מוזן באַשטימען די דיסטאַנסע צווישן די דאַטן פונקטן אין סדר צו ידענטיפיצירן די ניראַסט פאַרגלייַכלעך ספּאַץ. דיסטאַנסע מעזשערמאַנץ אַזאַ ווי די אוקלידיאַן דיסטאַנסע, האַממינג דיסטאַנסע, מאַנהאַטטאַן דיסטאַנסע, און מינקאָווסקי דיסטאַנסע קענען זיין געוויינט פֿאַר דעם. די ק איז באקאנט ווי דער ניראַסט חבר נומער, און עס איז אָפט אַ מאָדנע נומער.
KNN קענען זיין געווענדט צו קלאַסאַפאַקיישאַן און ראַגרעשאַן פּראָבלעמס. די פּראָגנאָז געמאכט ווען KNN איז געניצט צו ראַגרעשאַן ישוז איז באזירט אויף די דורכשניטלעך אָדער מידיאַן פון די K-מערסט ענלעך פאַנגקשאַנז.
דער רעזולטאַט פון אַ קלאַסאַפאַקיישאַן אַלגערידאַם באזירט אויף KNN קענען זיין באשלאסן ווי דער קלאַס מיט די העכסטן אָפטקייַט צווישן די K מערסט ענלעך געשעענישן. יעדער ביישפּיל גיט בייסיקלי אַ שטימע פֿאַר זייער קלאַס, און די פּראָגנאָז געהערט צו דער קלאַס וואָס נעמט די מערסט וואָוץ.
7. ק-מיטל
עס איז אַ טעכניק פֿאַר אַנסופּערווייזד לערנען וואָס אַדרעסז קלאַסטערינג ישוז. דאַטאַ שטעלט זענען צעטיילט אין אַ זיכער נומער פון קלאַסטערז - רופן לאָמיר עס ק - אַזוי אַז די דאַטן פונקטן פון יעדער קנויל זענען כאָומאַדזשיניאַס און באַזונדער פון די אין די אנדערע קלאַסטערז.
ק-מיינס קלאַסטערינג מעטאַדאַלאַדזשי:
- פֿאַר יעדער קנויל, די ק-מיטל אַלגערידאַם סאַלעקץ ק סענטראָידס אָדער ווייזט.
- מיט די ניראַסט סענטראָידס אָדער ק קלאַסטערז, יעדער דאַטן פונט פארמען אַ קנויל.
- איצט, נייַ סענטראָידס זענען געשאפן דיפּענדינג אויף די קנויל מיטגלידער שוין פאָרשטעלן.
- די קלאָוסאַסט דיסטאַנסע פֿאַר יעדער דאַטן פונט איז קאַלקיאַלייטיד ניצן די דערהייַנטיקט סענטראָידס. ביז די סענטראָידס טאָן ניט טוישן, דעם פּראָצעס איז ריפּיטיד.
עס איז פאַסטער, מער פאַרלאָזלעך און סימפּלער צו פֿאַרשטיין. אויב עס זענען ישוז, די אַדאַפּטאַבילאַטי פון K-Means מאכט אַדזשאַסטמאַנץ פּשוט. ווען די דאַטאַסעץ זענען בוילעט אָדער געזונט אפגעזונדערט פון איינער דעם אנדערן, די רעזולטאַטן זענען בעסטער. עס קען נישט פירן יראַטיק דאַטן אָדער אַוטלייערז.
8. שטיצן וועקטאָר מאַטשינעס
ווען ניצן די SVM טעכניק צו קלאַסיפיצירן דאַטן, רוי דאַטן זענען געוויזן ווי דאַץ אין אַ n-דימענשאַנאַל פּלאַץ (ווו n איז די נומער פון פֿעיִקייטן איר האָבן). די דאַטן קענען זיין לייכט קלאַסאַפייד ווייַל די ווערט פון יעדער שטריך איז פארבונדן צו אַ ספּעציפיש קאָואָרדאַנאַט.
צו באַזונדער די דאַטן און שטעלן זיי אויף אַ גראַפיק, ניצן שורות באקאנט ווי קלאַסאַפייערז. דער צוגאַנג פּלאָץ יעדער דאַטן פונט ווי אַ פונט אין אַ n-דימענשאַנאַל פּלאַץ, ווו n איז די נומער פון פֿעיִקייטן איר האָבן און די ווערט פון יעדער שטריך איז אַ ספּעציפיש קאָואָרדאַנאַט ווערט.
מיר וועלן איצט געפינען אַ שורה וואָס דיוויידז די דאַטן אין צוויי סעט פון דאַטן וואָס זענען קאַטאַגערייזד אַנדערש. די דיסטאַנסאַז פון די ניראַסט פונקטן אין יעדער פון די צוויי גרופּעס וועט זיין די ווייַט באַזונדער צוזאמען דעם שורה.
וויבאלד די צוויי נאענטסטע פונקטן זענען די וואס זענען מערסט ווייט פון די ליניע אין דעם ביישפיל אויבן, איז די ליניע וואס טיילט די דאטא אין די צוויי גרופעס וואס זענען געווען אנדערש קאטיגארעזירט די מיטל ליניע. אונדזער קלאַססיפיער איז די שורה.
9. דימענשאַנאַליטי רעדוקציע
ניצן די צוגאַנג פון דימענשאַנאַליטי רעדוקציע, טריינינג דאַטן קען האָבן ווייניקערע אַרייַנשרייַב וועריאַבאַלז. אין פּשוט טערמינען, עס רעפערס צו דער פּראָצעס פון שרינגקינג די גרייס פון דיין שטריך שטעלן. זאל ס ימאַדזשאַן דיין דאַטאַסעט האט 100 שפאלטן; רעדוקציע פון דימענשאַנאַליטי וועט פאַרמינערן די סומע צו 20 שפאלטן.
דער מאָדעל איז אויטאָמאַטיש מער סאַפיסטאַקייטיד און האט אַ גרעסערע ריזיקירן פון אָוווערפיט ווען די נומער פון פֿעיִקייטן ריסעס. די גרעסטע פּראָבלעם מיט ארבעטן מיט דאַטן אין גרעסערע דימענשאַנז איז וואָס איז באקאנט ווי די "קללה פון דימענשאַנאַליטי," וואָס אַקערז ווען דיין דאַטן כּולל אַ יבעריק נומער פון קעראַקטעריסטיקס.
די פאלגענדע עלעמענטן קענען ווערן גענוצט צו דערגרייכן דימענשאַנאַליטי רעדוקציע:
- צו געפֿינען און קלייַבן פּערטינאַנט קעראַקטעריסטיקס, שטריך סעלעקציע איז אָנגעשטעלט.
- ניצן שוין יגזיסטינג פֿעיִקייטן, שטריך ינזשעניעריע מאַניואַלי קריייץ נייַ פֿעיִקייטן.
סאָף
אַנסופּערווייזד אָדער סופּערווייזד מאַשין לערנען איז ביידע מעגלעך. קלייַבן סופּערווייזד לערנען אויב דיין דאַטן זענען ווייניקער שעפעדיק און געזונט טאַגד פֿאַר טריינינג.
גרויס דאַטן שטעלט וואָלט אָפט דורכפירן און פּראָדוצירן בעסער אַוטקאַמז ניצן אַנסופּערווייזד לערנען. טיף לערנען מעטהאָדס זענען בעסטער אויב איר האָבן אַ סייזאַבאַל דאַטן זאַמלונג וואָס איז גרינג בנימצא.
ריינפאָרסמאַנט לערנען און טיף ריינפאָרסמאַנט לערנען זענען עטלעכע טעמעס איר געלערנט. קעראַקטעריסטיקס, ניצט און קאַנסטריינץ פון נעוראַל נעטוואָרקס זענען איצט קלאָר פֿאַר איר. לעצטע אָבער ניט קלענסטער, איר האָט באַטראַכט די אָפּציעס פֿאַר פאַרשידענע פּראָגראַממינג שפראַכן, IDEs און פּלאַטפאָרמס ווען עס קומט צו שאַפֿן דיין אייגענע מאַשין לערנען מאָדעלס.
דער ווייַטער זאַך איר דאַרפֿן צו טאָן איז צו אָנהייבן לערנען און נוצן יעדער מאַשין וויסן צוגאַנג. אפילו אויב די ונטערטעניק איז ברייט, קיין טעמע קענען זיין פארשטאנען אין אַ ביסל שעה אויב איר פאָקוס אויף זייַן טיפקייַט. יעדער טעמע שטייט אַליין פון די אנדערע.
איר מוזן טראַכטן וועגן איין אַרויסגעבן אין אַ צייַט, לערנען עס, נוצן עס אין פיר און נוצן אַ שפּראַך פון דיין ברירה צו ינסטרומענט די אַלגערידאַם (s) אין עס.
לאָזן אַ ענטפֿערן