ಪರಿವಿಡಿ[ಮರೆಮಾಡಿ][ತೋರಿಸಿ]
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಮತ್ತು ಯಂತ್ರ ಕಲಿಕೆಯಿಂದಾಗಿ ಜಗತ್ತು ತ್ವರಿತವಾಗಿ ಬದಲಾಗುತ್ತಿದೆ, ಇದು ನಮ್ಮ ದೈನಂದಿನ ಜೀವನದ ಪ್ರತಿಯೊಂದು ಅಂಶದ ಮೇಲೆ ಪ್ರಭಾವ ಬೀರುತ್ತದೆ.
ಎನ್ಎಲ್ಪಿ ಮತ್ತು ಯಂತ್ರ ಕಲಿಕೆಯನ್ನು ಬಳಸುವ ಧ್ವನಿ ಸಹಾಯಕರಿಂದ ಹಿಡಿದು ಅಪಾಯಿಂಟ್ಮೆಂಟ್ಗಳನ್ನು ಕಾಯ್ದಿರಿಸುವುದು, ನಮ್ಮ ಕ್ಯಾಲೆಂಡರ್ನಲ್ಲಿ ಈವೆಂಟ್ಗಳನ್ನು ಹುಡುಕುವುದು ಮತ್ತು ಸಂಗೀತವನ್ನು ಪ್ಲೇ ಮಾಡುವ ಸಾಧನಗಳು ತುಂಬಾ ನಿಖರವಾದ ಸಾಧನಗಳಿಗೆ ನಾವು ಅವುಗಳನ್ನು ಪರಿಗಣಿಸುವ ಮೊದಲು ಅವರು ನಮ್ಮ ಅಗತ್ಯಗಳನ್ನು ನಿರೀಕ್ಷಿಸಬಹುದು.
ಗಣಕಯಂತ್ರಗಳು ಚೆಸ್ ಆಡಬಹುದು, ಶಸ್ತ್ರಚಿಕಿತ್ಸೆ ಮಾಡಬಹುದು, ಮತ್ತು ಯಂತ್ರ ಕಲಿಕೆಯ ಕ್ರಮಾವಳಿಗಳ ಸಹಾಯದಿಂದ ಹೆಚ್ಚು ಚುರುಕಾದ, ಹೆಚ್ಚು ಮಾನವ-ರೀತಿಯ ಯಂತ್ರಗಳಾಗಿ ಅಭಿವೃದ್ಧಿ ಹೊಂದಬಹುದು.
ನಾವು ನಿರಂತರ ತಾಂತ್ರಿಕ ಪ್ರಗತಿಯ ಸಮಯದಲ್ಲಿ ಇದ್ದೇವೆ ಮತ್ತು ಕಂಪ್ಯೂಟರ್ಗಳು ಸಮಯದ ಮೂಲಕ ಹೇಗೆ ಅಭಿವೃದ್ಧಿಗೊಂಡಿವೆ ಎಂಬುದನ್ನು ನೋಡುವ ಮೂಲಕ, ಭವಿಷ್ಯದಲ್ಲಿ ಏನಾಗಬಹುದು ಎಂಬುದರ ಕುರಿತು ನಾವು ಭವಿಷ್ಯ ನುಡಿಯಬಹುದು.
ಕಂಪ್ಯೂಟಿಂಗ್ ಉಪಕರಣಗಳು ಮತ್ತು ವಿಧಾನಗಳ ಪ್ರಜಾಪ್ರಭುತ್ವೀಕರಣವು ಈ ಕ್ರಾಂತಿಯ ಪ್ರಮುಖ ಅಂಶಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ. ಡೇಟಾ ವಿಜ್ಞಾನಿಗಳು ಅತ್ಯಾಧುನಿಕ ವಿಧಾನಗಳನ್ನು ಸಲೀಸಾಗಿ ಅನುಷ್ಠಾನಗೊಳಿಸುವ ಮೂಲಕ ಕಳೆದ ಐದು ವರ್ಷಗಳಲ್ಲಿ ಶಕ್ತಿಯುತ ಡೇಟಾ-ಕ್ರಂಚಿಂಗ್ ಕಂಪ್ಯೂಟರ್ಗಳನ್ನು ರಚಿಸಿದ್ದಾರೆ. ಫಲಿತಾಂಶಗಳು ಆಶ್ಚರ್ಯಕರವಾಗಿವೆ.
ಈ ಪೋಸ್ಟ್ನಲ್ಲಿ, ನಾವು ಹತ್ತಿರದಿಂದ ನೋಡುತ್ತೇವೆ ಯಂತ್ರ ಕಲಿಕೆ ಕ್ರಮಾವಳಿಗಳು ಮತ್ತು ಅವುಗಳ ಎಲ್ಲಾ ಬದಲಾವಣೆಗಳು.
ಹಾಗಾದರೆ, ಮೆಷಿನ್ ಲರ್ನಿಂಗ್ ಅಲ್ಗಾರಿದಮ್ಗಳು ಯಾವುವು?
AI ವ್ಯವಸ್ಥೆಯು ತನ್ನ ಕಾರ್ಯವನ್ನು ನಿರ್ವಹಿಸಲು ಬಳಸುವ ವಿಧಾನ-ಸಾಮಾನ್ಯವಾಗಿ, ನೀಡಿದ ಇನ್ಪುಟ್ ಡೇಟಾದಿಂದ ಔಟ್ಪುಟ್ ಮೌಲ್ಯಗಳನ್ನು ಊಹಿಸುವುದು-ಮಷಿನ್ ಲರ್ನಿಂಗ್ ಅಲ್ಗಾರಿದಮ್ ಎಂದು ಕರೆಯಲಾಗುತ್ತದೆ.
ಯಂತ್ರ ಕಲಿಕೆ ಅಲ್ಗಾರಿದಮ್ ಎನ್ನುವುದು ಡೇಟಾವನ್ನು ಬಳಸಿಕೊಳ್ಳುವ ಪ್ರಕ್ರಿಯೆಯಾಗಿದೆ ಮತ್ತು ಉತ್ಪಾದನೆಗೆ ಸಿದ್ಧವಾಗಿರುವ ಯಂತ್ರ ಕಲಿಕೆಯ ಮಾದರಿಗಳನ್ನು ರಚಿಸಲು ಬಳಸಲಾಗುತ್ತದೆ. ಯಂತ್ರ ಕಲಿಕೆಯು ಕೆಲಸವನ್ನು ನಿರ್ವಹಿಸುವ ರೈಲುವಾಗಿದ್ದರೆ, ಯಂತ್ರ ಕಲಿಕೆಯ ಕ್ರಮಾವಳಿಗಳು ಕೆಲಸವನ್ನು ಚಲಿಸುವ ಇಂಜಿನ್ಗಳಾಗಿವೆ.
ನೀವು ಪರಿಹರಿಸಲು ಪ್ರಯತ್ನಿಸುತ್ತಿರುವ ವ್ಯಾಪಾರ ಸಮಸ್ಯೆ, ನೀವು ಬಳಸುತ್ತಿರುವ ಡೇಟಾಸೆಟ್ನ ಪ್ರಕಾರ ಮತ್ತು ನೀವು ಲಭ್ಯವಿರುವ ಸಂಪನ್ಮೂಲಗಳಿಂದ ಬಳಸಿಕೊಳ್ಳಲು ಉತ್ತಮ ಯಂತ್ರ ಕಲಿಕೆಯ ವಿಧಾನವನ್ನು ನಿರ್ಧರಿಸಲಾಗುತ್ತದೆ.
ಮೆಷಿನ್ ಲರ್ನಿಂಗ್ ಅಲ್ಗಾರಿದಮ್ಗಳು ಡೇಟಾ ಸೆಟ್ ಅನ್ನು ಮಾದರಿಯಾಗಿ ಪರಿವರ್ತಿಸುತ್ತವೆ. ನೀವು ಉತ್ತರಿಸಲು ಪ್ರಯತ್ನಿಸುತ್ತಿರುವ ಸಮಸ್ಯೆಯ ಪ್ರಕಾರ, ಲಭ್ಯವಿರುವ ಸಂಸ್ಕರಣಾ ಶಕ್ತಿ ಮತ್ತು ನೀವು ಹೊಂದಿರುವ ಡೇಟಾದ ಪ್ರಕಾರ, ಮೇಲ್ವಿಚಾರಣೆ, ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡದ ಅಥವಾ ಬಲವರ್ಧನೆಯ ಕಲಿಕೆಯ ಅಲ್ಗಾರಿದಮ್ಗಳು ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆ.
ಆದ್ದರಿಂದ, ನಾವು ಮೇಲ್ವಿಚಾರಣೆ, ಮೇಲ್ವಿಚಾರಣೆಯಿಲ್ಲದ ಮತ್ತು ಬಲವರ್ಧನೆಯ ಕಲಿಕೆಯ ಕುರಿತು ಮಾತನಾಡಿದ್ದೇವೆ, ಆದರೆ ಅವು ಯಾವುವು? ಅವುಗಳನ್ನು ಅನ್ವೇಷಿಸೋಣ.
ಮೇಲ್ವಿಚಾರಣೆ, ಮೇಲ್ವಿಚಾರಣೆಯಿಲ್ಲದ ಮತ್ತು ಬಲವರ್ಧನೆಯ ಕಲಿಕೆ
ಮೇಲ್ವಿಚಾರಣೆಯ ಕಲಿಕೆ
ಮೇಲ್ವಿಚಾರಣೆಯ ಕಲಿಕೆಯಲ್ಲಿ, ಒದಗಿಸಲಾದ ಇನ್ಪುಟ್ ಮತ್ತು ನಿರೀಕ್ಷಿತ ಫಲಿತಾಂಶವನ್ನು ಪ್ರತಿನಿಧಿಸುವ ಲೇಬಲ್ ಅನ್ನು ಆಧರಿಸಿ AI ಮಾದರಿಯನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಲಾಗಿದೆ. ಇನ್ಪುಟ್ಗಳು ಮತ್ತು ಔಟ್ಪುಟ್ಗಳ ಆಧಾರದ ಮೇಲೆ, ಮಾದರಿಯು ಮ್ಯಾಪಿಂಗ್ ಸಮೀಕರಣವನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸುತ್ತದೆ ಮತ್ತು ಆ ಮ್ಯಾಪಿಂಗ್ ಸಮೀಕರಣವನ್ನು ಬಳಸಿಕೊಂಡು, ಇದು ಭವಿಷ್ಯದಲ್ಲಿ ಇನ್ಪುಟ್ಗಳ ಲೇಬಲ್ ಅನ್ನು ಮುನ್ಸೂಚಿಸುತ್ತದೆ.
ನಾಯಿ ಮತ್ತು ಬೆಕ್ಕಿನ ನಡುವೆ ವ್ಯತ್ಯಾಸವನ್ನು ಗುರುತಿಸುವ ಮಾದರಿಯನ್ನು ನಾವು ರಚಿಸಬೇಕಾಗಿದೆ ಎಂದು ಹೇಳೋಣ. ಮಾದರಿಗೆ ತರಬೇತಿ ನೀಡುವ ಸಲುವಾಗಿ ಬೆಕ್ಕುಗಳು ಮತ್ತು ನಾಯಿಗಳ ಬಹು ಫೋಟೋಗಳನ್ನು ಲೇಬಲ್ಗಳೊಂದಿಗೆ ಮಾದರಿಗೆ ನೀಡಲಾಗುತ್ತದೆ.
ಮಾದರಿಯು ಆ ಚಿತ್ರಗಳಿಗೆ ಇನ್ಪುಟ್ ಛಾಯಾಚಿತ್ರಗಳ ಲೇಬಲ್ಗಳಿಗೆ ಸಂಬಂಧಿಸಿದ ಸಮೀಕರಣವನ್ನು ಸ್ಥಾಪಿಸಲು ಪ್ರಯತ್ನಿಸುತ್ತದೆ. ಮಾದರಿಯು ಮೊದಲು ಚಿತ್ರವನ್ನು ನೋಡದಿದ್ದರೂ ಸಹ, ತರಬೇತಿಯ ನಂತರ, ಅದು ಬೆಕ್ಕು ಅಥವಾ ನಾಯಿ ಎಂದು ಗುರುತಿಸಬಹುದು.
ಮೇಲ್ವಿಚಾರಣೆಯಿಲ್ಲದ ಕಲಿಕೆ
ಮೇಲ್ವಿಚಾರಣೆಯಿಲ್ಲದ ಕಲಿಕೆಯು AI ಮಾದರಿಯನ್ನು ಲೇಬಲ್ ಮಾಡದೆ ಇನ್ಪುಟ್ಗಳ ಮೇಲೆ ಮಾತ್ರ ತರಬೇತಿ ನೀಡುವುದನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ. ಮಾದರಿಯು ಇನ್ಪುಟ್ ಡೇಟಾವನ್ನು ಸಂಬಂಧಿತ ಗುಣಲಕ್ಷಣಗಳೊಂದಿಗೆ ಗುಂಪುಗಳಾಗಿ ವಿಭಜಿಸುತ್ತದೆ.
ಇನ್ಪುಟ್ನ ಭವಿಷ್ಯದ ಲೇಬಲ್ ಅನ್ನು ಅದರ ಗುಣಲಕ್ಷಣಗಳು ವರ್ಗೀಕರಣಗಳಲ್ಲಿ ಒಂದಕ್ಕೆ ಎಷ್ಟು ನಿಕಟವಾಗಿ ಹೊಂದಿಕೆಯಾಗುತ್ತವೆ ಎಂಬುದರ ಆಧಾರದ ಮೇಲೆ ಮುನ್ಸೂಚಿಸಲಾಗುತ್ತದೆ. ನಾವು ಕೆಂಪು ಮತ್ತು ನೀಲಿ ಚೆಂಡುಗಳ ಗುಂಪನ್ನು ಎರಡು ವರ್ಗಗಳಾಗಿ ವಿಂಗಡಿಸಬೇಕಾದ ಪರಿಸ್ಥಿತಿಯನ್ನು ಪರಿಗಣಿಸಿ.
ಬಣ್ಣವನ್ನು ಹೊರತುಪಡಿಸಿ ಚೆಂಡುಗಳ ಇತರ ಗುಣಲಕ್ಷಣಗಳು ಒಂದೇ ಆಗಿವೆ ಎಂದು ಭಾವಿಸೋಣ. ಚೆಂಡುಗಳನ್ನು ಎರಡು ವರ್ಗಗಳಾಗಿ ಹೇಗೆ ವಿಭಜಿಸಬಹುದು ಎಂಬುದರ ಆಧಾರದ ಮೇಲೆ, ಮಾದರಿಯು ಚೆಂಡುಗಳ ನಡುವೆ ಭಿನ್ನವಾಗಿರುವ ಗುಣಲಕ್ಷಣಗಳನ್ನು ಹುಡುಕುತ್ತದೆ.
ಚೆಂಡುಗಳ ಎರಡು ಗುಂಪುಗಳು-ಒಂದು ನೀಲಿ ಮತ್ತು ಒಂದು ಕೆಂಪು-ಚೆಂಡುಗಳನ್ನು ಅವುಗಳ ವರ್ಣದ ಆಧಾರದ ಮೇಲೆ ಎರಡು ಗುಂಪುಗಳಾಗಿ ವಿಂಗಡಿಸಿದಾಗ ಉತ್ಪತ್ತಿಯಾಗುತ್ತದೆ.
ಬಲವರ್ಧನೆ ಕಲಿಕೆ
ಬಲವರ್ಧನೆಯ ಕಲಿಕೆಯಲ್ಲಿ, AI ಮಾದರಿಯು ಒಂದು ನಿರ್ದಿಷ್ಟ ಸನ್ನಿವೇಶದಲ್ಲಿ ಕಾರ್ಯನಿರ್ವಹಿಸುವ ಮೂಲಕ ಒಟ್ಟಾರೆ ಲಾಭವನ್ನು ಹೆಚ್ಚಿಸಲು ಪ್ರಯತ್ನಿಸುತ್ತದೆ. ಅದರ ಹಿಂದಿನ ಫಲಿತಾಂಶಗಳ ಮೇಲಿನ ಪ್ರತಿಕ್ರಿಯೆಯು ಮಾದರಿಯನ್ನು ಕಲಿಯಲು ಸಹಾಯ ಮಾಡುತ್ತದೆ.
A ಮತ್ತು B ಬಿಂದುಗಳ ನಡುವಿನ ಮಾರ್ಗವನ್ನು ಆಯ್ಕೆ ಮಾಡಲು ರೋಬೋಟ್ಗೆ ಸೂಚಿಸಿದಾಗ ಸನ್ನಿವೇಶದ ಕುರಿತು ಯೋಚಿಸಿ. ರೋಬೋಟ್ ಮೊದಲು ಯಾವುದೇ ಕೋರ್ಸ್ಗಳನ್ನು ಆಯ್ಕೆ ಮಾಡುತ್ತದೆ ಏಕೆಂದರೆ ಅದು ಪೂರ್ವ ಅನುಭವವನ್ನು ಹೊಂದಿಲ್ಲ.
ರೋಬೋಟ್ ತಾನು ಹೋಗುವ ಮಾರ್ಗದಲ್ಲಿ ಇನ್ಪುಟ್ ಪಡೆಯುತ್ತದೆ ಮತ್ತು ಅದರಿಂದ ಜ್ಞಾನವನ್ನು ಪಡೆಯುತ್ತದೆ. ಮುಂದಿನ ಬಾರಿ ಇದೇ ರೀತಿಯ ಸಂದರ್ಭ ಎದುರಾದಾಗ ಸಮಸ್ಯೆಯನ್ನು ಸರಿಪಡಿಸಲು ರೋಬೋಟ್ ಇನ್ಪುಟ್ ಅನ್ನು ಬಳಸಿಕೊಳ್ಳಬಹುದು.
ಉದಾಹರಣೆಗೆ, ರೋಬೋಟ್ ಬಿ ಆಯ್ಕೆಯನ್ನು ಆರಿಸಿದರೆ ಮತ್ತು ಧನಾತ್ಮಕ ಪ್ರತಿಕ್ರಿಯೆಯಂತಹ ಬಹುಮಾನವನ್ನು ಪಡೆದರೆ, ಈ ಸಮಯದಲ್ಲಿ ಅದು ತನ್ನ ಪ್ರತಿಫಲವನ್ನು ಹೆಚ್ಚಿಸಲು ಮಾರ್ಗವನ್ನು ಆರಿಸಬೇಕು ಎಂದು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುತ್ತದೆ.
ಈಗ ಅಂತಿಮವಾಗಿ ನೀವೆಲ್ಲರೂ ಕಾಯುತ್ತಿರುವುದು ಅಲ್ಗಾರಿದಮ್ಗಳಿಗಾಗಿ.
ಪ್ರಮುಖ ಯಂತ್ರ ಕಲಿಕೆ ಅಲ್ಗಾರಿದಮ್ಗಳು
1. ಲೀನಿಯರ್ ರಿಗ್ರೆಷನ್
ಮೇಲ್ವಿಚಾರಣೆಯ ಕಲಿಕೆಯಿಂದ ವಿಪಥಗೊಳ್ಳುವ ಸರಳವಾದ ಯಂತ್ರ ಕಲಿಕೆಯ ವಿಧಾನವೆಂದರೆ ರೇಖೀಯ ಹಿಂಜರಿತ. ಸ್ವತಂತ್ರ ಅಸ್ಥಿರಗಳ ಜ್ಞಾನದೊಂದಿಗೆ, ಹಿಂಜರಿತ ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸಲು ಮತ್ತು ನಿರಂತರ ಅವಲಂಬಿತ ಅಸ್ಥಿರಗಳ ಮೇಲೆ ಭವಿಷ್ಯವಾಣಿಗಳನ್ನು ರಚಿಸಲು ಇದನ್ನು ಹೆಚ್ಚಾಗಿ ಬಳಸಲಾಗುತ್ತದೆ.
ನಿರಂತರ ಅವಲಂಬಿತ ವೇರಿಯೇಬಲ್ಗಳ ಫಲಿತಾಂಶವನ್ನು ಊಹಿಸಲು ಸಹಾಯ ಮಾಡುವ ಅತ್ಯುತ್ತಮ ಫಿಟ್ನ ರೇಖೆಯನ್ನು ಕಂಡುಹಿಡಿಯುವುದು ರೇಖೀಯ ಹಿಂಜರಿತದ ಗುರಿಯಾಗಿದೆ. ಮನೆ ಬೆಲೆಗಳು, ವಯಸ್ಸು ಮತ್ತು ವೇತನಗಳು ನಿರಂತರ ಮೌಲ್ಯಗಳ ಕೆಲವು ಉದಾಹರಣೆಗಳಾಗಿವೆ.
ಸರಳ ರೇಖೀಯ ಹಿಂಜರಿತ ಎಂದು ಕರೆಯಲ್ಪಡುವ ಮಾದರಿಯು ಒಂದು ಸ್ವತಂತ್ರ ವೇರಿಯಬಲ್ ಮತ್ತು ಒಂದು ಅವಲಂಬಿತ ವೇರಿಯಬಲ್ ನಡುವಿನ ಸಂಬಂಧವನ್ನು ಲೆಕ್ಕಾಚಾರ ಮಾಡಲು ಸರಳ ರೇಖೆಯನ್ನು ಬಳಸುತ್ತದೆ. ಬಹು ಲೀನಿಯರ್ ರಿಗ್ರೆಷನ್ನಲ್ಲಿ ಎರಡಕ್ಕಿಂತ ಹೆಚ್ಚು ಸ್ವತಂತ್ರ ಅಸ್ಥಿರಗಳಿವೆ.
ರೇಖೀಯ ಹಿಂಜರಿತ ಮಾದರಿಯು ನಾಲ್ಕು ಆಧಾರವಾಗಿರುವ ಊಹೆಗಳನ್ನು ಹೊಂದಿದೆ:
- ರೇಖೀಯತೆ: X ಮತ್ತು Y ನ ಸರಾಸರಿ ನಡುವೆ ರೇಖಾತ್ಮಕ ಸಂಪರ್ಕವಿದೆ.
- ಹೋಮೋಸೆಡೆಸ್ಟಿಸಿಟಿ: X ನ ಪ್ರತಿಯೊಂದು ಮೌಲ್ಯಕ್ಕೂ, ಉಳಿದಿರುವ ವ್ಯತ್ಯಾಸವು ಒಂದೇ ಆಗಿರುತ್ತದೆ.
- ಸ್ವಾತಂತ್ರ್ಯ: ಸ್ವಾತಂತ್ರ್ಯದ ವಿಷಯದಲ್ಲಿ ಅವಲೋಕನಗಳು ಒಂದಕ್ಕೊಂದು ಸ್ವತಂತ್ರವಾಗಿರುತ್ತವೆ.
- ಸಾಮಾನ್ಯತೆ: X ಅನ್ನು ಸ್ಥಿರಗೊಳಿಸಿದಾಗ, Y ಅನ್ನು ಸಾಮಾನ್ಯವಾಗಿ ವಿತರಿಸಲಾಗುತ್ತದೆ.
ರೇಖೆಗಳ ಉದ್ದಕ್ಕೂ ಬೇರ್ಪಡಿಸಬಹುದಾದ ಡೇಟಾಕ್ಕಾಗಿ ಲೀನಿಯರ್ ರಿಗ್ರೆಷನ್ ಅದ್ಭುತವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ. ಕ್ರಮಬದ್ಧಗೊಳಿಸುವಿಕೆ, ಅಡ್ಡ-ಮೌಲ್ಯಮಾಪನ ಮತ್ತು ಆಯಾಮದ ಕಡಿತ ತಂತ್ರಗಳನ್ನು ಬಳಸಿಕೊಂಡು ಇದು ಅತಿಯಾಗಿ ಹೊಂದಿಕೊಳ್ಳುವುದನ್ನು ನಿಯಂತ್ರಿಸಬಹುದು. ಆದಾಗ್ಯೂ, ವ್ಯಾಪಕವಾದ ವೈಶಿಷ್ಟ್ಯ ಎಂಜಿನಿಯರಿಂಗ್ ಅಗತ್ಯವಿರುವ ಸಂದರ್ಭಗಳಿವೆ, ಇದು ಸಾಂದರ್ಭಿಕವಾಗಿ ಮಿತಿಮೀರಿದ ಮತ್ತು ಶಬ್ದಕ್ಕೆ ಕಾರಣವಾಗಬಹುದು.
2. ಲಾಜಿಸ್ಟಿಕ್ ರಿಗ್ರೆಷನ್
ಲಾಜಿಸ್ಟಿಕ್ ರಿಗ್ರೆಶನ್ ಎನ್ನುವುದು ಮೇಲ್ವಿಚಾರಣೆಯ ಕಲಿಕೆಯಿಂದ ಹೊರಡುವ ಮತ್ತೊಂದು ಯಂತ್ರ ಕಲಿಕೆಯ ತಂತ್ರವಾಗಿದೆ. ಇದರ ಪ್ರಮುಖ ಬಳಕೆಯು ವರ್ಗೀಕರಣವಾಗಿದೆ, ಆದರೆ ಇದನ್ನು ಹಿಂಜರಿತ ಸಮಸ್ಯೆಗಳಿಗೆ ಸಹ ಬಳಸಬಹುದು.
ಸ್ವತಂತ್ರ ಅಂಶಗಳಿಂದ ಮಾಹಿತಿಯನ್ನು ಬಳಸಿಕೊಂಡು ವರ್ಗೀಯ ಅವಲಂಬಿತ ವೇರಿಯಬಲ್ ಅನ್ನು ಮುನ್ಸೂಚಿಸಲು ಲಾಜಿಸ್ಟಿಕ್ ರಿಗ್ರೆಶನ್ ಅನ್ನು ಬಳಸಲಾಗುತ್ತದೆ. ಔಟ್ಪುಟ್ಗಳನ್ನು ವರ್ಗೀಕರಿಸುವುದು ಗುರಿಯಾಗಿದೆ, ಅದು 0 ಮತ್ತು 1 ರ ನಡುವೆ ಮಾತ್ರ ಬೀಳಬಹುದು.
ಇನ್ಪುಟ್ಗಳ ತೂಕದ ಒಟ್ಟು ಮೊತ್ತವನ್ನು ಸಿಗ್ಮೋಯ್ಡ್ ಫಂಕ್ಷನ್ನಿಂದ ಸಂಸ್ಕರಿಸಲಾಗುತ್ತದೆ, ಇದು 0 ಮತ್ತು 1 ರ ನಡುವಿನ ಮೌಲ್ಯಗಳನ್ನು ಪರಿವರ್ತಿಸುವ ಸಕ್ರಿಯಗೊಳಿಸುವ ಕಾರ್ಯವಾಗಿದೆ.
ಲಾಜಿಸ್ಟಿಕ್ ರಿಗ್ರೆಶನ್ನ ಆಧಾರವು ಗರಿಷ್ಟ ಸಂಭವನೀಯತೆಯ ಅಂದಾಜಾಗಿದೆ, ನಿರ್ದಿಷ್ಟವಾಗಿ ಗಮನಿಸಿದ ಡೇಟಾವನ್ನು ನೀಡಿದ ಊಹಿಸಲಾದ ಸಂಭವನೀಯತೆಯ ವಿತರಣೆಯ ನಿಯತಾಂಕಗಳನ್ನು ಲೆಕ್ಕಾಚಾರ ಮಾಡುವ ವಿಧಾನವಾಗಿದೆ.
3. ನಿರ್ಧಾರ ಮರ
ಮೇಲ್ವಿಚಾರಣೆಯ ಕಲಿಕೆಯಿಂದ ವಿಭಜಿಸುವ ಮತ್ತೊಂದು ಯಂತ್ರ ಕಲಿಕೆಯ ವಿಧಾನವೆಂದರೆ ನಿರ್ಧಾರ ಮರ. ವರ್ಗೀಕರಣ ಮತ್ತು ಹಿಂಜರಿತ ಸಮಸ್ಯೆಗಳೆರಡಕ್ಕೂ, ನಿರ್ಧಾರ ಮರದ ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಳ್ಳಬಹುದು.
ಮರವನ್ನು ಹೋಲುವ ಈ ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುವ ಸಾಧನವು ಕ್ರಿಯೆಗಳ ನಿರೀಕ್ಷಿತ ಫಲಿತಾಂಶಗಳು, ವೆಚ್ಚಗಳು ಮತ್ತು ಪರಿಣಾಮಗಳನ್ನು ತೋರಿಸಲು ದೃಶ್ಯ ನಿರೂಪಣೆಗಳನ್ನು ಬಳಸುತ್ತದೆ. ಡೇಟಾವನ್ನು ಪ್ರತ್ಯೇಕ ಭಾಗಗಳಾಗಿ ವಿಭಜಿಸುವ ಮೂಲಕ, ಕಲ್ಪನೆಯು ಮಾನವನ ಮನಸ್ಸಿಗೆ ಹೋಲುತ್ತದೆ.
ನಾವು ಗ್ರ್ಯಾನುಲೇಟ್ ಮಾಡಬಹುದಾದಷ್ಟು ಡೇಟಾವನ್ನು ವಿಭಿನ್ನ ಭಾಗಗಳಾಗಿ ವಿಂಗಡಿಸಲಾಗಿದೆ. ಗುರಿ ವೇರಿಯಬಲ್ನ ವರ್ಗವನ್ನು ಮುನ್ಸೂಚಿಸಲು ಬಳಸಬಹುದಾದ ತರಬೇತಿ ಮಾದರಿಯನ್ನು ನಿರ್ಮಿಸುವುದು ನಿರ್ಧಾರ ವೃಕ್ಷದ ಮುಖ್ಯ ಉದ್ದೇಶವಾಗಿದೆ. ಕಾಣೆಯಾದ ಮೌಲ್ಯಗಳನ್ನು ಡಿಸಿಷನ್ ಟ್ರೀ ಬಳಸಿ ಸ್ವಯಂಚಾಲಿತವಾಗಿ ನಿರ್ವಹಿಸಬಹುದು.
ಒನ್-ಶಾಟ್ ಎನ್ಕೋಡಿಂಗ್, ಡಮ್ಮಿ ವೇರಿಯೇಬಲ್ಗಳು ಅಥವಾ ಇತರ ಡೇಟಾ ಪ್ರಿಟ್ರೀಟ್ಮೆಂಟ್ ಹಂತಗಳಿಗೆ ಯಾವುದೇ ಅವಶ್ಯಕತೆಯಿಲ್ಲ. ಇದಕ್ಕೆ ತಾಜಾ ಡೇಟಾವನ್ನು ಸೇರಿಸುವುದು ಕಷ್ಟ ಎಂಬ ಅರ್ಥದಲ್ಲಿ ಇದು ಕಠಿಣವಾಗಿದೆ. ನೀವು ಹೆಚ್ಚುವರಿ ಲೇಬಲ್ ಡೇಟಾವನ್ನು ಪಡೆದರೆ, ನೀವು ಸಂಪೂರ್ಣ ಡೇಟಾಸೆಟ್ನಲ್ಲಿ ಮರವನ್ನು ಮರುತರಬೇತಿ ನೀಡಬೇಕು.
ಪರಿಣಾಮವಾಗಿ, ಡೈನಾಮಿಕ್ ಮಾದರಿ ಬದಲಾವಣೆಯ ಅಗತ್ಯವಿರುವ ಯಾವುದೇ ಅಪ್ಲಿಕೇಶನ್ಗೆ ನಿರ್ಧಾರ ಮರಗಳು ಕಳಪೆ ಆಯ್ಕೆಯಾಗಿದೆ.
ಗುರಿ ವೇರಿಯಬಲ್ ಪ್ರಕಾರವನ್ನು ಆಧರಿಸಿ, ನಿರ್ಧಾರ ಮರಗಳನ್ನು ಎರಡು ವಿಧಗಳಾಗಿ ವರ್ಗೀಕರಿಸಲಾಗಿದೆ:
- ವರ್ಗೀಯ ವೇರಿಯೇಬಲ್: ಗುರಿ ವೇರಿಯಬಲ್ ವರ್ಗೀಯವಾಗಿರುವ ನಿರ್ಧಾರದ ಮರ.
- ನಿರಂತರ ವೇರಿಯೇಬಲ್: ಗುರಿ ವೇರಿಯೇಬಲ್ ನಿರಂತರವಾಗಿರುವ ನಿರ್ಧಾರ ಟ್ರೀ.
4. ಯಾದೃಚ್ಛಿಕ ಅರಣ್ಯ
ರಾಂಡಮ್ ಫಾರೆಸ್ಟ್ ಮೆಥಡ್ ಮುಂದಿನ ಯಂತ್ರ ಕಲಿಕೆಯ ತಂತ್ರವಾಗಿದೆ ಮತ್ತು ವರ್ಗೀಕರಣ ಮತ್ತು ಹಿಂಜರಿತ ಸಮಸ್ಯೆಗಳಲ್ಲಿ ವ್ಯಾಪಕವಾಗಿ ಬಳಸಲಾಗುವ ಮೇಲ್ವಿಚಾರಣೆಯ ಯಂತ್ರ ಕಲಿಕೆ ಅಲ್ಗಾರಿದಮ್ ಆಗಿದೆ. ಇದು ನಿರ್ಧಾರ ವೃಕ್ಷದಂತೆಯೇ ಮರದ ಆಧಾರಿತ ವಿಧಾನವಾಗಿದೆ.
ತೀರ್ಪುಗಳನ್ನು ಮಾಡಲು ಯಾದೃಚ್ಛಿಕ ಅರಣ್ಯ ವಿಧಾನದಿಂದ ಮರಗಳ ಕಾಡು, ಅಥವಾ ಅನೇಕ ನಿರ್ಧಾರ ಮರಗಳನ್ನು ಬಳಸಲಾಗುತ್ತದೆ. ವರ್ಗೀಕರಣ ಕಾರ್ಯಗಳನ್ನು ನಿರ್ವಹಿಸುವಾಗ, ನಿರಂತರ ಅಸ್ಥಿರಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ಡೇಟಾಸೆಟ್ಗಳೊಂದಿಗೆ ಹಿಂಜರಿತ ಕಾರ್ಯಗಳನ್ನು ನಿರ್ವಹಿಸುವಾಗ ಯಾದೃಚ್ಛಿಕ ಅರಣ್ಯ ವಿಧಾನವು ವರ್ಗೀಯ ಅಸ್ಥಿರಗಳನ್ನು ಬಳಸುತ್ತದೆ.
ಒಂದು ಸಮಗ್ರ, ಅಥವಾ ಅನೇಕ ಮಾದರಿಗಳ ಮಿಶ್ರಣ, ಯಾದೃಚ್ಛಿಕ ಅರಣ್ಯ ವಿಧಾನವು ಏನು ಮಾಡುತ್ತದೆ, ಅಂದರೆ ಕೇವಲ ಒಂದಕ್ಕಿಂತ ಹೆಚ್ಚಾಗಿ ಮಾದರಿಗಳ ಗುಂಪನ್ನು ಬಳಸಿಕೊಂಡು ಮುನ್ನೋಟಗಳನ್ನು ಮಾಡಲಾಗುತ್ತದೆ.
ಬಹುಪಾಲು ಆಧುನಿಕ ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಗಳನ್ನು ರೂಪಿಸುವ ವರ್ಗೀಕರಣ ಮತ್ತು ಹಿಂಜರಿತ ಸಮಸ್ಯೆಗಳಿಗೆ ಬಳಸುವ ಸಾಮರ್ಥ್ಯವು ಯಾದೃಚ್ಛಿಕ ಅರಣ್ಯದ ಪ್ರಮುಖ ಪ್ರಯೋಜನವಾಗಿದೆ.
ಎನ್ಸೆಂಬಲ್ ಎರಡು ವಿಭಿನ್ನ ತಂತ್ರಗಳನ್ನು ಬಳಸುತ್ತದೆ:
- ಬ್ಯಾಗಿಂಗ್: ಇದನ್ನು ಮಾಡುವುದರಿಂದ, ತರಬೇತಿ ಡೇಟಾಸೆಟ್ಗಾಗಿ ಹೆಚ್ಚಿನ ಡೇಟಾವನ್ನು ಉತ್ಪಾದಿಸಲಾಗುತ್ತದೆ. ಮುನ್ಸೂಚನೆಗಳಲ್ಲಿನ ವ್ಯತ್ಯಾಸವನ್ನು ಕಡಿಮೆ ಮಾಡಲು, ಇದನ್ನು ಮಾಡಲಾಗುತ್ತದೆ.
- ಬೂಸ್ಟಿಂಗ್ ಎನ್ನುವುದು ಸತತ ಮಾದರಿಗಳನ್ನು ನಿರ್ಮಿಸುವ ಮೂಲಕ ದುರ್ಬಲ ಕಲಿಯುವವರನ್ನು ಬಲವಾದ ಕಲಿಯುವವರೊಂದಿಗೆ ಸಂಯೋಜಿಸುವ ಪ್ರಕ್ರಿಯೆಯಾಗಿದೆ, ಇದರ ಪರಿಣಾಮವಾಗಿ ಅಂತಿಮ ಮಾದರಿಯು ಗರಿಷ್ಠ ನಿಖರತೆಯೊಂದಿಗೆ ಇರುತ್ತದೆ.
5. ನಿಷ್ಕಪಟ ಬೇಯೆಸ್
ಬೈನರಿ (ಎರಡು-ವರ್ಗ) ಮತ್ತು ಬಹು-ವರ್ಗ ವರ್ಗೀಕರಣ ಸಮಸ್ಯೆಯನ್ನು ನೈವ್ ಬೇಯ್ಸ್ ತಂತ್ರವನ್ನು ಬಳಸಿಕೊಂಡು ಪರಿಹರಿಸಬಹುದು. ಬೈನರಿ ಅಥವಾ ವರ್ಗದ ಇನ್ಪುಟ್ ಮೌಲ್ಯಗಳನ್ನು ಬಳಸಿಕೊಂಡು ವಿಧಾನವನ್ನು ವಿವರಿಸಿದಾಗ, ಅದನ್ನು ಗ್ರಹಿಸಲು ಸರಳವಾಗಿದೆ. ಒಂದು ನೈವ್ ಬೇಯೆಸ್ ವರ್ಗೀಕರಣವು ಮಾಡಿದ ಒಂದು ಊಹೆಯೆಂದರೆ, ಒಂದು ವರ್ಗದಲ್ಲಿ ಒಂದು ವೈಶಿಷ್ಟ್ಯದ ಅಸ್ತಿತ್ವವು ಯಾವುದೇ ಇತರ ವೈಶಿಷ್ಟ್ಯಗಳ ಉಪಸ್ಥಿತಿಯ ಮೇಲೆ ಯಾವುದೇ ಪರಿಣಾಮ ಬೀರುವುದಿಲ್ಲ.
ಮೇಲಿನ ಸೂತ್ರವು ಸೂಚಿಸುತ್ತದೆ:
- P(H): ಹೈಪೋಥಿಸಿಸ್ H ಸರಿಯಾಗಿರುವ ಸಾಧ್ಯತೆ. ಹಿಂದಿನ ಸಂಭವನೀಯತೆಯನ್ನು ಹೀಗೆ ಉಲ್ಲೇಖಿಸಲಾಗುತ್ತದೆ.
- P(E): ಸಾಕ್ಷ್ಯದ ಸಾಧ್ಯತೆ
- P(E|H): ಊಹೆಯನ್ನು ಪುರಾವೆಯಿಂದ ಬೆಂಬಲಿಸುವ ಸಾಧ್ಯತೆ.
- P(H|E): ಪುರಾವೆಯನ್ನು ನೀಡಿದ ಊಹೆಯು ನಿಜವಾಗಿರುವ ಸಾಧ್ಯತೆ.
ಈ ಗುಣಲಕ್ಷಣಗಳು ಒಂದಕ್ಕೊಂದು ಸಂಪರ್ಕ ಹೊಂದಿದ್ದರೂ ಸಹ, ಒಂದು ನಿರ್ದಿಷ್ಟ ಫಲಿತಾಂಶದ ಸಾಧ್ಯತೆಯನ್ನು ನಿರ್ಧರಿಸುವಾಗ ನೈವ್ ಬೇಯೆಸ್ ವರ್ಗೀಕರಣವು ಈ ಪ್ರತಿಯೊಂದು ಗುಣಲಕ್ಷಣಗಳನ್ನು ಪ್ರತ್ಯೇಕವಾಗಿ ಗಣನೆಗೆ ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ. ನೈವ್ ಬೇಸಿಯನ್ ಮಾದರಿಯು ನಿರ್ಮಿಸಲು ಸರಳವಾಗಿದೆ ಮತ್ತು ದೊಡ್ಡ ಡೇಟಾಸೆಟ್ಗಳಿಗೆ ಪರಿಣಾಮಕಾರಿಯಾಗಿದೆ.
ಮೂಲಭೂತವಾಗಿರುವಾಗ ಅತ್ಯಂತ ಸಂಕೀರ್ಣವಾದ ವರ್ಗೀಕರಣ ತಂತ್ರಗಳಿಗಿಂತಲೂ ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ ಎಂದು ತಿಳಿದುಬಂದಿದೆ. ಇದು ಒಂದೇ ವಿಧಾನಕ್ಕಿಂತ ಹೆಚ್ಚಾಗಿ ಬೇಯ್ಸ್ ಪ್ರಮೇಯವನ್ನು ಆಧರಿಸಿದ ಕ್ರಮಾವಳಿಗಳ ಸಂಗ್ರಹವಾಗಿದೆ.
6. ಕೆ-ಹತ್ತಿರದ ನೆರೆಹೊರೆಯವರು
K-ಹತ್ತಿರದ ನೆರೆಹೊರೆಯವರ (kNN) ತಂತ್ರವು ವರ್ಗೀಕರಣ ಮತ್ತು ಹಿಂಜರಿತದ ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸಲು ಬಳಸಬಹುದಾದ ಮೇಲ್ವಿಚಾರಣೆಯ ಯಂತ್ರ ಕಲಿಕೆಯ ಉಪವಿಭಾಗವಾಗಿದೆ. KNN ಅಲ್ಗಾರಿದಮ್ ಹೋಲಿಸಬಹುದಾದ ವಸ್ತುಗಳನ್ನು ಹತ್ತಿರದಲ್ಲಿ ಕಾಣಬಹುದು ಎಂದು ಊಹಿಸುತ್ತದೆ.
ನಾನು ಅದನ್ನು ಸಮಾನ ಮನಸ್ಕ ವ್ಯಕ್ತಿಗಳ ಸಭೆ ಎಂದು ನೆನಪಿಸಿಕೊಳ್ಳುತ್ತೇನೆ. ಸಾಮೀಪ್ಯ, ನಿಕಟತೆ ಅಥವಾ ದೂರವನ್ನು ಬಳಸಿಕೊಂಡು ಇತರ ಡೇಟಾ ಬಿಂದುಗಳ ನಡುವಿನ ಹೋಲಿಕೆಯ ಕಲ್ಪನೆಯ ಪ್ರಯೋಜನವನ್ನು kNN ಮಾಡುತ್ತದೆ. ಹತ್ತಿರದ ಲೇಬಲ್ ಮಾಡಲಾದ ಗಮನಿಸಬಹುದಾದ ಡೇಟಾ ಪಾಯಿಂಟ್ಗಳ ಆಧಾರದ ಮೇಲೆ ಕಾಣದ ಡೇಟಾವನ್ನು ಲೇಬಲ್ ಮಾಡಲು, ಗ್ರಾಫ್ನಲ್ಲಿ ಬಿಂದುಗಳ ನಡುವಿನ ಪ್ರತ್ಯೇಕತೆಯನ್ನು ನಿರ್ಧರಿಸಲು ಗಣಿತದ ವಿಧಾನವನ್ನು ಬಳಸಲಾಗುತ್ತದೆ.
ಹತ್ತಿರದ ಹೋಲಿಸಬಹುದಾದ ತಾಣಗಳನ್ನು ಗುರುತಿಸಲು ನೀವು ಡೇಟಾ ಬಿಂದುಗಳ ನಡುವಿನ ಅಂತರವನ್ನು ನಿರ್ಧರಿಸಬೇಕು. ಯೂಕ್ಲಿಡಿಯನ್ ದೂರ, ಹ್ಯಾಮಿಂಗ್ ದೂರ, ಮ್ಯಾನ್ಹ್ಯಾಟನ್ ದೂರ ಮತ್ತು ಮಿಂಕೋವ್ಸ್ಕಿ ದೂರದಂತಹ ದೂರ ಮಾಪನಗಳನ್ನು ಇದಕ್ಕಾಗಿ ಬಳಸಬಹುದು. K ಅನ್ನು ಹತ್ತಿರದ ನೆರೆಹೊರೆಯ ಸಂಖ್ಯೆ ಎಂದು ಕರೆಯಲಾಗುತ್ತದೆ ಮತ್ತು ಇದು ಸಾಮಾನ್ಯವಾಗಿ ಬೆಸ ಸಂಖ್ಯೆಯಾಗಿದೆ.
KNN ಅನ್ನು ವರ್ಗೀಕರಣ ಮತ್ತು ಹಿಂಜರಿತ ಸಮಸ್ಯೆಗಳಿಗೆ ಅನ್ವಯಿಸಬಹುದು. KNN ಅನ್ನು ಹಿಂಜರಿತ ಸಮಸ್ಯೆಗಳಿಗೆ ಬಳಸಿದಾಗ ಮಾಡಲಾದ ಭವಿಷ್ಯವು K-ಅತ್ಯಂತ ಸಮಾನವಾದ ಘಟನೆಗಳ ಸರಾಸರಿ ಅಥವಾ ಸರಾಸರಿಯನ್ನು ಆಧರಿಸಿದೆ.
KNN ಅನ್ನು ಆಧರಿಸಿದ ವರ್ಗೀಕರಣ ಅಲ್ಗಾರಿದಮ್ನ ಫಲಿತಾಂಶವನ್ನು K ಅತ್ಯಂತ ಸಮಾನವಾದ ಘಟನೆಗಳಲ್ಲಿ ಹೆಚ್ಚಿನ ಆವರ್ತನದೊಂದಿಗೆ ವರ್ಗವಾಗಿ ನಿರ್ಧರಿಸಬಹುದು. ಪ್ರತಿಯೊಂದು ನಿದರ್ಶನವು ಮೂಲಭೂತವಾಗಿ ಅವರ ವರ್ಗಕ್ಕೆ ಮತವನ್ನು ನೀಡುತ್ತದೆ ಮತ್ತು ಭವಿಷ್ಯವು ಹೆಚ್ಚು ಮತಗಳನ್ನು ಪಡೆಯುವ ವರ್ಗಕ್ಕೆ ಸೇರಿದೆ.
7. ಕೆ-ಎಂದರೆ
ಇದು ಕ್ಲಸ್ಟರಿಂಗ್ ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸುವ ಮೇಲ್ವಿಚಾರಣೆಯಿಲ್ಲದ ಕಲಿಕೆಯ ತಂತ್ರವಾಗಿದೆ. ಡೇಟಾ ಸೆಟ್ಗಳನ್ನು ನಿರ್ದಿಷ್ಟ ಸಂಖ್ಯೆಯ ಕ್ಲಸ್ಟರ್ಗಳಾಗಿ ವಿಂಗಡಿಸಲಾಗಿದೆ-ಕಾಲ್ ಲೆಟ್ಸ್ ಇಟ್ K-ಒಂದು ರೀತಿಯಲ್ಲಿ ಪ್ರತಿ ಕ್ಲಸ್ಟರ್ನ ಡೇಟಾ ಪಾಯಿಂಟ್ಗಳು ಏಕರೂಪವಾಗಿರುತ್ತವೆ ಮತ್ತು ಇತರ ಕ್ಲಸ್ಟರ್ಗಳಿಂದ ಭಿನ್ನವಾಗಿರುತ್ತವೆ.
K- ಎಂದರೆ ಕ್ಲಸ್ಟರಿಂಗ್ ವಿಧಾನ:
- ಪ್ರತಿ ಕ್ಲಸ್ಟರ್ಗೆ, K-ಎಂದರೆ ಅಲ್ಗಾರಿದಮ್ k ಸೆಂಟ್ರಾಯ್ಡ್ಗಳು ಅಥವಾ ಬಿಂದುಗಳನ್ನು ಆಯ್ಕೆ ಮಾಡುತ್ತದೆ.
- ಹತ್ತಿರದ ಸೆಂಟ್ರಾಯ್ಡ್ಗಳು ಅಥವಾ K ಕ್ಲಸ್ಟರ್ಗಳೊಂದಿಗೆ, ಪ್ರತಿ ಡೇಟಾ ಪಾಯಿಂಟ್ ಕ್ಲಸ್ಟರ್ ಅನ್ನು ರೂಪಿಸುತ್ತದೆ.
- ಈಗ, ಈಗಾಗಲೇ ಇರುವ ಕ್ಲಸ್ಟರ್ ಸದಸ್ಯರನ್ನು ಅವಲಂಬಿಸಿ ಹೊಸ ಸೆಂಟ್ರಾಯ್ಡ್ಗಳನ್ನು ಉತ್ಪಾದಿಸಲಾಗುತ್ತದೆ.
- ಈ ಅಪ್ಡೇಟ್ ಮಾಡಲಾದ ಸೆಂಟ್ರಾಯ್ಡ್ಗಳನ್ನು ಬಳಸಿಕೊಂಡು ಪ್ರತಿ ಡೇಟಾ ಪಾಯಿಂಟ್ಗೆ ಹತ್ತಿರದ ದೂರವನ್ನು ಲೆಕ್ಕಹಾಕಲಾಗುತ್ತದೆ. ಸೆಂಟ್ರಾಯ್ಡ್ಗಳು ಬದಲಾಗದ ತನಕ, ಈ ಪ್ರಕ್ರಿಯೆಯು ಪುನರಾವರ್ತನೆಯಾಗುತ್ತದೆ.
ಇದು ವೇಗವಾಗಿ, ಹೆಚ್ಚು ವಿಶ್ವಾಸಾರ್ಹ ಮತ್ತು ಗ್ರಹಿಸಲು ಸರಳವಾಗಿದೆ. ಸಮಸ್ಯೆಗಳಿದ್ದಲ್ಲಿ, k-ಎಂದರೆ ಹೊಂದಿಕೊಳ್ಳುವಿಕೆ ಹೊಂದಾಣಿಕೆಗಳನ್ನು ಸರಳಗೊಳಿಸುತ್ತದೆ. ಡೇಟಾಸೆಟ್ಗಳು ವಿಭಿನ್ನವಾದಾಗ ಅಥವಾ ಒಂದರಿಂದ ಚೆನ್ನಾಗಿ ಪ್ರತ್ಯೇಕಗೊಂಡಾಗ, ಫಲಿತಾಂಶಗಳು ಉತ್ತಮವಾಗಿರುತ್ತವೆ. ಇದು ಅನಿಯಮಿತ ಡೇಟಾ ಅಥವಾ ಔಟ್ಲೈಯರ್ಗಳನ್ನು ನಿರ್ವಹಿಸಲು ಸಾಧ್ಯವಿಲ್ಲ.
8. ಬೆಂಬಲ ವೆಕ್ಟರ್ ಯಂತ್ರಗಳು
ಡೇಟಾವನ್ನು ವರ್ಗೀಕರಿಸಲು SVM ತಂತ್ರವನ್ನು ಬಳಸುವಾಗ, ಕಚ್ಚಾ ಡೇಟಾವನ್ನು n-ಆಯಾಮದ ಜಾಗದಲ್ಲಿ ಚುಕ್ಕೆಗಳಾಗಿ ತೋರಿಸಲಾಗುತ್ತದೆ (ಇಲ್ಲಿ n ನೀವು ಹೊಂದಿರುವ ವೈಶಿಷ್ಟ್ಯಗಳ ಸಂಖ್ಯೆ). ಡೇಟಾವನ್ನು ನಂತರ ಸುಲಭವಾಗಿ ವರ್ಗೀಕರಿಸಬಹುದು ಏಕೆಂದರೆ ಪ್ರತಿ ವೈಶಿಷ್ಟ್ಯದ ಮೌಲ್ಯವು ನಿರ್ದಿಷ್ಟ ನಿರ್ದೇಶಾಂಕಕ್ಕೆ ಸಂಪರ್ಕಗೊಳ್ಳುತ್ತದೆ.
ಡೇಟಾವನ್ನು ಪ್ರತ್ಯೇಕಿಸಲು ಮತ್ತು ಅವುಗಳನ್ನು ಗ್ರಾಫ್ನಲ್ಲಿ ಇರಿಸಲು, ವರ್ಗೀಕರಣಗಳು ಎಂದು ಕರೆಯಲ್ಪಡುವ ಸಾಲುಗಳನ್ನು ಬಳಸಿಕೊಳ್ಳಿ. ಈ ವಿಧಾನವು ಪ್ರತಿ ಡೇಟಾ ಬಿಂದುವನ್ನು n-ಆಯಾಮದ ಜಾಗದಲ್ಲಿ ಒಂದು ಬಿಂದುವಾಗಿ ರೂಪಿಸುತ್ತದೆ, ಇಲ್ಲಿ n ನೀವು ಹೊಂದಿರುವ ವೈಶಿಷ್ಟ್ಯಗಳ ಸಂಖ್ಯೆ ಮತ್ತು ಪ್ರತಿ ವೈಶಿಷ್ಟ್ಯದ ಮೌಲ್ಯವು ನಿರ್ದಿಷ್ಟ ನಿರ್ದೇಶಾಂಕ ಮೌಲ್ಯವಾಗಿದೆ.
ನಾವು ಈಗ ಡೇಟಾವನ್ನು ವಿಭಿನ್ನವಾಗಿ ವರ್ಗೀಕರಿಸಿದ ಎರಡು ಸೆಟ್ ಡೇಟಾಗಳಾಗಿ ವಿಭಜಿಸುವ ರೇಖೆಯನ್ನು ಪತ್ತೆ ಮಾಡುತ್ತೇವೆ. ಪ್ರತಿ ಎರಡು ಗುಂಪುಗಳಲ್ಲಿನ ಹತ್ತಿರದ ಬಿಂದುಗಳಿಂದ ದೂರವು ಈ ರೇಖೆಯ ಉದ್ದಕ್ಕೂ ಹೆಚ್ಚು ದೂರದಲ್ಲಿರುತ್ತದೆ.
ಮೇಲಿನ ಉದಾಹರಣೆಯಲ್ಲಿ ಎರಡು ಹತ್ತಿರದ ಬಿಂದುಗಳು ರೇಖೆಯಿಂದ ಹೆಚ್ಚು ದೂರದಲ್ಲಿರುವುದರಿಂದ, ಡೇಟಾವನ್ನು ವಿಭಿನ್ನವಾಗಿ ವರ್ಗೀಕರಿಸಿದ ಎರಡು ಗುಂಪುಗಳಾಗಿ ವಿಭಜಿಸುವ ರೇಖೆಯು ಮಧ್ಯದ ಗೆರೆಯಾಗಿದೆ. ನಮ್ಮ ವರ್ಗೀಕರಣವು ಈ ಸಾಲು.
9. ಆಯಾಮದ ಕಡಿತ
ಆಯಾಮದ ಕಡಿತದ ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಂಡು, ತರಬೇತಿ ಡೇಟಾವು ಕಡಿಮೆ ಇನ್ಪುಟ್ ವೇರಿಯಬಲ್ಗಳನ್ನು ಹೊಂದಿರಬಹುದು. ಸರಳವಾಗಿ ಹೇಳುವುದಾದರೆ, ಇದು ನಿಮ್ಮ ವೈಶಿಷ್ಟ್ಯದ ಸೆಟ್ನ ಗಾತ್ರವನ್ನು ಕುಗ್ಗಿಸುವ ಪ್ರಕ್ರಿಯೆಯನ್ನು ಸೂಚಿಸುತ್ತದೆ. ನಿಮ್ಮ ಡೇಟಾಸೆಟ್ 100 ಕಾಲಮ್ಗಳನ್ನು ಹೊಂದಿದೆ ಎಂದು ಊಹಿಸೋಣ; ಆಯಾಮದ ಕಡಿತವು ಆ ಮೊತ್ತವನ್ನು 20 ಕಾಲಮ್ಗಳಿಗೆ ಕಡಿಮೆ ಮಾಡುತ್ತದೆ.
ಮಾದರಿಯು ಸ್ವಯಂಚಾಲಿತವಾಗಿ ಹೆಚ್ಚು ಅತ್ಯಾಧುನಿಕವಾಗಿ ಬೆಳೆಯುತ್ತದೆ ಮತ್ತು ವೈಶಿಷ್ಟ್ಯಗಳ ಸಂಖ್ಯೆ ಹೆಚ್ಚಾದಂತೆ ಮಿತಿಮೀರಿದ ಅಪಾಯವನ್ನು ಹೊಂದಿರುತ್ತದೆ. ಹೆಚ್ಚಿನ ಆಯಾಮಗಳಲ್ಲಿ ಡೇಟಾದೊಂದಿಗೆ ಕೆಲಸ ಮಾಡುವ ದೊಡ್ಡ ಸಮಸ್ಯೆಯೆಂದರೆ " ಆಯಾಮದ ಶಾಪ" ಎಂದು ಕರೆಯಲ್ಪಡುತ್ತದೆ, ಇದು ನಿಮ್ಮ ಡೇಟಾವು ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಗುಣಲಕ್ಷಣಗಳನ್ನು ಹೊಂದಿರುವಾಗ ಸಂಭವಿಸುತ್ತದೆ.
ಆಯಾಮದ ಕಡಿತವನ್ನು ಸಾಧಿಸಲು ಈ ಕೆಳಗಿನ ಅಂಶಗಳನ್ನು ಬಳಸಬಹುದು:
- ಸಂಬಂಧಿತ ಗುಣಲಕ್ಷಣಗಳನ್ನು ಹುಡುಕಲು ಮತ್ತು ಆಯ್ಕೆ ಮಾಡಲು, ವೈಶಿಷ್ಟ್ಯದ ಆಯ್ಕೆಯನ್ನು ಬಳಸಿಕೊಳ್ಳಲಾಗುತ್ತದೆ.
- ಈಗಾಗಲೇ ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಬಳಸಿಕೊಂಡು, ವೈಶಿಷ್ಟ್ಯ ಎಂಜಿನಿಯರಿಂಗ್ ಹಸ್ತಚಾಲಿತವಾಗಿ ಹೊಸ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ರಚಿಸುತ್ತದೆ.
ತೀರ್ಮಾನ
ಮೇಲ್ವಿಚಾರಣೆಯಿಲ್ಲದ ಅಥವಾ ಮೇಲ್ವಿಚಾರಣೆಯ ಯಂತ್ರ ಕಲಿಕೆ ಎರಡೂ ಸಾಧ್ಯ. ನಿಮ್ಮ ಡೇಟಾ ಕಡಿಮೆ ಹೇರಳವಾಗಿದ್ದರೆ ಮತ್ತು ತರಬೇತಿಗಾಗಿ ಉತ್ತಮವಾಗಿ ಟ್ಯಾಗ್ ಮಾಡಿದ್ದರೆ ಮೇಲ್ವಿಚಾರಣೆಯ ಕಲಿಕೆಯನ್ನು ಆಯ್ಕೆಮಾಡಿ.
ದೊಡ್ಡ ಡೇಟಾ ಸೆಟ್ಗಳು ಸಾಮಾನ್ಯವಾಗಿ ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡದ ಕಲಿಕೆಯನ್ನು ಬಳಸಿಕೊಂಡು ಉತ್ತಮ ಫಲಿತಾಂಶಗಳನ್ನು ನೀಡುತ್ತವೆ. ಆಳವಾದ ಕಲಿಕೆ ನೀವು ಸುಲಭವಾಗಿ ಲಭ್ಯವಿರುವ ಗಣನೀಯ ಪ್ರಮಾಣದ ಡೇಟಾ ಸಂಗ್ರಹಣೆಯನ್ನು ಹೊಂದಿದ್ದರೆ ವಿಧಾನಗಳು ಉತ್ತಮವಾಗಿವೆ.
ಬಲವರ್ಧನೆಯ ಕಲಿಕೆ ಮತ್ತು ಆಳವಾದ ಬಲವರ್ಧನೆಯ ಕಲಿಕೆಯು ನೀವು ಅಧ್ಯಯನ ಮಾಡಿದ ಕೆಲವು ವಿಷಯಗಳಾಗಿವೆ. ನರಮಂಡಲದ ಗುಣಲಕ್ಷಣಗಳು, ಉಪಯೋಗಗಳು ಮತ್ತು ನಿರ್ಬಂಧಗಳು ಈಗ ನಿಮಗೆ ಸ್ಪಷ್ಟವಾಗಿವೆ. ಕೊನೆಯದಾಗಿ ಆದರೆ, ನಿಮ್ಮದೇ ಆದದನ್ನು ರಚಿಸುವಾಗ ವಿಭಿನ್ನ ಪ್ರೋಗ್ರಾಮಿಂಗ್ ಭಾಷೆಗಳು, IDE ಗಳು ಮತ್ತು ಪ್ಲಾಟ್ಫಾರ್ಮ್ಗಳ ಆಯ್ಕೆಗಳನ್ನು ನೀವು ಪರಿಗಣಿಸಿದ್ದೀರಿ ಯಂತ್ರ ಕಲಿಕಾ ಮಾದರಿಗಳು.
ನೀವು ಮಾಡಬೇಕಾದ ಮುಂದಿನ ವಿಷಯವೆಂದರೆ ಪ್ರತಿಯೊಂದನ್ನು ಅಧ್ಯಯನ ಮಾಡಲು ಮತ್ತು ಬಳಸಲು ಪ್ರಾರಂಭಿಸುವುದು ಯಂತ್ರ ಕಲಿಕೆ ಅನುಸಂಧಾನ. ವಿಷಯ ವಿಶಾಲವಾಗಿದ್ದರೂ ಯಾವುದೇ ವಿಷಯವನ್ನು ಅದರ ಆಳದತ್ತ ಗಮನ ಹರಿಸಿದರೆ ಕೆಲವೇ ಗಂಟೆಗಳಲ್ಲಿ ಅರ್ಥವಾಗುತ್ತದೆ. ಪ್ರತಿಯೊಂದು ವಿಷಯವು ಇತರರಿಂದ ಪ್ರತ್ಯೇಕವಾಗಿ ನಿಲ್ಲುತ್ತದೆ.
ನೀವು ಒಂದು ಸಮಯದಲ್ಲಿ ಒಂದು ಸಮಸ್ಯೆಯ ಬಗ್ಗೆ ಯೋಚಿಸಬೇಕು, ಅದನ್ನು ಅಧ್ಯಯನ ಮಾಡಬೇಕು, ಅದನ್ನು ಕಾರ್ಯರೂಪಕ್ಕೆ ತರಬೇಕು ಮತ್ತು ಅದರಲ್ಲಿ ಅಲ್ಗಾರಿದಮ್ (ಗಳನ್ನು) ಕಾರ್ಯಗತಗೊಳಿಸಲು ನಿಮ್ಮ ಆಯ್ಕೆಯ ಭಾಷೆಯನ್ನು ಬಳಸಬೇಕು.
ಪ್ರತ್ಯುತ್ತರ ನೀಡಿ