ನಾವು AI ಅನ್ನು ಜವಾಬ್ದಾರಿಯುತವಾಗಿ ಬಳಸುತ್ತೇವೆ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳುವುದು ಹೇಗೆ?
ಯಂತ್ರ ಕಲಿಕೆಯಲ್ಲಿನ ಪ್ರಗತಿಯು ಮಾದರಿಗಳು ತ್ವರಿತವಾಗಿ ಅಳೆಯಬಹುದು ಮತ್ತು ಸಮಾಜದ ಹೆಚ್ಚಿನ ಭಾಗವನ್ನು ಪ್ರಭಾವಿಸಬಹುದು ಎಂದು ತೋರಿಸುತ್ತದೆ.
ಅಲ್ಗಾರಿದಮ್ಗಳು ಪ್ರತಿಯೊಬ್ಬರ ಫೋನ್ಗಳಲ್ಲಿ ನ್ಯೂಸ್ಫೀಡ್ ಅನ್ನು ನಿಯಂತ್ರಿಸುತ್ತವೆ. ಡೇಟಾ-ಮಾಹಿತಿ ನಿರ್ಧಾರಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಲು ಸರ್ಕಾರಗಳು ಮತ್ತು ನಿಗಮಗಳು AI ಅನ್ನು ಬಳಸಲು ಪ್ರಾರಂಭಿಸುತ್ತಿವೆ.
ಜಗತ್ತು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ ಎಂಬುದರಲ್ಲಿ AI ಮತ್ತಷ್ಟು ಬೇರೂರಿದೆ, AI ನ್ಯಾಯಯುತವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತಿದೆ ಎಂದು ನಾವು ಹೇಗೆ ಖಚಿತಪಡಿಸಿಕೊಳ್ಳುತ್ತೇವೆ?
ಈ ಲೇಖನದಲ್ಲಿ, AI ಅನ್ನು ಬಳಸುವ ನೈತಿಕ ಸವಾಲುಗಳನ್ನು ನಾವು ನೋಡುತ್ತೇವೆ ಮತ್ತು AI ಯ ಜವಾಬ್ದಾರಿಯುತ ಬಳಕೆಯನ್ನು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು ನಾವು ಏನು ಮಾಡಬಹುದು ಎಂಬುದನ್ನು ನೋಡೋಣ.
ಎಥಿಕಲ್ ಎಐ ಎಂದರೇನು?
ನೈತಿಕ AI ಎನ್ನುವುದು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯನ್ನು ಸೂಚಿಸುತ್ತದೆ, ಅದು ನಿರ್ದಿಷ್ಟ ನೈತಿಕ ಮಾರ್ಗಸೂಚಿಗಳಿಗೆ ಬದ್ಧವಾಗಿದೆ.
ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, AI ಯೊಂದಿಗೆ ಜವಾಬ್ದಾರಿಯುತ ರೀತಿಯಲ್ಲಿ ಕೆಲಸ ಮಾಡಲು ವ್ಯಕ್ತಿಗಳು ಮತ್ತು ಸಂಸ್ಥೆಗಳಿಗೆ ಇದು ಒಂದು ಮಾರ್ಗವಾಗಿದೆ.
ಇತ್ತೀಚಿನ ವರ್ಷಗಳಲ್ಲಿ, ದುರ್ಬಳಕೆ ಮತ್ತು ಉಲ್ಲಂಘನೆಯ ಪುರಾವೆಗಳು ಬೆಳಕಿಗೆ ಬಂದ ನಂತರ ನಿಗಮಗಳು ಡೇಟಾ ಗೌಪ್ಯತೆ ಕಾನೂನುಗಳಿಗೆ ಅಂಟಿಕೊಳ್ಳಲು ಪ್ರಾರಂಭಿಸಿವೆ. ಅಂತೆಯೇ, AI ಸಮಾಜದ ಮೇಲೆ ನಕಾರಾತ್ಮಕ ಪರಿಣಾಮ ಬೀರುವುದಿಲ್ಲ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು ನೈತಿಕ AI ಗಾಗಿ ಮಾರ್ಗಸೂಚಿಗಳನ್ನು ಶಿಫಾರಸು ಮಾಡಲಾಗಿದೆ.
ಉದಾಹರಣೆಗೆ, ಕೆಲವು ವಿಧದ AI ಪಕ್ಷಪಾತದ ರೀತಿಯಲ್ಲಿ ಕೆಲಸ ಮಾಡುತ್ತದೆ ಅಥವಾ ಈಗಾಗಲೇ ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಪಕ್ಷಪಾತಗಳನ್ನು ಶಾಶ್ವತಗೊಳಿಸುತ್ತದೆ. ಸಾವಿರಾರು ರೆಸ್ಯೂಮ್ಗಳನ್ನು ವಿಂಗಡಿಸಲು ನೇಮಕಾತಿದಾರರಿಗೆ ಸಹಾಯ ಮಾಡುವ ಅಲ್ಗಾರಿದಮ್ ಅನ್ನು ಪರಿಗಣಿಸೋಣ. ಅಲ್ಗಾರಿದಮ್ ಅನ್ನು ಪ್ರಧಾನವಾಗಿ ಪುರುಷ ಅಥವಾ ಬಿಳಿ ಉದ್ಯೋಗಿಗಳೊಂದಿಗೆ ಡೇಟಾಸೆಟ್ನಲ್ಲಿ ತರಬೇತಿ ನೀಡಿದರೆ, ಆ ವರ್ಗಗಳ ಅಡಿಯಲ್ಲಿ ಬರುವ ಅರ್ಜಿದಾರರಿಗೆ ಅಲ್ಗಾರಿದಮ್ ಒಲವು ತೋರುವ ಸಾಧ್ಯತೆಯಿದೆ.
ನೈತಿಕ AI ಗಾಗಿ ತತ್ವಗಳನ್ನು ಸ್ಥಾಪಿಸುವುದು
ವಿಧಿಸಲು ನಿಯಮಗಳ ಸೆಟ್ ಅನ್ನು ಸ್ಥಾಪಿಸುವ ಬಗ್ಗೆ ನಾವು ಯೋಚಿಸಿದ್ದೇವೆ ಕೃತಕ ಬುದ್ಧಿವಂತಿಕೆ ದಶಕಗಳಿಂದ.
1940 ರ ದಶಕದಲ್ಲಿ, ಅತ್ಯಂತ ಶಕ್ತಿಶಾಲಿ ಕಂಪ್ಯೂಟರ್ಗಳು ಅತ್ಯಂತ ವಿಶೇಷವಾದ ವೈಜ್ಞಾನಿಕ ಲೆಕ್ಕಾಚಾರಗಳನ್ನು ಮಾತ್ರ ಮಾಡಲು ಸಾಧ್ಯವಾದಾಗ, ವೈಜ್ಞಾನಿಕ ಕಾದಂಬರಿ ಬರಹಗಾರರು ಬುದ್ಧಿವಂತ ರೋಬೋಟ್ಗಳನ್ನು ನಿಯಂತ್ರಿಸುವ ಕಲ್ಪನೆಯ ಬಗ್ಗೆ ಯೋಚಿಸಿದ್ದಾರೆ.
ಐಸಾಕ್ ಅಸಿಮೊವ್ ಅವರು ರೋಬೋಟಿಕ್ಸ್ನ ಮೂರು ನಿಯಮಗಳನ್ನು ಪ್ರಸಿದ್ಧವಾಗಿ ರಚಿಸಿದರು, ಅವರು ತಮ್ಮ ಸಣ್ಣ ಕಥೆಗಳಲ್ಲಿ ರೋಬೋಟ್ಗಳ ಪ್ರೋಗ್ರಾಮಿಂಗ್ನಲ್ಲಿ ಸುರಕ್ಷತಾ ವೈಶಿಷ್ಟ್ಯವಾಗಿ ಅಳವಡಿಸಲಾಗಿದೆ ಎಂದು ಪ್ರಸ್ತಾಪಿಸಿದರು.
ಈ ಕಾನೂನುಗಳು ಭವಿಷ್ಯದ ಅನೇಕ ವೈಜ್ಞಾನಿಕ ಕಥೆಗಳಿಗೆ ಟಚ್ಸ್ಟೋನ್ ಆಗಿವೆ ಮತ್ತು AI ಯ ನೈತಿಕತೆಯ ಬಗ್ಗೆ ನಿಜವಾದ ಅಧ್ಯಯನಗಳನ್ನು ಸಹ ತಿಳಿಸಿವೆ.
ಸಮಕಾಲೀನ ಸಂಶೋಧನೆಯಲ್ಲಿ, AI ಸಂಶೋಧಕರು ನೈತಿಕ AI ಗಾಗಿ ತತ್ವಗಳ ಪಟ್ಟಿಯನ್ನು ಸ್ಥಾಪಿಸಲು ಹೆಚ್ಚು ಆಧಾರವಾಗಿರುವ ಮೂಲಗಳನ್ನು ಹುಡುಕುತ್ತಿದ್ದಾರೆ.
AI ಅಂತಿಮವಾಗಿ ಮಾನವ ಜೀವನದ ಮೇಲೆ ಪರಿಣಾಮ ಬೀರುವುದರಿಂದ, ನಾವು ಏನು ಮಾಡಬೇಕು ಮತ್ತು ಏನು ಮಾಡಬಾರದು ಎಂಬ ಮೂಲಭೂತ ತಿಳುವಳಿಕೆಯನ್ನು ನಾವು ಹೊಂದಿರಬೇಕು.
ಬೆಲ್ಮಾಂಟ್ ವರದಿ
ಉಲ್ಲೇಖದ ಅಂಶಕ್ಕಾಗಿ, ನೈತಿಕ ಸಂಶೋಧಕರು ಬೆಲ್ಮಾಂಟ್ ವರದಿಯನ್ನು ಮಾರ್ಗದರ್ಶಿಯಾಗಿ ನೋಡುತ್ತಾರೆ. ದಿ ಬೆಲ್ಮಾಂಟ್ ವರದಿ 1979 ರಲ್ಲಿ US ನ್ಯಾಷನಲ್ ಇನ್ಸ್ಟಿಟ್ಯೂಟ್ ಆಫ್ ಹೆಲ್ತ್ ಪ್ರಕಟಿಸಿದ ದಾಖಲೆಯಾಗಿದೆ. WW2 ನಲ್ಲಿ ನಡೆಸಿದ ಬಯೋಮೆಡಿಕಲ್ ದೌರ್ಜನ್ಯಗಳು ವೈದ್ಯಕೀಯ ಅಭ್ಯಾಸ ಮಾಡುವ ಸಂಶೋಧಕರಿಗೆ ನೈತಿಕ ಮಾರ್ಗಸೂಚಿಗಳನ್ನು ಕಾನೂನು ಮಾಡಲು ತಳ್ಳಲು ಕಾರಣವಾಯಿತು.
ವರದಿಯಲ್ಲಿ ಉಲ್ಲೇಖಿಸಲಾದ ಮೂರು ಮೂಲಭೂತ ತತ್ವಗಳು ಇಲ್ಲಿವೆ:
- ವ್ಯಕ್ತಿಗಳಿಗೆ ಗೌರವ
- ಪ್ರಯೋಜನ
- ನ್ಯಾಯ
ಮೊದಲ ಪ್ರಧಾನವು ಎಲ್ಲಾ ಮಾನವ ವಿಷಯಗಳ ಘನತೆ ಮತ್ತು ಸ್ವಾಯತ್ತತೆಯನ್ನು ಎತ್ತಿಹಿಡಿಯುವ ಗುರಿಯನ್ನು ಹೊಂದಿದೆ. ಉದಾಹರಣೆಗೆ, ಸಂಶೋಧಕರು ಭಾಗವಹಿಸುವವರನ್ನು ಮೋಸಗೊಳಿಸುವುದನ್ನು ಕಡಿಮೆ ಮಾಡಬೇಕು ಮತ್ತು ಪ್ರತಿಯೊಬ್ಬ ವ್ಯಕ್ತಿಯು ಅವರ ಸ್ಪಷ್ಟ ಒಪ್ಪಿಗೆಯನ್ನು ನೀಡಬೇಕಾಗುತ್ತದೆ.
ಎರಡನೆಯ ತತ್ವ, ಉಪಕಾರ, ಭಾಗವಹಿಸುವವರಿಗೆ ಸಂಭವನೀಯ ಹಾನಿಯನ್ನು ಕಡಿಮೆ ಮಾಡಲು ಸಂಶೋಧಕರ ಕರ್ತವ್ಯದ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸುತ್ತದೆ. ಈ ತತ್ವವು ಸಂಭಾವ್ಯ ಸಾಮಾಜಿಕ ಪ್ರಯೋಜನಗಳಿಗೆ ವೈಯಕ್ತಿಕ ಅಪಾಯಗಳ ಅನುಪಾತವನ್ನು ಸಮತೋಲನಗೊಳಿಸುವ ಕರ್ತವ್ಯವನ್ನು ಸಂಶೋಧಕರಿಗೆ ನೀಡುತ್ತದೆ.
ನ್ಯಾಯ, ಬೆಲ್ಮಾಂಟ್ ವರದಿಯು ರೂಪಿಸಿದ ಅಂತಿಮ ತತ್ವ, ಸಂಶೋಧನೆಯಿಂದ ಪ್ರಯೋಜನ ಪಡೆಯಬಹುದಾದ ಗುಂಪುಗಳಾದ್ಯಂತ ಅಪಾಯಗಳು ಮತ್ತು ಪ್ರಯೋಜನಗಳ ಸಮಾನ ಹಂಚಿಕೆಯ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸುತ್ತದೆ. ಸಂಶೋಧಕರು ವಿಶಾಲ ಜನಸಂಖ್ಯೆಯಿಂದ ಸಂಶೋಧನಾ ವಿಷಯಗಳನ್ನು ಆಯ್ಕೆ ಮಾಡುವ ಕರ್ತವ್ಯವನ್ನು ಹೊಂದಿರುತ್ತಾರೆ. ಹಾಗೆ ಮಾಡುವುದರಿಂದ ಸಮಾಜದ ಮೇಲೆ ನಕಾರಾತ್ಮಕ ಪರಿಣಾಮ ಬೀರುವ ವೈಯಕ್ತಿಕ ಮತ್ತು ವ್ಯವಸ್ಥಿತ ಪಕ್ಷಪಾತಗಳನ್ನು ಕಡಿಮೆ ಮಾಡುತ್ತದೆ.
AI ಸಂಶೋಧನೆಯಲ್ಲಿ ಎಥಿಕ್ಸ್ ಅನ್ನು ಇರಿಸುವುದು
ಬೆಲ್ಮಾಂಟ್ ವರದಿಯು ಪ್ರಾಥಮಿಕವಾಗಿ ಮಾನವ ವಿಷಯಗಳನ್ನು ಒಳಗೊಂಡ ಸಂಶೋಧನೆಗೆ ಗುರಿಯಾಗಿದ್ದರೂ, ತತ್ವಗಳು AI ನೀತಿಶಾಸ್ತ್ರದ ಕ್ಷೇತ್ರಕ್ಕೆ ಅನ್ವಯಿಸುವಷ್ಟು ವಿಶಾಲವಾಗಿವೆ.
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಕ್ಷೇತ್ರದಲ್ಲಿ ಬಿಗ್ ಡೇಟಾ ಅಮೂಲ್ಯವಾದ ಸಂಪನ್ಮೂಲವಾಗಿದೆ. ಸಂಶೋಧಕರು ಡೇಟಾವನ್ನು ಹೇಗೆ ಸಂಗ್ರಹಿಸುತ್ತಾರೆ ಎಂಬುದನ್ನು ನಿರ್ಧರಿಸುವ ಪ್ರಕ್ರಿಯೆಗಳು ನೈತಿಕ ಮಾರ್ಗಸೂಚಿಗಳನ್ನು ಅನುಸರಿಸಬೇಕು.
ಹೆಚ್ಚಿನ ರಾಷ್ಟ್ರಗಳಲ್ಲಿ ಡೇಟಾ ಗೌಪ್ಯತೆ ಕಾನೂನುಗಳ ಅನುಷ್ಠಾನವು ಡೇಟಾ ಕಂಪನಿಗಳು ಏನನ್ನು ಸಂಗ್ರಹಿಸಬಹುದು ಮತ್ತು ಬಳಸಬಹುದು ಎಂಬುದರ ಮೇಲೆ ಸ್ವಲ್ಪಮಟ್ಟಿಗೆ ಮಿತಿಯನ್ನು ಹಾಕುತ್ತದೆ. ಆದಾಗ್ಯೂ, ಹಾನಿಯನ್ನುಂಟುಮಾಡಲು AI ಬಳಕೆಯನ್ನು ತಡೆಗಟ್ಟಲು ಹೆಚ್ಚಿನ ರಾಷ್ಟ್ರಗಳು ಇನ್ನೂ ಮೂಲಭೂತವಾದ ಕಾನೂನುಗಳನ್ನು ಹೊಂದಿವೆ.
AI ಯೊಂದಿಗೆ ನೈತಿಕವಾಗಿ ಹೇಗೆ ಕೆಲಸ ಮಾಡುವುದು
AI ಯ ಹೆಚ್ಚು ನೈತಿಕ ಮತ್ತು ಜವಾಬ್ದಾರಿಯುತ ಬಳಕೆಯ ಕಡೆಗೆ ಕೆಲಸ ಮಾಡಲು ಸಹಾಯ ಮಾಡುವ ಕೆಲವು ಪ್ರಮುಖ ಪರಿಕಲ್ಪನೆಗಳು ಇಲ್ಲಿವೆ.
ಪಕ್ಷಪಾತ ನಿಯಂತ್ರಣ
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ಅಂತರ್ಗತವಾಗಿ ತಟಸ್ಥವಾಗಿಲ್ಲ. ಅಲ್ಗಾರಿದಮ್ಗಳು ಯಾವಾಗಲೂ ಒಳಸೇರಿಸಿದ ಪಕ್ಷಪಾತ ಮತ್ತು ತಾರತಮ್ಯಕ್ಕೆ ಒಳಗಾಗುತ್ತವೆ ಏಕೆಂದರೆ ಅದು ಕಲಿಯುವ ಡೇಟಾವು ಪಕ್ಷಪಾತವನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ.
ತಾರತಮ್ಯದ AI ಯ ಒಂದು ಸಾಮಾನ್ಯ ಉದಾಹರಣೆಯೆಂದರೆ ಮುಖದ ಗುರುತಿಸುವಿಕೆ ವ್ಯವಸ್ಥೆಗಳಲ್ಲಿ ಆಗಾಗ್ಗೆ ಕಾಣಿಸಿಕೊಳ್ಳುವ ವಿಧ. ಈ ಮಾದರಿಗಳು ಸಾಮಾನ್ಯವಾಗಿ ಬಿಳಿ ಪುರುಷ ಮುಖಗಳನ್ನು ಗುರುತಿಸುವಲ್ಲಿ ಯಶಸ್ವಿಯಾಗುತ್ತವೆ, ಆದರೆ ಗಾಢವಾದ ಚರ್ಮವನ್ನು ಹೊಂದಿರುವ ಜನರನ್ನು ಗುರುತಿಸುವಲ್ಲಿ ಕಡಿಮೆ ಯಶಸ್ವಿಯಾಗುತ್ತವೆ.
ಮತ್ತೊಂದು ಉದಾಹರಣೆ OpenAI ನ DALL-E 2 ನಲ್ಲಿ ಕಂಡುಬರುತ್ತದೆ. ಬಳಕೆದಾರರು ಹೊಂದಿದ್ದಾರೆ ಪತ್ತೆಯಾಗಿದೆ ಕೆಲವು ಅಪೇಕ್ಷೆಗಳು ಲಿಂಗ ಮತ್ತು ಜನಾಂಗೀಯ ಪಕ್ಷಪಾತಗಳನ್ನು ಪುನರುತ್ಪಾದಿಸುತ್ತವೆ, ಅದು ಮಾದರಿಯು ಅದರ ಆನ್ಲೈನ್ ಚಿತ್ರಗಳ ಡೇಟಾಸೆಟ್ನಿಂದ ಎತ್ತಿಕೊಂಡಿದೆ.
ಉದಾಹರಣೆಗೆ, ವಕೀಲರ ಚಿತ್ರಗಳಿಗೆ ಪ್ರಾಂಪ್ಟ್ ನೀಡಿದಾಗ, DALL-E 2 ಪುರುಷ ವಕೀಲರ ಚಿತ್ರಗಳನ್ನು ಹಿಂತಿರುಗಿಸುತ್ತದೆ. ಮತ್ತೊಂದೆಡೆ, ಫ್ಲೈಟ್ ಅಟೆಂಡೆಂಟ್ಗಳ ಚಿತ್ರಗಳನ್ನು ವಿನಂತಿಸುವುದು ಹೆಚ್ಚಾಗಿ ಮಹಿಳಾ ಫ್ಲೈಟ್ ಅಟೆಂಡೆಂಟ್ಗಳನ್ನು ಹಿಂದಿರುಗಿಸುತ್ತದೆ.
AI ವ್ಯವಸ್ಥೆಗಳಿಂದ ಪಕ್ಷಪಾತವನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ತೆಗೆದುಹಾಕಲು ಅಸಾಧ್ಯವಾಗಿದ್ದರೂ, ಅದರ ಪರಿಣಾಮಗಳನ್ನು ಕಡಿಮೆ ಮಾಡಲು ನಾವು ಕ್ರಮಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಬಹುದು. ಸಂಶೋಧಕರು ಮತ್ತು ಎಂಜಿನಿಯರ್ಗಳು ತರಬೇತಿ ಡೇಟಾವನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವ ಮೂಲಕ ಪಕ್ಷಪಾತದ ಹೆಚ್ಚಿನ ನಿಯಂತ್ರಣವನ್ನು ಸಾಧಿಸಬಹುದು ಮತ್ತು AI ವ್ಯವಸ್ಥೆಯು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸಬೇಕು ಎಂಬುದರ ಕುರಿತು ಇನ್ಪುಟ್ ನೀಡಲು ವೈವಿಧ್ಯಮಯ ತಂಡವನ್ನು ನೇಮಿಸಿಕೊಳ್ಳಬಹುದು.
ಮಾನವ ಕೇಂದ್ರಿತ ವಿನ್ಯಾಸ ವಿಧಾನ
ನಿಮ್ಮ ಮೆಚ್ಚಿನ ಅಪ್ಲಿಕೇಶನ್ನಲ್ಲಿರುವ ಅಲ್ಗಾರಿದಮ್ಗಳು ನಿಮ್ಮ ಮೇಲೆ ನಕಾರಾತ್ಮಕ ಪರಿಣಾಮ ಬೀರಬಹುದು.
ಫೇಸ್ಬುಕ್ ಮತ್ತು ಟಿಕ್ಟಾಕ್ನಂತಹ ಪ್ಲಾಟ್ಫಾರ್ಮ್ಗಳು ಬಳಕೆದಾರರನ್ನು ತಮ್ಮ ಪ್ಲಾಟ್ಫಾರ್ಮ್ಗಳಲ್ಲಿ ಇರಿಸಿಕೊಳ್ಳಲು ಯಾವ ವಿಷಯವನ್ನು ಪೂರೈಸಬೇಕು ಎಂಬುದನ್ನು ಕಲಿಯಲು ಸಾಧ್ಯವಾಗುತ್ತದೆ.
ಹಾನಿಯನ್ನುಂಟುಮಾಡುವ ಉದ್ದೇಶವಿಲ್ಲದೆ, ಬಳಕೆದಾರರನ್ನು ಸಾಧ್ಯವಾದಷ್ಟು ಕಾಲ ತಮ್ಮ ಅಪ್ಲಿಕೇಶನ್ಗೆ ಅಂಟಿಸುವ ಉದ್ದೇಶವು ಮಾನಸಿಕ ಆರೋಗ್ಯ ಸಮಸ್ಯೆಗಳಿಗೆ ಕಾರಣವಾಗಬಹುದು. 'ಡೂಮ್ಸ್ಕ್ರೋಲಿಂಗ್' ಎಂಬ ಪದವು ಟ್ವಿಟರ್ ಮತ್ತು ಫೇಸ್ಬುಕ್ನಂತಹ ಪ್ಲಾಟ್ಫಾರ್ಮ್ಗಳಲ್ಲಿ ನಕಾರಾತ್ಮಕ ಸುದ್ದಿಗಳನ್ನು ಓದಲು ಹೆಚ್ಚಿನ ಸಮಯವನ್ನು ಕಳೆಯುವ ಕ್ಯಾಚ್-ಆಲ್ ಪದವಾಗಿ ಜನಪ್ರಿಯತೆಯನ್ನು ಗಳಿಸಿದೆ.
ಇತರ ಸಂದರ್ಭಗಳಲ್ಲಿ, ದ್ವೇಷಪೂರಿತ ವಿಷಯ ಮತ್ತು ತಪ್ಪು ಮಾಹಿತಿಯು ವ್ಯಾಪಕವಾದ ವೇದಿಕೆಯನ್ನು ಪಡೆಯುತ್ತದೆ ಏಕೆಂದರೆ ಇದು ಬಳಕೆದಾರರ ತೊಡಗಿಸಿಕೊಳ್ಳುವಿಕೆಯನ್ನು ಹೆಚ್ಚಿಸಲು ಸಹಾಯ ಮಾಡುತ್ತದೆ. ಎ 2021 ಅಧ್ಯಯನ ನ್ಯೂ ಯಾರ್ಕ್ ವಿಶ್ವವಿದ್ಯಾನಿಲಯದ ಸಂಶೋಧಕರ ಪ್ರಕಾರ ತಪ್ಪು ಮಾಹಿತಿಗೆ ಹೆಸರಾದ ಮೂಲಗಳಿಂದ ಪೋಸ್ಟ್ಗಳು ಪ್ರತಿಷ್ಠಿತ ಸುದ್ದಿ ಮೂಲಗಳಿಗಿಂತ ಆರು ಪಟ್ಟು ಹೆಚ್ಚು ಇಷ್ಟಗಳನ್ನು ಪಡೆಯುತ್ತವೆ.
ಈ ಅಲ್ಗಾರಿದಮ್ಗಳು ಮಾನವ-ಕೇಂದ್ರಿತ ವಿನ್ಯಾಸ ವಿಧಾನದಲ್ಲಿ ಕೊರತೆಯಿದೆ. AI ಒಂದು ಕ್ರಿಯೆಯನ್ನು ಹೇಗೆ ನಿರ್ವಹಿಸುತ್ತದೆ ಎಂಬುದನ್ನು ವಿನ್ಯಾಸಗೊಳಿಸುತ್ತಿರುವ ಇಂಜಿನಿಯರ್ಗಳು ಯಾವಾಗಲೂ ಬಳಕೆದಾರರ ಅನುಭವವನ್ನು ಮನಸ್ಸಿನಲ್ಲಿಟ್ಟುಕೊಳ್ಳಬೇಕು.
ಸಂಶೋಧಕರು ಮತ್ತು ಎಂಜಿನಿಯರ್ಗಳು ಯಾವಾಗಲೂ ಪ್ರಶ್ನೆಯನ್ನು ಕೇಳಬೇಕು: 'ಇದು ಬಳಕೆದಾರರಿಗೆ ಹೇಗೆ ಪ್ರಯೋಜನವನ್ನು ನೀಡುತ್ತದೆ?'
ಹೆಚ್ಚಿನ AI ಮಾದರಿಗಳು ಕಪ್ಪು ಬಾಕ್ಸ್ ಮಾದರಿಯನ್ನು ಅನುಸರಿಸುತ್ತವೆ. ಒಳಗೆ ಕಪ್ಪು ಪೆಟ್ಟಿಗೆ ಯಂತ್ರ ಕಲಿಕೆ AI ಅನ್ನು ಉಲ್ಲೇಖಿಸುತ್ತದೆ, ಅಲ್ಲಿ AI ನಿರ್ದಿಷ್ಟ ಫಲಿತಾಂಶಕ್ಕೆ ಏಕೆ ಬಂದಿತು ಎಂಬುದನ್ನು ಯಾವುದೇ ಮಾನವ ವಿವರಿಸಲು ಸಾಧ್ಯವಿಲ್ಲ.
ಕಪ್ಪು ಪೆಟ್ಟಿಗೆಗಳು ಸಮಸ್ಯಾತ್ಮಕವಾಗಿವೆ ಏಕೆಂದರೆ ಇದು ನಾವು ಯಂತ್ರಗಳಲ್ಲಿ ಇರಿಸಬಹುದಾದ ನಂಬಿಕೆಯ ಪ್ರಮಾಣವನ್ನು ಕಡಿಮೆ ಮಾಡುತ್ತದೆ.
ಉದಾಹರಣೆಗೆ, ಅಪರಾಧಿಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಸರ್ಕಾರಗಳಿಗೆ ಸಹಾಯ ಮಾಡುವ ಅಲ್ಗಾರಿದಮ್ ಅನ್ನು ಫೇಸ್ಬುಕ್ ಬಿಡುಗಡೆ ಮಾಡಿದ ಸನ್ನಿವೇಶವನ್ನು ಊಹಿಸೋಣ. AI ಸಿಸ್ಟಮ್ ನಿಮ್ಮನ್ನು ಫ್ಲ್ಯಾಗ್ ಮಾಡಿದರೆ, ಅದು ಏಕೆ ಆ ನಿರ್ಧಾರವನ್ನು ಮಾಡಿದೆ ಎಂಬುದನ್ನು ವಿವರಿಸಲು ಯಾರಿಗೂ ಸಾಧ್ಯವಾಗುವುದಿಲ್ಲ. ಈ ರೀತಿಯ ವ್ಯವಸ್ಥೆಯು ನಿಮ್ಮನ್ನು ಬಂಧಿಸಲು ಏಕೈಕ ಕಾರಣವಾಗಿರಬಾರದು.
ವಿವರಿಸಬಹುದಾದ AI ಅಥವಾ XAI ಅಂತಿಮ ಫಲಿತಾಂಶಕ್ಕೆ ಕಾರಣವಾದ ಅಂಶಗಳ ಪಟ್ಟಿಯನ್ನು ಹಿಂತಿರುಗಿಸಬೇಕು. ನಮ್ಮ ಕಾಲ್ಪನಿಕ ಕ್ರಿಮಿನಲ್ ಟ್ರ್ಯಾಕರ್ಗೆ ಹಿಂತಿರುಗಿ, ಅನುಮಾನಾಸ್ಪದ ಭಾಷೆ ಅಥವಾ ನಿಯಮಗಳನ್ನು ತೋರಿಸುವ ಪೋಸ್ಟ್ಗಳ ಪಟ್ಟಿಯನ್ನು ಹಿಂತಿರುಗಿಸಲು ನಾವು AI ಸಿಸ್ಟಮ್ ಅನ್ನು ಟ್ವೀಕ್ ಮಾಡಬಹುದು. ಅಲ್ಲಿಂದ, ಫ್ಲ್ಯಾಗ್ ಮಾಡಿದ ಬಳಕೆದಾರರು ತನಿಖೆಗೆ ಯೋಗ್ಯರೇ ಅಥವಾ ಇಲ್ಲವೇ ಎಂಬುದನ್ನು ಮನುಷ್ಯ ಪರಿಶೀಲಿಸಬಹುದು.
XAI ಹೆಚ್ಚು ಪಾರದರ್ಶಕತೆ ಮತ್ತು AI ವ್ಯವಸ್ಥೆಗಳಲ್ಲಿ ನಂಬಿಕೆಯನ್ನು ಒದಗಿಸುತ್ತದೆ ಮತ್ತು ಉತ್ತಮ ನಿರ್ಧಾರಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಲು ಮಾನವರಿಗೆ ಸಹಾಯ ಮಾಡುತ್ತದೆ.
ತೀರ್ಮಾನ
ಎಲ್ಲಾ ಮಾನವ ನಿರ್ಮಿತ ಆವಿಷ್ಕಾರಗಳಂತೆ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ಅಂತರ್ಗತವಾಗಿ ಒಳ್ಳೆಯದು ಅಥವಾ ಕೆಟ್ಟದ್ದಲ್ಲ. ನಾವು AI ಅನ್ನು ಬಳಸುವ ವಿಧಾನವು ಮುಖ್ಯವಾಗಿದೆ.
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ವಿಶಿಷ್ಟತೆಯು ಅದರ ಬೆಳವಣಿಗೆಯ ವೇಗವಾಗಿದೆ. ಕಳೆದ ಐದು ವರ್ಷಗಳಲ್ಲಿ, ನಾವು ಪ್ರತಿದಿನ ಯಂತ್ರ ಕಲಿಕೆಯ ಕ್ಷೇತ್ರದಲ್ಲಿ ಹೊಸ ಮತ್ತು ಉತ್ತೇಜಕ ಆವಿಷ್ಕಾರಗಳನ್ನು ನೋಡಿದ್ದೇವೆ.
ಆದರೆ, ಕಾನೂನು ಅಷ್ಟು ಚುರುಕಾಗಿಲ್ಲ. ನಿಗಮಗಳು ಮತ್ತು ಸರ್ಕಾರಗಳು ಲಾಭವನ್ನು ಹೆಚ್ಚಿಸಲು ಅಥವಾ ನಾಗರಿಕರ ನಿಯಂತ್ರಣವನ್ನು ವಶಪಡಿಸಿಕೊಳ್ಳಲು AI ಅನ್ನು ಹತೋಟಿಗೆ ತರುವುದನ್ನು ಮುಂದುವರಿಸುವುದರಿಂದ, ಈ ಅಲ್ಗಾರಿದಮ್ಗಳ ಬಳಕೆಯಲ್ಲಿ ಪಾರದರ್ಶಕತೆ ಮತ್ತು ಇಕ್ವಿಟಿಗಾಗಿ ನಾವು ಮಾರ್ಗಗಳನ್ನು ಕಂಡುಕೊಳ್ಳಬೇಕು.
ನಿಜವಾದ ನೈತಿಕ AI ಸಾಧ್ಯ ಎಂದು ನೀವು ಭಾವಿಸುತ್ತೀರಾ?
ಪ್ರತ್ಯುತ್ತರ ನೀಡಿ