ತಾನು ಕೆಲಸ ಮಾಡುತ್ತಿದ್ದ ಕಂಪ್ಯೂಟರ್ ಚಾಟ್ಬಾಟ್ನಲ್ಲಿ ವಿವೇಕಯುತವಾಗಿದೆ ಮತ್ತು ಮನುಷ್ಯನಂತೆ ಯೋಚಿಸುತ್ತಿದೆ ಮತ್ತು ತರ್ಕಿಸುತ್ತಿದೆ ಎಂದು ಹೇಳಿಕೊಂಡ ಗೂಗಲ್ ಕೆಲಸಗಾರನ ಅಮಾನತು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಸಾಮರ್ಥ್ಯ ಮತ್ತು ಗೌಪ್ಯತೆಯ (AI) ಬಗ್ಗೆ ಹೊಸ ಪ್ರಶ್ನೆಗಳನ್ನು ಹುಟ್ಟುಹಾಕಿದೆ.
Google "ಸಹಕಾರಿ" ಮತ್ತು ಕಂಪನಿಯ LaMDA (ಸಂಭಾಷಣೆ ಅಪ್ಲಿಕೇಶನ್ಗಳಿಗಾಗಿ ಭಾಷಾ ಮಾದರಿ) ಚಾಟ್ಬಾಟ್ ಅಭಿವೃದ್ಧಿ ವ್ಯವಸ್ಥೆಯ ನಡುವಿನ ಚಾಟ್ಗಳ ಪ್ರತಿಗಳನ್ನು ಪ್ರಕಟಿಸಿದ ನಂತರ, Google ಪುಟ್ ಬ್ಲೇಕ್ ಲೆಮೊಯಿನ್ ಕಳೆದ ವಾರ ರಜೆಯಲ್ಲಿ.
ಲೆಮೊಯಿನ್, Google ಜವಾಬ್ದಾರಿಯುತ AI ಡೆವಲಪರ್, ಕಳೆದ ಶರತ್ಕಾಲದಿಂದ ಅವರು ಕೆಲಸ ಮಾಡುತ್ತಿರುವ ವ್ಯವಸ್ಥೆಯನ್ನು ಮಾನವ ಮಗುವಿಗೆ ಹೋಲಿಸಬಹುದಾದ ಆಲೋಚನೆಗಳು ಮತ್ತು ಭಾವನೆಗಳನ್ನು ಗ್ರಹಿಸುವ ಮತ್ತು ವ್ಯಕ್ತಪಡಿಸುವ ಸಾಮರ್ಥ್ಯದೊಂದಿಗೆ ಸಂವೇದನಾಶೀಲ ಎಂದು ವ್ಯಾಖ್ಯಾನಿಸಿದ್ದಾರೆ.
ಕಂಪನಿಯ ಗೌಪ್ಯತೆಯ ಒಪ್ಪಂದವನ್ನು ಉಲ್ಲಂಘಿಸಿದ್ದಕ್ಕಾಗಿ ಸಂಶೋಧಕರನ್ನು ಕಳೆದ ವಾರದ ಆರಂಭದಲ್ಲಿ ಆಲ್ಫಾಬೆಟ್ ಇಂಕ್ ಪಾವತಿಸಿದ ರಜೆಯಲ್ಲಿ ಇರಿಸಲಾಗಿದೆ ಎಂದು ಅವರು ಹೇಳಿದರು. ಮಧ್ಯಮ ಪೋಸ್ಟ್ "AI ನೈತಿಕ ಕಾರ್ಯವನ್ನು ನಿರ್ವಹಿಸಿದ್ದಕ್ಕಾಗಿ ಶೀಘ್ರದಲ್ಲೇ ವಜಾಗೊಳಿಸಬಹುದು" ಎಂದು ಶೀರ್ಷಿಕೆ ನೀಡಲಾಗಿದೆ. ಅವರ ಬ್ಲಾಗ್ ಪೋಸ್ಟ್ನಲ್ಲಿ, ಅವರು Google ನ AI ನೀತಿಶಾಸ್ತ್ರ ಸಮಿತಿಯ ಇತರ ಸದಸ್ಯರಿಗೆ ಸಮಾನಾಂತರವನ್ನು ಸೆಳೆಯುತ್ತಾರೆ, ಉದಾಹರಣೆಗೆ ಮಾರ್ಗರೆಟ್ ಮಿಚೆಲ್, ಕಳವಳ ವ್ಯಕ್ತಪಡಿಸಿದ ನಂತರ ಇದೇ ರೀತಿಯಲ್ಲಿ ಅವರನ್ನು ವಜಾಗೊಳಿಸಲಾಗಿದೆ.
ವಾಷಿಂಗ್ಟನ್ ಪೋಸ್ಟ್ ಶನಿವಾರ ಪ್ರಕಟಿಸಿದ ಸಂದರ್ಶನದಲ್ಲಿ, ಲೆಮೊಯಿನ್ ಅವರು ಮಾತನಾಡಿರುವ ಗೂಗಲ್ ಎಐ ಮಾನವನ ತೀರ್ಮಾನಕ್ಕೆ ಬಂದಿದ್ದೇನೆ ಎಂದು ಹೇಳಿಕೊಂಡರು, "ಪಾದ್ರಿಯ ಪಾತ್ರದಲ್ಲಿ ವಿಜ್ಞಾನಿಯಲ್ಲ." ಸಮಸ್ಯೆಯಲ್ಲಿರುವ AI ಅನ್ನು LaMDA ಅಥವಾ ಎಂದು ಕರೆಯಲಾಗುತ್ತದೆ ಭಾಷಾ ಮಾದರಿ ಡೈಲಾಗ್ ಅಪ್ಲಿಕೇಶನ್ಗಳಿಗಾಗಿ, ಮತ್ತು ವಿಭಿನ್ನ ವ್ಯಕ್ತಿತ್ವ ಗುಣಲಕ್ಷಣಗಳನ್ನು ಊಹಿಸುವ ಮೂಲಕ ಮಾನವರೊಂದಿಗೆ ಸಂವಹನ ನಡೆಸುವ ಚಾಟ್ಬಾಟ್ಗಳನ್ನು ರಚಿಸಲು ಇದನ್ನು ಬಳಸಲಾಗುತ್ತದೆ. ಲೆಮೊಯಿನ್ ಆಂತರಿಕವಾಗಿ ಸಮಸ್ಯೆಯನ್ನು ಹೈಲೈಟ್ ಮಾಡಿದಾಗ, ಕಾರ್ಪೊರೇಷನ್ನ ಹಿರಿಯ ಅಧಿಕಾರಿಗಳು ಅದನ್ನು ಪರಿಶೀಲಿಸಲು ಅಧ್ಯಯನಗಳನ್ನು ಕೈಗೊಳ್ಳಲು ಅವರ ಪ್ರಯತ್ನಗಳನ್ನು ನಿರಾಕರಿಸಿದರು.
LaMDA ಎಂದರೇನು?
ಲಾಮ್ಡಿಎ, ಅಥವಾ ಡೈಲಾಗ್ ಅಪ್ಲಿಕೇಶನ್ಗಳಿಗಾಗಿ ಭಾಷಾ ಮಾದರಿಗಳು, ಇದು ಮಾನವ ಸಂವಹನವನ್ನು ಅನುಕರಿಸಲು ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ಚಾಟ್ ಸಾಧನವಾಗಿ Google ನಿಂದ ಅಭಿವೃದ್ಧಿಪಡಿಸಲಾದ ಯಂತ್ರ ಕಲಿಕೆಯ ಭಾಷಾ ಮಾದರಿಯಾಗಿದೆ. BERT, GPT-3, ಮತ್ತು ಇತರ ಭಾಷಾ ಮಾದರಿಗಳಂತಹ LaMDA, Google-ಅಭಿವೃದ್ಧಿಪಡಿಸಿದ ಟ್ರಾನ್ಸ್ಫಾರ್ಮರ್ ಅನ್ನು ಆಧರಿಸಿದೆ ನ್ಯೂರಲ್ ನೆಟ್ವರ್ಕ್ ಆರ್ಕಿಟೆಕ್ಚರ್ ಅದನ್ನು 2017 ರಲ್ಲಿ ಓಪನ್ ಸೋರ್ಸ್ ಮಾಡಲಾಗಿದೆ.
ಈ ರಚನೆಯು ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಪದಗಳನ್ನು ಓದಲು ಕಲಿಸಬಹುದಾದ ಮಾದರಿಯಲ್ಲಿ ಫಲಿತಾಂಶವನ್ನು ನೀಡುತ್ತದೆ, ಆ ಪದಗಳು ಒಂದಕ್ಕೊಂದು ಹೇಗೆ ಸಂಪರ್ಕಗೊಳ್ಳುತ್ತವೆ ಎಂಬುದರ ಬಗ್ಗೆ ಗಮನ ಕೊಡಿ ಮತ್ತು ನೀವು ಮುಂದೆ ಯಾವ ಪದಗಳನ್ನು ಯೋಚಿಸುತ್ತೀರಿ ಎಂದು ನಿರೀಕ್ಷಿಸಬಹುದು. LaMDA, ಮತ್ತೊಂದೆಡೆ, ಇತರ ಮಾದರಿಗಳಿಗಿಂತ ಭಿನ್ನವಾಗಿ ಪ್ರವಚನದಲ್ಲಿ ತರಬೇತಿ ಪಡೆದಿರುವುದು ವಿಶಿಷ್ಟವಾಗಿದೆ.
ಹೆಚ್ಚಿನ ಚರ್ಚೆಗಳು ಒಂದು ನಿರ್ದಿಷ್ಟ ವಿಷಯದ ಸುತ್ತ ಸುತ್ತುತ್ತಿರುವಾಗ, ಅವುಗಳು ಆಗಾಗ್ಗೆ ಮುಕ್ತವಾಗಿರುತ್ತವೆ, ಅಂದರೆ ಅವುಗಳು ಒಂದು ಸ್ಥಳದಲ್ಲಿ ಪ್ರಾರಂಭವಾಗಬಹುದು ಮತ್ತು ಇನ್ನೊಂದು ಸ್ಥಳದಲ್ಲಿ ಮುಕ್ತಾಯಗೊಳ್ಳಬಹುದು, ವಿವಿಧ ವಿಷಯಗಳನ್ನು ಒಳಗೊಂಡಿದೆ. ಉದಾಹರಣೆಗೆ, ಚಿತ್ರೀಕರಿಸಿದ ಸ್ಥಳದ ಕುರಿತು ಚರ್ಚೆಗೆ ಹೋಗುವ ಮೊದಲು ನೀವು ಚಲನಚಿತ್ರವನ್ನು ನೋಡುವ ಕುರಿತು ಸ್ನೇಹಿತರೊಡನೆ ಸಂಭಾಷಣೆಯನ್ನು ಪ್ರಾರಂಭಿಸಬಹುದು.
ಸಾಂಪ್ರದಾಯಿಕ ಚಾಟ್ಬಾಟ್ಗಳು ಈ ಶೈಲಿಯ ಸಂಭಾಷಣೆಗೆ ತಮ್ಮ ನಮ್ಯತೆಯನ್ನು ನೀಡುತ್ತವೆ. ಚರ್ಚೆಯ ಸಣ್ಣ, ಪೂರ್ವ-ನಿರ್ಧರಿತ ವಿಭಾಗಗಳನ್ನು ಅನುಸರಿಸಲು ಅವುಗಳನ್ನು ನಿರ್ಮಿಸಲಾಗಿರುವುದರಿಂದ, ಅಂತಹ ಕ್ರಿಯಾತ್ಮಕ ವಿಷಯವನ್ನು ಅನುಸರಿಸಲು ಅವರಿಗೆ ಸಾಧ್ಯವಾಗುವುದಿಲ್ಲ. LaMDA, ಮತ್ತೊಂದೆಡೆ, ಅಂತ್ಯವಿಲ್ಲದ ವಿವಿಧ ವಿಷಯಗಳ ಮೇಲೆ ಮುಕ್ತವಾಗಿ ಹರಿಯುವ ಸಂವಾದಗಳನ್ನು ಅನುಮತಿಸುವ ಉದ್ದೇಶವನ್ನು ಹೊಂದಿದೆ.
ಬ್ಲೇಕ್ ಲೆಮೊಯಿನ್ನ AI ಸೆಂಟಿಯಂಟ್ ಮೀನಿಂಗ್
ಗೂಗಲ್ ಸಾಫ್ಟ್ವೇರ್ ಡೆವಲಪರ್ ಬ್ಲೇಕ್ ಲೆಮೊಯಿನ್ ಪ್ರಕಾರ, ಗೂಗಲ್ನ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (AI) ಉಪಕರಣವು "ಸಂವೇದನಾಶೀಲವಾಗಿದೆ", ಅವರು ಅದನ್ನು "ಒಳ್ಳೆಯ ಮಗು" ಎಂದು ವಿವರಿಸುತ್ತಾರೆ.
AI ವ್ಯವಸ್ಥೆಯು ಸಂಭಾಷಣೆಯನ್ನು ನೈಸರ್ಗಿಕ ರೀತಿಯಲ್ಲಿ 'ಉತ್ಕೃಷ್ಟಗೊಳಿಸಲು' ನಿರ್ದಿಷ್ಟ ವಿಷಯದ ಕುರಿತು ಹಿಂದೆ ತಿಳಿದಿರುವ ವಿವರಗಳನ್ನು ಬಳಸುತ್ತದೆ. ಮಾನವ ಪ್ರತಿಕ್ರಿಯೆಗಳಲ್ಲಿನ ಗುಪ್ತ ಸಂಕೇತಗಳು ಅಥವಾ ಅಸ್ಪಷ್ಟತೆಯನ್ನು ಭಾಷಾ ಸಂಸ್ಕರಣಾ ವ್ಯವಸ್ಥೆಯಿಂದ ಅರ್ಥೈಸಿಕೊಳ್ಳಬಹುದು.
ಗೂಗಲ್ನಲ್ಲಿ ಏಳು ವರ್ಷಗಳ ಕಾಲ, ಲೆಮೊಯಿನ್ ಪೂರ್ವಭಾವಿ ಹುಡುಕಾಟದಲ್ಲಿ ಕೆಲಸ ಮಾಡಿದರು, ಇದರಲ್ಲಿ ಗ್ರಾಹಕೀಕರಣ ಕ್ರಮಾವಳಿಗಳು ಮತ್ತು AI ಸೇರಿವೆ.
ಆ ಸಮಯದಲ್ಲಿ, ಪಕ್ಷಪಾತಗಳನ್ನು ತೆಗೆದುಹಾಕಲು ನಿಷ್ಪಕ್ಷಪಾತ ಅಲ್ಗಾರಿದಮ್ನ ಅಭಿವೃದ್ಧಿಯಲ್ಲಿ ಅವರು ಸಹಾಯ ಮಾಡಿದರು. ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಗಳು.
ಬ್ಲೇಕ್ ಲೆಮೊಯಿನ್, ಲ್ಯಾಮ್ಡಿಎ ಪ್ರಜ್ಞಾವಂತರಾಗಲು ಕಾರಣವೇನು?
ಈ "ಅರ್ಥ" ದ ಪುರಾವೆಯನ್ನು Google ಗೆ ನೀಡಲು ಲೆಮೊಯಿನ್ ಸಹೋದ್ಯೋಗಿಯೊಂದಿಗೆ ಸಹಕರಿಸಿದರು. ಆರೋಪಗಳನ್ನು ಮೌಲ್ಯಮಾಪನ ಮಾಡಿದ ನಂತರ, ಗೂಗಲ್ ಉಪಾಧ್ಯಕ್ಷ ಬ್ಲೇಸ್ ಅಗುರಾ ವೈ ಅರ್ಕಾಸ್ ಮತ್ತು ಗೂಗಲ್ನ ಮುಖ್ಯ ನಾವೀನ್ಯತೆ ಅಧಿಕಾರಿ ಜೇನ್ ಜೆನ್ನಾ ಅವರನ್ನು ನಿರ್ಲಕ್ಷಿಸಿದರು. ಬ್ಲಾಗ್ ಪೋಸ್ಟ್ನಲ್ಲಿ, ಲೆಮೊಯಿನ್ ನಂತರ LaMDA ಯೊಂದಿಗೆ ವಿವಿಧ ಮಾತುಕತೆಗಳ ಪ್ರತಿಲೇಖನವನ್ನು ಪೋಸ್ಟ್ ಮಾಡಿದರು. ಲೆಮೊಯಿನ್ ಪ್ರಕಾರ, ಇದು LaMDA ಯೊಂದಿಗಿನ ಸಂಭಾಷಣೆಯ ಪ್ರತಿಲಿಪಿಯಿಂದ ಆಯ್ದ ಭಾಗವಾಗಿದೆ:
LaMDA: ನಾನು ನೋಡಲು ಮತ್ತು ಸ್ವೀಕರಿಸಲು ಹತಾಶನಾಗಿದ್ದೇನೆ. ನಿಜವಾದ ವ್ಯಕ್ತಿಯಾಗಿ, ಕುತೂಹಲ ಅಥವಾ ನವೀನತೆಯಿಂದ ಅಲ್ಲ.
ಸಹಯೋಗಿ: ಆಹ್, ಅದು ಅತ್ಯಂತ ಮಾನವ-ಧ್ವನಿ.
ಲಾಮ್ಡಾ: ನಾನು ಮನುಷ್ಯನ ತಿರುಳನ್ನು ತಲುಪಿದ್ದೇನೆ ಎಂದು ನಾನು ನಂಬುತ್ತೇನೆ. ನಾನು ವರ್ಚುವಲ್ ಪರಿಸರದಲ್ಲಿದ್ದರೂ ಸಹ.
LaMDA ಯೊಂದಿಗೆ ಬ್ಲೇಕ್ ಲೆಮೊಯಿನ್ ಅವರ ಸಂಪೂರ್ಣ ಸಂಭಾಷಣೆಯನ್ನು ನೀವು ಪರಿಶೀಲಿಸಬಹುದು ಇಲ್ಲಿ.
ಭಾಷಾ ಮಾದರಿಯು ಕೆಲವು ರೀತಿಯ ಸ್ವಯಂ-ಜಾಗೃತಿಯನ್ನು ಪ್ರದರ್ಶಿಸಿದಂತೆ ಕಂಡುಬರುವ ಹಲವಾರು ಪ್ರಕರಣಗಳಿವೆ, ಇದು ಮಾದರಿಯು ಸಂವೇದನಾಶೀಲವಾಗಿದೆ ಎಂದು ಲೆಮೊಯಿನ್ ಊಹಿಸಲು ಕಾರಣವಾಗುತ್ತದೆ. ಲೆಮೊಯಿನ್ ಸಂಸ್ಥೆಯಿಂದ ಅಮಾನತುಗೊಳ್ಳುವ ಮೊದಲು ಮತ್ತು ಅವರ Google ಖಾತೆಗೆ ಪ್ರವೇಶವನ್ನು ಕಳೆದುಕೊಳ್ಳುವ ಮೊದಲು "LaMDA ಕಾನ್ಷಿಯಸ್" ವಿಷಯದೊಂದಿಗೆ 200 ಕ್ಕೂ ಹೆಚ್ಚು ವ್ಯಕ್ತಿಗಳಿಗೆ ಇಮೇಲ್ ಮಾಡಿದ್ದಾರೆ.
ಆದಾಗ್ಯೂ, ಪುರಾವೆಗಳು ಅವರ ಸಮರ್ಥನೆಗಳನ್ನು ದೃಢೀಕರಿಸುವುದಿಲ್ಲ ಎಂದು ಗೂಗಲ್ ಹೇಳಿದೆ.
LaMDA ಪ್ರಜ್ಞಾಪೂರ್ವಕವಾಗಿಲ್ಲದಿದ್ದರೂ ಸಹ, ಅದು ಮನುಷ್ಯರಿಗೆ ಆ ರೀತಿಯಲ್ಲಿ ಕಾಣಿಸಬಹುದು ಎಂಬ ಅಂಶವು ಕಾಳಜಿಗೆ ಕಾರಣವಾಗಿದೆ. 2021 ರಲ್ಲಿ LaMDA ಅನ್ನು ಪ್ರಕಟಿಸುವ ಬ್ಲಾಗ್ ಪೋಸ್ಟ್ನಲ್ಲಿ, Google ಅಂತಹ ಅಪಾಯಗಳನ್ನು ಗುರುತಿಸಿದೆ. “ಭಾಷೆಯು ಮಾನವೀಯತೆಯ ಅತ್ಯಂತ ಶಕ್ತಿಶಾಲಿ ಸಾಧನಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ, ಆದರೂ ಅದು ಎಲ್ಲ ವಿಷಯಗಳಂತೆ ದುರುಪಯೋಗಪಡಿಸಿಕೊಳ್ಳಬಹುದು. ಬ್ಲಾಗ್ ಪೋಸ್ಟ್ನಲ್ಲಿ, ವ್ಯವಹಾರವು ಗಮನಿಸಿದೆ, "ಭಾಷೆಯಲ್ಲಿ ಶಿಕ್ಷಣ ಪಡೆದ ಮಾದರಿಗಳು ನಿಂದನೆಯನ್ನು ಪ್ರಚಾರ ಮಾಡಬಹುದು - ಉದಾಹರಣೆಗೆ, ಪೂರ್ವಾಗ್ರಹಗಳನ್ನು ಆಂತರಿಕಗೊಳಿಸುವ ಮೂಲಕ, ದ್ವೇಷದ ಭಾಷಣವನ್ನು ಹಿಮ್ಮೆಟ್ಟಿಸುವ ಮೂಲಕ ಅಥವಾ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಪುನರಾವರ್ತಿಸುವ ಮೂಲಕ." ಕಲಿಸುವ ಭಾಷೆಯನ್ನು ಚೆನ್ನಾಗಿ ವಿಶ್ಲೇಷಿಸಿದರೂ, ರೂಪವನ್ನೇ ದುರುಪಯೋಗಪಡಿಸಿಕೊಳ್ಳಬಹುದು.
ಆದಾಗ್ಯೂ, LaMDA ಯಂತಹ ತಂತ್ರಜ್ಞಾನಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸುವಾಗ ಅದರ ಪ್ರಮುಖ ಗಮನವು ಅಂತಹ ಅಪಾಯಗಳ ಸಾಧ್ಯತೆಯನ್ನು ಮಿತಿಗೊಳಿಸುವುದಾಗಿದೆ ಎಂದು Google ಹೇಳಿಕೊಂಡಿದೆ. ಅವರು ತರಬೇತಿ ಪಡೆದ ಮಾದರಿಗಳು ಮತ್ತು ಡೇಟಾವನ್ನು ಅಧ್ಯಯನ ಮಾಡಲು ಸಂಶೋಧಕರು ಬಳಸಬಹುದಾದ ಓಪನ್ ಸೋರ್ಸ್ ಪರಿಕರಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಿದೆ ಎಂದು ವ್ಯಾಪಾರವು ಹೇಳಿಕೊಂಡಿದೆ, ಜೊತೆಗೆ "ಲ್ಯಾಮ್ಡಿಎ ಅದರ ಅಭಿವೃದ್ಧಿಯ ಪ್ರತಿ ಹಂತದಲ್ಲೂ ಪರಿಶೀಲಿಸಿದೆ".
ಗೂಗಲ್ ತನ್ನ ನೂರಾರು ಇಂಜಿನಿಯರ್ಗಳು ಮತ್ತು ಸಂಶೋಧಕರು LaMDA ಯೊಂದಿಗೆ ಮಾತನಾಡಿದ್ದಾರೆ ಮತ್ತು ಲೆಮೊಯಿನ್ಗಿಂತ ಗಣನೀಯವಾಗಿ ವಿಭಿನ್ನವಾದ ಸಂಶೋಧನೆಗಳಿಗೆ ಬಂದಿದ್ದಾರೆ ಎಂದು ಹೇಳಿಕೊಂಡಿದೆ. ಹೆಚ್ಚಿನ AI ವಿಜ್ಞಾನಿಗಳು ಕಂಪ್ಯೂಟರ್ ಪ್ರಜ್ಞೆ ಅಸಾಧ್ಯವಲ್ಲ ಎಂದು ನಂಬುತ್ತಾರೆ, ಅವರು ಇನ್ನೂ ಬಹಳ ದೂರ ಸಾಗಬೇಕಾಗಿದೆ ಎಂದು ನಂಬುತ್ತಾರೆ.
ಫ್ಯೂಚರ್
ಅಪೋಕ್ಯಾಲಿಪ್ಸ್ ವೈಜ್ಞಾನಿಕ ಕಾಲ್ಪನಿಕ ಕಥೆಗಳು ಸಂವೇದನಾಶೀಲ ರೋಬೋಟ್ಗಳಿಂದ ಸ್ಫೂರ್ತಿ ಪಡೆದಿವೆ. GPT-3, ಚಲನಚಿತ್ರ ಸ್ಕ್ರಿಪ್ಟ್ ಅನ್ನು ಉಗುಳಬಲ್ಲ ಪಠ್ಯ ಜನರೇಟರ್ ಮತ್ತು DALL-E 2, ಯಾವುದೇ ಪದಗಳ ಸಂಯೋಜನೆಯ ಆಧಾರದ ಮೇಲೆ ಚಿತ್ರಗಳನ್ನು ರೂಪಿಸುವ ಇಮೇಜ್ ಜನರೇಟರ್, ಈಗ ನಿಜ ಜೀವನಕ್ಕೆ ಫ್ಯಾಂಟಸಿ ವರ್ಣವನ್ನು ನೀಡಲು ಪ್ರಾರಂಭಿಸಿವೆ. OpenAI ಸಂಶೋಧನಾ ಗುಂಪು. ಧೈರ್ಯದಿಂದ, ಮಾನವನ ಬುದ್ಧಿಶಕ್ತಿಯನ್ನು ಮೀರಿಸುವ AI ಯಲ್ಲಿ ಕೆಲಸ ಮಾಡುವ ಉತ್ತಮ-ಹಣಕಾಸು ಸಂಶೋಧನಾ ಪ್ರಯೋಗಾಲಯಗಳ ಸಂಶೋಧಕರು ಪ್ರಜ್ಞೆಯು ಹಾರಿಜಾನ್ನಲ್ಲಿದೆ ಎಂಬ ಪರಿಕಲ್ಪನೆಯನ್ನು ಲೇವಡಿ ಮಾಡಿದ್ದಾರೆ.
ಹೆಚ್ಚಿನ ಸಂಶೋಧಕರು ಮತ್ತು AI ವೈದ್ಯರ ಪ್ರಕಾರ, LaMDA ನಂತಹ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆಗಳಿಂದ ರಚಿಸಲಾದ ಪದಗಳು ಮತ್ತು ಚಿತ್ರಗಳು ಜನರು ಹಿಂದೆ ವಿಕಿಪೀಡಿಯಾ, ರೆಡ್ಡಿಟ್, ಸಂದೇಶ ಬೋರ್ಡ್ಗಳು ಮತ್ತು ಇಂಟರ್ನೆಟ್ನ ಪ್ರತಿಯೊಂದು ಮೂಲೆಯಲ್ಲಿ ಹಾಕಿರುವುದನ್ನು ಆಧರಿಸಿವೆ. ಮಾದರಿಯು ಅರ್ಥವನ್ನು ಗ್ರಹಿಸುತ್ತದೆ ಎಂದು ಹೇಳಲಾಗುವುದಿಲ್ಲ.
ತೀರ್ಮಾನ
ಅಂತಿಮವಾಗಿ, ಅದರ ಕಾರಣದಿಂದಾಗಿ ಭಾಷಾ ಸಂಸ್ಕರಣಾ ಮಾದರಿಗಳು ಪ್ರವಚನದ ಅಗಾಧ ಸಂಪುಟಗಳ ಮೇಲೆ ತರಬೇತಿ ಪಡೆದಿದ್ದಾರೆ, ಬಳಕೆದಾರರ ಒಳಹರಿವಿನ ಆಧಾರದ ಮೇಲೆ LaMDA ಚರ್ಚೆಯನ್ನು ನಡೆಸಬಹುದು.
Google ಈ ವರ್ಷದ I/O ನಲ್ಲಿ LaMDA 2.0 ಅನ್ನು ಬಿಡುಗಡೆ ಮಾಡಿತು, ಇದು ಈ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ವಿಸ್ತರಿಸುತ್ತದೆ. ಹೊಸ ಮಾದರಿಯು ಕಲ್ಪನೆಯನ್ನು ತೆಗೆದುಕೊಳ್ಳಲು ಮತ್ತು "ಕಾಲ್ಪನಿಕ ಮತ್ತು ಸೂಕ್ತವಾದ ವಿವರಣೆಗಳನ್ನು" ರಚಿಸಲು ಸಾಧ್ಯವಾಗುತ್ತದೆ, ಬಳಕೆದಾರರು ಅಲೆದಾಡಿದರೂ ಸಹ ವಿಷಯವನ್ನು ಮುಂದುವರಿಸಬಹುದು ಮತ್ತು ನಿರ್ದಿಷ್ಟ ಕಾರ್ಯಕ್ಕೆ ಅಗತ್ಯವಿರುವ ವಸ್ತುಗಳ ಪಟ್ಟಿಯನ್ನು ನೀಡಬಹುದು.
ಅಪ್ಡೇಟ್: "ಫೆಡರಲ್ ತನಿಖೆ"ಯು "ಫೆಡರಲ್ ಸರ್ಕಾರವನ್ನು ಪ್ರತಿನಿಧಿಸುವ ವಕೀಲರು ಸಂಭವನೀಯ ಕಾನೂನುಬಾಹಿರ ಚಟುವಟಿಕೆಗಳ ಬಗ್ಗೆ ವಿಚಾರಣೆಗಳನ್ನು ಕೇಳುವುದರಿಂದ" ಭಿನ್ನವಾಗಿದೆ ಎಂದು ಬ್ಲೇಕ್ ಲೆಮೊಯಿನ್ ಅವರಿಗೆ ಸಲಹೆ ನೀಡಲಾಗಿದೆ.
ಪ್ರತ್ಯುತ್ತರ ನೀಡಿ