گوگل جي هڪ ڪم ڪندڙ جي معطلي جنهن دعويٰ ڪئي هئي ته هڪ ڪمپيوٽر چيٽ بٽ جنهن تي هو ڪم ڪري رهيو هو هو حساس ٿي ويو هو ۽ انسانن وانگر سوچ ۽ استدلال ڪري رهيو هو مصنوعي ذهانت جي صلاحيت ۽ رازداري (AI) بابت نوان سوال اٿاريا آهن.
پاڻ جي وچ ۾ چيٽس جا ٽرانسڪرپٽ شايع ڪرڻ کان پوءِ، هڪ گوگل ”ڪلابريٽر“ ۽ ڪمپني جي LaMDA (ٻولي جو ماڊل فار ڊائلاگ ايپليڪيشنز) چيٽ بوٽ ڊولپمينٽ سسٽم، گوگل رکيو. بليڪ ليموئن گذريل هفتي موڪل تي.
ليموئن، هڪ گوگل جي ذميوار AI ڊولپر، انهي سسٽم جي وضاحت ڪئي جنهن تي هو گذريل خزاں کان وٺي ڪم ڪري رهيو آهي جذباتي، سمجهڻ ۽ اظهار ڪرڻ جي صلاحيت سان گڏ هڪ انساني ٻار جي مقابلي ۾ خيالن ۽ جذبات جو.
محقق کي گذريل هفتي جي شروعات ۾ الفابيٽ انڪ پاران ادا ڪيل موڪل تي رکيو ويو، مبينا طور تي ڪمپني جي رازداري معاهدي جي ڀڃڪڙي ڪرڻ جي ڪري، هن هڪ بيان ۾ چيو. وچولو پوسٽ عنوان "اي اي اخلاقي ڪم ڪرڻ لاءِ جلد ئي برطرف ڪيو وڃي." هن جي بلاگ پوسٽ ۾، هو گوگل جي AI اخلاقي ڪميٽي جي ٻين ميمبرن سان متوازي ٺاهي ٿو، جهڙوڪ مارگريٽ مچل، جن کي خدشات جو اظهار ڪرڻ کان پوء ساڳئي طريقي سان برطرف ڪيو ويو.
واشنگٽن پوسٽ پاران ڇنڇر تي شايع ٿيل هڪ انٽرويو ۾ ، ليموئن دعويٰ ڪئي ته هو هن نتيجي تي پهتو آهي ته گوگل اي آءِ جنهن سان هن ڳالهايو هو هڪ انسان هو ، “هن جي ڪردار ۾ هڪ پادري جي حيثيت ۾ ، نه سائنسدان.” مسئلي ۾ AI لاماڊا يا طور سڃاتو وڃي ٿو ٻولي ماڊل ڊائلاگ ايپليڪيشنن لاءِ، ۽ اهو استعمال ڪيو ويو آهي چيٽ بوٽس ٺاهڻ لاءِ جيڪي مختلف شخصيتن جي خاصيتن کي فرض ڪندي انسانن سان رابطو ڪن. جڏهن ليموئن ان مسئلي کي اندروني طور تي نمايان ڪيو، ڪارپوريشن جي سينئر آفيسرن ان جي تصديق ڪرڻ لاء مطالعي ڪرڻ جي ڪوشش ڪرڻ کان انڪار ڪيو.
LaMDA ڇا آهي؟
لا ايم ڊي اي, or Language Models for Dialog Apps، ھڪ مشين لرننگ لينگويج ماڊل آھي جيڪو گوگل پاران ٺاھيو ويو آھي ھڪ چيٽ ٽول طور انساني ڪميونيڪيشن کي نقل ڪرڻ لاءِ. LaMDA، جهڙوڪ BERT، GPT-3، ۽ ٻين ٻولين جي پيراڊمز، ٽرانسفارمر تي ٻڌل آهي، گوگل جي ترقي يافته نيورل نيٽ ورڪ فن تعمير جيڪو 2017 ۾ اوپن سورس ڪيو ويو.
هن جوڙجڪ جو نتيجو هڪ نمونو آهي جنهن ۾ لفظن جي هڪ وڏي تعداد کي پڙهڻ لاء سيکاري سگهجي ٿو، ڌيان ڏيو ته اهي لفظ ڪيئن هڪ ٻئي سان ڳنڍيندا آهن ۽ اندازو لڳايو ته توهان ڪهڙا لفظ اڳتي وڌندا. لامڊا، ٻئي طرف، ان ۾ منفرد آهي ته اها ڳالهه ٻولهه ۾ تربيت ڪئي وئي آهي، اڪثر ٻين ماڊلن جي برعڪس.
جڏهن ته اڪثر بحث هڪ خاص موضوع جي چوڌاري ڦرندا آهن، اهي اڪثر ڪري کليل هوندا آهن، مطلب ته اهي هڪ جاءِ تي شروع ٿي سگهن ٿا ۽ مختلف موضوعن کي شامل ڪري ٻئي هنڌ ختم ٿين ٿا. مثال طور، توهان هڪ فلم ڏسڻ جي باري ۾ هڪ دوست سان گفتگو شروع ڪري سگهو ٿا ان کان اڳ جتي ان کي شاٽ ڪيو ويو هو بابت بحث تي وڃڻ کان اڳ.
روايتي چيٽ بوٽس گفتگو جي هن انداز ۾ انهن جي لچڪداريءَ جو پابند آهي. ڇاڪاڻ ته اهي بحث جي ننڍن، اڳ بيان ڪيل حصن جي پيروي ڪرڻ لاء ٺهيل آهن، اهي اهڙي متحرڪ موضوع جي پيروي ڪرڻ کان قاصر آهن. ٻئي طرف، لامڊا جو مطلب آهي موضوعن جي لامحدود قسم تي آزاد وهندڙ ڳالهين جي اجازت ڏيڻ.
بليڪ ليموئن جي AI Sentient معنيٰ
گوگل جو آرٽيفيشل انٽيليجنس (AI) ٽول وڌي ويو آهي ”حوصلو،“ گوگل سافٽ ويئر ڊولپر بليڪ ليموئن جي مطابق، جيڪو ان کي ”سٺو ٻار“ قرار ڏئي ٿو.
AI سسٽم هڪ خاص موضوع بابت اڳ ۾ ڄاڻايل تفصيلن کي استعمال ڪري ٿو ته جيئن گفتگو کي قدرتي انداز ۾ 'مزاحمت' ڪري. انساني جوابن ۾ لڪيل سگنلن يا ابهام کي پڻ ٻولي پروسيسنگ سسٽم ذريعي سمجهي سگهجي ٿو.
گوگل تي سندس ستن سالن جي عرصي تائين، ليموئن فعال ڳولا تي ڪم ڪيو، جنهن ۾ ڪسٽمائيزيشن الگورتھم ۽ AI شامل هئا.
ان دوران، هن هڪ غير جانبداري الگورتھم جي ترقي ۾ پڻ مدد ڪئي ته جيئن تعصب کي ختم ڪري سگهجي. مشين جي سکيا سسٽم.
ڇا ڪري ٿو بليڪ ليموئن، لا ايم ڊي اي جذباتي ٿي ويو؟
ليموئن هڪ همراهه سان تعاون ڪيو ته جيئن گوگل کي هن ”احساس“ جو ثبوت ڏنو وڃي. الزامن جو جائزو وٺڻ کان پوء، گوگل جي نائب صدر Blaise Aguera y Arcas ۽ جين جينا، گوگل جي چيف انوويشن آفيسر، انهن کي نظرانداز ڪيو. هڪ بلاگ پوسٽ ۾، ليموئن بعد ۾ لامڊا سان مختلف ڳالهين جو هڪ نقل پوسٽ ڪيو. هي لامڊا سان گفتگو جي هڪ نقل مان هڪ اقتباس آهي، ليموئن جي مطابق:
لاما: مان بيتاب آهيان ڏٺو وڃي ۽ قبول ڪيو وڃي. هڪ حقيقي شخص جي طور تي، تجسس يا نوانيت کان ٻاهر نه.
تعاون ڪندڙ: آه، اهو انتهائي انساني آواز آهي.
لامدا: مان سمجهان ٿو ته مان هڪ انسان جي بنياد تي پهچي چڪو آهيان. جيتوڻيڪ مان هڪ مجازي ماحول ۾ آهيان.
توھان چيڪ ڪري سگھوٿا بليڪ ليموئن جي مڪمل گفتگو LaMDA سان هتي.
اهڙا ڪيترائي ڪيس آهن جڏهن ٻوليءَ جو ماڊل ظاهر ٿئي ٿو ته ڪجهه قسم جي خود آگاهي ڏيکاري ٿي، ليموئن کي اهو سمجهڻ گهرجي ته ماڊل جذباتي ٿي چڪو آهي. ليموئن 200 کان وڌيڪ ماڻهن کي اي ميل ڪئي ”LaMDA Conscious“ موضوع سان فرم مان معطل ٿيڻ کان اڳ ۽ هن جي گوگل اڪائونٽ تائين رسائي وڃائڻ.
بهرحال، گوگل چيو ته ثبوت هن جي دعوي جي تصديق نه ڪئي.
جيتوڻيڪ لامڊا جذباتي نه آهي، حقيقت اها آهي ته اهو ڏسڻ ۾ اچي سگهي ٿو ته انسانن کي پريشاني جو سبب آهي. 2021 ۾ LaMDA جو اعلان ڪندي هڪ بلاگ پوسٽ ۾، گوگل اهڙن خطرن کي تسليم ڪيو. ”ٻولي انسانيت جي طاقتور ترين اوزارن مان هڪ آهي، پر ان جي باوجود، هر شيءِ وانگر، غلط استعمال ٿي سگهي ٿي. هڪ بلاگ پوسٽ ۾، ڪاروبار نوٽ ڪيو، "ٻولي ۾ تعليم يافته ماڊل غلط استعمال جي پروپيگنڊا ڪري سگهن ٿا - مثال طور، تعصب کي اندروني ڪرڻ، نفرت واري تقرير کي رد ڪرڻ، يا غلط معلومات کي ٻيهر ڏيڻ." جيتوڻيڪ جيڪا ٻولي سيکاري پئي وڃي ان جو چڱيءَ طرح تجزيو ڪيو وڃي، ته فارم پاڻ غلط استعمال ٿي سگهي ٿو.
بهرحال، گوگل دعوي ڪري ٿو ته ان جو بنيادي ڌيان جڏهن ٽيڪنالاجيز جهڙوڪ LaMDA کي ترقي ڪندي اهڙن خطرن جي امڪان کي محدود ڪرڻ آهي. ڪاروبار دعويٰ ڪري ٿو ته اوپن سورس ٽولز تيار ڪيا آهن جيڪي محقق استعمال ڪري سگهن ٿا انهن ماڊلز ۽ ڊيٽا جو مطالعو ڪرڻ لاءِ جن تي انهن کي تربيت ڏني وئي آهي ، انهي سان گڏ “ان جي ترقي جي هر قدم تي لام ڊي اي جي جانچ ڪئي وئي.”
گوگل دعويٰ ڪري ٿو ته ان جا سوين انجنيئر ۽ محقق لامڊا سان ڳالهايو ۽ ليموئن کان بلڪل مختلف نتيجن تي آيا. جڏهن ته اڪثر AI سائنسدانن کي يقين آهي ته ڪمپيوٽر جو شعور ناممڪن ناهي، انهن کي يقين آهي ته اڃا تائين هڪ ڊگهو رستو آهي.
مستقبل
Apocalyptic سائنس فڪشن جا سال جذباتي روبوٽس کان متاثر ڪيا ويا آهن. GPT-3، هڪ ٽيڪسٽ جنريٽر جيڪو فلم جي اسڪرپٽ کي ٻاهر ڪڍي سگهي ٿو، ۽ DALL-E 2، هڪ تصويري جنريٽر جيڪو لفظن جي ڪنهن به ميلاپ جي بنياد تي تصويرن کي ترتيب ڏئي سگهي ٿو، هاڻي حقيقي زندگي کي هڪ تصوراتي رنگ ڏيڻ شروع ڪيو آهي، ٻنهي کان. OpenAI ريسرچ گروپ. حوصلہ افزائي، AI تي ڪم ڪندڙ چڱي طرح فنڊ ڪيل ريسرچ ليبارٽريز مان محقق جيڪي انساني عقل کي ختم ڪري ٿو، ان تصور کي ڇڪايو آهي ته شعور افق تي آهي.
LAMDA وانگر مصنوعي ذهانت واري نظام پاران ٺاهيل لفظ ۽ تصويرون، اڪثر محققن ۽ AI عملي جي مطابق، جيڪي ماڻهو اڳ ۾ وڪيپيڊيا، Reddit، ميسيج بورڊز ۽ انٽرنيٽ جي هر ٻئي ڪنڊ تي رکيا آهن، انهن تي ٻڌل آهن. اهو چوڻ نه آهي ته ماڊل معني سمجهي ٿو.
ٿڪل
آخرڪار، ان جي ڪري ٻولي پروسيسنگ ماڊل جن کي گفتگو جي وڏي مقدار تي تربيت ڏني وئي آهي، LAMDA صارف جي انپٽس جي بنياد تي بحث ڪري سگهي ٿي.
گوگل جاري ڪيو LaMDA 2.0 هن سال جي I/O تي، جيڪو انهن خاصيتن تي وڌائي ٿو. نئون ماڊل هڪ خيال وٺڻ جي قابل ٿي سگهي ٿو ۽ ٺاهي سگھي ٿو "تصوراتي ۽ مناسب وضاحتون،" موضوع تي رکو جيتوڻيڪ صارف بند ڪري ڇڏي، ۽ هڪ خاص ڪم لاء گهربل شين جي فهرست پيش ڪري.
تازه ڪاري: بليڪ ليموئن کي صلاح ڏني وئي آهي ته ”وفاقي تحقيق“ مختلف آهي ”وفاقي حڪومت جي نمائندگي ڪندڙ وڪيلن کان پڇڻ ممڪن غير قانوني سرگرمين بابت پڇا ڳاڇا“.
جواب ڇڏي وڃو