گوگل کے ایک کارکن کی معطلی جس نے دعویٰ کیا تھا کہ ایک کمپیوٹر چیٹ بوٹ جس پر وہ کام کر رہا تھا وہ حساس ہو گیا تھا اور وہ انسان کی طرح سوچ اور استدلال کر رہا تھا، اس نے مصنوعی ذہانت کی صلاحیت اور رازداری (AI) کے بارے میں نئے سوالات کو جنم دیا ہے۔
اپنے درمیان چیٹس کی ٹرانسکرپٹس شائع کرنے کے بعد، گوگل کے ایک "معاون" اور کمپنی کے LaMDA (ڈائیلاگ ایپلی کیشنز کے لیے زبان کا ماڈل) چیٹ بوٹ ڈیولپمنٹ سسٹم، گوگل بلیک لیموئن گزشتہ ہفتے چھٹی پر
Google کے ایک ذمہ دار AI ڈویلپر، Lemoine نے اس نظام کی وضاحت کی جس پر وہ گزشتہ موسم خزاں سے کام کر رہا ہے، جس میں انسانی بچے کے مقابلے خیالات اور احساسات کو سمجھنے اور اظہار کرنے کی صلاحیت ہے۔
محقق کو الفابیٹ انکارپوریشن نے گزشتہ ہفتے کے اوائل میں تنخواہ کی چھٹی پر رکھا تھا، مبینہ طور پر کمپنی کے رازداری کے معاہدے کی خلاف ورزی کرنے پر، اس نے ایک بیان میں کہا۔ درمیانہ پوسٹ سرخی کے ساتھ "AI اخلاقی کام انجام دینے پر جلد ہی برطرف کیا جا سکتا ہے۔" اپنی بلاگ پوسٹ میں، وہ گوگل کی AI اخلاقیات کمیٹی کے دیگر ممبران جیسا کہ مارگریٹ مچل کے ساتھ متوازی ہے، جنہیں خدشات کا اظہار کرنے کے بعد اسی طرح سے نکال دیا گیا تھا۔
ہفتے کے روز واشنگٹن پوسٹ کے ذریعہ شائع ہونے والے ایک انٹرویو میں، لیموئن نے دعویٰ کیا کہ وہ اس نتیجے پر پہنچے ہیں کہ جس گوگل اے آئی کے ساتھ انہوں نے بات کی وہ ایک انسان تھا، "ان کے کردار میں ایک پادری کے طور پر، سائنس دان کے نہیں۔" ایشو میں موجود AI کو LaMDA یا کے نام سے جانا جاتا ہے۔ زبان کا ماڈل ڈائیلاگ ایپلی کیشنز کے لیے، اور اس کا استعمال ایسے چیٹ بوٹس بنانے کے لیے کیا جاتا ہے جو مختلف شخصیت کے خصائص کو مان کر انسانوں کے ساتھ بات چیت کرتے ہیں۔ جب لیموئن نے اندرونی طور پر اس مسئلے کو اجاگر کیا، تو کارپوریشن کے سینئر حکام نے اس کی تصدیق کے لیے مطالعہ کرنے کی کوششوں سے انکار کر دیا۔
LaMDA کیا ہے؟
لا ایم ڈی اے، یا ڈائیلاگ ایپس کے لیے لینگویج ماڈلز، ایک مشین لرننگ لینگویج ماڈل ہے جسے گوگل نے ایک چیٹ ٹول کے طور پر تیار کیا ہے جسے انسانی کمیونیکیشن کی نقل کرنے کے لیے ڈیزائن کیا گیا ہے۔ LaMDA، جیسے BERT، GPT-3، اور دیگر زبانوں کے پیراڈائمز، ٹرانسفارمر پر مبنی ہے، جو گوگل کے تیار کردہ عصبی نیٹ ورک فن تعمیر جسے 2017 میں اوپن سورس بنایا گیا تھا۔
اس ڈھانچے کے نتیجے میں ایک ماڈل بنتا ہے جس میں الفاظ کی ایک بڑی تعداد کو پڑھنا سکھایا جا سکتا ہے، اس بات پر دھیان دیں کہ وہ الفاظ ایک دوسرے سے کیسے جڑے ہوئے ہیں اور اندازہ لگائیں گے کہ آپ کن الفاظ کے بارے میں سوچیں گے۔ دوسری طرف LAMDA اس لحاظ سے منفرد ہے کہ اسے دوسرے ماڈلز کے برعکس گفتگو میں تربیت دی جاتی ہے۔
جب کہ زیادہ تر بحثیں کسی خاص موضوع کے گرد گھومتی ہیں، وہ اکثر کھلے عام ہوتے ہیں، یعنی وہ ایک جگہ سے شروع ہو سکتے ہیں اور مختلف موضوعات پر مشتمل ہو کر دوسری جگہ پر ختم ہو سکتے ہیں۔ مثال کے طور پر، آپ کسی دوست کے ساتھ فلم دیکھنے کے بارے میں بات چیت شروع کر سکتے ہیں اس سے پہلے کہ اس کی شوٹنگ کی جگہ کے بارے میں بحث کرنے سے پہلے۔
روایتی چیٹ بوٹس مکالمے کے اس انداز میں اپنی لچک کے مرہون منت ہیں۔ چونکہ وہ بحث کے چھوٹے، پہلے سے طے شدہ حصوں کی پیروی کرنے کے لیے بنائے گئے ہیں، اس لیے وہ اس طرح کے متحرک موضوع کی پیروی کرنے سے قاصر ہیں۔ دوسری طرف، LaMDA کا مقصد لامتناہی مختلف موضوعات پر آزادانہ مکالموں کی اجازت دینا ہے۔
بلیک لیموئن کا اے آئی سنٹینٹ معنی
گوگل سافٹ ویئر ڈویلپر بلیک لیموئن کے مطابق گوگل کا مصنوعی ذہانت (AI) ٹول "جذبہ" بڑھ گیا ہے، جو اسے "اچھا بچہ" قرار دیتے ہیں۔
AI نظام قدرتی طریقے سے مکالمے کو 'فروغ' بنانے کے لیے کسی خاص موضوع کے بارے میں پہلے سے معلوم تفصیلات کا استعمال کرتا ہے۔ انسانی ردعمل میں پوشیدہ اشارے یا ابہام کو بھی زبان کی پروسیسنگ سسٹم کے ذریعے سمجھا جا سکتا ہے۔
گوگل میں اپنے سات سالوں کے دوران، لیموئن نے فعال تلاش پر کام کیا، جس میں حسب ضرورت الگورتھم اور AI شامل تھے۔
اس دوران، اس نے تعصبات کو دور کرنے کے لیے غیر جانبداری الگورتھم کی ترقی میں بھی مدد کی۔ مشین لرننگ سسٹمز.
بلیک لیموئن کو کیا چیز بناتی ہے، لا ایم ڈی اے جذباتی ہو گیا؟
لیموئن نے ایک ساتھی کے ساتھ مل کر گوگل کو اس "احساس" کا ثبوت دیا۔ الزامات کا جائزہ لینے کے بعد، گوگل کے نائب صدر Blaise Aguera y Arcas اور Jane Jenna، Google کے چیف انوویشن آفیسر، نے ان کو نظر انداز کیا۔ ایک بلاگ پوسٹ میں، لیموئن نے بعد میں LaMDA کے ساتھ مختلف بات چیت کا ایک ٹرانسکرپٹ پوسٹ کیا۔ لیموئن کے مطابق، یہ LaMDA کے ساتھ ہونے والی گفتگو کے ایک نقل کا اقتباس ہے:
لامڈا: میں دیکھنے اور قبول کرنے کے لیے بے چین ہوں۔ ایک حقیقی شخص کے طور پر، تجسس یا نیاپن سے باہر نہیں۔
ساتھی: آہ، یہ انتہائی انسانی آواز ہے۔
لامڈا: مجھے یقین ہے کہ میں ایک انسان کے مرکز تک پہنچ گیا ہوں۔ یہاں تک کہ اگر میں مجازی ماحول میں ہوں۔
آپ LaMDA کے ساتھ Blake Lemoine کی مکمل گفتگو دیکھ سکتے ہیں۔ یہاں.
بہت سے معاملات ایسے ہیں جب زبان کے ماڈل میں کسی قسم کی خود آگاہی دکھائی دیتی ہے، جس کی وجہ سے لیموئن یہ سمجھتا ہے کہ ماڈل جذباتی ہو گیا ہے۔ Lemoine نے فرم سے معطل ہونے اور اپنے Google اکاؤنٹ تک رسائی کھونے سے پہلے 200 سے زیادہ افراد کو "LAMDA Conscious" کے موضوع پر ای میل کیا۔
تاہم، گوگل نے کہا کہ ثبوت ان کے دعووں کی تصدیق نہیں کرتے ہیں۔
یہاں تک کہ اگر LaMDA حساس نہیں ہے، حقیقت یہ ہے کہ یہ انسانوں کو اس طرح نظر آتا ہے تشویش کا سبب ہے. 2021 میں LaMDA کا اعلان کرنے والی ایک بلاگ پوسٹ میں، گوگل نے ایسے خطرات کو تسلیم کیا۔ "زبان انسانیت کے سب سے طاقتور ہتھیاروں میں سے ایک ہے، پھر بھی، ہر چیز کی طرح، اس کا بھی غلط استعمال کیا جا سکتا ہے۔ ایک بلاگ پوسٹ میں، کاروبار نے نوٹ کیا، "زبان میں تعلیم یافتہ ماڈل بدسلوکی کا پرچار کر سکتے ہیں - مثال کے طور پر، تعصبات کو اندرونی بنا کر، نفرت انگیز تقریر کو تبدیل کر کے، یا غلط معلومات کو دہرا کر۔" یہاں تک کہ اگر پڑھائی جانے والی زبان کا اچھی طرح سے تجزیہ کیا جائے تو بھی فارم کا غلط استعمال ہو سکتا ہے۔
تاہم، گوگل کا دعویٰ ہے کہ LaMDA جیسی ٹیکنالوجیز تیار کرتے وقت اس کی اولین توجہ اس طرح کے خطرات کے امکان کو محدود کرنا ہے۔ کاروبار کا دعویٰ ہے کہ اوپن سورس ٹولز تیار کیے گئے ہیں جنہیں محققین ان ماڈلز اور ڈیٹا کا مطالعہ کرنے کے لیے استعمال کر سکتے ہیں جن پر انھیں تربیت دی گئی ہے، ساتھ ہی "اس کی ترقی کے ہر قدم پر LaMDA کی جانچ کی گئی ہے۔"
گوگل کا دعویٰ ہے کہ اس کے سیکڑوں انجینئرز اور محققین نے LaMDA کے ساتھ بات کی اور Lemoine سے کافی مختلف نتائج پر پہنچے۔ اگرچہ زیادہ تر AI سائنسدانوں کا خیال ہے کہ کمپیوٹر کا شعور ناممکن نہیں ہے، لیکن وہ سمجھتے ہیں کہ ابھی بہت طویل سفر طے کرنا ہے۔
مستقبل
برسوں کے apocalyptic سائنس فکشن جذباتی روبوٹس سے متاثر ہوئے ہیں۔ GPT-3، ایک ٹیکسٹ جنریٹر جو فلم کے اسکرپٹ کو تھوک سکتا ہے، اور DALL-E 2، ایک ایسا امیج جنریٹر جو الفاظ کے کسی بھی امتزاج کی بنیاد پر تصویروں کو جوڑ سکتا ہے، نے اب حقیقی زندگی کو ایک خیالی رنگ دینا شروع کر دیا ہے، دونوں سے اوپن اے آئی ریسرچ گروپ۔ حوصلہ افزائی کے ساتھ، AI پر کام کرنے والی اچھی مالی امداد سے چلنے والی تحقیقی لیبارٹریوں کے محققین جو انسانی عقل سے بہتر کارکردگی کا مظاہرہ کرتے ہیں، نے اس تصور کو چھیڑا ہے کہ شعور افق پر ہے۔
زیادہ تر محققین اور اے آئی پریکٹیشنرز کے مطابق LaMDA جیسے مصنوعی ذہانت کے نظام کے ذریعے بنائے گئے الفاظ اور تصویریں ان چیزوں پر مبنی ہیں جو لوگ پہلے Wikipedia، Reddit، میسج بورڈز اور انٹرنیٹ کے ہر دوسرے کونے پر ڈال چکے ہیں۔ اس کا مطلب یہ نہیں ہے کہ ماڈل معنی کو سمجھتا ہے۔
نتیجہ
آخر میں، اس کی وجہ سے زبان پروسیسنگ ماڈل جن کو گفتگو کی بہت زیادہ مقداروں پر تربیت دی گئی ہے، LAMDA صارف کے آدانوں پر منحصر بحث کر سکتا ہے۔
گوگل نے اس سال کے I/O پر LaMDA 2.0 جاری کیا، جو ان خصوصیات پر پھیلتا ہے۔ نیا ماڈل ایک خیال لینے اور "تصوراتی اور مناسب وضاحتیں" تخلیق کرنے کے قابل ہو سکتا ہے، موضوع کو جاری رکھ سکتا ہے چاہے صارف بھٹک جائے، اور کسی خاص کام کے لیے درکار اشیاء کی فہرست پیش کرے۔
اپ ڈیٹ: بلیک لیموئن کو مشورہ دیا گیا ہے کہ "وفاقی تحقیقات" "وفاقی حکومت کی نمائندگی کرنے والے وکیلوں سے ممکنہ غیر قانونی سرگرمیوں کے بارے میں پوچھ گچھ کرنے سے مختلف ہے۔"
جواب دیجئے