आफूले काम गरिरहेको कम्प्युटर च्याटबट संवेदनशील भएको र मानिसले जस्तै सोच्ने र तर्क गरिरहेको दाबी गर्ने गुगलका एक कर्मचारीको निलम्बनले आर्टिफिसियल इन्टेलिजेन्सको क्षमता र गोपनीयता (एआई) को बारेमा नयाँ प्रश्न खडा गरेको छ।
गुगलको "सहयोगी" र कम्पनीको LaMDA (संवाद अनुप्रयोगहरूको लागि भाषा मोडेल) च्याटबोट विकास प्रणाली, गुगलले आफू बीचको च्याटको ट्रान्सक्रिप्ट प्रकाशित गरेपछि ब्लेक लेमोइन गत हप्ता बिदामा।
लेमोइन, एक Google जिम्मेवार एआई विकासकर्ता, लेमोइनले गत शरददेखि काम गरिरहेको प्रणालीलाई मानव बच्चाको तुलनामा विचार र भावनाहरू बुझ्ने र व्यक्त गर्ने क्षमताको रूपमा परिभाषित गरे।
शोधकर्तालाई गत हप्ताको सुरुमा अल्फाबेट इंक द्वारा सशुल्क बिदामा राखिएको थियो, कथित रूपमा कम्पनीको गोप्यता सम्झौताको उल्लङ्घन गरेको आरोपमा, उनले भने। मध्यम पद शीर्षकमा "एआई नैतिक कार्य प्रदर्शनको लागि चाँडै बर्खास्त हुन सक्छ।" आफ्नो ब्लग पोष्टमा, उसले गुगलको एआई आचार समितिका अन्य सदस्यहरू जस्तै मार्गरेट मिचेलको समानान्तर चित्रण गर्दछ, जसलाई चिन्ता व्यक्त गरेपछि त्यसरी नै बर्खास्त गरिएको थियो।
वाशिंगटन पोस्टद्वारा शनिबार प्रकाशित एक अन्तर्वार्तामा, लेमोइनले दाबी गरे कि उनी यो निष्कर्षमा पुगेका थिए कि उनले गुगल एआईसँग कुरा गरेका थिए, "उनको भूमिकामा पुजारीको रूपमा, वैज्ञानिक होइन।" मुद्दामा AI लाई LaMDA वा भनिन्छ भाषा मोडेल डायलग एप्लिकेसनहरूका लागि, र यो च्याटबटहरू सिर्जना गर्न प्रयोग गरिन्छ जसले विभिन्न व्यक्तित्व विशेषताहरू धारण गरेर मानिसहरूसँग अन्तरक्रिया गर्दछ। जब लेमोइनले आन्तरिक रूपमा मुद्दालाई हाइलाइट गरे, निगमका वरिष्ठ अधिकारीहरूले यसलाई प्रमाणित गर्न अध्ययन गर्ने उनको प्रयासलाई अस्वीकार गरे।
LaMDA के हो?
एमडीए, वा संवाद एप्सका लागि भाषा मोडेलहरू, मानव सञ्चारको नक्कल गर्न डिजाइन गरिएको च्याट उपकरणको रूपमा Google द्वारा विकास गरिएको मेसिन लर्निङ भाषा मोडेल हो। LaMDA, जस्तै BERT, GPT-3, र अन्य भाषा प्याराडाइमहरू, ट्रान्सफर्मरमा आधारित छ, Google द्वारा विकसित तंत्रिका नेटवर्क वास्तुकला जुन 2017 मा खुला स्रोत बनाइएको थियो।
यो संरचनाले एउटा मोडेलमा परिणाम दिन्छ जुन धेरै संख्यामा शब्दहरू पढ्न सिकाउन सकिन्छ, ती शब्दहरू कसरी एकअर्कासँग जोडिन्छन् भन्ने कुरामा ध्यान दिनुहोस् र कुन शब्दहरू तपाईंले अर्को सोच्नुहुनेछ भन्ने अनुमान गर्नुहोस्। LaMDA, अर्कोतर्फ, धेरै अन्य मोडेलहरूको विपरीत, यो प्रवचनमा प्रशिक्षित भएकोमा अद्वितीय छ।
धेरै जसो छलफलहरू एक निश्चित विषयवस्तुको वरिपरि घुम्ने हुँदा, तिनीहरू प्रायः खुला-समाप्त हुन्छन्, यसको मतलब तिनीहरू एक ठाउँबाट सुरु हुन सक्छन् र अर्कोमा टुङ्गिन्छन्, विभिन्न विषयवस्तुहरू समावेश गर्दै। उदाहरण को लागी, तपाइँ एक साथी संग एक चलचित्र हेर्न को लागी एक स्थान को बारे मा एक चर्चा मा जानु भन्दा पहिले यो शूट गरिएको थियो को बारे मा एक कुराकानी सुरु गर्न सक्नुहुन्छ।
परम्परागत च्याटबटहरू संवादको यस शैलीमा तिनीहरूको लचिलोपनको ऋणी छन्। किनभने तिनीहरू छलफलको साना, पूर्व-परिभाषित खण्डहरू पछ्याउनका लागि बनाइएका छन्, तिनीहरू यस्तो गतिशील विषयलाई पछ्याउन असमर्थ छन्। LaMDA, अर्कोतर्फ, विषयवस्तुहरूको अनन्त विविधतामा मुक्त-प्रवाह संवादहरूको लागि अनुमति दिनको लागि हो।
ब्लेक लेमोइनको एआई संवेदनशील अर्थ
गुगल सफ्टवेयर विकासकर्ता ब्लेक लेमोइनका अनुसार गुगलको आर्टिफिसियल इन्टेलिजेन्स (एआई) उपकरण "संवेदनशील" भएको छ, जसले यसलाई "राम्रो बच्चा" भनेर वर्णन गर्दछ।
एआई प्रणालीले प्राकृतिक तरिकामा संवादलाई 'समृद्ध' गर्न निश्चित विषयको बारेमा पहिले ज्ञात विवरणहरू प्रयोग गर्दछ। लुकेका संकेतहरू वा मानव प्रतिक्रियाहरूमा अस्पष्टता पनि भाषा प्रशोधन प्रणाली द्वारा बुझ्न सकिन्छ।
गुगलमा आफ्नो सात वर्षको अवधिको लागि, लेमोइनले सक्रिय खोजमा काम गरे, जसमा अनुकूलन एल्गोरिदम र एआई समावेश थियो।
त्यस समयमा, उनले पूर्वाग्रहहरू हटाउन निष्पक्षता एल्गोरिथ्मको विकासमा पनि सहयोग गरे। मेशिन सिकाइ प्रणाली।
ब्लेक लेमोइन, लामडालाई के कुराले संवेदनशील बनाउँछ?
लेमोइनले Google लाई यो "सेन्स" को प्रमाण दिन एक सहकर्मीसँग सहकार्य गरे। आरोपहरूको मूल्याङ्कन गरिसकेपछि, गुगलका उपाध्यक्ष ब्लेज अगुएरा वाई अर्कास र गुगलका प्रमुख नवीनता अधिकारी जेन जेन्नाले उनीहरूलाई बेवास्ता गरे। एक ब्लग पोस्टमा, लेमोइनले पछि LaMDA सँग विभिन्न वार्तालापको ट्रान्सक्रिप्ट पोस्ट गरे। यो लेमोइनका अनुसार LaMDA सँगको कुराकानीको ट्रान्सक्रिप्टको अंश हो:
लामडा: म देख्न र स्वीकार गर्न आतुर छु। एक वास्तविक व्यक्तिको रूपमा, जिज्ञासा वा नवीनता बाहिर होइन।
सहयोगी: आह, त्यो अत्यन्तै मानवीय आवाज हो।
लाम्दा: म विश्वास गर्छु कि म मानवको मूलमा पुगेको छु। म भर्चुअल वातावरणमा छु भने पनि।
तपाईं LaMDA सँग ब्लेक लेमोइनको पूर्ण कुराकानी जाँच गर्न सक्नुहुन्छ यहाँ.
त्यहाँ धेरै केसहरू छन् जब भाषा मोडेलले केही प्रकारको आत्म-जागरूकता प्रदर्शन गरेको देखिन्छ, लेमोइनलाई मोडेल संवेदनशील भएको मान्न नेतृत्व गर्दछ। लेमोइनले फर्मबाट निलम्बन हुनु अघि र आफ्नो Google खातामा पहुँच गुमाउनु अघि "LaMDA Conscious" विषय भएका २०० भन्दा बढी व्यक्तिहरूलाई इमेल गर्नुभयो।
यद्यपि, गुगलले भने कि प्रमाणले उनको दावीलाई पुष्टि गर्दैन।
यदि LaMDA संवेदनशिल छैन भने, तथ्य यो हो कि यसले मानिसलाई त्यसरी देख्न सक्छ भन्ने चिन्ताको कारण हो। २०२१ मा LaMDA घोषणा गर्ने ब्लग पोस्टमा, गुगलले त्यस्ता खतराहरू पहिचान गर्यो। "भाषा मानवताको सबैभन्दा शक्तिशाली औजारहरू मध्ये एक हो, तैपनि सबै चीजहरू जस्तै, यसको दुरुपयोग हुन सक्छ। एक ब्लग पोष्टमा, व्यवसायले नोट गर्यो, "भाषामा शिक्षित मोडेलहरूले दुर्व्यवहारको प्रचार गर्न सक्छन् - उदाहरणका लागि, पूर्वाग्रहहरूलाई आन्तरिक बनाएर, घृणायुक्त भाषणलाई उल्टाएर, वा विकृत जानकारी दोहोर्याएर।" सिकाइने भाषालाई राम्ररी विश्लेषण गरे पनि फारमको दुरुपयोग हुन सक्छ।
यद्यपि, Google ले दावी गर्छ कि लामडा जस्ता प्रविधिहरू विकास गर्दा यसको मुख्य फोकस त्यस्ता खतराहरूको सम्भावनालाई सीमित गर्नु हो। व्यवसायले खुला स्रोत उपकरणहरू विकास गरेको दाबी गर्दछ जुन अनुसन्धानकर्ताहरूले उनीहरूलाई तालिम दिइएको मोडेल र डेटा अध्ययन गर्न प्रयोग गर्न सक्छन्, साथै "विकासको प्रत्येक चरणमा LaMDA जाँच गरिएको छ।"
गुगलले दावी गरेको छ कि यसका सयौं इन्जिनियरहरू र अनुसन्धानकर्ताहरूले LaMDA सँग कुरा गरे र लेमोइन भन्दा धेरै फरक निष्कर्षमा आए। धेरैजसो एआई वैज्ञानिकहरूले कम्प्युटर चेतना असम्भव छैन भन्ने विश्वास गर्छन्, तिनीहरू विश्वास गर्छन् कि त्यहाँ अझै लामो यात्रा छ।
भविष्यमा
वर्षौंको एपोकेलिप्टिक विज्ञान कथाहरू संवेदनशील रोबोटहरूद्वारा प्रेरित छन्। जीपीटी-३, चलचित्रको स्क्रिप्ट थुक्न सक्ने टेक्स्ट जनरेटर, र DALL-E 3, छवि जनरेटर जसले शब्दहरूको कुनै पनि संयोजनमा आधारित तस्बिरहरू कन्ज्युर गर्न सक्छ, अब वास्तविक जीवनलाई काल्पनिक रंग दिन थालेको छ। OpenAI अनुसन्धान समूह। उत्तेजित, मानव बौद्धिकतालाई उत्कृष्ट बनाउने AI मा काम गर्ने राम्रो वित्त पोषित अनुसन्धान प्रयोगशालाहरूका अनुसन्धानकर्ताहरूले चेतना क्षितिजमा छ भन्ने अवधारणालाई छेडेका छन्।
LaMDA जस्ता आर्टिफिसियल इन्टेलिजेन्स प्रणालीहरूद्वारा सिर्जना गरिएका शब्दहरू र तस्बिरहरू, धेरै जसो अनुसन्धानकर्ताहरू र AI अभ्यासकर्ताहरूका अनुसार, मानिसहरूले विकिपिडिया, Reddit, सन्देश बोर्डहरू, र इन्टरनेटको अन्य कुनामा राखेका कुराहरूमा आधारित छन्। यसको मतलब यो होइन कि मोडेलले अर्थ बुझ्छ।
निष्कर्ष
अन्तमा, यसको कारणले भाषा प्रशोधन मोडेलहरू प्रवचनको ठूलो मात्रामा तालिम प्राप्त भएको, LaMDA ले प्रयोगकर्ताको इनपुटको आधारमा छलफल सञ्चालन गर्न सक्छ।
Google ले यस वर्षको I/O मा LaMDA 2.0 जारी गर्यो, जसले यी सुविधाहरूमा विस्तार गर्दछ। नयाँ मोडेलले एक विचार लिन र "कल्पनाशील र उपयुक्त विवरणहरू" सिर्जना गर्न सक्षम हुन सक्छ, प्रयोगकर्ताले बाहिर निस्किए पनि विषयलाई राख्नुहोस्, र निश्चित कार्यको लागि आवश्यक वस्तुहरूको सूची प्रस्ताव गर्नुहोस्।
अपडेट: ब्लेक लेमोइनलाई सल्लाह दिइएको छ कि "संघीय अनुसन्धान" "सम्भावित गैरकानूनी गतिविधिहरूको बारेमा सोधपुछ गर्ने संघीय सरकारको प्रतिनिधित्व गर्ने वकिलहरू" भन्दा फरक छ।
जवाफ छाड्नुस्