आम्ही AI जबाबदारीने वापरतो याची आम्ही खात्री कशी करू शकतो?
मशीन लर्निंगमधील प्रगती दर्शविते की मॉडेल त्वरीत स्केल करू शकतात आणि समाजाच्या मोठ्या भागावर प्रभाव टाकू शकतात.
अल्गोरिदम प्रत्येकाच्या फोनवरील न्यूजफीड नियंत्रित करतात. सरकार आणि कॉर्पोरेशन डेटा-माहितीपूर्ण निर्णय घेण्यासाठी AI चा वापर करू लागले आहेत.
जसजसे जग कसे चालते त्यावर AI अधिक अंतर्भूत होत जाते, AI योग्यरित्या कार्य करत आहे याची आपण खात्री कशी करू शकतो?
या लेखात, आम्ही AI वापरण्याच्या नैतिक आव्हानांचा विचार करू आणि AI चा जबाबदार वापर सुनिश्चित करण्यासाठी आम्ही काय करू शकतो ते पाहू.
एथिकल एआय म्हणजे काय?
नैतिक AI म्हणजे कृत्रिम बुद्धिमत्तेचा संदर्भ आहे जी नैतिक मार्गदर्शक तत्त्वांच्या विशिष्ट संचाचे पालन करते.
दुसऱ्या शब्दांत, व्यक्ती आणि संस्थांसाठी AI सह जबाबदार पद्धतीने काम करण्याचा हा एक मार्ग आहे.
अलिकडच्या वर्षांत, गैरवर्तन आणि उल्लंघनाचे पुरावे समोर आल्यानंतर कॉर्पोरेशनने डेटा गोपनीयता कायद्यांना चिकटून राहण्यास सुरुवात केली आहे. त्याचप्रमाणे, एआयचा समाजावर नकारात्मक परिणाम होणार नाही याची खात्री करण्यासाठी नैतिक AI साठी मार्गदर्शक तत्त्वांची शिफारस केली जाते.
उदाहरणार्थ, काही प्रकारचे AI पक्षपाती पद्धतीने कार्य करतात किंवा आधीपासून अस्तित्वात असलेल्या पूर्वाग्रहांना कायम ठेवतात. चला अशा अल्गोरिदमचा विचार करूया जो हजारो रेझ्युमेमधून भर्ती करणार्यांना क्रमवारीत मदत करतो. अल्गोरिदम हे मुख्यतः पुरुष किंवा पांढरे कर्मचारी असलेल्या डेटासेटवर प्रशिक्षित असल्यास, अल्गोरिदम त्या श्रेणींमध्ये येणाऱ्या अर्जदारांना अनुकूल ठरण्याची शक्यता आहे.
नैतिक AI साठी तत्त्वे स्थापित करणे
आम्ही लादण्यासाठी नियमांचा संच स्थापित करण्याचा विचार केला आहे कृत्रिम बुद्धिमत्ता दशकांसाठी.
अगदी 1940 च्या दशकात, जेव्हा सर्वात शक्तिशाली संगणक केवळ सर्वात विशेष वैज्ञानिक गणना करू शकत होते, तेव्हा विज्ञान कथा लेखकांनी बुद्धिमान रोबोट नियंत्रित करण्याच्या कल्पनेवर विचार केला आहे.
आयझॅक असिमोव्ह यांनी रोबोटिक्सचे तीन कायदे प्रसिद्ध केले, जे त्यांनी त्यांच्या लघुकथांमध्ये सुरक्षा वैशिष्ट्य म्हणून रोबोट्सच्या प्रोग्रामिंगमध्ये अंतर्भूत केले होते.
हे कायदे भविष्यातील अनेक विज्ञान-कथांसाठी एक टचस्टोन बनले आहेत आणि एआयच्या नैतिकतेवरील वास्तविक अभ्यास देखील सूचित केले आहेत.
समकालीन संशोधनात, एआय संशोधक नैतिक AI साठी तत्त्वांची सूची स्थापित करण्यासाठी अधिक आधारभूत स्त्रोतांचा शोध घेत आहेत.
AI अंततः मानवी जीवनावर परिणाम करणार असल्याने, आपण काय करावे आणि काय करू नये याची आपल्याला मूलभूत माहिती असणे आवश्यक आहे.
बेल्मोंट अहवाल
संदर्भ मुद्द्यासाठी, नीतिशास्त्र संशोधक मार्गदर्शक म्हणून बेल्मोंट अहवालाकडे पाहतात. द बेल्मोंट अहवाल 1979 मध्ये यूएस नॅशनल इन्स्टिट्यूट ऑफ हेल्थने प्रकाशित केलेला एक दस्तऐवज होता. WW2 मध्ये केलेल्या जैववैद्यकीय अत्याचारांमुळे वैद्यकशास्त्राचा सराव करणाऱ्या संशोधकांसाठी नैतिक मार्गदर्शक तत्त्वे तयार करण्यासाठी दबाव आणला गेला.
अहवालात नमूद केलेली तीन मूलभूत तत्त्वे येथे आहेत:
- व्यक्तींचा आदर
- उपकार
- न्याय
सर्व मानवी विषयांची प्रतिष्ठा आणि स्वायत्तता राखणे हे पहिले मुख्य उद्दिष्ट आहे. उदाहरणार्थ, संशोधकांनी फसवणूक करणाऱ्या सहभागींना कमी केले पाहिजे आणि प्रत्येक व्यक्तीने त्यांची स्पष्ट संमती देणे आवश्यक आहे.
दुसरे तत्व, फायद्याचे, सहभागींना संभाव्य हानी कमी करण्यासाठी संशोधकाच्या कर्तव्यावर लक्ष केंद्रित करते. हे तत्त्व संशोधकांना वैयक्तिक जोखमींचे संभाव्य सामाजिक फायद्यांचे गुणोत्तर संतुलित करण्याचे कर्तव्य देते.
न्याय, बेल्मोंट अहवालाने मांडलेले अंतिम तत्त्व, संशोधनाचा लाभ घेऊ शकणार्या गटांमध्ये जोखीम आणि फायद्यांचे समान वितरण यावर लक्ष केंद्रित करते. व्यापक लोकसंख्येमधून संशोधनाचे विषय निवडणे हे संशोधकांचे कर्तव्य आहे. असे केल्याने वैयक्तिक आणि पद्धतशीर पूर्वाग्रह कमी होईल जे समाजावर नकारात्मक परिणाम करू शकतात.
एआय संशोधनात नैतिकता ठेवणे
बेल्मोंट अहवाल प्रामुख्याने मानवी विषयांचा समावेश असलेल्या संशोधनावर लक्ष्यित असताना, तत्त्वे AI नीतिशास्त्राच्या क्षेत्रात लागू होण्यासाठी पुरेशी विस्तृत होती.
कृत्रिम बुद्धिमत्तेच्या क्षेत्रात बिग डेटा हा एक मौल्यवान स्त्रोत बनला आहे. संशोधक डेटा कसा गोळा करतात हे ठरवणाऱ्या प्रक्रियांनी नैतिक मार्गदर्शक तत्त्वांचे पालन केले पाहिजे.
बहुतेक राष्ट्रांमध्ये डेटा गोपनीयता कायद्यांची अंमलबजावणी काही प्रमाणात डेटा कंपन्या काय संकलित करू शकतात आणि वापरू शकतात यावर मर्यादा घालतात. तथापि, बहुसंख्य राष्ट्रांमध्ये अजूनही AI चा वापर हानी होण्यापासून रोखण्यासाठी मूलभूत कायद्यांचा संच आहे.
एआय सह नैतिकदृष्ट्या कसे कार्य करावे
येथे काही प्रमुख संकल्पना आहेत ज्या AI च्या अधिक नैतिक आणि जबाबदार वापरासाठी कार्य करण्यास मदत करू शकतात.
बायस साठी नियंत्रण
कृत्रिम बुद्धिमत्ता मूळतः तटस्थ नसते. अल्गोरिदम नेहमी अंतर्भूत पूर्वाग्रह आणि भेदभावासाठी संवेदनाक्षम असतात कारण ते शिकत असलेल्या डेटामध्ये पूर्वाग्रह समाविष्ट असतो.
भेदभाव AI चे एक सामान्य उदाहरण म्हणजे चेहर्यावरील ओळख प्रणालींमध्ये वारंवार दिसणारा प्रकार. हे मॉडेल अनेकदा पांढरे पुरुष चेहरे ओळखण्यात यशस्वी होतात, परंतु गडद त्वचेच्या लोकांना ओळखण्यात कमी यशस्वी होतात.
दुसरे उदाहरण OpenAI च्या DALL-E 2 मध्ये दिसते. वापरकर्त्यांकडे आहे सापडले काही प्रॉम्प्ट अनेकदा लिंग आणि वांशिक पूर्वाग्रहांचे पुनरुत्पादन करतात जे मॉडेलने त्याच्या ऑनलाइन प्रतिमांच्या डेटासेटमधून उचलले आहेत.
उदाहरणार्थ, वकिलांच्या प्रतिमांसाठी प्रॉम्प्ट दिल्यावर, DALL-E 2 पुरुष वकिलांच्या प्रतिमा परत करते. दुसरीकडे, फ्लाइट अटेंडंटच्या चित्रांची विनंती केल्याने बहुतेक महिला विमान परिचर परत येतात.
AI प्रणालींमधून पूर्वाग्रह पूर्णपणे काढून टाकणे अशक्य असले तरी, त्याचे परिणाम कमी करण्यासाठी आम्ही पावले उचलू शकतो. संशोधक आणि अभियंते प्रशिक्षण डेटा समजून घेऊन आणि एआय सिस्टमने कसे कार्य करावे याबद्दल इनपुट ऑफर करण्यासाठी विविध टीम नियुक्त करून पूर्वाग्रहावर अधिक नियंत्रण मिळवू शकतात.
मानव-केंद्रित डिझाइन दृष्टीकोन
तुमच्या आवडत्या अॅपवरील अल्गोरिदम तुमच्यावर नकारात्मक परिणाम करू शकतात.
Facebook आणि TikTok सारखे प्लॅटफॉर्म वापरकर्त्यांना त्यांच्या प्लॅटफॉर्मवर ठेवण्यासाठी कोणती सामग्री सर्व्ह करावी हे शिकण्यास सक्षम आहेत.
हानी पोहोचवण्याच्या उद्देशाशिवाय, वापरकर्त्यांना त्यांच्या अॅपवर शक्य तितक्या काळ चिकटवून ठेवण्याच्या उद्देशामुळे मानसिक आरोग्य समस्या उद्भवू शकतात. ट्विटर आणि फेसबुक सारख्या प्लॅटफॉर्मवर नकारात्मक बातम्या वाचण्यात जास्त वेळ घालवण्याकरता 'डूमस्क्रॉलिंग' हा शब्द लोकप्रियतेत वाढला आहे.
इतर प्रकरणांमध्ये, द्वेषपूर्ण सामग्री आणि चुकीची माहिती एक व्यापक प्लॅटफॉर्म प्राप्त करते कारण ते वापरकर्ता प्रतिबद्धता वाढविण्यात मदत करते. ए 2021 अभ्यास न्यूयॉर्क युनिव्हर्सिटीच्या संशोधकांकडून असे दिसून आले आहे की चुकीच्या माहितीसाठी ओळखल्या जाणार्या स्त्रोतांच्या पोस्टला प्रतिष्ठित बातम्यांच्या स्रोतांपेक्षा सहापट अधिक पसंती मिळतात.
या अल्गोरिदममध्ये मानवी-केंद्रित डिझाइन दृष्टिकोनाचा अभाव आहे. जे अभियंते AI कृती कशी करतात ते डिझाइन करत आहेत त्यांनी नेहमी वापरकर्त्याचा अनुभव लक्षात ठेवला पाहिजे.
संशोधक आणि अभियंत्यांनी नेहमी प्रश्न विचारला पाहिजे: 'याचा वापरकर्त्याला कसा फायदा होतो?'
बहुतेक AI मॉडेल्स ब्लॅक बॉक्स मॉडेलचे अनुसरण करतात. मध्ये एक ब्लॅक बॉक्स मशीन शिक्षण AI चा संदर्भ देते जिथे AI विशिष्ट निकालावर का आले हे कोणीही स्पष्ट करू शकत नाही.
ब्लॅक बॉक्स समस्याप्रधान आहेत कारण ते मशीनवर ठेवू शकणारा विश्वास कमी करते.
उदाहरणार्थ, अशा परिस्थितीची कल्पना करूया जिथे Facebook ने एक अल्गोरिदम जारी केला ज्याने सरकारांना गुन्हेगारांचा माग काढण्यास मदत केली. जर एआय सिस्टम तुम्हाला ध्वजांकित करत असेल, तर तो निर्णय का घेतला हे कोणीही स्पष्ट करू शकणार नाही. या प्रकारची प्रणाली तुम्हाला अटक करण्याचे एकमेव कारण असू नये.
स्पष्टीकरण करण्यायोग्य AI किंवा XAI ने अंतिम निकालात योगदान देणाऱ्या घटकांची यादी परत केली पाहिजे. आमच्या काल्पनिक गुन्हेगारी ट्रॅकरकडे परत जाताना, आम्ही संशयास्पद भाषा किंवा अटी दर्शविणार्या पोस्टची सूची परत करण्यासाठी एआय सिस्टमला बदल करू शकतो. तिथून, ध्वजांकित वापरकर्त्याची तपासणी करणे योग्य आहे की नाही हे एक मनुष्य सत्यापित करू शकतो.
XAI AI प्रणालींमध्ये अधिक पारदर्शकता आणि विश्वास प्रदान करते आणि मानवांना चांगले निर्णय घेण्यास मदत करू शकते.
निष्कर्ष
सर्व मानवनिर्मित आविष्कारांप्रमाणे, कृत्रिम बुद्धिमत्ता ही जन्मजात चांगली किंवा वाईट नसते. आम्ही ज्या प्रकारे AI वापरतो ते महत्त्वाचे आहे.
आर्टिफिशियल इंटेलिजन्सचे वैशिष्ट्य म्हणजे ती ज्या वेगाने वाढत आहे. गेल्या पाच वर्षांत, आम्ही दररोज मशीन शिक्षण क्षेत्रात नवीन आणि रोमांचक शोध पाहिले आहेत.
मात्र, कायदा तितकासा वेगवान नाही. कॉर्पोरेशन आणि सरकारे जास्तीत जास्त नफा मिळवण्यासाठी किंवा नागरिकांवर नियंत्रण मिळवण्यासाठी AI चा फायदा घेत असल्याने, या अल्गोरिदमच्या वापरामध्ये पारदर्शकता आणि समानता आणण्यासाठी आम्ही मार्ग शोधले पाहिजेत.
तुम्हाला खरोखर नैतिक AI शक्य आहे असे वाटते का?
प्रत्युत्तर द्या