हम कैसे सुनिश्चित करें कि हम एआई का जिम्मेदारी से उपयोग करते हैं?
मशीन लर्निंग में प्रगति दिखाती है कि मॉडल समाज के एक बड़े हिस्से को तेजी से प्रभावित और प्रभावित कर सकते हैं।
एल्गोरिदम हर किसी के फोन पर न्यूजफीड को नियंत्रित करता है। डेटा-सूचित निर्णय लेने के लिए सरकारें और निगम एआई का उपयोग करना शुरू कर रहे हैं।
जैसे-जैसे एआई दुनिया के संचालन में और अधिक गहराई तक जाता है, हम कैसे सुनिश्चित करते हैं कि एआई निष्पक्ष रूप से कार्य कर रहा है?
इस लेख में, हम एआई का उपयोग करने की नैतिक चुनौतियों पर गौर करेंगे और देखेंगे कि एआई के जिम्मेदार उपयोग को सुनिश्चित करने के लिए हम क्या कर सकते हैं।
नैतिक एआई क्या है?
एथिकल एआई कृत्रिम बुद्धिमत्ता को संदर्भित करता है जो नैतिक दिशानिर्देशों के एक निश्चित सेट का पालन करता है।
दूसरे शब्दों में, यह व्यक्तियों और संगठनों के लिए एआई के साथ जिम्मेदारी से काम करने का एक तरीका है।
हाल के वर्षों में, दुरुपयोग और उल्लंघन के सबूत सामने आने के बाद निगमों ने डेटा गोपनीयता कानूनों से चिपकना शुरू कर दिया है। इसी तरह, नैतिक एआई के दिशानिर्देशों की सिफारिश यह सुनिश्चित करने के लिए की जाती है कि एआई समाज को नकारात्मक रूप से प्रभावित नहीं करता है।
उदाहरण के लिए, कुछ प्रकार के एआई पक्षपाती तरीके से काम करते हैं या पहले से मौजूद पूर्वाग्रहों को कायम रखते हैं। आइए एक एल्गोरिथम पर विचार करें जो नियोक्ताओं को हजारों रिज्यूमे के माध्यम से छाँटने में मदद करता है। यदि एल्गोरिथ्म को मुख्य रूप से पुरुष या श्वेत कर्मचारियों वाले डेटासेट पर प्रशिक्षित किया जाता है, तो यह संभव है कि एल्गोरिथम उन श्रेणियों के अंतर्गत आने वाले आवेदकों का पक्ष लेगा।
नैतिक एआई के लिए सिद्धांतों की स्थापना
हमने थोपने के लिए नियमों का एक सेट स्थापित करने के बारे में सोचा है कृत्रिम बुद्धिमत्ता दशकों के लिए।
1940 के दशक में भी, जब सबसे शक्तिशाली कंप्यूटर केवल सबसे विशिष्ट वैज्ञानिक गणना कर सकते थे, विज्ञान कथा लेखकों ने बुद्धिमान रोबोटों को नियंत्रित करने के विचार पर विचार किया है।
इसहाक असिमोव ने रोबोटिक्स के तीन नियमों को प्रसिद्ध रूप से गढ़ा, जिसे उन्होंने प्रस्तावित किया कि उनकी लघु कथाओं में सुरक्षा सुविधा के रूप में रोबोट की प्रोग्रामिंग में एम्बेड किया गया था।
ये कानून भविष्य की कई विज्ञान-कथाओं के लिए एक टचस्टोन बन गए हैं और यहां तक कि एआई की नैतिकता पर वास्तविक अध्ययनों को भी सूचित किया है।
समकालीन शोध में, एआई शोधकर्ता नैतिक एआई के सिद्धांतों की एक सूची स्थापित करने के लिए अधिक आधारभूत स्रोतों की तलाश कर रहे हैं।
चूंकि एआई अंततः मानव जीवन को प्रभावित करेगा, हमें इस बात की मूलभूत समझ होनी चाहिए कि हमें क्या करना चाहिए और क्या नहीं करना चाहिए।
बेलमोंट रिपोर्ट
एक संदर्भ बिंदु के लिए, नैतिकता शोधकर्ता बेलमोंट रिपोर्ट को एक गाइड के रूप में देखते हैं। बेलमॉर्ट रिपोर्ट 1979 में यूएस नेशनल इंस्टीट्यूट ऑफ हेल्थ द्वारा प्रकाशित एक दस्तावेज था। WW2 में किए गए बायोमेडिकल अत्याचारों ने चिकित्सा का अभ्यास करने वाले शोधकर्ताओं के लिए नैतिक दिशानिर्देशों को कानून बनाने के लिए प्रेरित किया।
रिपोर्ट में उल्लिखित तीन मूलभूत सिद्धांत यहां दिए गए हैं:
- व्यक्तियों के लिए सम्मान
- उपकार
- न्याय
प्रथम सिद्धांत का उद्देश्य सभी मानव विषयों की गरिमा और स्वायत्तता को बनाए रखना है। उदाहरण के लिए, शोधकर्ताओं को प्रतिभागियों को धोखा देना कम से कम करना चाहिए और प्रत्येक व्यक्ति को अपनी स्पष्ट सहमति देने की आवश्यकता होनी चाहिए।
दूसरा सिद्धांत, लाभ, प्रतिभागियों को संभावित नुकसान को कम करने के लिए शोधकर्ता के कर्तव्य पर केंद्रित है। यह सिद्धांत शोधकर्ताओं को संभावित सामाजिक लाभों के लिए व्यक्तिगत जोखिमों के अनुपात को संतुलित करने का कर्तव्य देता है।
न्याय, बेलमोंट रिपोर्ट द्वारा निर्धारित अंतिम सिद्धांत, उन समूहों में जोखिमों और लाभों के समान वितरण पर केंद्रित है जो अनुसंधान से लाभ उठा सकते हैं। शोधकर्ताओं का कर्तव्य है कि वे व्यापक आबादी से शोध विषयों का चयन करें। ऐसा करने से व्यक्तिगत और प्रणालीगत पूर्वाग्रहों को कम किया जा सकेगा जो समाज को नकारात्मक रूप से प्रभावित कर सकते हैं।
एआई रिसर्च में नैतिकता रखना
जबकि बेलमोंट रिपोर्ट मुख्य रूप से मानव विषयों से जुड़े अनुसंधान पर लक्षित थी, सिद्धांत एआई नैतिकता के क्षेत्र में लागू करने के लिए पर्याप्त व्यापक थे।
आर्टिफिशियल इंटेलिजेंस के क्षेत्र में बिग डेटा एक मूल्यवान संसाधन बन गया है। प्रक्रियाएँ जो यह निर्धारित करती हैं कि शोधकर्ता डेटा कैसे एकत्र करते हैं, उन्हें नैतिक दिशानिर्देशों का पालन करना चाहिए।
अधिकांश देशों में डेटा गोपनीयता कानूनों का कार्यान्वयन कुछ हद तक इस बात पर एक सीमा लगाता है कि डेटा कंपनियां क्या एकत्र और उपयोग कर सकती हैं। हालांकि, एआई के उपयोग को नुकसान पहुंचाने से रोकने के लिए अधिकांश देशों में अभी भी कानूनों का एक प्राथमिक सेट है।
एआई के साथ नैतिक रूप से कैसे काम करें
यहां कुछ प्रमुख अवधारणाएं हैं जो एआई के अधिक नैतिक और जिम्मेदार उपयोग की दिशा में काम करने में मदद कर सकती हैं।
पूर्वाग्रह के लिए नियंत्रण
आर्टिफिशियल इंटेलिजेंस स्वाभाविक रूप से तटस्थ नहीं है। एल्गोरिदम हमेशा सम्मिलित पूर्वाग्रह और भेदभाव के लिए अतिसंवेदनशील होते हैं क्योंकि यह जो डेटा सीखता है उसमें पूर्वाग्रह शामिल होता है।
भेदभावपूर्ण एआई का एक सामान्य उदाहरण वह प्रकार है जो अक्सर चेहरे की पहचान प्रणालियों में दिखाई देता है। ये मॉडल अक्सर सफेद पुरुष चेहरों की पहचान करने में सफल होते हैं, लेकिन गहरे रंग की त्वचा वाले लोगों को पहचानने में कम सफल होते हैं।
एक अन्य उदाहरण OpenAI के DALL-E 2 में दिखाई देता है। उपयोगकर्ताओं के पास है की खोज कि कुछ संकेत अक्सर लिंग और नस्लीय पूर्वाग्रहों को पुन: उत्पन्न करते हैं जिन्हें मॉडल ने ऑनलाइन छवियों के अपने डेटासेट से उठाया है।
उदाहरण के लिए, जब वकीलों की छवियों के लिए संकेत दिया जाता है, तो DALL-E 2 पुरुष वकीलों की छवियां लौटाता है। दूसरी ओर, फ्लाइट अटेंडेंट की तस्वीरों के लिए अनुरोध करने पर ज्यादातर महिला फ्लाइट अटेंडेंट लौटती हैं।
हालांकि एआई सिस्टम से पूर्वाग्रह को पूरी तरह से हटाना असंभव हो सकता है, हम इसके प्रभावों को कम करने के लिए कदम उठा सकते हैं। एआई सिस्टम को कैसे काम करना चाहिए, इस पर इनपुट देने के लिए शोधकर्ता और इंजीनियर प्रशिक्षण डेटा को समझकर और विविध टीम को काम पर रखकर पूर्वाग्रह पर अधिक नियंत्रण प्राप्त कर सकते हैं।
मानव-केंद्रित डिजाइन दृष्टिकोण
आपके पसंदीदा ऐप पर एल्गोरिदम आपको नकारात्मक रूप से प्रभावित कर सकता है।
फेसबुक और टिकटॉक जैसे प्लेटफॉर्म यह सीखने में सक्षम हैं कि यूजर्स को अपने प्लेटफॉर्म पर रखने के लिए कौन सी सामग्री परोसना है।
नुकसान पहुंचाने के इरादे के बिना भी, उपयोगकर्ताओं को यथासंभव लंबे समय तक अपने ऐप से जोड़े रखने का उद्देश्य मानसिक स्वास्थ्य के मुद्दों को जन्म दे सकता है। ट्विटर और फेसबुक जैसे प्लेटफार्मों पर नकारात्मक समाचार पढ़ने में अत्यधिक समय बिताने के लिए कैच-ऑल टर्म के रूप में 'डूमस्क्रॉलिंग' शब्द लोकप्रियता में बढ़ गया है।
अन्य मामलों में, घृणित सामग्री और गलत सूचना को एक व्यापक मंच प्राप्त होता है क्योंकि यह उपयोगकर्ता जुड़ाव बढ़ाने में मदद करता है। ए 2021 अध्ययन न्यूयॉर्क विश्वविद्यालय के शोधकर्ताओं से पता चलता है कि गलत सूचना के लिए जाने जाने वाले स्रोतों की पोस्ट को प्रतिष्ठित समाचार स्रोतों की तुलना में छह गुना अधिक पसंद किया जाता है।
मानव-केंद्रित डिज़ाइन दृष्टिकोण में इन एल्गोरिदम का अभाव है। इंजीनियर जो डिजाइन कर रहे हैं कि एआई कैसे एक क्रिया करता है, उन्हें हमेशा उपयोगकर्ता अनुभव को ध्यान में रखना चाहिए।
शोधकर्ताओं और इंजीनियरों को हमेशा यह प्रश्न पूछना चाहिए: 'इससे उपयोगकर्ता को क्या लाभ होता है?'
अधिकांश AI मॉडल ब्लैक बॉक्स मॉडल का अनुसरण करते हैं। एक ब्लैक बॉक्स यंत्र अधिगम एक एआई को संदर्भित करता है जहां कोई भी मानव यह नहीं बता सकता है कि एआई किसी विशेष परिणाम पर क्यों पहुंचा।
ब्लैक बॉक्स समस्याग्रस्त हैं क्योंकि यह मशीनों पर हमारे द्वारा लगाए जा सकने वाले भरोसे की मात्रा को कम करता है।
उदाहरण के लिए, आइए एक ऐसे परिदृश्य की कल्पना करें जहां फेसबुक ने एक एल्गोरिदम जारी किया जिसने सरकारों को अपराधियों को ट्रैक करने में मदद की। यदि AI सिस्टम आपको फ़्लैग करता है, तो कोई भी यह नहीं बता पाएगा कि उसने ऐसा निर्णय क्यों लिया है। इस प्रकार की प्रणाली एकमात्र कारण नहीं होना चाहिए कि आपको गिरफ्तार किया जाना चाहिए।
समझाने योग्य AI या XAI को उन कारकों की एक सूची लौटानी चाहिए जिन्होंने अंतिम परिणाम में योगदान दिया। हमारे काल्पनिक आपराधिक ट्रैकर पर वापस जाकर, हम संदिग्ध भाषा या शर्तों को दिखाने वाली पोस्ट की सूची वापस करने के लिए एआई सिस्टम को बदल सकते हैं। वहां से, एक मानव यह सत्यापित कर सकता है कि ध्वजांकित उपयोगकर्ता जांच के लायक है या नहीं।
XAI AI सिस्टम में अधिक पारदर्शिता और विश्वास प्रदान करता है और मनुष्यों को बेहतर निर्णय लेने में मदद कर सकता है।
निष्कर्ष
सभी मानव निर्मित आविष्कारों की तरह, कृत्रिम बुद्धि स्वाभाविक रूप से अच्छी या बुरी नहीं होती है। यह वह तरीका है जिससे हम एआई का उपयोग करते हैं जो मायने रखता है।
आर्टिफिशियल इंटेलिजेंस की खासियत यह है कि यह जिस गति से बढ़ रहा है। पिछले पांच वर्षों में, हमने मशीन लर्निंग के क्षेत्र में हर दिन नई और रोमांचक खोजें देखी हैं।
हालांकि, कानून इतनी जल्दी नहीं है। चूंकि निगम और सरकारें लाभ को अधिकतम करने या नागरिकों के नियंत्रण को जब्त करने के लिए एआई का लाभ उठाना जारी रखती हैं, हमें इन एल्गोरिदम के उपयोग में पारदर्शिता और इक्विटी को बढ़ावा देने के तरीके खोजने होंगे।
क्या आपको लगता है कि वास्तव में नैतिक AI संभव है?
एक जवाब लिखें