हामीले एआईलाई जिम्मेवारीपूर्वक प्रयोग गर्छौं भनेर हामी कसरी सुनिश्चित गर्छौं?
मेसिन लर्निङमा भएको प्रगतिहरूले देखाउँछ कि मोडेलहरूले छिट्टै मापन गर्न र समाजको ठूलो भागलाई प्रभाव पार्न सक्छ।
एल्गोरिदमले सबैको फोनमा न्यूजफिड नियन्त्रण गर्छ। सरकार र निगमहरूले डाटा-सूचना निर्णयहरू गर्न AI प्रयोग गर्न थालेका छन्।
संसार कसरी सञ्चालन हुन्छ भन्ने कुरामा AI थप जोडिएको हुन्छ, हामी कसरी AI ले निष्पक्ष रूपमा काम गरिरहेको छ भनी सुनिश्चित गर्ने?
यस लेखमा, हामी AI प्रयोग गर्ने नैतिक चुनौतीहरू हेर्नेछौं र हेर्नेछौं कि हामी AI को जिम्मेवार प्रयोग सुनिश्चित गर्न के गर्न सक्छौं।
नैतिक एआई के हो?
नैतिक AI ले कृत्रिम बुद्धिमत्तालाई जनाउँछ जुन नैतिक दिशानिर्देशहरूको निश्चित सेटको पालना गर्दछ।
अर्को शब्दमा, यो व्यक्ति र संस्थाहरूको लागि एआईसँग जिम्मेवार ढंगले काम गर्ने तरिका हो।
हालैका वर्षहरूमा, दुर्व्यवहार र उल्लङ्घनको प्रमाणहरू प्रकाशमा आएपछि निगमहरूले डाटा गोपनीयता कानूनहरूमा अडिग हुन थालेका छन्। त्यसै गरी, एआईले समाजलाई नकारात्मक असर नगर्ने कुरा सुनिश्चित गर्न नैतिक एआईका लागि दिशानिर्देशहरू सिफारिस गरिन्छ।
उदाहरण को लागी, केहि प्रकार को AI एक पक्षपातपूर्ण तरिका मा काम गर्दछ वा पहिले देखि नै अवस्थित पूर्वाग्रहहरु लाई स्थायी गर्दछ। एक एल्गोरिथ्मलाई विचार गरौं जसले भर्तीकर्ताहरूलाई हजारौं पुनःसुरुहरू मार्फत क्रमबद्ध गर्न मद्दत गर्दछ। यदि एल्गोरिदम मुख्यतया पुरुष वा सेतो कर्मचारीहरूसँग डेटासेटमा प्रशिक्षित छ भने, तब यो सम्भव छ कि एल्गोरिदमले ती कोटीहरू अन्तर्गत पर्ने आवेदकहरूलाई समर्थन गर्नेछ।
नैतिक एआईका लागि सिद्धान्तहरू स्थापना गर्दै
हामीले लागू गर्नका लागि नियमहरूको सेट स्थापना गर्ने बारे सोचेका छौं कृत्रिम बुद्धि दशकौंसम्म।
1940 को दशकमा पनि, जब सबैभन्दा शक्तिशाली कम्प्युटरहरूले सबैभन्दा विशेष वैज्ञानिक गणनाहरू मात्र गर्न सक्थे, विज्ञान कथा लेखकहरूले बुद्धिमान रोबोटहरू नियन्त्रण गर्ने विचारमा विचार गरेका छन्।
आइज्याक असिमोभले प्रख्यात रूपमा रोबोटिक्सका तीन नियमहरू बनाएका थिए, जसलाई उनले सुरक्षा सुविधाको रूपमा आफ्ना छोटो कथाहरूमा रोबोटहरूको प्रोग्रामिङमा सम्मिलित गर्ने प्रस्ताव गरेका थिए।
यी कानूनहरू भविष्यका धेरै विज्ञान-फाई कथाहरूको लागि टचस्टोन बनेका छन् र एआईको नैतिकतामा वास्तविक अध्ययनहरू पनि सूचित गरेका छन्।
समकालीन अनुसन्धानमा, एआई अनुसन्धानकर्ताहरूले नैतिक एआईका लागि सिद्धान्तहरूको सूची स्थापना गर्न थप आधारभूत स्रोतहरू खोजिरहेका छन्।
AI ले अन्ततः मानव जीवनलाई असर गर्ने भएकोले, हामीले के गर्नुपर्छ र के गर्नु हुँदैन भन्ने कुराको आधारभूत बुझाइ हुनुपर्छ।
बेलमन्ट रिपोर्ट
सन्दर्भ बिन्दुको लागि, नैतिकता अनुसन्धानकर्ताहरूले बेलमन्ट रिपोर्टलाई गाइडको रूपमा हेर्छन्। द Belmont रिपोर्ट 1979 मा अमेरिकी राष्ट्रिय स्वास्थ्य संस्थान द्वारा प्रकाशित एक दस्तावेज थियो। WW2 मा गरिएको बायोमेडिकल अत्याचारहरूले चिकित्सा अभ्यास गर्ने अनुसन्धानकर्ताहरूका लागि नैतिक दिशानिर्देशहरू कानून बनाउन धक्का दियो।
यहाँ प्रतिवेदनमा उल्लेख गरिएका तीन आधारभूत सिद्धान्तहरू छन्:
- व्यक्तिहरूको सम्मान
- लाभ
- न्याय
पहिलो प्रिन्सिपलको उद्देश्य सबै मानव विषयहरूको मर्यादा र स्वायत्ततालाई कायम राख्नु हो। उदाहरणका लागि, अन्वेषकहरूले धोका दिने सहभागीहरूलाई कम गर्नुपर्दछ र प्रत्येक व्यक्तिलाई उनीहरूको स्पष्ट सहमति दिन आवश्यक छ।
दोस्रो सिद्धान्त, लाभ, सहभागीहरूलाई सम्भावित हानि कम गर्न अनुसन्धानकर्ताको कर्तव्यमा केन्द्रित छ। यस सिद्धान्तले अनुसन्धानकर्ताहरूलाई सम्भावित सामाजिक लाभहरूमा व्यक्तिगत जोखिमहरूको अनुपातलाई सन्तुलनमा राख्ने कर्तव्य दिन्छ।
न्याय, बेल्मन्ट रिपोर्ट द्वारा निर्धारित अन्तिम सिद्धान्त, अनुसन्धानबाट लाभ उठाउन सक्ने समूहहरूमा जोखिम र लाभहरूको समान वितरणमा केन्द्रित छ। बृहत् जनसङ्ख्याबाट अनुसन्धानका विषयहरू छान्नु अनुसन्धानकर्ताहरूको कर्तव्य हो। त्यसो गर्नाले समाजमा नकारात्मक असर पार्न सक्ने व्यक्तिगत र प्रणालीगत पूर्वाग्रहलाई कम गर्नेछ।
एआई अनुसन्धानमा नैतिकता राख्दै
जबकि बेलमन्ट रिपोर्ट मुख्य रूपमा मानव विषयहरू समावेश अनुसन्धानमा लक्षित थियो, सिद्धान्तहरू AI नैतिकताको क्षेत्रमा लागू गर्न पर्याप्त फराकिलो थिए।
बिग डाटा आर्टिफिसियल इन्टेलिजेन्सको क्षेत्रमा एक बहुमूल्य स्रोत बनेको छ। अनुसन्धानकर्ताहरूले कसरी डेटा सङ्कलन गर्छन् भनेर निर्धारण गर्ने प्रक्रियाहरूले नैतिक दिशानिर्देशहरू पालना गर्नुपर्छ।
अधिकांश राष्ट्रहरूमा डाटा गोपनीयता कानूनको कार्यान्वयनले केही हदसम्म डाटा कम्पनीहरूले के सङ्कलन गर्न र प्रयोग गर्न सक्छन् भन्ने सीमा राख्छ। यद्यपि, बहुसंख्यक राष्ट्रहरूसँग अझै पनि एआईको प्रयोगलाई हानि पुऱ्याउनबाट रोक्नको लागि मौलिक कानूनहरू छन्।
एआई नैतिक रूपमा कसरी काम गर्ने
यहाँ केही मुख्य अवधारणाहरू छन् जसले AI को थप नैतिक र जिम्मेवार प्रयोगतर्फ काम गर्न मद्दत गर्न सक्छ।
पूर्वाग्रहको लागि नियन्त्रण
कृत्रिम बुद्धिमत्ता स्वाभाविक रूपमा तटस्थ छैन। एल्गोरिदमहरू सधैं सम्मिलित पूर्वाग्रह र भेदभावको लागि संवेदनशील हुन्छन् किनभने यसले सिकेको डेटामा पूर्वाग्रह समावेश हुन्छ।
भेदभावपूर्ण AI को एक सामान्य उदाहरण अनुहार पहिचान प्रणालीहरूमा बारम्बार देखा पर्ने प्रकार हो। यी मोडेलहरू प्रायः सेतो पुरुष अनुहारहरू पहिचान गर्न सफल हुन्छन्, तर कालो छाला भएका मानिसहरूलाई पहिचान गर्नमा कम सफल हुन्छन्।
अर्को उदाहरण OpenAI को DALL-E 2 मा देखिन्छ। प्रयोगकर्ताहरू छन् पत्ता मोडेलले आफ्नो अनलाइन छविहरूको डेटासेटबाट उठाएको लिंग र जातीय पूर्वाग्रहहरू प्रायः पुन: उत्पादन गर्ने निश्चित संकेतहरू।
उदाहरणका लागि, जब वकिलहरूको छविहरूको लागि प्रम्प्ट दिइन्छ, DALL-E 2 ले पुरुष वकिलहरूको छविहरू फर्काउँछ। अर्कोतर्फ, उडान परिचरको तस्बिरको लागि अनुरोध गर्दा धेरैजसो महिला उडान परिचर फर्किन्छन्।
यद्यपि AI प्रणालीहरूबाट पूर्वाग्रहलाई पूर्ण रूपमा हटाउन असम्भव हुन सक्छ, हामी यसको प्रभावहरूलाई कम गर्न कदमहरू चाल्न सक्छौं। अनुसन्धानकर्ताहरू र इन्जिनियरहरूले प्रशिक्षण डेटा बुझेर र एआई प्रणालीले कसरी काम गर्नुपर्छ भन्ने इनपुट प्रस्ताव गर्न विभिन्न टोलीलाई भर्ती गरेर पूर्वाग्रहको ठूलो नियन्त्रण हासिल गर्न सक्छन्।
मानव-केन्द्रित डिजाइन दृष्टिकोण
तपाईंको मनपर्ने एपमा रहेको एल्गोरिदमले तपाईंलाई नकारात्मक असर पार्न सक्छ।
Facebook र TikTok जस्ता प्लेटफर्महरूले प्रयोगकर्ताहरूलाई उनीहरूको प्लेटफर्ममा राख्नको लागि कुन सामग्री सेवा गर्ने भनेर सिक्न सक्षम छन्।
हानि पुऱ्याउने नियतबिना पनि, प्रयोगकर्ताहरूलाई सकेसम्म लामो समयसम्म आफ्नो एपमा टाँसिने उद्देश्यले मानसिक स्वास्थ्य समस्याहरू निम्त्याउन सक्छ। ट्विटर र फेसबुक जस्ता प्लेटफर्महरूमा नकारात्मक समाचारहरू पढ्न धेरै समय खर्च गर्नका लागि क्याच-अल शब्दको रूपमा 'डूमस्क्रोलिङ' शब्द लोकप्रियतामा बढेको छ।
अन्य अवस्थामा, घृणित सामग्री र गलत जानकारीले फराकिलो प्लेटफर्म प्राप्त गर्दछ किनभने यसले प्रयोगकर्ता संलग्नता बढाउन मद्दत गर्दछ। ए 2021 अध्ययन न्यूयोर्क विश्वविद्यालयका अनुसन्धानकर्ताहरूले देखाउँछन् कि गलत जानकारीका लागि ज्ञात स्रोतहरूका पोस्टहरूले प्रतिष्ठित समाचार स्रोतहरू भन्दा छ गुणा बढी लाइकहरू पाउँछन्।
यी एल्गोरिदमहरू मानव-केन्द्रित डिजाइन दृष्टिकोणमा अभाव छन्। एआईले कसरी कार्य गर्छ भन्ने डिजाइन गर्ने इन्जिनियरहरूले प्रयोगकर्ताको अनुभवलाई सधैं दिमागमा राख्नुपर्छ।
अन्वेषकहरू र इन्जिनियरहरूले सधैं प्रश्न सोध्नु पर्छ: 'यसले प्रयोगकर्तालाई कसरी फाइदा गर्छ?'
धेरैजसो एआई मोडेलहरूले ब्ल्याक बक्स मोडेललाई पछ्याउँछन्। भित्र एउटा कालो बक्स मेशिन सिकाइ एउटा AI लाई जनाउँछ जहाँ कुनै पनि मानिसले व्याख्या गर्न सक्दैन किन एआई एक विशेष परिणाममा आइपुग्यो।
ब्ल्याक बक्सहरू समस्याग्रस्त छन् किनभने यसले हामीले मेसिनहरूमा राख्न सक्ने विश्वासको मात्रा घटाउँछ।
उदाहरणका लागि, एउटा परिदृश्यको कल्पना गरौं जहाँ फेसबुकले सरकारहरूलाई अपराधीहरू पत्ता लगाउन मद्दत गर्ने एल्गोरिदम जारी गर्यो। यदि AI प्रणालीले तपाईंलाई फ्ल्याग गर्छ भने, कसैले पनि यो निर्णय किन लियो भनेर व्याख्या गर्न सक्षम हुनेछैन। यस प्रकारको प्रणाली तपाईलाई गिरफ्तार गर्नुको एकमात्र कारण हुनु हुँदैन।
व्याख्यायोग्य AI वा XAI ले अन्तिम परिणाममा योगदान गर्ने कारकहरूको सूची फिर्ता गर्नुपर्छ। हाम्रो काल्पनिक आपराधिक ट्र्याकरमा फर्केर, हामी संदिग्ध भाषा वा सर्तहरू देखाउने पोस्टहरूको सूची फिर्ता गर्न AI प्रणालीलाई ट्वीक गर्न सक्छौं। त्यहाँबाट, एक मानवले प्रमाणित गर्न सक्छ कि फ्ल्याग गरिएको प्रयोगकर्ता अनुसन्धानको लायक छ वा छैन।
XAI ले AI प्रणालीहरूमा थप पारदर्शिता र विश्वास प्रदान गर्दछ र मानिसहरूलाई राम्रो निर्णय लिन मद्दत गर्न सक्छ।
निष्कर्ष
सबै मानव निर्मित आविष्कारहरू जस्तै, कृत्रिम बुद्धिमत्ता स्वाभाविक रूपमा राम्रो वा खराब होइन। हामीले AI प्रयोग गर्ने तरिका महत्त्वपूर्ण छ।
आर्टिफिसियल इन्टेलिजेन्सको अनौठो कुरा भनेको यो बढिरहेको गति हो। विगत पाँच वर्षमा, हामीले मेसिन लर्निङको क्षेत्रमा हरेक दिन नयाँ र रोमाञ्चक आविष्कारहरू देखेका छौं।
तर, कानुन त्यति छिटो बन्न सकेको छैन । निगमहरू र सरकारहरूले नाफा बढाउन वा नागरिकहरूको नियन्त्रण कब्जा गर्न AI को लाभ उठाउन जारी राख्दा, हामीले यी एल्गोरिदमहरूको प्रयोगमा पारदर्शिता र इक्विटीको लागि धक्का दिने तरिकाहरू खोज्नुपर्छ।
के तपाई साँच्चै नैतिक एआई सम्भव छ जस्तो लाग्छ?
जवाफ छाड्नुस्