AI ஐ பொறுப்புடன் பயன்படுத்துவதை எப்படி உறுதி செய்வது?
இயந்திர கற்றலில் ஏற்பட்ட முன்னேற்றங்கள், மாதிரிகள் சமூகத்தின் பெரும்பகுதியை விரைவாக அளவிடலாம் மற்றும் தாக்கத்தை ஏற்படுத்தும் என்பதைக் காட்டுகிறது.
அல்காரிதம்கள் அனைவரின் தொலைபேசிகளிலும் செய்தி ஊட்டத்தைக் கட்டுப்படுத்துகின்றன. அரசாங்கங்களும் பெருநிறுவனங்களும் தரவுத் தகவலறிந்த முடிவுகளை எடுக்க AI ஐப் பயன்படுத்தத் தொடங்கியுள்ளன.
உலகம் எவ்வாறு இயங்குகிறது என்பதில் AI மேலும் ஆழமாகப் பதிந்திருக்கும்போது, AI நியாயமாகச் செயல்படுகிறதா என்பதை எப்படி உறுதி செய்வது?
இந்தக் கட்டுரையில், AI ஐப் பயன்படுத்துவதில் உள்ள நெறிமுறை சவால்களைப் பற்றி ஆராய்வோம் மற்றும் AI இன் பொறுப்பான பயன்பாட்டை உறுதிசெய்ய நாம் என்ன செய்ய முடியும் என்பதைப் பார்ப்போம்.
நெறிமுறை AI என்றால் என்ன?
நெறிமுறை AI என்பது ஒரு குறிப்பிட்ட நெறிமுறை வழிகாட்டுதல்களைக் கடைப்பிடிக்கும் செயற்கை நுண்ணறிவைக் குறிக்கிறது.
வேறு வார்த்தைகளில் கூறுவதானால், தனிநபர்கள் மற்றும் நிறுவனங்கள் AI உடன் பொறுப்பான முறையில் பணியாற்றுவதற்கான ஒரு வழியாகும்.
சமீபத்திய ஆண்டுகளில், துஷ்பிரயோகம் மற்றும் மீறல் பற்றிய சான்றுகள் வெளிச்சத்திற்கு வந்த பிறகு, பெருநிறுவனங்கள் தரவு தனியுரிமைச் சட்டங்களைக் கடைப்பிடிக்கத் தொடங்கியுள்ளன. இதேபோல், AI சமூகத்தை எதிர்மறையாக பாதிக்கவில்லை என்பதை உறுதிப்படுத்த, நெறிமுறை AIக்கான வழிகாட்டுதல்கள் பரிந்துரைக்கப்படுகின்றன.
எடுத்துக்காட்டாக, சில வகையான AI ஒரு சார்புடைய முறையில் செயல்படுகிறது அல்லது ஏற்கனவே இருக்கும் சார்புகளை நிலைநிறுத்துகிறது. ஆட்சேர்ப்பு செய்பவர்களுக்கு ஆயிரக்கணக்கான ரெஸ்யூம்களை வரிசைப்படுத்த உதவும் அல்காரிதம் ஒன்றைக் கருத்தில் கொள்வோம். பெரும்பாலும் ஆண் அல்லது வெள்ளை பணியாளர்களைக் கொண்ட தரவுத்தொகுப்பில் அல்காரிதம் பயிற்சியளிக்கப்பட்டால், அந்த வகைகளின் கீழ் வரும் விண்ணப்பதாரர்களுக்கு அல்காரிதம் சாதகமாக இருக்கும்.
நெறிமுறை AIக்கான கோட்பாடுகளை நிறுவுதல்
விதிக்கும் விதிகளின் தொகுப்பை உருவாக்குவது பற்றி நாங்கள் யோசித்துள்ளோம் செயற்கை நுண்ணறிவு பல தசாப்தங்களாக.
1940 களில் கூட, மிகவும் சக்திவாய்ந்த கணினிகள் மிகவும் சிறப்பு வாய்ந்த அறிவியல் கணக்கீடுகளை மட்டுமே செய்ய முடியும், அறிவியல் புனைகதை எழுத்தாளர்கள் அறிவார்ந்த ரோபோக்களை கட்டுப்படுத்தும் யோசனை பற்றி யோசித்துள்ளனர்.
ஐசக் அசிமோவ் பிரபலமாக ரோபோட்டிக்ஸின் மூன்று விதிகளை உருவாக்கினார், இது அவரது சிறுகதைகளில் ரோபோக்களின் நிரலாக்கத்தில் ஒரு பாதுகாப்பு அம்சமாக உட்பொதிக்கப்பட வேண்டும் என்று அவர் பரிந்துரைத்தார்.
இந்தச் சட்டங்கள் பல எதிர்கால அறிவியல் புனைகதைகளுக்கு ஒரு தொடுகல்லாக மாறியுள்ளன, மேலும் AI இன் நெறிமுறைகள் பற்றிய உண்மையான ஆய்வுகளையும் கூட தெரிவித்துள்ளன.
சமகால ஆராய்ச்சியில், AI ஆராய்ச்சியாளர்கள் நெறிமுறை AIக்கான கொள்கைகளின் பட்டியலை நிறுவுவதற்கு மேலும் அடிப்படை ஆதாரங்களைத் தேடுகின்றனர்.
AI ஆனது இறுதியில் மனித உயிர்களைப் பாதிக்கும் என்பதால், நாம் என்ன செய்ய வேண்டும் மற்றும் என்ன செய்யக்கூடாது என்பது பற்றிய அடிப்படை புரிதல் நமக்கு இருக்க வேண்டும்.
பெல்மாண்ட் அறிக்கை
ஒரு குறிப்பு புள்ளிக்கு, நெறிமுறை ஆராய்ச்சியாளர்கள் பெல்மாண்ட் அறிக்கையை வழிகாட்டியாக பார்க்கிறார்கள். தி பெல்மாண்ட் அறிக்கை 1979 ஆம் ஆண்டு அமெரிக்க தேசிய சுகாதார நிறுவனத்தால் வெளியிடப்பட்ட ஒரு ஆவணம். WW2 இல் நிகழ்த்தப்பட்ட உயிரியல் மருத்துவ அட்டூழியங்கள் மருத்துவப் பயிற்சி செய்யும் ஆராய்ச்சியாளர்களுக்கான நெறிமுறை வழிகாட்டுதல்களை சட்டமாக்குவதற்கு வழிவகுத்தது.
அறிக்கையில் குறிப்பிடப்பட்டுள்ள மூன்று அடிப்படைக் கோட்பாடுகள் இங்கே:
- நபர்களுக்கு மரியாதை
- நன்மை
- நீதிபதி
முதல் முதன்மையானது அனைத்து மனித குடிமக்களின் கண்ணியத்தையும் சுயாட்சியையும் நிலைநிறுத்துவதை நோக்கமாகக் கொண்டுள்ளது. எடுத்துக்காட்டாக, ஆராய்ச்சியாளர்கள் பங்கேற்பாளர்களை ஏமாற்றுவதைக் குறைக்க வேண்டும் மற்றும் ஒவ்வொரு நபரும் தங்கள் வெளிப்படையான ஒப்புதலை வழங்க வேண்டும்.
இரண்டாவது கொள்கை, நன்மை, பங்கேற்பாளர்களுக்கு சாத்தியமான தீங்கைக் குறைப்பதற்கான ஆராய்ச்சியாளரின் கடமையில் கவனம் செலுத்துகிறது. இந்த கொள்கையானது, சாத்தியமான சமூக நலன்களுக்கு தனிப்பட்ட இடர்களின் விகிதத்தை சமநிலைப்படுத்தும் கடமையை ஆராய்ச்சியாளர்களுக்கு வழங்குகிறது.
பெல்மாண்ட் அறிக்கையின் இறுதிக் கொள்கையான நீதி, ஆராய்ச்சியிலிருந்து பயனடையக்கூடிய குழுக்கள் முழுவதும் அபாயங்கள் மற்றும் நன்மைகளை சமமாக விநியோகிப்பதில் கவனம் செலுத்துகிறது. பரந்த மக்களிடமிருந்து ஆராய்ச்சிப் பாடங்களைத் தேர்ந்தெடுக்கும் கடமை ஆய்வாளர்களுக்கு உண்டு. அவ்வாறு செய்வது சமூகத்தை எதிர்மறையாக பாதிக்கக்கூடிய தனிநபர் மற்றும் அமைப்பு சார்புகளை குறைக்கும்.
AI ஆராய்ச்சியில் நெறிமுறைகளை வைப்பது
பெல்மாண்ட் அறிக்கை முதன்மையாக மனித பாடங்களை உள்ளடக்கிய ஆராய்ச்சியை இலக்காகக் கொண்டிருந்தாலும், கொள்கைகள் AI நெறிமுறைகள் துறையில் பொருந்தும் அளவுக்கு பரந்ததாக இருந்தன.
செயற்கை நுண்ணறிவு துறையில் பிக் டேட்டா மதிப்புமிக்க வளமாக மாறியுள்ளது. ஆராய்ச்சியாளர்கள் தரவை எவ்வாறு சேகரிக்கிறார்கள் என்பதைத் தீர்மானிக்கும் செயல்முறைகள் நெறிமுறை வழிகாட்டுதல்களைப் பின்பற்ற வேண்டும்.
பெரும்பாலான நாடுகளில் தரவுத் தனியுரிமைச் சட்டங்களைச் செயல்படுத்துவது, தரவு நிறுவனங்கள் எதைச் சேகரித்துப் பயன்படுத்தலாம் என்பதற்கு ஓரளவு வரம்பை வைக்கிறது. இருப்பினும், பெரும்பான்மையான நாடுகள் இன்னும் AI ஐப் பயன்படுத்துவதைத் தடுக்க அடிப்படையான சட்டங்களை வைத்துள்ளன.
AI நெறிமுறையுடன் எவ்வாறு வேலை செய்வது
AI இன் நெறிமுறை மற்றும் பொறுப்பான பயன்பாட்டிற்கு உதவக்கூடிய சில முக்கிய கருத்துக்கள் இங்கே உள்ளன.
சார்புக்கான கட்டுப்பாடு
செயற்கை நுண்ணறிவு இயல்பாகவே நடுநிலையானது அல்ல. அல்காரிதம்கள் எப்போதும் செருகப்பட்ட சார்பு மற்றும் பாகுபாடுகளுக்கு எளிதில் பாதிக்கப்படுகின்றன, ஏனெனில் அது கற்றுக் கொள்ளும் தரவு சார்புநிலையை உள்ளடக்கியது.
பாரபட்சமான AI இன் பொதுவான உதாரணம், முக அங்கீகார அமைப்புகளில் அடிக்கடி தோன்றும் வகையாகும். இந்த மாதிரிகள் பெரும்பாலும் வெள்ளை ஆண் முகங்களை அடையாளம் காண்பதில் வெற்றி பெறுகின்றன, ஆனால் கருமையான தோலைக் கொண்டவர்களை அடையாளம் காண்பதில் குறைவான வெற்றியைப் பெறுகின்றன.
மற்றொரு எடுத்துக்காட்டு OpenAI இன் DALL-E 2 இல் தோன்றும். பயனர்கள் உள்ளனர் கண்டுபிடிக்கப்பட்டது அந்த மாதிரியானது அதன் ஆன்லைன் படங்களின் தரவுத்தொகுப்பில் இருந்து எடுக்கப்பட்ட பாலினம் மற்றும் இன சார்புகளை சில தூண்டுதல்கள் அடிக்கடி மீண்டும் உருவாக்குகின்றன.
உதாரணமாக, வக்கீல்களின் படங்களுக்கு ஒரு ப்ராம்ட் கொடுக்கப்பட்டால், DALL-E 2 ஆண் வழக்கறிஞர்களின் படங்களை வழங்குகிறது. மறுபுறம், விமான பணிப்பெண்களின் படங்களைக் கோருவது பெரும்பாலும் பெண் விமானப் பணிப்பெண்களை திருப்பி அனுப்புகிறது.
AI அமைப்புகளில் இருந்து சார்புகளை முழுவதுமாக அகற்றுவது சாத்தியமில்லை என்றாலும், அதன் விளைவுகளை குறைக்க நாம் நடவடிக்கை எடுக்கலாம். ஆராய்ச்சியாளர்கள் மற்றும் பொறியியலாளர்கள் பயிற்சித் தரவைப் புரிந்துகொள்வதன் மூலமும், AI அமைப்பு எவ்வாறு செயல்பட வேண்டும் என்பதற்கான உள்ளீட்டை வழங்குவதற்காக பல்வேறு குழுவை பணியமர்த்துவதன் மூலமும் சார்பு கட்டுப்பாட்டை அடைய முடியும்.
மனிதனை மையமாகக் கொண்ட வடிவமைப்பு அணுகுமுறை
உங்களுக்குப் பிடித்த பயன்பாட்டில் உள்ள அல்காரிதம்கள் உங்களை எதிர்மறையாகப் பாதிக்கலாம்.
ஃபேஸ்புக் மற்றும் டிக்டோக் போன்ற தளங்கள் பயனர்களை தங்கள் தளங்களில் வைத்திருக்க என்ன உள்ளடக்கத்தை வழங்க வேண்டும் என்பதை அறிய முடியும்.
தீங்கு விளைவிக்கும் நோக்கமின்றி கூட, பயனர்கள் தங்கள் செயலியில் முடிந்தவரை ஒட்டிக்கொள்வது மனநலப் பிரச்சினைகளுக்கு வழிவகுக்கும். ட்விட்டர் மற்றும் ஃபேஸ்புக் போன்ற தளங்களில் எதிர்மறையான செய்திகளைப் படிக்க அதிக நேரத்தைச் செலவழிப்பதற்காக 'டூம்ஸ்க்ரோலிங்' என்ற சொல் பிரபலமடைந்துள்ளது.
மற்ற சந்தர்ப்பங்களில், வெறுக்கத்தக்க உள்ளடக்கமும் தவறான தகவல்களும் பரந்த தளத்தைப் பெறுகின்றன, ஏனெனில் இது பயனர் ஈடுபாட்டை அதிகரிக்க உதவுகிறது. ஏ 2021 ஆய்வு நியூயார்க் பல்கலைக்கழக ஆராய்ச்சியாளர்கள், தவறான தகவலுக்காக அறியப்பட்ட ஆதாரங்களின் இடுகைகள் புகழ்பெற்ற செய்தி ஆதாரங்களை விட ஆறு மடங்கு அதிக விருப்பங்களைப் பெறுகின்றன என்பதைக் காட்டுகிறது.
இந்த வழிமுறைகள் மனிதனை மையமாகக் கொண்ட வடிவமைப்பு அணுகுமுறையில் இல்லை. AI ஒரு செயலை எவ்வாறு செய்கிறது என்பதை வடிவமைக்கும் பொறியாளர்கள் எப்போதும் பயனர் அனுபவத்தை மனதில் கொள்ள வேண்டும்.
ஆராய்ச்சியாளர்களும் பொறியாளர்களும் எப்போதும் கேள்வியைக் கேட்க வேண்டும்: 'இது பயனருக்கு எவ்வாறு பயனளிக்கிறது?'
பெரும்பாலான AI மாதிரிகள் கருப்பு பெட்டி மாதிரியைப் பின்பற்றுகின்றன. உள்ளே ஒரு கருப்பு பெட்டி இயந்திர கற்றல் ஒரு AI ஐ குறிக்கிறது, அங்கு AI ஏன் ஒரு குறிப்பிட்ட முடிவை அடைந்தது என்பதை எந்த மனிதனும் விளக்க முடியாது.
கறுப்புப் பெட்டிகள் சிக்கலானவை, ஏனெனில் இது இயந்திரங்கள் மீது நாம் வைக்கக்கூடிய நம்பிக்கையின் அளவைக் குறைக்கிறது.
எடுத்துக்காட்டாக, குற்றவாளிகளைக் கண்டுபிடிக்க அரசாங்கங்களுக்கு உதவும் ஒரு அல்காரிதத்தை பேஸ்புக் வெளியிட்ட ஒரு காட்சியை கற்பனை செய்து பாருங்கள். AI அமைப்பு உங்களைக் கொடியிட்டால், அது ஏன் அந்த முடிவை எடுத்தது என்பதை யாராலும் விளக்க முடியாது. நீங்கள் ஏன் கைது செய்யப்பட வேண்டும் என்பதற்கு இந்த வகையான அமைப்பு மட்டுமே காரணமாக இருக்கக்கூடாது.
விளக்கக்கூடிய AI அல்லது XAI ஆனது இறுதி முடிவுக்கு பங்களித்த காரணிகளின் பட்டியலை வழங்க வேண்டும். எங்கள் கற்பனையான கிரிமினல் டிராக்கருக்குச் சென்று, சந்தேகத்திற்குரிய மொழி அல்லது விதிமுறைகளைக் காட்டும் இடுகைகளின் பட்டியலை வழங்க AI அமைப்பை மாற்றலாம். அங்கிருந்து, கொடியிடப்பட்ட பயனர் விசாரணைக்குத் தகுதியானவரா இல்லையா என்பதை ஒரு மனிதன் சரிபார்க்க முடியும்.
XAI ஆனது AI அமைப்புகளில் அதிக வெளிப்படைத்தன்மை மற்றும் நம்பிக்கையை வழங்குகிறது மற்றும் மனிதர்கள் சிறந்த முடிவுகளை எடுக்க உதவ முடியும்.
தீர்மானம்
மனிதனால் உருவாக்கப்பட்ட எல்லா கண்டுபிடிப்புகளையும் போலவே, செயற்கை நுண்ணறிவு இயல்பாகவே நல்லது அல்லது கெட்டது அல்ல. AI ஐ நாம் பயன்படுத்தும் விதம் தான் முக்கியம்.
செயற்கை நுண்ணறிவின் தனித்தன்மை என்னவென்றால், அது வளர்ந்து வரும் வேகம். கடந்த ஐந்து ஆண்டுகளில், ஒவ்வொரு நாளும் இயந்திர கற்றல் துறையில் புதிய மற்றும் அற்புதமான கண்டுபிடிப்புகளைக் கண்டோம்.
ஆனால், சட்டம் அவ்வளவு வேகமாக இல்லை. பெருநிறுவனங்கள் மற்றும் அரசாங்கங்கள் லாபத்தை அதிகரிக்க அல்லது குடிமக்களின் கட்டுப்பாட்டைக் கைப்பற்ற AI ஐத் தொடர்ந்து பயன்படுத்துவதால், இந்த வழிமுறைகளைப் பயன்படுத்துவதில் வெளிப்படைத்தன்மை மற்றும் சமத்துவத்திற்கான வழிகளை நாம் கண்டுபிடிக்க வேண்டும்.
உண்மையிலேயே நெறிமுறை AI சாத்தியம் என்று நினைக்கிறீர்களா?
ஒரு பதில் விடவும்