අපි AI වගකීමෙන් භාවිතා කරන බවට සහතික කර ගන්නේ කෙසේද?
යන්ත්ර ඉගෙනීමේ ප්රගතිය පෙන්නුම් කරන්නේ ආකෘති ඉක්මනින් පරිමාණය කර සමාජයේ විශාල කොටසකට බලපෑම් කළ හැකි බවයි.
ඇල්ගොරිතම සෑම කෙනෙකුගේම දුරකථනවල ප්රවෘත්ති සංග්රහය පාලනය කරයි. රජයන් සහ සංගත දත්ත දැනුවත් තීරණ ගැනීමට AI භාවිතා කිරීමට පටන් ගෙන ඇත.
ලෝකය ක්රියාත්මක වන ආකාරය පිළිබඳව AI තවදුරටත් මුල් බැසගත් විට, AI සාධාරණ ලෙස ක්රියා කරන බවට අපි සහතික කර ගන්නේ කෙසේද?
මෙම ලිපියෙන් අපි AI භාවිතා කිරීමේ සදාචාරාත්මක අභියෝග පිළිබඳව සොයා බලනු ඇති අතර AI වගකීමෙන් යුතුව භාවිතා කිරීම සහතික කිරීමට අපට කළ හැකි දේ බලමු.
Ethical AI යනු කුමක්ද?
Ethical AI යන්නෙන් අදහස් කරන්නේ යම් සදාචාරාත්මක මාර්ගෝපදේශ මාලාවකට අනුගත වන කෘතිම බුද්ධියයි.
වෙනත් වචන වලින් කිවහොත්, එය පුද්ගලයන්ට සහ සංවිධානවලට AI සමඟ වගකීමෙන් වැඩ කිරීමට මාර්ගයකි.
මෑත වසරවලදී, අපයෝජනය සහ උල්ලංඝනය කිරීම් පිළිබඳ සාක්ෂි අනාවරණය වීමෙන් පසු සංගත දත්ත රහස්යතා නීතිවලට ඇලී සිටීමට පටන් ගෙන තිබේ. ඒ හා සමානව, AI සමාජයට අහිතකර ලෙස බලපාන්නේ නැති බවට වග බලා ගැනීම සඳහා සදාචාරාත්මක AI සඳහා මාර්ගෝපදේශ නිර්දේශ කරනු ලැබේ.
උදාහරණයක් ලෙස, සමහර වර්ගවල AI පක්ෂග්රාහී ආකාරයකින් ක්රියා කරයි හෝ දැනටමත් පවතින පක්ෂග්රාහීකම් සදාකාලික කරයි. බඳවා ගන්නන් දහස් ගණනක් නැවත ආරම්භ කිරීමට උපකාර වන ඇල්ගොරිතමයක් සලකා බලමු. ඇල්ගොරිතම ප්රධාන වශයෙන් පිරිමි හෝ සුදු සේවකයන් සිටින දත්ත කට්ටලයක් මත පුහුණු කර තිබේ නම්, එම ඇල්ගොරිතම එම කාණ්ඩ යටතේ වැටෙන අයදුම්කරුවන්ට අනුග්රහය දැක්වීමට ඉඩ ඇත.
සදාචාරාත්මක AI සඳහා මූලධර්ම ස්ථාපිත කිරීම
පැනවිය යුතු නීති මාලාවක් ස්ථාපිත කිරීම ගැන අපි කල්පනා කර තිබෙනවා කෘතිම බුද්ධිය දශක ගනනාවක්.
1940 ගණන්වල පවා, වඩාත්ම බලවත් පරිගණකවලට කළ හැක්කේ වඩාත් විශේෂිත විද්යාත්මක ගණනය කිරීම් පමණක් වන විට, විද්යා ප්රබන්ධ ලේඛකයින් බුද්ධිමත් රොබෝවරුන් පාලනය කිරීමේ අදහස ගැන කල්පනා කර ඇත.
අයිසැක් අසිමොව් විසින් රොබෝ විද්යාවේ නීති තුන ප්රසිද්ධියට පත් කරන ලද අතර, ඔහු යෝජනා කළ රොබෝවරුන්ගේ ක්රමලේඛනයට ඔහුගේ කෙටිකතාවල ආරක්ෂිත අංගයක් ලෙස ඇතුළත් විය.
මෙම නීති බොහෝ අනාගත විද්යා ප්රබන්ධ කථා සඳහා ස්පර්ශකයක් වී ඇති අතර AI හි ආචාර ධර්ම පිළිබඳ සැබෑ අධ්යයනයන් පවා දැනුවත් කර ඇත.
සමකාලීන පර්යේෂණ වලදී, AI පර්යේෂකයන් සදාචාරාත්මක AI සඳහා මූලධර්ම ලැයිස්තුවක් පිහිටුවීම සඳහා වඩාත් පදනම් මූලාශ්ර සොයමින් සිටිති.
AI අවසානයේ මිනිස් ජීවිතවලට බලපාන බැවින්, අප කළ යුතු සහ නොකළ යුතු දේ පිළිබඳ මූලික අවබෝධයක් අපට තිබිය යුතුය.
බෙල්මොන්ට් වාර්තාව
යොමු ලක්ෂ්යයක් සඳහා, ආචාර ධර්ම පර්යේෂකයන් මාර්ගෝපදේශයක් ලෙස බෙල්මොන්ට් වාර්තාව දෙස බලයි. එම බෙල්මොන්ට් වාර්තාව 1979 දී එක්සත් ජනපද ජාතික සෞඛ්ය ආයතන විසින් ප්රකාශයට පත් කරන ලද ලේඛනයකි. WW2 හි සිදු කරන ලද ජෛව වෛද්ය ම්ලේච්ඡත්වය වෛද්ය විද්යාව හදාරන පර්යේෂකයන් සඳහා සදාචාරාත්මක මාර්ගෝපදේශ නීතිගත කිරීමට තල්ලු වීමට හේතු විය.
වාර්තාවේ සඳහන් මූලික මූලධර්ම තුන මෙන්න:
- පුද්ගලයන්ට ගරු කිරීම
- ප්රයෝජන
- යුක්තිය
පළමු ප්රධාන අරමුණ සියලු මනුෂ්ය විෂයයන්හි අභිමානය සහ ස්වාධීනත්වය තහවුරු කිරීමයි. නිදසුනක් වශයෙන්, පර්යේෂකයන් සහභාගිවන්නන් රැවටීම අවම කළ යුතු අතර එක් එක් පුද්ගලයාට ඔවුන්ගේ පැහැදිලි කැමැත්ත ලබා දිය යුතුය.
දෙවන මූලධර්මය වන ප්රතිලාභය, සහභාගිවන්නන්ට විය හැකි හානිය අවම කිරීම සඳහා පර්යේෂකයාගේ යුතුකම කෙරෙහි අවධානය යොමු කරයි. මෙම මූලධර්මය පර්යේෂකයන්ට පුද්ගල අවදානම් අනුපාතය විභව සමාජ ප්රතිලාභවලට සමතුලිත කිරීමේ වගකීම ලබා දෙයි.
බෙල්මොන්ට් වාර්තාව මගින් දක්වා ඇති අවසාන මූලධර්මය වන යුක්තිය, පර්යේෂණයෙන් ප්රතිලාභ ලැබිය හැකි කණ්ඩායම් හරහා අවදානම් සහ ප්රතිලාභ සමාන ලෙස බෙදා හැරීම කෙරෙහි අවධානය යොමු කරයි. පුළුල් ජනගහනයෙන් පර්යේෂණ විෂයයන් තෝරා ගැනීමේ වගකීම පර්යේෂකයන්ට ඇත. එසේ කිරීමෙන් සමාජයට අහිතකර ලෙස බලපෑ හැකි පුද්ගල සහ පද්ධතිමය නැඹුරුවීම් අවම වනු ඇත.
AI පර්යේෂණයේ ආචාර ධර්ම තැබීම
Belmont වාර්තාව මූලික වශයෙන් ඉලක්ක කර ඇත්තේ මානව විෂයයන් සම්බන්ධ පර්යේෂණ සඳහා වන අතර, AI ආචාර ධර්ම ක්ෂේත්රයට අදාළ වන පරිදි මූලධර්ම පුළුල් විය.
Big Data කෘත්රිම බුද්ධි ක්ෂේත්රයේ වටිනා සම්පතක් බවට පත්ව ඇත. පර්යේෂකයන් දත්ත රැස් කරන ආකාරය තීරණය කරන ක්රියාවලීන් සදාචාරාත්මක මාර්ගෝපදේශ අනුගමනය කළ යුතුය.
බොහෝ ජාතීන් තුළ දත්ත රහස්යතා නීති ක්රියාත්මක කිරීම දත්ත සමාගම්වලට එකතු කර භාවිත කළ හැකි දේ පිළිබඳ සීමාවක් තබයි. කෙසේ වෙතත්, බොහෝ ජාතීන්ට තවමත් හානියක් සිදු කිරීමට AI භාවිතය වැළැක්වීම සඳහා ප්රාථමික නීති මාලාවක් ඇත.
AI සමඟ සදාචාරාත්මකව වැඩ කරන්නේ කෙසේද?
AI හි වඩාත් සදාචාරාත්මක සහ වගකීම් සහගත භාවිතයක් සඳහා වැඩ කිරීමට උපකාරී වන ප්රධාන සංකල්ප කිහිපයක් මෙන්න.
පක්ෂග්රාහීත්වය සඳහා පාලනය
කෘතිම බුද්ධිය සහජයෙන්ම මධ්යස්ථ නොවේ. ඇල්ගොරිතම සෑම විටම ඇතුල් කරන ලද පක්ෂග්රාහීත්වයට සහ වෙනස් කොට සැලකීමට ගොදුරු වේ, මන්ද එය ඉගෙන ගන්නා දත්තවල නැඹුරුව ඇතුළත් වේ.
වෙනස් කොට සැලකීමේ AI සඳහා පොදු උදාහරණයක් වන්නේ මුහුණු හඳුනාගැනීමේ පද්ධතිවල නිතර දක්නට ලැබෙන වර්ගයයි. මෙම ආකෘති බොහෝ විට සුදු පිරිමි මුහුණු හඳුනා ගැනීමට සමත් වේ, නමුත් අඳුරු සමක් ඇති පුද්ගලයින් හඳුනා ගැනීමේදී අඩු සාර්ථක වේ.
තවත් උදාහරණයක් OpenAI හි DALL-E 2 හි දිස්වේ. පරිශීලකයන් සතුව ඇත සොයාගෙන තිබේ සමහර ප්රේරක බොහෝ විට එහි සබැඳි රූපවල දත්ත කට්ටලයෙන් ආකෘතිය ලබාගෙන ඇති ස්ත්රී පුරුෂ භාවය සහ වාර්ගික පක්ෂග්රාහීත්වය ප්රතිනිෂ්පාදනය කරයි.
නිදසුනක් ලෙස, නීතිඥයින්ගේ පින්තූර සඳහා විමසුමක් ලබා දුන් විට, DALL-E 2 පිරිමි නීතිඥයින්ගේ රූප ලබා දෙයි. අනෙක් අතට, ගුවන් සේවිකාවන්ගේ පින්තූර ඉල්ලා සිටීමෙන් වැඩි වශයෙන් කාන්තා ගුවන් සේවිකාවන් ආපසු ලබා දේ.
AI පද්ධති වලින් පක්ෂග්රාහීත්වය සම්පූර්ණයෙන්ම ඉවත් කිරීමට නොහැකි වුවද, එහි බලපෑම් අවම කිරීමට අපට පියවර ගත හැක. පර්යේෂකයන්ට සහ ඉංජිනේරුවන්ට පුහුණු දත්ත අවබෝධ කර ගැනීමෙන් සහ AI පද්ධතිය ක්රියා කළ යුතු ආකාරය පිළිබඳ ආදානය ලබා දීම සඳහා විවිධ කණ්ඩායමක් බඳවා ගැනීමෙන් පක්ෂග්රාහී පාලනය වැඩි කර ගත හැක.
මානව කේන්ද්රීය නිර්මාණ ප්රවේශය
ඔබගේ ප්රියතම යෙදුමේ ඇල්ගොරිතම ඔබට අහිතකර ලෙස බලපෑ හැකිය.
Facebook සහ TikTok වැනි වේදිකා වලට පරිශීලකයින් ඔවුන්ගේ වේදිකාවල තබා ගැනීමට සේවය කළ යුතු අන්තර්ගතය ඉගෙන ගැනීමට හැකි වේ.
හානියක් කිරීමේ චේතනාවෙන් තොරව වුවද, හැකි තාක් දුරට පරිශීලකයින් ඔවුන්ගේ යෙදුමට ඇලී සිටීමේ අරමුණ මානසික සෞඛ්ය ගැටලුවලට තුඩු දිය හැකිය. Twitter සහ Facebook වැනි වේදිකාවල සෘණාත්මක පුවත් කියවීම සඳහා අධික කාලයක් ගත කිරීම සඳහා 'doomscrolling' යන යෙදුම ජනප්රියත්වයට පත්ව ඇත.
වෙනත් අවස්ථාවල දී, වෛරී අන්තර්ගතය සහ වැරදි තොරතුරු පුළුල් වේදිකාවක් ලබා ගන්නේ එය පරිශීලක නියැලීම වැඩි කිරීමට උපකාරී වන බැවිනි. ඒ 2021 අධ්යයනය නිව් යෝර්ක් විශ්ව විද්යාලයේ පර්යේෂකයන් පෙන්වා දෙන්නේ වැරදි තොරතුරු සඳහා ප්රසිද්ධ මූලාශ්රවලින් පළ කිරීම්වලට පිළිගත් ප්රවෘත්ති මූලාශ්රවලට වඩා හය ගුණයකින් වැඩි කැමැත්තක් ලැබෙන බවයි.
මෙම ඇල්ගොරිතම මානව කේන්ද්රීය නිර්මාණ ප්රවේශයක අඩුය. AI ක්රියාවක් කරන ආකාරය සැලසුම් කරන ඉංජිනේරුවන් සැමවිටම පරිශීලක අත්දැකීම මනසේ තබා ගත යුතුය.
පර්යේෂකයන් සහ ඉංජිනේරුවන් සැමවිටම ප්රශ්නය ඇසිය යුතුය: 'මෙය පරිශීලකයාට ප්රයෝජනවත් වන්නේ කෙසේද?'
බොහෝ AI මාදිලි කළු පෙට්ටි ආකෘතියක් අනුගමනය කරයි. කළු පෙට්ටියක් ඇතුලට යන්ත්ර ඉගෙනීම AI විශේෂිත ප්රතිඵලයක් වෙත පැමිණියේ මන්දැයි කිසිම මිනිසෙකුට පැහැදිලි කළ නොහැකි AI එකකට යොමු වේ.
කළු පෙට්ටි ගැටළු සහගත වන්නේ එය යන්ත්ර කෙරෙහි අපට තැබිය හැකි විශ්වාසය අඩු කරන බැවිනි.
උදාහරණයක් වශයෙන්, අපි හිතමු Facebook විසින් අපරාධකරුවන් සොයා ගැනීමට රජයන්ට උපකාර කරන ඇල්ගොරිතමයක් නිකුත් කළ අවස්ථාවක්. AI පද්ධතිය ඔබව සලකුණු කරන්නේ නම්, එය එම තීරණය ගෙන ඇත්තේ මන්දැයි කිසිවෙකුට පැහැදිලි කිරීමට නොහැකි වනු ඇත. ඔබ අත්අඩංගුවට ගත යුතු එකම හේතුව මෙවැනි ක්රමයක් නොවිය යුතුය.
පැහැදිලි කළ හැකි AI හෝ XAI අවසාන ප්රතිඵලයට දායක වූ සාධක ලැයිස්තුවක් ලබා දිය යුතුය. අපගේ උපකල්පිත අපරාධ ලුහුබැඳීම වෙත ආපසු යාම, අපට සැක සහිත භාෂාවක් හෝ නියමයන් පෙන්වන පළ කිරීම් ලැයිස්තුවක් ආපසු ලබා දීමට AI පද්ධතිය වෙනස් කළ හැක. එතැන් සිට, සලකුණු කළ පරිශීලකයා විමර්ශනය කිරීම වටී ද නැද්ද යන්න මිනිසාට සත්යාපනය කළ හැකිය.
XAI AI පද්ධති කෙරෙහි වැඩි විනිවිදභාවයක් සහ විශ්වාසයක් ලබා දෙන අතර මිනිසුන්ට වඩා හොඳ තීරණ ගැනීමට උපකාර කළ හැක.
නිගමනය
මිනිසා විසින් කරන ලද සියලුම නව නිපැයුම් මෙන්, කෘතිම බුද්ධිය සහජයෙන්ම හොඳ හෝ නරක නැත. අපි AI භාවිතා කරන ආකාරය තමයි වැදගත්.
කෘතිම බුද්ධියේ විශේෂත්වය වන්නේ එය වර්ධනය වන වේගයයි. පසුගිය වසර පහ තුළ, අපි සෑම දිනකම යන්ත්ර ඉගෙනීමේ ක්ෂේත්රයේ නව සහ ආකර්ෂණීය සොයාගැනීම් දුටුවෙමු.
කෙසේ වෙතත්, නීතිය ඉක්මන් නොවේ. සංගත සහ ආන්ඩු ලාභ උපරිම කිරීමට හෝ පුරවැසියන්ගේ පාලනය අත්පත් කර ගැනීමට AI භාවිතා කිරීම දිගටම කරගෙන යන බැවින්, මෙම ඇල්ගොරිතම භාවිතා කිරීමේදී විනිවිදභාවය සහ සාධාරණත්වය සඳහා තල්ලු කිරීමට ක්රම සොයාගත යුතුය.
සැබවින්ම සදාචාරාත්මක AI කළ හැකි යැයි ඔබ සිතනවාද?
ඔබමයි