AI በሃላፊነት መጠቀማችንን እንዴት እናረጋግጣለን?
በማሽን ትምህርት ውስጥ ያሉ እድገቶች ሞዴሎች በፍጥነት መጠነ-ሰፊ እና ብዙ የህብረተሰብ ክፍል ላይ ተጽዕኖ እንደሚያሳድሩ ያሳያሉ።
አልጎሪዝም በሁሉም ሰው ስልኮች ላይ የዜና መጋቢን ይቆጣጠራል። መንግስታት እና ኮርፖሬሽኖች በመረጃ ላይ የተመሰረተ ውሳኔዎችን ለማድረግ AI መጠቀም ጀምረዋል.
AI ዓለም እንዴት እንደሚሰራ የበለጠ ስር እየሰደደ ሲመጣ፣ AI በትክክል እየሰራ መሆኑን እንዴት ማረጋገጥ እንችላለን?
በዚህ ጽሑፍ ውስጥ AIን የመጠቀምን የስነምግባር ፈተናዎች እንመለከታለን እና የ AI ኃላፊነት ያለው አጠቃቀምን ለማረጋገጥ ምን ማድረግ እንደምንችል እንመለከታለን.
ኤቲካል AI ምንድን ነው?
ኤቲካል AI የተወሰኑ የስነምግባር መመሪያዎችን የሚያከብር ሰው ሰራሽ የማሰብ ችሎታን ያመለክታል።
በሌላ አነጋገር ግለሰቦች እና ድርጅቶች ከ AI ጋር ኃላፊነት በተሞላበት መንገድ የሚሰሩበት መንገድ ነው።
በቅርብ ዓመታት ውስጥ ኮርፖሬሽኖች አላግባብ መጠቀም እና መጣስ ማስረጃዎች ከወጡ በኋላ በመረጃ ግላዊነት ህጎች ላይ መጣበቅ ጀምረዋል። በተመሳሳይም AI በህብረተሰቡ ላይ አሉታዊ ተጽእኖ እንደሌለው ለማረጋገጥ ለሥነምግባር AI መመሪያዎች ይመከራሉ.
ለምሳሌ፣ አንዳንድ የኤአይአይአይነት ዓይነቶች በተዛባ መንገድ ይሰራሉ ወይም ቀድሞ የነበረውን አድሎአዊነትን ያስቀጥላሉ። ቀጣሪዎች በሺዎች የሚቆጠሩ ከቆመበት ቀጥል እንዲለዩ የሚያግዝ ስልተ ቀመርን እንመልከት። አልጎሪዝም በአብዛኛው ወንድ ወይም ነጭ ሰራተኞች ባሉበት የውሂብ ስብስብ ላይ የሰለጠነው ከሆነ፣ አልጎሪዝም በእነዚያ ምድቦች ስር የሚወድቁ አመልካቾችን ሊመርጥ ይችላል።
ለሥነምግባር AI መርሆዎችን ማቋቋም
የምንተገብርባቸው ደንቦችን ስለማቋቋም አስበናል። ሰው ሰራሽ እውቀት ለበርካታ አስርት ዓመታት ያህል.
በ 1940 ዎቹ ውስጥ እንኳን, በጣም ኃይለኛ ኮምፒውተሮች በጣም ልዩ የሆኑ ሳይንሳዊ ስሌቶችን ብቻ ሊሰሩ በሚችሉበት ጊዜ, የሳይንስ ልብ ወለድ ጸሃፊዎች የማሰብ ችሎታ ያላቸውን ሮቦቶችን የመቆጣጠር ሃሳብ ላይ አሰላስለዋል.
አይዛክ አሲሞቭ ሦስቱን የሮቦቲክስ ህግጋትን በዝነኛነት አውጥቷል ፣ እሱም በአጫጭር ልቦለዶቻቸው ውስጥ በሮቦቶች ፕሮግራም ውስጥ እንደ የደህንነት ባህሪ ውስጥ እንዲካተት ሀሳብ አቅርቧል ።
እነዚህ ህጎች ለብዙ የወደፊት የሳይንስ ታሪክ ታሪኮች የመዳሰሻ ድንጋይ ሆነዋል እና በ AI ስነምግባር ላይ ተጨባጭ ጥናቶችን እንኳን አሳውቀዋል።
በዘመናዊ ምርምር ፣ AI ተመራማሪዎች ለሥነ ምግባራዊ AI የመሠረታዊ መርሆችን ዝርዝር ለማቋቋም የበለጠ መሠረት ያላቸውን ምንጮች እየፈለጉ ነው።
AI በመጨረሻ በሰው ህይወት ላይ ተጽእኖ ስለሚያሳድር ምን ማድረግ እንዳለብን እና ማድረግ እንደሌለብን መሰረታዊ ግንዛቤ ሊኖረን ይገባል።
የቤልሞንት ዘገባ
ለማጣቀሻ ነጥብ፣ የሥነ ምግባር ተመራማሪዎች የቤልሞንት ሪፖርትን እንደ መመሪያ ይመለከታሉ። የ ቤልሞንት ሪፖርት እ.ኤ.አ. በ1979 በዩኤስ ብሔራዊ የጤና ተቋም የታተመ ሰነድ ነው። በ WW2 የተፈጸሙ ባዮሜዲካል ጭካኔዎች መድሃኒት ለሚለማመዱ ተመራማሪዎች የስነምግባር መመሪያዎችን ህግ ለማውጣት ግፊት አድርጓል።
በሪፖርቱ ውስጥ የተጠቀሱት ሶስት መሰረታዊ መርሆች እነሆ፡-
- ለሰዎች አክብሮት
- ቤዝነስ
- ፍትህ
የመጀመሪያው ርእሰ መምህር የሁሉንም ሰብአዊ ተገዢዎች ክብር እና ራስን በራስ የማስተዳደር አላማ ለማስከበር ነው። ለምሳሌ፣ ተመራማሪዎች አታላይ ተሳታፊዎችን መቀነስ አለባቸው እና እያንዳንዱ ሰው ግልጽ ፈቃዱን እንዲሰጥ መጠየቅ አለባቸው።
ሁለተኛው መርህ፣ በጎነት፣ በተሳታፊዎች ላይ ሊደርስ የሚችለውን ጉዳት ለመቀነስ በተመራማሪው ተግባር ላይ ያተኩራል። ይህ መርህ ለተመራማሪዎቹ የግለሰቦችን ስጋቶች ጥምርታ እና ሊሆኑ ከሚችሉ ማህበራዊ ጥቅሞች ጋር የማመጣጠን ግዴታ ይሰጣቸዋል።
ፍትህ፣ በቤልሞንት ሪፖርት የተቀመጠው የመጨረሻው መርህ፣ ከጥናቱ ሊጠቅሙ በሚችሉ ቡድኖች ላይ እኩል የአደጋ እና ጥቅሞች ስርጭት ላይ ያተኩራል። ተመራማሪዎች ከሰፊው ህዝብ የምርምር ጉዳዮችን የመምረጥ ግዴታ አለባቸው። ይህን ማድረግ በህብረተሰቡ ላይ አሉታዊ ተጽዕኖ ሊያሳድሩ የሚችሉ ግለሰባዊ እና ስርአታዊ አድሎአዊ ድርጊቶችን ይቀንሳል።
በ AI ምርምር ውስጥ ስነምግባርን ማስቀመጥ
የቤልሞንት ሪፖርት በዋነኝነት ያተኮረው የሰውን ልጅ ጉዳዮች በሚያካትተው ምርምር ላይ ቢሆንም፣ መርሆቹ ለኤአይኤቲክስ መስክ ተግባራዊ ለማድረግ ሰፊ ነበሩ።
ቢግ ዳታ በአርቴፊሻል ኢንተለጀንስ መስክ ጠቃሚ ግብአት ሆኗል። ተመራማሪዎች መረጃን እንዴት እንደሚሰበስቡ የሚወስኑ ሂደቶች የስነምግባር መመሪያዎችን መከተል አለባቸው.
በአብዛኛዎቹ ሀገራት የውሂብ ግላዊነት ህጎችን መተግበሩ የውሂብ ኩባንያዎች ምን መሰብሰብ እና መጠቀም እንደሚችሉ ላይ ገደብ ይፈጥራል። ነገር ግን፣ አብዛኞቹ አገሮች ኤአይን ለጉዳት እንዳይጠቀሙ ለመከላከል መሠረታዊ የሆኑ ሕጎች አሏቸው።
ከ AI ጋር በሥነ ምግባር እንዴት እንደሚሠራ
የበለጠ ሥነ ምግባራዊ እና ኃላፊነት የተሞላበት የ AI አጠቃቀምን ለማምጣት የሚረዱ ጥቂት ቁልፍ ፅንሰ ሀሳቦች እዚህ አሉ።
ለአድልዎ ቁጥጥር
አርቲፊሻል ኢንተለጀንስ በባህሪው ገለልተኛ አይደለም። አልጎሪዝም ሁል ጊዜ ለተጨመረ አድልዎ እና አድልዎ የተጋለጠ ነው ምክንያቱም የሚማረው መረጃ አድሎአዊነትን ያካትታል።
የተለመደ የአድሎአዊ AI ምሳሌ በፊት ላይ መታወቂያ ስርዓቶች ውስጥ በተደጋጋሚ የሚታየው አይነት ነው። እነዚህ ሞዴሎች ብዙውን ጊዜ ነጭ የወንድ ፊቶችን በመለየት ይሳካሉ, ነገር ግን ጥቁር ቆዳ ያላቸውን ሰዎች በመለየት ብዙም አይሳካላቸውም.
በOpenAI's DALL-E 2 ውስጥ ሌላ ምሳሌ ይታያል። ተጠቃሚዎች አላቸው። የተገኘው አንዳንድ ጥያቄዎች ሞዴሉ በመስመር ላይ ካለው የመረጃ ቋት ውስጥ ያነሳቸውን የፆታ እና የዘር አድሎአዊነትን ብዙ ጊዜ እንዲባዙ ያደርጋል።
ለምሳሌ፣ ለጠበቆች ምስሎች ጥያቄ ሲቀርብ፣ DALL-E 2 የወንድ የህግ ባለሙያዎችን ምስሎች ይመልሳል። በሌላ በኩል የበረራ አስተናጋጆችን ፎቶ ለመጠየቅ በአብዛኛው ሴት የበረራ አስተናጋጆች ይመለሳሉ።
አድሎን ከ AI ስርዓቶች ሙሉ በሙሉ ማስወገድ የማይቻል ቢሆንም፣ ውጤቱን ለመቀነስ እርምጃዎችን ልንወስድ እንችላለን። ተመራማሪዎች እና መሐንዲሶች የስልጠናውን መረጃ በመረዳት እና የ AI ስርዓት እንዴት መስራት እንዳለበት ግብአት ለማቅረብ ልዩ ልዩ ቡድን በመቅጠር አድሏዊ ቁጥጥርን ማሳካት ይችላሉ።
ሰውን ያማከለ የንድፍ አሰራር
በሚወዱት መተግበሪያ ላይ ያሉ አልጎሪዝም እርስዎን አሉታዊ ተጽዕኖ ሊያሳድሩ ይችላሉ።
እንደ Facebook እና TikTok ያሉ መድረኮች ተጠቃሚዎችን በመሣሪያ ስርዓቶቻቸው ላይ ለማቆየት ምን አይነት ይዘት እንደሚኖራቸው ማወቅ ይችላሉ።
ጉዳት የማድረስ አላማ ባይኖረውም በተቻለ መጠን ተጠቃሚዎችን ከመተግበሪያቸው ጋር ተጣብቆ የመቆየት አላማ የአእምሮ ጤና ጉዳዮችን ሊያስከትል ይችላል። እንደ ትዊተር እና ፌስቡክ ባሉ መድረኮች ላይ አሉታዊ ዜናዎችን በማንበብ ከመጠን በላይ ጊዜን ለማሳለፍ እንደ ‹doomscrolling› የሚለው ቃል ተወዳጅነት እየጨመረ መጥቷል።
በሌሎች ሁኔታዎች፣ የጥላቻ ይዘት እና የተሳሳተ መረጃ የተጠቃሚ ተሳትፎን ለመጨመር ስለሚረዳ ሰፋ ያለ መድረክ ይቀበላሉ። ሀ 2021 ጥናት ከኒውዮርክ ዩኒቨርሲቲ ተመራማሪዎች የተገኘው መረጃ እንደሚያሳየው በተሳሳተ መረጃ ከሚታወቁ ምንጮች የሚወጡ ልጥፎች ከታወቁ የዜና ምንጮች በስድስት እጥፍ የበለጠ መውደዶችን ያገኛሉ።
እነዚህ ስልተ ቀመሮች ሰውን ያማከለ የንድፍ አሰራር ይጎድላቸዋል። AI አንድን ድርጊት እንዴት እንደሚፈጽም እየነደፉ ያሉ መሐንዲሶች የተጠቃሚውን ልምድ ሁልጊዜ ማስታወስ አለባቸው።
ተመራማሪዎች እና መሐንዲሶች ሁል ጊዜ ጥያቄውን መጠየቅ አለባቸው: 'ይህ ለተጠቃሚው እንዴት ይጠቅማል?'
አብዛኛዎቹ የ AI ሞዴሎች የጥቁር ሳጥን ሞዴል ይከተላሉ. ጥቁር ሳጥን ውስጥ የማሽን መማር አንድ ሰው አይአይ ለምን የተለየ ውጤት እንደደረሰ ሊገልጽ የማይችልበትን AI ያመለክታል።
ጥቁር ሣጥኖች ችግር አለባቸው ምክንያቱም በማሽን ውስጥ ማስቀመጥ የምንችለውን የመተማመን መጠን ይቀንሳል.
ለምሳሌ ፌስቡክ መንግስታት ወንጀለኞችን ለመከታተል የሚረዳ ስልተ ቀመር ያወጣበትን ሁኔታ እናስብ። የ AI ስርዓት እርስዎን ካጠቆመ ማንም ሰው ለምን እንደዚያ ውሳኔ እንዳደረገ ማስረዳት አይችልም። የዚህ አይነት ስርዓት እርስዎ እንዲታሰሩበት ምክንያት ብቻ መሆን የለበትም።
ሊብራራ የሚችል AI ወይም XAI ለመጨረሻው ውጤት አስተዋፅዖ ያደረጉ ምክንያቶችን ዝርዝር መመለስ አለበት። ወደ ግምታዊ የወንጀል መከታተያችን ስንመለስ፣ አጠራጣሪ ቋንቋዎችን ወይም ቃላትን የሚያሳዩ የልጥፎችን ዝርዝር ለመመለስ የ AI ስርዓቱን ማስተካከል እንችላለን። ከዚያ አንድ ሰው የተጠቆመው ተጠቃሚ መመርመር የሚገባው መሆኑን ወይም አለመሆኑን ማረጋገጥ ይችላል።
XAI በ AI ስርዓቶች ላይ የበለጠ ግልጽነት እና እምነትን ይሰጣል እና ሰዎች የተሻሉ ውሳኔዎችን እንዲያደርጉ ሊረዳቸው ይችላል።
መደምደሚያ
ልክ እንደ ሁሉም ሰው ሰራሽ ፈጠራዎች፣ አርቴፊሻል ኢንተለጀንስ በባህሪው ጥሩ ወይም መጥፎ አይደለም። አስፈላጊ የሆነው AI የምንጠቀምበት መንገድ ነው።
በአርቴፊሻል ኢንተለጀንስ ውስጥ ልዩ የሆነው በማደግ ላይ ያለው ፍጥነት ነው። ባለፉት አምስት ዓመታት በማሽን መማሪያ መስክ አዳዲስ እና አስደሳች ግኝቶችን አይተናል።
ይሁን እንጂ ሕጉ ፈጣን አይደለም. ኮርፖሬሽኖች እና መንግስታት ትርፋማነትን ለማሳደግ ወይም የዜጎችን ቁጥጥር ለመቆጣጠር AIን መጠቀማቸውን ሲቀጥሉ፣ እነዚህን ስልተ ቀመሮች አጠቃቀም ግልፅነት እና ፍትሃዊነትን የምንገፋበት መንገዶች መፈለግ አለብን።
በእውነቱ ሥነ ምግባራዊ AI የሚቻል ይመስልዎታል?
መልስ ይስጡ