ເຮັດແນວໃດພວກເຮົາໃຫ້ແນ່ໃຈວ່າພວກເຮົາໃຊ້ AI ຢ່າງມີຄວາມຮັບຜິດຊອບ?
ຄວາມກ້າວຫນ້າໃນການຮຽນຮູ້ເຄື່ອງຈັກສະແດງໃຫ້ເຫັນວ່າຕົວແບບສາມາດຂະຫຍາຍໄດ້ໄວແລະສົ່ງຜົນກະທົບຕໍ່ສັງຄົມສ່ວນໃຫຍ່.
Algorithms ຄວບຄຸມ newsfeed ໃນໂທລະສັບຂອງທຸກຄົນ. ລັດຖະບານແລະບໍລິສັດກໍາລັງເລີ່ມໃຊ້ AI ເພື່ອເຮັດການຕັດສິນໃຈທີ່ມີຂໍ້ມູນ.
ເມື່ອ AI ກາຍເປັນພື້ນຖານເພີ່ມເຕີມໃນວິທີການເຮັດວຽກຂອງໂລກ, ພວກເຮົາຈະເຮັດແນວໃດໃຫ້ແນ່ໃຈວ່າ AI ປະຕິບັດຢ່າງຍຸດຕິທໍາ?
ໃນບົດຄວາມນີ້, ພວກເຮົາຈະເບິ່ງສິ່ງທ້າທາຍດ້ານຈັນຍາບັນຂອງການນໍາໃຊ້ AI ແລະເບິ່ງສິ່ງທີ່ພວກເຮົາສາມາດເຮັດໄດ້ເພື່ອຮັບປະກັນການນໍາໃຊ້ທີ່ຮັບຜິດຊອບຂອງ AI.
AI ດ້ານຈັນຍາບັນແມ່ນຫຍັງ?
AI ດ້ານຈັນຍາບັນຫມາຍເຖິງປັນຍາປະດິດທີ່ປະຕິບັດຕາມຊຸດຄໍາແນະນໍາດ້ານຈັນຍາບັນທີ່ແນ່ນອນ.
ໃນຄໍາສັບຕ່າງໆອື່ນໆ, ມັນເປັນວິທີການສໍາລັບບຸກຄົນແລະອົງການຈັດຕັ້ງທີ່ຈະເຮັດວຽກກັບ AI ໃນລັກສະນະທີ່ຮັບຜິດຊອບ.
ໃນຊຸມປີມໍ່ໆມານີ້, ບໍລິສັດຕ່າງໆໄດ້ເລີ່ມຍຶດ ໝັ້ນ ກັບກົດ ໝາຍ ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນຫຼັງຈາກຫຼັກຖານຂອງການລ່ວງລະເມີດແລະການລະເມີດໄດ້ເກີດຂື້ນ. ເຊັ່ນດຽວກັນ, ຄໍາແນະນໍາສໍາລັບ AI ດ້ານຈັນຍາບັນແມ່ນແນະນໍາໃຫ້ເຮັດໃຫ້ແນ່ໃຈວ່າ AI ບໍ່ມີຜົນກະທົບທາງລົບຕໍ່ສັງຄົມ.
ຕົວຢ່າງ, ບາງປະເພດຂອງ AI ເຮັດວຽກໃນລັກສະນະອະຄະຕິຫຼື perpetuate ຄວາມລໍາອຽງທີ່ມີຢູ່ແລ້ວ. ຂໍໃຫ້ພິຈາລະນາສູດການຄິດໄລ່ທີ່ຊ່ວຍໃຫ້ຜູ້ຮັບສະໝັກຈັດຮຽງຜ່ານຊີວະປະຫວັດນັບພັນ. ຖ້າ algorithm ໄດ້ຮັບການຝຶກອົບຮົມໃນຊຸດຂໍ້ມູນທີ່ມີພະນັກງານຊາຍຫຼືສີຂາວສ່ວນໃຫຍ່, ມັນເປັນໄປໄດ້ວ່າສູດການຄິດໄລ່ຈະມັກຜູ້ສະຫມັກທີ່ຕົກຢູ່ໃນຫມວດຫມູ່ເຫຼົ່ານັ້ນ.
ການສ້າງຫຼັກການສໍາລັບ AI ດ້ານຈັນຍາບັນ
ພວກເຮົາໄດ້ຄິດກ່ຽວກັບການສ້າງຕັ້ງກົດລະບຽບທີ່ຈະບັງຄັບໃຊ້ ປັນຍາປະດິດ ສໍາລັບຫລາຍໆສິບປີ.
ເຖິງແມ່ນວ່າໃນຊຸມປີ 1940, ເມື່ອຄອມພິວເຕີທີ່ມີພະລັງທີ່ສຸດສາມາດເຮັດການຄິດໄລ່ທາງວິທະຍາສາດທີ່ພິເສດທີ່ສຸດ, ນັກຂຽນນິຍາຍວິທະຍາສາດໄດ້ໄຕ່ຕອງກ່ຽວກັບແນວຄວາມຄິດຂອງການຄວບຄຸມຫຸ່ນຍົນອັດສະລິຍະ.
Isaac Asimov ໄດ້ສ້າງຊື່ສຽງຂອງສາມກົດ ໝາຍ ຂອງຫຸ່ນຍົນ, ເຊິ່ງລາວສະ ເໜີ ໄດ້ຖືກຝັງເຂົ້າໃນການຂຽນໂປແກຼມຫຸ່ນຍົນໃນເລື່ອງສັ້ນຂອງລາວເປັນລັກສະນະຄວາມປອດໄພ.
ກົດໝາຍເຫຼົ່ານີ້ໄດ້ກາຍເປັນຈຸດສໍາຄັນຕໍ່ກັບຫຼາຍເລື່ອງ sci-fi ໃນອະນາຄົດແລະຍັງໄດ້ແຈ້ງໃຫ້ຊາບເຖິງການສຶກສາຕົວຈິງກ່ຽວກັບຈັນຍາບັນຂອງ AI.
ໃນການຄົ້ນຄວ້າໃນປະຈຸບັນ, ນັກຄົ້ນຄວ້າ AI ກໍາລັງຊອກຫາແຫຼ່ງພື້ນຖານຫຼາຍເພື່ອສ້າງບັນຊີລາຍຊື່ຂອງຫຼັກການສໍາລັບ AI ດ້ານຈັນຍາບັນ.
ເນື່ອງຈາກ AI ຈະສົ່ງຜົນກະທົບຕໍ່ຊີວິດຂອງມະນຸດໃນທີ່ສຸດ, ພວກເຮົາຕ້ອງມີຄວາມເຂົ້າໃຈພື້ນຖານກ່ຽວກັບສິ່ງທີ່ພວກເຮົາຄວນແລະບໍ່ຄວນເຮັດ.
ບົດລາຍງານ Belmont
ສໍາລັບຈຸດອ້າງອີງ, ນັກຄົ້ນຄວ້າດ້ານຈັນຍາບັນເບິ່ງຢູ່ໃນບົດລາຍງານ Belmont ເປັນຄໍາແນະນໍາ. ໄດ້ ບົດລາຍງານ Belmont ແມ່ນເອກະສານທີ່ພິມເຜີຍແຜ່ໂດຍສະຖາບັນສຸຂະພາບແຫ່ງຊາດຂອງສະຫະລັດໃນປີ 1979. ຄວາມໂຫດຮ້າຍທາງຊີວະພາບທີ່ໄດ້ປະຕິບັດໃນ WW2 ເຮັດໃຫ້ມີການຊຸກຍູ້ໃຫ້ອອກກົດຫມາຍຄໍາແນະນໍາດ້ານຈັນຍາບັນສໍາລັບນັກຄົ້ນຄວ້າປະຕິບັດການແພດ.
ນີ້ແມ່ນສາມຫຼັກການພື້ນຖານທີ່ໄດ້ກ່າວມາໃນບົດລາຍງານ:
- ເຄົາລົບນັບຖືບຸກຄົນ
- ຜົນປະໂຫຍດ
- ຄວາມຍຸດຕິທໍາ
ຫຼັກທໍາອິດມີຈຸດປະສົງທີ່ຈະຮັກສາກຽດສັກສີແລະການເປັນເອກະລາດຂອງທຸກວິຊາຂອງມະນຸດ. ຕົວຢ່າງ, ນັກຄົ້ນຄວ້າຄວນຫຼຸດຜ່ອນຜູ້ເຂົ້າຮ່ວມທີ່ຫຼອກລວງແລະຄວນຮຽກຮ້ອງໃຫ້ແຕ່ລະຄົນໃຫ້ຄວາມຍິນຍອມຂອງພວກເຂົາຢ່າງຈະແຈ້ງ.
ຫຼັກການທີສອງ, ຜົນປະໂຫຍດ, ສຸມໃສ່ຫນ້າທີ່ຂອງນັກຄົ້ນຄວ້າເພື່ອຫຼຸດຜ່ອນອັນຕະລາຍທີ່ອາດເກີດຂື້ນກັບຜູ້ເຂົ້າຮ່ວມ. ຫຼັກການນີ້ເຮັດໃຫ້ນັກຄົ້ນຄວ້າມີຫນ້າທີ່ດຸ່ນດ່ຽງອັດຕາສ່ວນຂອງຄວາມສ່ຽງສ່ວນບຸກຄົນຕໍ່ກັບຜົນປະໂຫຍດທາງສັງຄົມທີ່ເປັນໄປໄດ້.
ຄວາມຍຸຕິທໍາ, ຫຼັກການສຸດທ້າຍທີ່ວາງໄວ້ໂດຍບົດລາຍງານ Belmont, ສຸມໃສ່ການແຈກຢາຍຄວາມສ່ຽງແລະຜົນປະໂຫຍດເທົ່າທຽມກັນໃນທົ່ວກຸ່ມຜູ້ທີ່ສາມາດໄດ້ຮັບຜົນປະໂຫຍດຈາກການຄົ້ນຄວ້າ. ນັກຄົ້ນຄວ້າມີຫນ້າທີ່ເລືອກເອົາວິຊາການຄົ້ນຄວ້າຈາກປະຊາກອນທີ່ກວ້າງຂວາງ. ການເຮັດເຊັ່ນນັ້ນຈະຫຼຸດຜ່ອນຄວາມລໍາອຽງຂອງບຸກຄົນ ແລະລະບົບທີ່ອາດສົ່ງຜົນກະທົບທາງລົບຕໍ່ສັງຄົມ.
ການວາງຈັນຍາບັນໃນການຄົ້ນຄວ້າ AI
ໃນຂະນະທີ່ບົດລາຍງານ Belmont ໄດ້ຖືກເປົ້າຫມາຍຕົ້ນຕໍໃນການຄົ້ນຄວ້າທີ່ກ່ຽວຂ້ອງກັບວິຊາຂອງມະນຸດ, ຫຼັກການແມ່ນກວ້າງຂວາງພຽງພໍທີ່ຈະນໍາໃຊ້ກັບພາກສະຫນາມຂອງຈັນຍາບັນ AI.
ຂໍ້ມູນໃຫຍ່ໄດ້ກາຍເປັນຊັບພະຍາກອນທີ່ມີຄຸນຄ່າໃນດ້ານປັນຍາປະດິດ. ຂະບວນການທີ່ກໍານົດວິທີທີ່ນັກຄົ້ນຄວ້າເກັບກໍາຂໍ້ມູນຄວນປະຕິບັດຕາມຄໍາແນະນໍາດ້ານຈັນຍາບັນ.
ການປະຕິບັດກົດໝາຍວ່າດ້ວຍຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນຢູ່ໃນປະເທດສ່ວນໃຫຍ່ມີຂໍ້ຈຳກັດບາງຢ່າງທີ່ບໍລິສັດສາມາດເກັບກຳ ແລະນຳໃຊ້ຂໍ້ມູນໄດ້. ເຖິງຢ່າງໃດກໍ່ຕາມ, ບັນດາປະເທດສ່ວນໃຫຍ່ຍັງມີກົດ ໝາຍ ພື້ນຖານເພື່ອປ້ອງກັນການໃຊ້ AI ເພື່ອເຮັດໃຫ້ເກີດອັນຕະລາຍ.
ວິທີການເຮັດວຽກກັບ AI ຢ່າງມີຈັນຍາບັນ
ນີ້ແມ່ນແນວຄວາມຄິດຫຼັກໆຈຳນວນໜຶ່ງທີ່ສາມາດຊ່ວຍເຮັດວຽກໄປສູ່ການນຳໃຊ້ AI ທີ່ມີຈັນຍາບັນ ແລະຄວາມຮັບຜິດຊອບຫຼາຍຂຶ້ນ.
ການຄວບຄຸມສໍາລັບ Bias
ປັນຍາປະດິດບໍ່ແມ່ນຄວາມເປັນກາງ. ສູດການຄິດໄລ່ແມ່ນມີຄວາມອ່ອນໄຫວຕໍ່ກັບການໃສ່ອະຄະຕິ ແລະ ການຈຳແນກສະເໝີ ເພາະຂໍ້ມູນທີ່ມັນຮຽນຮູ້ມາຈາກການມີອະຄະຕິ.
ຕົວຢ່າງທົ່ວໄປຂອງການຈໍາແນກ AI ແມ່ນປະເພດທີ່ປາກົດຢູ່ໃນລະບົບການຮັບຮູ້ໃບຫນ້າເລື້ອຍໆ. ແບບຈໍາລອງເຫຼົ່ານີ້ມັກຈະປະສົບຜົນສໍາເລັດໃນການກໍານົດໃບຫນ້າຂອງຜູ້ຊາຍສີຂາວ, ແຕ່ບໍ່ປະສົບຜົນສໍາເລັດຫນ້ອຍໃນການຮັບຮູ້ຄົນທີ່ມີຜິວຫນັງຊ້ໍາ.
ຕົວຢ່າງອື່ນປາກົດຢູ່ໃນ DALL-E ຂອງ OpenAI. ຜູ້ໃຊ້ມີ ຄົ້ນພົບ ວ່າການກະຕຸ້ນເຕືອນບາງຢ່າງມັກຈະແຜ່ພັນອະຄະຕິທາງເພດ ແລະເຊື້ອຊາດທີ່ຕົວແບບໄດ້ເກັບມາຈາກຊຸດຂໍ້ມູນຂອງຮູບພາບອອນລາຍ.
ຕົວຢ່າງ, ເມື່ອໄດ້ຮັບການເຕືອນສໍາລັບຮູບພາບຂອງທະນາຍຄວາມ, DALL-E 2 ສົ່ງຄືນຮູບພາບຂອງທະນາຍຄວາມຊາຍ. ຄຽງຄູ່ກັນນັ້ນ, ການຮ້ອງຂໍຮູບນັກບິນກັບຄືນມາສ່ວນຫຼາຍແມ່ນນັກບິນຍິງ.
ໃນຂະນະທີ່ມັນອາດຈະເປັນໄປບໍ່ໄດ້ທີ່ຈະກໍາຈັດຄວາມລໍາອຽງອອກຈາກລະບົບ AI ຢ່າງສົມບູນ, ພວກເຮົາສາມາດດໍາເນີນຂັ້ນຕອນເພື່ອຫຼຸດຜ່ອນຜົນກະທົບຂອງມັນ. ນັກຄົ້ນຄວ້າແລະວິສະວະກອນສາມາດບັນລຸການຄວບຄຸມຄວາມລໍາອຽງທີ່ໃຫຍ່ກວ່າໂດຍການເຂົ້າໃຈຂໍ້ມູນການຝຶກອົບຮົມແລະການຈ້າງທີມງານທີ່ຫຼາກຫຼາຍເພື່ອສະເຫນີຂໍ້ມູນກ່ຽວກັບວິທີການເຮັດວຽກຂອງລະບົບ AI.
ວິທີການອອກແບບມະນຸດເປັນໃຈກາງ
ສູດການຄິດໄລ່ຢູ່ໃນແອັບຯທີ່ທ່ານມັກສາມາດສົ່ງຜົນກະທົບທາງລົບຕໍ່ທ່ານ.
ເວທີເຊັ່ນ Facebook ແລະ TikTok ສາມາດຮຽນຮູ້ວ່າເນື້ອຫາໃດທີ່ຈະໃຫ້ບໍລິການເພື່ອຮັກສາຜູ້ໃຊ້ຢູ່ໃນເວທີຂອງພວກເຂົາ.
ເຖິງແມ່ນວ່າບໍ່ມີເຈດຕະນາທີ່ຈະເຮັດໃຫ້ເກີດອັນຕະລາຍ, ຈຸດປະສົງທີ່ຈະເຮັດໃຫ້ຜູ້ໃຊ້ຕິດກາວກັບແອັບຯຂອງພວກເຂົາດົນເທົ່າທີ່ເປັນໄປໄດ້ສາມາດນໍາໄປສູ່ບັນຫາສຸຂະພາບຈິດ. ຄໍາວ່າ 'doomscrolling' ໄດ້ເພີ່ມຂຶ້ນໃນຄວາມນິຍົມເປັນຄໍາທີ່ຈັບໄດ້ສໍາລັບການໃຊ້ເວລາຫຼາຍເກີນໄປໃນການອ່ານຂ່າວທາງລົບໃນເວທີເຊັ່ນ Twitter ແລະ Facebook.
ໃນກໍລະນີອື່ນໆ, ເນື້ອຫາທີ່ກຽດຊັງແລະຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງໄດ້ຮັບເວທີທີ່ກວ້າງກວ່າເພາະວ່າມັນຊ່ວຍເພີ່ມການມີສ່ວນຮ່ວມຂອງຜູ້ໃຊ້. ກ ການສຶກສາ 2021 ຈາກນັກຄົ້ນຄວ້າທີ່ມະຫາວິທະຍາໄລນິວຢອກສະແດງໃຫ້ເຫັນວ່າຂໍ້ຄວາມຈາກແຫຼ່ງຂ່າວທີ່ຮູ້ຈັກກັບຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງໄດ້ຮັບຄວາມມັກຫຼາຍກວ່າແຫຼ່ງຂ່າວທີ່ມີຊື່ສຽງເຖິງ XNUMX ເທົ່າ.
ສູດການຄິດໄລ່ເຫຼົ່ານີ້ຂາດວິທີການອອກແບບທີ່ເນັ້ນໃສ່ມະນຸດ. ວິສະວະກອນທີ່ກໍາລັງອອກແບບວິທີການ AI ປະຕິບັດການກະທໍາຕ້ອງຮັກສາປະສົບການຂອງຜູ້ໃຊ້ຢູ່ໃນໃຈສະເຫມີ.
ນັກຄົ້ນຄວ້າແລະວິສະວະກອນຕ້ອງຖາມຄໍາຖາມສະເຫມີວ່າ: 'ນີ້ມີປະໂຫຍດຕໍ່ຜູ້ໃຊ້ແນວໃດ?'
ຮູບແບບ AI ສ່ວນໃຫຍ່ປະຕິບັດຕາມແບບຈໍາລອງກ່ອງດໍາ. ກ່ອງດຳຢູ່ໃນ ການຮຽນຮູ້ເຄື່ອງຈັກ ຫມາຍເຖິງ AI ທີ່ບໍ່ມີມະນຸດສາມາດອະທິບາຍວ່າເປັນຫຍັງ AI ມາຮອດຜົນໄດ້ຮັບໂດຍສະເພາະ.
ກ່ອງດໍາແມ່ນມີບັນຫາເນື່ອງຈາກວ່າມັນຫຼຸດລົງຈໍານວນຄວາມໄວ້ວາງໃຈທີ່ພວກເຮົາສາມາດໃສ່ໃນເຄື່ອງຈັກ.
ຕົວຢ່າງ, ໃຫ້ຈິນຕະນາການສະຖານະການທີ່ Facebook ປ່ອຍຕົວ algorithm ທີ່ຊ່ວຍໃຫ້ລັດຖະບານຕິດຕາມຄະດີອາຍາ. ຖ້າລະບົບ AI ທຸງທ່ານ, ບໍ່ມີໃຜຈະສາມາດອະທິບາຍວ່າເປັນຫຍັງມັນຈຶ່ງຕັດສິນໃຈນັ້ນ. ປະເພດຂອງລະບົບນີ້ບໍ່ຄວນເປັນເຫດຜົນດຽວວ່າເປັນຫຍັງທ່ານຄວນຖືກຈັບ.
AI ຫຼື XAI ທີ່ສາມາດອະທິບາຍໄດ້ຄວນສົ່ງຄືນບັນຊີລາຍຊື່ຂອງປັດໃຈທີ່ປະກອບສ່ວນເຂົ້າໃນຜົນໄດ້ຮັບສຸດທ້າຍ. ກັບຄືນໄປຫາຕົວຕິດຕາມຄະດີອາຍາທີ່ສົມມຸດຕິຖານຂອງພວກເຮົາ, ພວກເຮົາສາມາດປັບປ່ຽນລະບົບ AI ເພື່ອສົ່ງຄືນລາຍຊື່ຂອງຂໍ້ຄວາມທີ່ສະແດງພາສາຫຼືຂໍ້ກໍານົດທີ່ຫນ້າສົງໄສ. ຈາກບ່ອນນັ້ນ, ມະນຸດສາມາດກວດສອບໄດ້ວ່າຜູ້ໃຊ້ທີ່ຖືກທຸງແມ່ນຄຸ້ມຄ່າທີ່ຈະສືບສວນຫຼືບໍ່.
XAI ສະຫນອງຄວາມໂປ່ງໃສແລະຄວາມໄວ້ວາງໃຈຫຼາຍຂຶ້ນໃນລະບົບ AI ແລະສາມາດຊ່ວຍມະນຸດໃນການຕັດສິນໃຈທີ່ດີກວ່າ.
ສະຫຼຸບ
ເຊັ່ນດຽວກັນກັບສິ່ງປະດິດສ້າງໂດຍມະນຸດທັງຫມົດ, ປັນຍາປະດິດບໍ່ແມ່ນສິ່ງທີ່ດີຫຼືບໍ່ດີ. ມັນເປັນວິທີທີ່ພວກເຮົາໃຊ້ AI ທີ່ສໍາຄັນ.
ສິ່ງທີ່ເປັນເອກະລັກກ່ຽວກັບປັນຍາປະດິດແມ່ນຈັງຫວະທີ່ມັນເຕີບໃຫຍ່. ໃນຫ້າປີທີ່ຜ່ານມາ, ພວກເຮົາໄດ້ເຫັນການຄົ້ນພົບໃຫມ່ແລະຕື່ນເຕັ້ນໃນພາກສະຫນາມຂອງການຮຽນຮູ້ເຄື່ອງຈັກທຸກໆມື້.
ຢ່າງໃດກໍຕາມ, ກົດຫມາຍແມ່ນບໍ່ໄວ. ໃນຂະນະທີ່ບໍລິສັດແລະລັດຖະບານສືບຕໍ່ໃຊ້ AI ເພື່ອເພີ່ມຜົນກໍາໄລຫຼືຍຶດເອົາການຄວບຄຸມພົນລະເມືອງ, ພວກເຮົາຕ້ອງຊອກຫາວິທີທີ່ຈະຊຸກຍູ້ໃຫ້ມີຄວາມໂປ່ງໃສແລະຄວາມສະເຫມີພາບໃນການນໍາໃຊ້ສູດການຄິດໄລ່ເຫຼົ່ານີ້.
ເຈົ້າຄິດວ່າ AI ມີຈັນຍາບັນຢ່າງແທ້ຈິງເປັນໄປໄດ້ບໍ?
ອອກຈາກ Reply ເປັນ