ສາມປີກ່ອນ, ຂ້າພະເຈົ້າໄດ້ໄປຢ້ຽມຢາມງານວາງສະແດງສິລະປະທີ່ຫນ້າສົນໃຈຫຼາຍ. "ຄວາມຊົງຈໍາຂອງເຄື່ອງຈັກ" ໂດຍ Refik Anadol ໄດ້ດຶງດູດຄວາມສົນໃຈຂອງຂ້ອຍຕັ້ງແຕ່ເລີ່ມຕົ້ນ.
ລາວເປັນຊື່ທີ່ນິຍົມໃນບັນດາຜູ້ທີ່ມີຄວາມສົນໃຈໃນການຕັດກັນຂອງສິລະປະແລະ AI. ແຕ່ບໍ່ຕ້ອງເປັນຫ່ວງ, blog ນີ້ບໍ່ແມ່ນກ່ຽວກັບສິນລະປະ. ພວກເຮົາຈະເຈາະເລິກເຂົ້າໄປໃນ "ຄວາມເຂົ້າໃຈ" ທີ່ເລິກເຊິ່ງຂອງ AI.
ໃນງານວາງສະແດງນີ້, Anadol ໄດ້ທົດລອງກັບ ພາບການສຳຫຼວດອາວະກາດຂອງອົງການ NASA. ງານວາງສະແດງໄດ້ຮັບການດົນໃຈຈາກແນວຄວາມຄິດວ່າ telescopes ສາມາດ "ຝັນ" ການນໍາໃຊ້ການເກັບພາບຂອງເຂົາເຈົ້າ, bluring ສິ່ງກີດຂວາງລະຫວ່າງຄວາມຈິງແລະຈິນຕະນາການ.
ໂດຍການສືບສວນຄວາມສໍາພັນລະຫວ່າງຂໍ້ມູນ, ຄວາມຊົງຈໍາ, ແລະປະຫວັດສາດໃນລະດັບ cosmic, Anadol ໄດ້ຮຽກຮ້ອງໃຫ້ພວກເຮົາພິຈາລະນາທ່າແຮງຂອງ. ປັນຍາປະດິດ ເພື່ອສັງເກດ ແລະເຂົ້າໃຈໂລກອ້ອມຕົວເຮົາ. ແລະແມ້ກະທັ້ງ AI ທີ່ຈະມີຄວາມຝັນຂອງຕົນເອງ ...
ດັ່ງນັ້ນ, ເປັນຫຍັງເລື່ອງນີ້ຈຶ່ງກ່ຽວຂ້ອງກັບພວກເຮົາ?
ພິຈາລະນາເລື່ອງນີ້: ຫຼາຍເທົ່າທີ່ Anadol ສືບສວນແນວຄວາມຄິດຂອງ telescopes ຝັນຈາກຂໍ້ມູນຂອງເຂົາເຈົ້າ, ລະບົບ AI ມີປະເພດຂອງຄວາມຝັນຂອງຕົນເອງ - ຫຼືແທນທີ່ຈະ, hallucinations - ພາຍໃນທະນາຄານຄວາມຊົງຈໍາດິຈິຕອນຂອງເຂົາເຈົ້າ.
ຄວາມຫຼົງໄຫຼເຫຼົ່ານີ້, ຄືກັບການເບິ່ງເຫັນໃນງານວາງສະແດງຂອງ Anadol, ສາມາດຊ່ວຍພວກເຮົາຮຽນຮູ້ເພີ່ມເຕີມກ່ຽວກັບຂໍ້ມູນ, AI ແລະຂໍ້ຈໍາກັດຂອງມັນ.
ສິ່ງທີ່ແທ້ຈິງແມ່ນ hallucinations AI?
ເມື່ອຮູບແບບພາສາຂະຫນາດໃຫຍ່, ເຊັ່ນ AI chatbot ທົ່ວໄປ, ຜະລິດຜົນໄດ້ຮັບທີ່ມີຮູບແບບທີ່ບໍ່ມີຢູ່ຫຼືເບິ່ງບໍ່ເຫັນກັບຜູ້ສັງເກດການຂອງມະນຸດ, ພວກເຮົາເອີ້ນສິ່ງເຫຼົ່ານີ້ວ່າ "AI hallucinations."
ຜົນໄດ້ຮັບເຫຼົ່ານີ້, ເຊິ່ງແຕກຕ່າງຈາກຄໍາຕອບທີ່ຄາດຫວັງໂດຍອີງໃສ່ການປ້ອນຂໍ້ມູນໃຫ້ກັບ AI, ສາມາດຜິດພາດຫຼືບໍ່ມີເຫດຜົນ.
ໃນສະພາບການຂອງຄອມພິວເຕີ, ຄໍາວ່າ "hallucination" ອາດຈະເບິ່ງຄືວ່າຜິດປົກກະຕິ, ແຕ່ມັນອະທິບາຍຢ່າງຖືກຕ້ອງກ່ຽວກັບລັກສະນະທີ່ແປກປະຫຼາດຂອງຜົນໄດ້ຮັບທີ່ບໍ່ຖືກຕ້ອງເຫຼົ່ານີ້. ຄວາມຫຼົງໄຫຼຂອງ AI ແມ່ນເກີດມາຈາກຫຼາຍຕົວແປ, ລວມທັງ overfitting, ຄວາມລໍາອຽງໃນຂໍ້ມູນການຝຶກອົບຮົມ, ແລະຄວາມສັບສົນຂອງຕົວແບບ AI.
ເພື່ອໃຫ້ເຂົ້າໃຈໄດ້ດີກວ່າ, ນີ້ແມ່ນແນວຄວາມຄິດຄ້າຍຄືກັນກັບວິທີທີ່ມະນຸດເຫັນຮູບຮ່າງໃນເມກຫຼືໃບຫນ້າເທິງດວງຈັນ.
ຕົວຢ່າງ:
ໃນຕົວຢ່າງນີ້, ຂ້າພະເຈົ້າໄດ້ຖາມຄໍາຖາມທີ່ງ່າຍທີ່ສຸດທີ່ຈະ ສົນທະນາ GPT. ຂ້າພະເຈົ້າຄວນຈະໄດ້ຮັບຄໍາຕອບເຊັ່ນ, "ຜູ້ຂຽນຂອງປື້ມ Dune ແມ່ນ Frank Herbert."
ເປັນຫຍັງເຫດການນີ້ເກີດຂື້ນ?
ເຖິງວ່າຈະມີການສ້າງຂຶ້ນເພື່ອຂຽນເນື້ອຫາທີ່ສອດຄ່ອງກັນແລະມີນ້ໍາ, ຕົວແບບພາສາຂະຫນາດໃຫຍ່ແມ່ນບໍ່ສາມາດເຂົ້າໃຈສິ່ງທີ່ພວກເຂົາເວົ້າ. ນີ້ແມ່ນສິ່ງສໍາຄັນຫຼາຍໃນການກໍານົດຄວາມຫນ້າເຊື່ອຖືຂອງເນື້ອຫາທີ່ສ້າງໂດຍ AI.
ໃນຂະນະທີ່ຕົວແບບເຫຼົ່ານີ້ສາມາດສ້າງປະຕິກິລິຍາທີ່ຄ້າຍຄືກັບພຶດຕິກໍາຂອງມະນຸດ, ພວກເຂົາເຈົ້າຂາດຄວາມຮັບຮູ້ສະພາບການແລະທັກສະການຄິດທີ່ມີວິຈານ ທີ່ເນັ້ນໜັກເຖິງຄວາມສະຫຼາດຕົວຈິງ.
ດັ່ງນັ້ນ, ຜົນຜະລິດທີ່ສ້າງຂຶ້ນໂດຍ AI ເຮັດໃຫ້ເກີດອັນຕະລາຍຂອງການເຂົ້າໃຈຜິດ ຫຼືຜິດ ເນື່ອງຈາກພວກມັນມັກຮູບແບບການຈັບຄູ່ຫຼາຍກວ່າຄວາມຖືກຕ້ອງຂອງຄວາມເປັນຈິງ.
ຈະເປັນແນວໃດບາງກໍລະນີອື່ນໆຂອງ hallucinations?
ຂໍ້ມູນຜິດພາດອັນຕະລາຍ: ສົມມຸດວ່າ AI chatbot ທົ່ວໄປສ້າງຫຼັກຖານແລະປະຈັກພະຍານເພື່ອກ່າວຫາບຸກຄົນສາທາລະນະກ່ຽວກັບການປະພຶດຜິດທາງອາຍາ. ຂໍ້ມູນທີ່ຫຼອກລວງນີ້ມີຄວາມສາມາດທີ່ຈະທໍາລາຍຊື່ສຽງຂອງບຸກຄົນແລະເຮັດໃຫ້ເກີດການຕອບໂຕ້ທີ່ບໍ່ຍຸດຕິທໍາ.
ຄຳຕອບທີ່ແປກປະຫຼາດ ຫຼື ໜ້າຢ້ານ: ເພື່ອໃຫ້ເປັນຕົວຢ່າງທີ່ຕະຫຼົກ, ໃຫ້ຮູບພາບ chatbot ໃຫ້ຜູ້ໃຊ້ຄໍາຖາມສະພາບອາກາດແລະຕອບກັບການຄາດຄະເນທີ່ບອກວ່າມັນຈະຝົນແມວແລະຫມາ, ພ້ອມກັບຮູບພາບຂອງນ້ໍາຝົນທີ່ຄ້າຍຄືແມວແລະຫມາ. ເຖິງແມ່ນວ່າພວກເຂົາເປັນເລື່ອງຕະຫລົກ, ນີ້ຍັງຄົງເປັນ "ຄວາມແປກໃຈ."
ຄວາມບໍ່ຖືກຕ້ອງຕາມຄວາມເປັນຈິງ: ສົມມຸດວ່າ chatbot ທີ່ໃຊ້ພາສາແບບຜິດໆລະບຸວ່າກຳແພງຈີນອາດຈະຖືກເບິ່ງຈາກອາວະກາດໂດຍບໍ່ໄດ້ອະທິບາຍວ່າມັນເບິ່ງເຫັນໄດ້ພາຍໃຕ້ເງື່ອນໄຂສະເພາະເທົ່ານັ້ນ. ໃນຂະນະທີ່ບາງຂໍ້ສັງເກດອາດເບິ່ງຄືວ່າເປັນທີ່ເຊື່ອຖືໄດ້, ມັນບໍ່ຖືກຕ້ອງ ແລະສາມາດເຮັດໃຫ້ຄົນເຂົ້າໃຈຜິດກ່ຽວກັບການເບິ່ງເຫັນຝາຈາກອາວະກາດ.
ເຮັດແນວໃດທ່ານຫຼີກເວັ້ນການ Hallucinations AI ເປັນຜູ້ໃຊ້?
ເຮັດການເຕືອນທີ່ຊັດເຈນ
ທ່ານຈໍາເປັນຕ້ອງຕິດຕໍ່ສື່ສານກັບຕົວແບບ AI ຢ່າງຊັດເຈນ.
ຄິດກ່ຽວກັບເປົ້າຫມາຍຂອງທ່ານແລະອອກແບບການກະຕຸ້ນເຕືອນຂອງທ່ານກ່ອນທີ່ຈະຂຽນ.
ຕົວຢ່າງ, ໃຫ້ຄໍາແນະນໍາສະເພາະເຊັ່ນ: "ອະທິບາຍວິທີການເຮັດວຽກຂອງອິນເຕີເນັດແລະຂຽນວັກກ່ຽວກັບຄວາມສໍາຄັນຂອງມັນຢູ່ໃນສັງຄົມທີ່ທັນສະໄຫມ" ແທນທີ່ຈະຕັ້ງຄໍາຖາມທົ່ວໄປເຊັ່ນ "ບອກຂ້ອຍກ່ຽວກັບອິນເຕີເນັດ."
ຄວາມຊັດເຈນຊ່ວຍໃຫ້ຕົວແບບ AI ຕີຄວາມຕັ້ງໃຈຂອງເຈົ້າ.
ຕົວຢ່າງ: ຖາມຄໍາຖາມ AI ເຊັ່ນ:
"ຄອມພິວເຕີ້ຟັງແມ່ນຫຍັງ, ແລະມັນເຮັດວຽກແນວໃດ?"
"ອະທິບາຍຜົນກະທົບຂອງ drift ຂໍ້ມູນໃນການປະຕິບັດຕົວແບບ."
"ສົນທະນາຜົນກະທົບແລະອະນາຄົດທີ່ເປັນໄປໄດ້ຂອງເຕັກໂນໂລຢີ VR ໃນທຸລະກິດ IT."
ຮັບເອົາພະລັງຂອງຕົວຢ່າງ
ການໃຫ້ຕົວຢ່າງໃນການກະຕຸ້ນເຕືອນຂອງທ່ານຊ່ວຍໃຫ້ຕົວແບບ AI ເຂົ້າໃຈສະພາບການແລະສ້າງການຕອບກັບທີ່ຊັດເຈນ. ບໍ່ວ່າທ່ານຈະກໍາລັງຊອກຫາຄວາມເຂົ້າໃຈທາງປະຫວັດສາດຫຼືຄໍາອະທິບາຍດ້ານວິຊາການ, ການສະຫນອງຕົວຢ່າງສາມາດຊ່ວຍເພີ່ມຄວາມຖືກຕ້ອງຂອງເນື້ອຫາທີ່ສ້າງໂດຍ AI.
ຕົວຢ່າງ, ທ່ານສາມາດເວົ້າວ່າ, "ກ່າວເຖິງນະວະນິຍາຍຈິນຕະນາການເຊັ່ນ Harry Potter."
ທໍາລາຍວຽກງານທີ່ຊັບຊ້ອນ
ສະລັບສັບຊ້ອນກະຕຸ້ນການໂຫຼດ AI algorithms ຫຼາຍເກີນໄປ, ແລະພວກມັນອາດຈະນໍາໄປສູ່ຜົນໄດ້ຮັບທີ່ບໍ່ກ່ຽວຂ້ອງ. ເພື່ອປ້ອງກັນການນີ້, ແບ່ງກິດຈະກໍາທີ່ຊັບຊ້ອນອອກເປັນຕ່ອນຂະຫນາດນ້ອຍກວ່າ, ສາມາດຈັດການໄດ້ຫຼາຍ. ໂດຍການຈັດຕັ້ງການກະຕຸ້ນເຕືອນຂອງທ່ານຕາມລໍາດັບ, ທ່ານອະນຸຍາດໃຫ້ AI ສຸມໃສ່ແຕ່ລະອົງປະກອບຢ່າງເປັນເອກະລາດ, ເຮັດໃຫ້ມີການຕອບໂຕ້ຢ່າງມີເຫດຜົນຫຼາຍຂຶ້ນ.
ຕົວຢ່າງ, ແທນທີ່ຈະຂໍໃຫ້ AI "ອະທິບາຍຂະບວນການສ້າງ ເຄືອຂ່າຍ neural” ໃນແບບສອບຖາມດຽວ, ແບ່ງການມອບໝາຍອອກເປັນໄລຍະແຍກກັນ ເຊັ່ນ: ການກຳນົດບັນຫາ ແລະ ການເກັບກຳຂໍ້ມູນ.
ກວດສອບຜົນໄດ້ຮັບ ແລະໃຫ້ຄໍາຄິດເຫັນ
ກວດເບິ່ງຜົນໄດ້ຮັບທີ່ຜະລິດໂດຍຕົວແບບ AI ສະເໝີ, ໂດຍສະເພາະສໍາລັບກິດຈະກໍາທີ່ອີງໃສ່ຄວາມເປັນຈິງ ຫຼືສໍາຄັນ. ປຽບທຽບການຕອບກັບຫາແຫຼ່ງທີ່ເຊື່ອຖືໄດ້ ແລະສັງເກດຄວາມແຕກຕ່າງ ຫຼືຂໍ້ຜິດພາດຕ່າງໆ.
ສະໜອງການປ້ອນຂໍ້ມູນໃສ່ລະບົບ AI ເພື່ອເພີ່ມປະສິດທິພາບໃນອະນາຄົດ ແລະຫຼຸດຜ່ອນຄວາມຫຼົງໄຫຼ.
ຍຸດທະສາດສໍາລັບນັກພັດທະນາເພື່ອຫຼີກເວັ້ນການ Hallucinations AI
ຈັດຕັ້ງປະຕິບັດ Retrieval-augmented Generation (RAG).
ປະສົມປະສານເຕັກນິກການສ້າງການດຶງຂໍ້ມູນເຂົ້າໃນລະບົບ AI ເພື່ອອີງໃສ່ການຕອບກັບຄວາມຈິງຈາກຖານຂໍ້ມູນທີ່ເຊື່ອຖືໄດ້.
Retrieval-augmented generation (RAG) ປະສົມປະສານການຜະລິດພາສາທໍາມະຊາດມາດຕະຖານທີ່ມີຄວາມສາມາດໃນການໄດ້ຮັບແລະລວມເອົາຂໍ້ມູນທີ່ກ່ຽວຂ້ອງຈາກພື້ນຖານຄວາມຮູ້ອັນໃຫຍ່ຫຼວງ, ສົ່ງຜົນໃຫ້ຜົນຜະລິດທີ່ອຸດົມສົມບູນຫຼາຍຂື້ນ.
ໂດຍການລວມເນື້ອຫາທີ່ສ້າງໂດຍ AI ກັບແຫຼ່ງຂໍ້ມູນທີ່ຖືກຕ້ອງ, ທ່ານສາມາດປັບປຸງຄວາມຫນ້າເຊື່ອຖືແລະຄວາມຫນ້າເຊື່ອຖືຂອງຜົນໄດ້ຮັບ AI.
ກວດສອບແລະກວດສອບຜົນໄດ້ຮັບ AI ຢ່າງຕໍ່ເນື່ອງ
ກໍານົດຂັ້ນຕອນການກວດສອບຢ່າງເຂັ້ມງວດເພື່ອກວດສອບຄວາມຖືກຕ້ອງແລະຄວາມສອດຄ່ອງຂອງຜົນໄດ້ຮັບ AI ໃນເວລາຈິງ. ຕິດຕາມກວດກາການປະຕິບັດຂອງ AI ດ້ວຍຄວາມເອົາໃຈໃສ່, ຊອກຫາຄວາມແປກໃຈທີ່ອາດຈະເກີດຂຶ້ນຫຼືຄວາມຜິດພາດ, ແລະເຮັດຊ້ໍາການຝຶກອົບຮົມແບບຈໍາລອງແລະການເພີ່ມປະສິດທິພາບທັນທີເພື່ອເພີ່ມຄວາມຫນ້າເຊື່ອຖືໃນໄລຍະເວລາ.
ຕົວຢ່າງເຊັ່ນ, ໃຊ້ວິທີການກວດສອບອັດຕະໂນມັດເພື່ອກວດກາເບິ່ງເນື້ອຫາທີ່ສ້າງໂດຍ AI ສໍາລັບຄວາມຖືກຕ້ອງຂອງຄວາມເປັນຈິງແລະຊີ້ໃຫ້ເຫັນຕົວຢ່າງຂອງຄວາມແປກໃຈທີ່ເປັນໄປໄດ້ສໍາລັບການປະເມີນຄູ່ມື.
ກວດເບິ່ງຂໍ້ມູນ Drifts
Data drift ແມ່ນປະກົດການທີ່ລັກສະນະສະຖິຕິຂອງຂໍ້ມູນທີ່ໃຊ້ໃນການຝຶກອົບຮົມແບບຈໍາລອງ AI ແຕກຕ່າງກັນໄປຕາມເວລາ. ຖ້າຕົວແບບ AI ພົບກັບຂໍ້ມູນທີ່ແຕກຕ່າງຈາກຂໍ້ມູນການຝຶກອົບຮົມຂອງມັນໃນລະຫວ່າງການສະຫຼຸບ, ມັນສາມາດໃຫ້ຜົນໄດ້ຮັບທີ່ບໍ່ຖືກຕ້ອງຫຼືບໍ່ມີເຫດຜົນ, ເຊິ່ງກໍ່ໃຫ້ເກີດຄວາມແປກໃຈ.
ຕົວຢ່າງ, ຖ້າຕົວແບບ AI ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນທີ່ຜ່ານມາທີ່ບໍ່ກ່ຽວຂ້ອງຫຼືຊີ້ໃຫ້ເຫັນເຖິງສະພາບແວດລ້ອມໃນປະຈຸບັນ, ມັນອາດຈະເຮັດໃຫ້ບົດສະຫຼຸບຫຼືການຄາດຄະເນທີ່ບໍ່ຖືກຕ້ອງ.
ດັ່ງນັ້ນ, ການຕິດຕາມແລະການແກ້ໄຂການເລື່ອນຂໍ້ມູນແມ່ນສໍາຄັນຕໍ່ການຮັບປະກັນການປະຕິບັດຂອງລະບົບ AI ແລະຄວາມຫນ້າເຊື່ອຖືໃນຂະນະທີ່ຍັງຫຼຸດຜ່ອນຄວາມເປັນໄປໄດ້ຂອງການຕົກຕະລຶງ.
ສະຫຼຸບ
ອີງຕາມຂໍ້ມູນ IBM, AI hallucinations ເກີດຂື້ນໃນປະມານ 3% ຫາ 10% ຂອງຄໍາຕອບຈາກແບບຈໍາລອງ AI.
ດັ່ງນັ້ນ, ບໍ່ວ່າທາງໃດທາງຫນຶ່ງ, ເຈົ້າອາດຈະສັງເກດເຫັນພວກມັນເຊັ່ນກັນ. ຂ້ອຍເຊື່ອວ່ານີ້ເປັນຫົວຂໍ້ທີ່ໜ້າສົນໃຈຢ່າງບໍ່ໜ້າເຊື່ອ ເພາະວ່າມັນເປັນການເຕືອນທີ່ໜ້າສົນໃຈຂອງເສັ້ນທາງຢ່າງຕໍ່ເນື່ອງໄປສູ່ການເສີມຂະຫຍາຍຄວາມສາມາດຂອງ AI.
ພວກເຮົາໄດ້ຮັບການສັງເກດແລະທົດລອງກັບຄວາມຫນ້າເຊື່ອຖືຂອງ AI, intricacies ຂອງການດໍາເນີນການຂໍ້ມູນ, ແລະການພົວພັນກັບມະນຸດກັບ AI.
ອອກຈາກ Reply ເປັນ