ເປັນເວລາຫຼາຍປີແລ້ວ, ການຮຽນຮູ້ຢ່າງເລິກເຊິ່ງໄດ້ເຮັດໃຫ້ຫົວຂໍ້ຂ່າວໃນເຕັກໂນໂລຢີ. ແລະ, ມັນງ່າຍດາຍທີ່ຈະເຂົ້າໃຈວ່າເປັນຫຍັງ.
ສາຂາຂອງປັນຍາປະດິດນີ້ແມ່ນການຫັນປ່ຽນຂະແຫນງການຕັ້ງແຕ່ການດູແລສຸຂະພາບກັບທະນາຄານໄປສູ່ການຂົນສົ່ງ, ເຮັດໃຫ້ຄວາມກ້າວຫນ້າທີ່ບໍ່ເຄີຍຄິດມາກ່ອນ.
ການຮຽນຮູ້ເລິກແມ່ນສ້າງຂຶ້ນໃນຊຸດຂອງສູດການຄິດໄລ່ທີ່ຊັບຊ້ອນທີ່ຮຽນຮູ້ເພື່ອສະກັດ ແລະຄາດຄະເນຮູບແບບທີ່ຊັບຊ້ອນຈາກປະລິມານຂໍ້ມູນຂະໜາດໃຫຍ່.
ພວກເຮົາຈະເບິ່ງ 15 ທີ່ດີທີ່ສຸດ algorithms ການຮຽນຮູ້ເລິກໃນບົດຄວາມນີ້, ຈາກ Convolutional Neural Networks ກັບ Generative Adversarial Networks ກັບເຄືອຂ່າຍຄວາມຊົງຈໍາໄລຍະສັ້ນໄລຍະຍາວ.
ຂໍ້ຄວາມນີ້ຈະໃຫ້ຄວາມເຂົ້າໃຈທີ່ສໍາຄັນກ່ຽວກັບວ່າທ່ານເປັນ ຜູ້ເລີ່ມຕົ້ນຫຼືຜູ້ຊ່ຽວຊານໃນການຮຽນຮູ້ເລິກ.
1. Transformer Networks
ເຄືອຂ່າຍ Transformer ໄດ້ຫັນປ່ຽນ ວິໄສທັດຄອມພິວເຕີ ແລະຄໍາຮ້ອງສະຫມັກການປຸງແຕ່ງພາສາທໍາມະຊາດ (NLP). ພວກເຂົາວິເຄາະຂໍ້ມູນຂາເຂົ້າແລະໃຊ້ຂະບວນການເອົາໃຈໃສ່ເພື່ອເກັບກໍາຄວາມສໍາພັນໃນໄລຍະຍາວ. ນີ້ເຮັດໃຫ້ພວກມັນໄວກວ່າແບບລໍາດັບຕໍ່ລໍາດັບແບບທໍາມະດາ.
ເຄືອຂ່າຍການຫັນເປັນໄດ້ຖືກອະທິບາຍຄັ້ງທໍາອິດໃນສິ່ງພິມ "ເອົາໃຈໃສ່ແມ່ນສິ່ງທີ່ທ່ານຕ້ອງການ" ໂດຍ Vaswani et al.
ພວກເຂົາປະກອບດ້ວຍຕົວເຂົ້າລະຫັດແລະຕົວຖອດລະຫັດ (2017). ຮູບແບບການຫັນປ່ຽນໄດ້ສະແດງໃຫ້ເຫັນການປະຕິບັດໃນຫຼາຍໆຄໍາຮ້ອງສະຫມັກ NLP, ລວມທັງ ການວິເຄາະຄວາມຮູ້ສຶກ, ການຈັດປະເພດຂໍ້ຄວາມ, ແລະການແປດ້ວຍເຄື່ອງຈັກ.
ຮູບແບບການຫັນເປັນຍັງສາມາດຖືກນໍາໃຊ້ໃນວິໄສທັດຄອມພິວເຕີສໍາລັບຄໍາຮ້ອງສະຫມັກ. ພວກເຂົາສາມາດປະຕິບັດການຮັບຮູ້ວັດຖຸແລະການບັນຍາຍຮູບພາບ.
2. ເຄືອຂ່າຍຄວາມຈຳໄລຍະສັ້ນ (LSTMs)
Long Short-Term Memory Networks (LSTMs) ແມ່ນຮູບແບບຂອງ ເຄືອຂ່າຍ neural ສ້າງຂຶ້ນໂດຍສະເພາະເພື່ອຈັດການການປ້ອນຂໍ້ມູນຕາມລໍາດັບ. ພວກມັນຖືກເອີ້ນວ່າ "ໄລຍະສັ້ນ" ເພາະວ່າພວກເຂົາສາມາດຈື່ຈໍາຄວາມຮູ້ຈາກເວລາດົນນານກ່ອນຫນ້ານີ້ໃນຂະນະທີ່ລືມຂໍ້ມູນທີ່ບໍ່ຈໍາເປັນ.
LSTMs ດໍາເນີນການຜ່ານບາງ "ປະຕູ" ທີ່ຄວບຄຸມການໄຫຼເຂົ້າຂອງຂໍ້ມູນພາຍໃນເຄືອຂ່າຍ. ຂຶ້ນຢູ່ກັບວ່າຂໍ້ມູນຖືກຕັດສິນວ່າມີຄວາມສໍາຄັນຫຼືບໍ່, ປະຕູເຫຼົ່ານີ້ສາມາດປ່ອຍໃຫ້ມັນເຂົ້າໄປໃນຫຼືປ້ອງກັນມັນ.
ເຕັກນິກນີ້ເຮັດໃຫ້ LSTMs ສາມາດຈື່ຫຼືລືມຂໍ້ມູນຈາກຂັ້ນຕອນທີ່ຜ່ານມາ, ເຊິ່ງເປັນສິ່ງສໍາຄັນສໍາລັບວຽກງານເຊັ່ນ: ການຮັບຮູ້ສຽງເວົ້າ, ການປຸງແຕ່ງພາສາທໍາມະຊາດ, ແລະການຄາດຄະເນຊຸດເວລາ.
LSTMs ມີປະໂຫຍດຫຼາຍໃນກໍລະນີໃດກໍ່ຕາມທີ່ທ່ານມີຂໍ້ມູນຕາມລໍາດັບທີ່ຕ້ອງໄດ້ຮັບການປະເມີນຫຼືຄາດຄະເນ. ພວກມັນມັກຈະຖືກໃຊ້ໃນຊອບແວການຮັບຮູ້ສຽງເພື່ອປ່ຽນຄໍາເວົ້າທີ່ເປັນຂໍ້ຄວາມ, ຫຼືໃນ ຕະຫຼາດຫຸ້ນ ການວິເຄາະເພື່ອຄາດຄະເນລາຄາໃນອະນາຄົດໂດຍອີງໃສ່ຂໍ້ມູນທີ່ຜ່ານມາ.
3. ແຜນທີ່ການຈັດລະບຽບດ້ວຍຕົນເອງ (SOMs)
SOMs ແມ່ນປະເພດຂອງປອມ ເຄືອຂ່າຍ neural ທີ່ສາມາດຮຽນຮູ້ ແລະເປັນຕົວແທນຂອງຂໍ້ມູນທີ່ສັບສົນໃນສະພາບແວດລ້ອມທີ່ມີມິຕິລະດັບຕ່ໍາ. ວິທີການດໍາເນີນການໂດຍການຫັນປ່ຽນຂໍ້ມູນການປ້ອນຂໍ້ມູນໃນມິຕິລະດັບສູງເປັນຕາຂ່າຍໄຟຟ້າສອງມິຕິລະດັບ, ໂດຍແຕ່ລະຫນ່ວຍຫຼື neuron ເປັນຕົວແທນຂອງພາກສ່ວນທີ່ແຕກຕ່າງກັນຂອງຊ່ອງປ້ອນຂໍ້ມູນ.
neurons ແມ່ນເຊື່ອມຕໍ່ກັນແລະສ້າງໂຄງສ້າງ topological, ໃຫ້ພວກເຂົາຮຽນຮູ້ແລະປັບຕົວເຂົ້າກັບຂໍ້ມູນ. ດັ່ງນັ້ນ, SOM ແມ່ນອີງໃສ່ການຮຽນຮູ້ທີ່ບໍ່ມີການເບິ່ງແຍງ.
ສູດການຄິດໄລ່ບໍ່ຈໍາເປັນຕ້ອງ ຂໍ້ມູນທີ່ຕິດສະຫຼາກ ເພື່ອຮຽນຮູ້ຈາກ. ແທນທີ່ຈະ, ມັນໃຊ້ຄຸນສົມບັດທາງສະຖິຕິຂອງຂໍ້ມູນການປ້ອນຂໍ້ມູນເພື່ອຄົ້ນພົບຮູບແບບແລະຄວາມກ່ຽວຂ້ອງກັນລະຫວ່າງຕົວແປ.
ໃນລະຫວ່າງຂັ້ນຕອນການຝຶກອົບຮົມ, neurons ແຂ່ງຂັນເພື່ອເປັນຕົວຊີ້ບອກທີ່ດີທີ່ສຸດຂອງຂໍ້ມູນການປ້ອນຂໍ້ມູນ. ແລະ, ພວກເຂົາຈັດຕັ້ງຕົນເອງເຂົ້າໄປໃນໂຄງສ້າງທີ່ມີຄວາມຫມາຍ. SOMs ມີຫຼາຍຄໍາຮ້ອງສະຫມັກ, ລວມທັງຮູບພາບແລະການຮັບຮູ້ສຽງເວົ້າ, ການຂຸດຄົ້ນຂໍ້ມູນ, ແລະການຮັບຮູ້ຮູບແບບ.
ພວກເຂົາເຈົ້າແມ່ນເປັນປະໂຫຍດສໍາລັບ ການເບິ່ງເຫັນຂໍ້ມູນທີ່ສັບສົນ, clustering ຈຸດຂໍ້ມູນທີ່ກ່ຽວຂ້ອງ, ແລະກວດພົບຄວາມຜິດປົກກະຕິຫຼື outliers.
4. ການຮຽນຮູ້ການເສີມສ້າງຢ່າງເລິກເຊິ່ງ
deep ການຮຽນຮູ້ການເສີມສ້າງ ແມ່ນປະເພດຂອງການຮຽນຮູ້ເຄື່ອງຈັກທີ່ຕົວແທນໄດ້ຖືກຝຶກອົບຮົມເພື່ອຕັດສິນໃຈໂດຍອີງໃສ່ລະບົບລາງວັນ. ມັນເຮັດວຽກໂດຍການໃຫ້ຕົວແທນພົວພັນກັບສິ່ງອ້ອມຂ້າງແລະຮຽນຮູ້ຜ່ານການທົດລອງແລະຄວາມຜິດພາດ.
ຕົວແທນໄດ້ຮັບລາງວັນສໍາລັບທຸກໆການປະຕິບັດທີ່ມັນເຮັດ, ແລະຈຸດປະສົງຂອງມັນແມ່ນການຮຽນຮູ້ວິທີການເພີ່ມປະສິດທິພາບຜົນປະໂຫຍດຂອງມັນໃນໄລຍະເວລາ. ອັນນີ້ອາດຈະຖືກໃຊ້ເພື່ອສອນຕົວແທນໃຫ້ຫຼິ້ນເກມ, ຂັບລົດຈັກ, ແລະແມ້ແຕ່ຈັດການຫຸ່ນຍົນ.
Q-Learning ເປັນວິທີການຮຽນຮູ້ການເສີມສ້າງເລິກທີ່ຮູ້ຈັກກັນດີ. ມັນດໍາເນີນການໂດຍການປະເມີນມູນຄ່າຂອງການດໍາເນີນການສະເພາະໃດຫນຶ່ງໃນລັດສະເພາະໃດຫນຶ່ງແລະການປັບປຸງການຄາດຄະເນດັ່ງກ່າວເປັນຕົວແທນພົວພັນກັບສະພາບແວດລ້ອມ.
ຫຼັງຈາກນັ້ນ, ຕົວແທນຈະນໍາໃຊ້ການຄາດຄະເນເຫຼົ່ານີ້ເພື່ອກໍານົດວ່າການກະທໍາໃດທີ່ມັກຈະສົ່ງຜົນໃຫ້ລາງວັນທີ່ໃຫຍ່ທີ່ສຸດ. Q-Learning ໄດ້ຖືກນໍາໃຊ້ເພື່ອສຶກສາອົບຮົມຕົວແທນເພື່ອຫຼິ້ນເກມ Atari, ເຊັ່ນດຽວກັນກັບການປັບປຸງການນໍາໃຊ້ພະລັງງານໃນສູນຂໍ້ມູນ.
Deep Q-Networks ແມ່ນວິທີການຮຽນຮູ້ການເສີມສ້າງຢ່າງເລິກເຊິ່ງ (DQN). DQNs ແມ່ນຄ້າຍຄືກັນກັບ Q-Learning ທີ່ພວກເຂົາຄາດຄະເນມູນຄ່າການປະຕິບັດໂດຍໃຊ້ເຄືອຂ່າຍ neural ເລິກແທນທີ່ຈະເປັນຕາຕະລາງ.
ນີ້ເຮັດໃຫ້ພວກເຂົາສາມາດຈັດການກັບການຕັ້ງຄ່າອັນໃຫຍ່ຫຼວງ, ສັບສົນກັບການປະຕິບັດທາງເລືອກຈໍານວນຫລາຍ. DQNs ໄດ້ຖືກນໍາໃຊ້ເພື່ອຝຶກອົບຮົມຕົວແທນເພື່ອຫຼິ້ນເກມເຊັ່ນ Go ແລະ Dota 2, ເຊັ່ນດຽວກັນກັບການສ້າງຫຸ່ນຍົນທີ່ສາມາດຮຽນຮູ້ການຍ່າງ.
5. ເຄືອຂ່າຍປະສາດທີ່ເກີດຂຶ້ນຊ້ຳ (RNNs)
RNNs ແມ່ນປະເພດຂອງເຄືອຂ່າຍ neural ທີ່ສາມາດປະມວນຜົນຂໍ້ມູນຕາມລໍາດັບໃນຂະນະທີ່ຮັກສາສະຖານະພາຍໃນ. ພິຈາລະນາມັນຄ້າຍຄືກັນກັບຄົນທີ່ອ່ານຫນັງສື, ບ່ອນທີ່ແຕ່ລະຄໍາຖືກຍ່ອຍກ່ຽວກັບຄໍາທີ່ມາກ່ອນ.
ດັ່ງນັ້ນ, RNNs ແມ່ນເຫມາະສົມສໍາລັບວຽກງານເຊັ່ນ: ການຮັບຮູ້ສຽງເວົ້າ, ການແປພາສາພາສາ, ແລະແມ້ກະທັ້ງການພະຍາກອນຄໍາຕໍ່ໄປໃນປະໂຫຍກໃດຫນຶ່ງ.
RNNs ເຮັດວຽກໂດຍການນໍາໃຊ້ loops ຄໍາຄຶດຄໍາເຫັນເພື່ອເຊື່ອມຕໍ່ຜົນໄດ້ຮັບຂອງແຕ່ລະຂັ້ນຕອນກັບຄືນໄປບ່ອນ input ຂອງຂັ້ນຕອນຕໍ່ໄປ. ນີ້ເຮັດໃຫ້ເຄືອຂ່າຍສາມາດນໍາໃຊ້ຂໍ້ມູນຂັ້ນຕອນເວລາກ່ອນຫນ້າເພື່ອແຈ້ງການຄາດຄະເນຂອງມັນສໍາລັບຂັ້ນຕອນເວລາໃນອະນາຄົດ. ແຕ່ຫນ້າເສຍດາຍ, ນີ້ຍັງຫມາຍຄວາມວ່າ RNNs ມີຄວາມສ່ຽງຕໍ່ບັນຫາ gradient ທີ່ຫາຍໄປ, ເຊິ່ງ gradients ທີ່ໃຊ້ສໍາລັບການຝຶກອົບຮົມກາຍເປັນຂະຫນາດນ້ອຍຫຼາຍແລະເຄືອຂ່າຍພະຍາຍາມຮຽນຮູ້ຄວາມສໍາພັນໃນໄລຍະຍາວ.
ເຖິງວ່າຈະມີຂໍ້ຈໍາກັດທີ່ປາກົດຂື້ນນີ້, RNNs ໄດ້ພົບເຫັນການນໍາໃຊ້ໃນຂອບເຂດກ້ວາງຂອງຄໍາຮ້ອງສະຫມັກ. ຄໍາຮ້ອງສະຫມັກເຫຼົ່ານີ້ປະກອບມີການປຸງແຕ່ງພາສາທໍາມະຊາດ, ການຮັບຮູ້ສຽງເວົ້າ, ແລະແມ້ກະທັ້ງການຜະລິດດົນຕີ.
ກູໂກແປພາສາຕົວຢ່າງ, ໃຊ້ລະບົບ RNN ເພື່ອແປພາສາຕ່າງໆ, ໃນຂະນະທີ່ Siri, ຜູ້ຊ່ວຍ virtual, ໃຊ້ລະບົບ RNN ເພື່ອກວດພົບສຽງ. RNNs ຍັງຖືກນໍາໃຊ້ເພື່ອຄາດຄະເນລາຄາຫຼັກຊັບແລະສ້າງຂໍ້ຄວາມແລະຮູບພາບທີ່ແທ້ຈິງ.
6. Capsule Networks
Capsule Networks ແມ່ນການອອກແບບເຄືອຂ່າຍ neural ປະເພດໃໝ່ທີ່ສາມາດລະບຸຮູບແບບ ແລະ ຄວາມສຳພັນຂອງຂໍ້ມູນໄດ້ຢ່າງມີປະສິດທິພາບຫຼາຍຂຶ້ນ. ພວກເຂົາເຈົ້າຈັດຕັ້ງ neurons ເຂົ້າໄປໃນ "ແຄບຊູນ" ທີ່ເຂົ້າລະຫັດບາງລັກສະນະຂອງການປ້ອນຂໍ້ມູນ.
ດ້ວຍວິທີນີ້, ພວກເຂົາສາມາດເຮັດການຄາດເດົາທີ່ຖືກຕ້ອງຫຼາຍຂຶ້ນ. Capsule Networks ສະກັດຄຸນສົມບັດທີ່ສັບສົນຢ່າງຕໍ່ເນື່ອງຈາກຂໍ້ມູນການປ້ອນຂໍ້ມູນໂດຍການໃຊ້ແຄບຊູນຫຼາຍຊັ້ນ.
ເທັກນິກຂອງ Capsule Networks ຊ່ວຍໃຫ້ພວກເຂົາສາມາດຮຽນຮູ້ການເປັນຕົວແທນຕາມລຳດັບຂອງວັດສະດຸປ້ອນ. ພວກເຂົາສາມາດເຂົ້າລະຫັດການເຊື່ອມຕໍ່ທາງກວ້າງຂອງພື້ນທີ່ໄດ້ຢ່າງຖືກຕ້ອງລະຫວ່າງລາຍການພາຍໃນຮູບໂດຍການສື່ສານລະຫວ່າງແຄບຊູນ.
ການກໍານົດວັດຖຸ, ການແບ່ງສ່ວນຮູບພາບ, ແລະການປຸງແຕ່ງພາສາທໍາມະຊາດແມ່ນຄໍາຮ້ອງສະຫມັກທັງຫມົດຂອງ Capsule Networks.
Capsule Networks ມີທ່າແຮງທີ່ຈະໄດ້ຮັບການຈ້າງງານໃນ ຂັບລົດເອກະລາດ ເຕັກໂນໂລຊີ. ພວກເຂົາເຈົ້າຊ່ວຍລະບົບໃນການຮັບຮູ້ແລະການຈໍາແນກລະຫວ່າງລາຍການເຊັ່ນ: ລົດໃຫຍ່, ຄົນ, ແລະປ້າຍຈະລາຈອນ. ລະບົບເຫຼົ່ານີ້ສາມາດຫຼີກເວັ້ນການ collision ໂດຍການເຮັດໃຫ້ການຄາດຄະເນທີ່ຊັດເຈນຫຼາຍຂຶ້ນກ່ຽວກັບພຶດຕິກໍາຂອງວັດຖຸໃນສະພາບແວດລ້ອມຂອງເຂົາເຈົ້າ.
7. ຕົວເຂົ້າລະຫັດແບບອັດຕະໂນມັດ (VAEs)
VAEs ແມ່ນຮູບແບບຂອງເຄື່ອງມືການຮຽນຮູ້ເລິກທີ່ຖືກນໍາໃຊ້ສໍາລັບການຮຽນຮູ້ທີ່ບໍ່ມີການເບິ່ງແຍງ. ໂດຍການເຂົ້າລະຫັດຂໍ້ມູນເຂົ້າໄປໃນພື້ນທີ່ມິຕິລະດັບຕ່ໍາແລະຫຼັງຈາກນັ້ນຖອດລະຫັດມັນກັບຄືນສູ່ຮູບແບບຕົ້ນສະບັບ, ພວກເຂົາອາດຈະຮຽນຮູ້ທີ່ຈະເຫັນຮູບແບບໃນຂໍ້ມູນ.
ພວກມັນຄືກັບນັກວິເສດທີ່ສາມາດປ່ຽນກະຕ່າຍເປັນໝວກ ແລ້ວກັບມາເປັນກະຕ່າຍ! VAEs ແມ່ນເປັນປະໂຫຍດສໍາລັບການສ້າງພາບທີ່ແທ້ຈິງຫຼືດົນຕີ. ແລະ, ພວກເຂົາສາມາດຖືກນໍາໃຊ້ເພື່ອຜະລິດຂໍ້ມູນໃຫມ່ທີ່ທຽບເທົ່າກັບຂໍ້ມູນຕົ້ນສະບັບ.
VAEs ແມ່ນຄ້າຍຄືກັນກັບ codebreaker ລັບ. ພວກເຂົາສາມາດຄົ້ນພົບພື້ນຖານ ໂຄງສ້າງຂອງຂໍ້ມູນ ໂດຍແຍກມັນອອກເປັນບິດທີ່ງ່າຍກວ່າ, ຄືກັບວ່າປິດສະໜາຖືກແຍກອອກເປັນແນວໃດ. ພວກເຂົາເຈົ້າອາດຈະນໍາໃຊ້ຂໍ້ມູນນັ້ນເພື່ອສ້າງຂໍ້ມູນໃຫມ່ທີ່ມີລັກສະນະຕົ້ນສະບັບຫຼັງຈາກທີ່ພວກເຂົາໄດ້ແຍກອອກພາກສ່ວນ.
ນີ້ສາມາດເປັນປະໂຫຍດສໍາລັບການບີບອັດໄຟລ໌ຂະຫນາດໃຫຍ່ຫຼືການຜະລິດຮູບພາບສົດຫຼືດົນຕີໃນຮູບແບບສະເພາະໃດຫນຶ່ງ. VAEs ຍັງສາມາດຜະລິດເນື້ອຫາສົດໄດ້, ເຊັ່ນຂ່າວ ຫຼືເນື້ອເພງ.
8. ເຄືອຂ່າຍ Adversarial ທົ່ວໄປ (GANs)
GANs (Generative Adversarial Networks) ແມ່ນຮູບແບບຂອງລະບົບການຮຽນຮູ້ທີ່ເລິກເຊິ່ງສ້າງຂໍ້ມູນໃຫມ່ທີ່ຄ້າຍຄືກັບຕົ້ນສະບັບ. ພວກເຂົາເຈົ້າດໍາເນີນການໂດຍການຝຶກອົບຮົມສອງເຄືອຂ່າຍ: ເຄື່ອງກໍາເນີດໄຟຟ້າແລະເຄືອຂ່າຍຈໍາແນກ.
ເຄື່ອງກໍາເນີດຜະລິດຂໍ້ມູນໃຫມ່ທີ່ທຽບເທົ່າກັບຕົ້ນສະບັບ.
ແລະ, ຜູ້ຈໍາແນກພະຍາຍາມຈໍາແນກລະຫວ່າງຂໍ້ມູນຕົ້ນສະບັບແລະຂໍ້ມູນທີ່ຖືກສ້າງຂື້ນ. ທັງສອງເຄືອຂ່າຍໄດ້ຖືກຝຶກອົບຮົມຮ່ວມກັນ, ໂດຍມີເຄື່ອງກໍາເນີດໄຟຟ້າທີ່ພະຍາຍາມຫລອກລວງຜູ້ຈໍາແນກແລະຜູ້ຈໍາແນກພະຍາຍາມກໍານົດຂໍ້ມູນຕົ້ນສະບັບຢ່າງຖືກຕ້ອງ.
ພິຈາລະນາ GANs ເປັນຂ້າມລະຫວ່າງ forger ແລະນັກສືບ. ເຄື່ອງກໍາເນີດໄຟຟ້າເຮັດຫນ້າທີ່ຄ້າຍຄືກັນກັບ forger, ການຜະລິດສິລະປະໃຫມ່ທີ່ຄ້າຍຄືກັບຕົ້ນສະບັບ.
ຜູ້ຈໍາແນກເຮັດຫນ້າທີ່ເປັນນັກສືບ, ພະຍາຍາມຈໍາແນກລະຫວ່າງສິລະປະທີ່ແທ້ຈິງແລະການປອມແປງ. ທັງສອງເຄືອຂ່າຍໄດ້ຮັບການຝຶກອົບຮົມຮ່ວມກັນ, ໂດຍມີຜູ້ສ້າງການປັບປຸງການປອມແປງທີ່ອາດຈະເປັນໄປໄດ້ແລະຜູ້ຈໍາແນກປັບປຸງການຮັບຮູ້ພວກມັນ.
GANs ມີການນໍາໃຊ້ຫຼາຍຢ່າງ, ຕັ້ງແຕ່ການຜະລິດຮູບພາບທີ່ແທ້ຈິງຂອງມະນຸດຫຼືສັດເພື່ອສ້າງດົນຕີຫຼືການຂຽນໃຫມ່. ພວກມັນອາດຈະຖືກໃຊ້ສຳລັບການເພີ່ມຂໍ້ມູນ, ເຊິ່ງລວມມີການລວມຂໍ້ມູນທີ່ຜະລິດເຂົ້າກັບຂໍ້ມູນຕົວຈິງເພື່ອສ້າງຊຸດຂໍ້ມູນໃຫຍ່ກວ່າສຳລັບຕົວແບບການຮຽນຮູ້ເຄື່ອງຈັກ.
9. Deep Q-Networks (DQNs)
Deep Q-Networks (DQNs) ແມ່ນການຈັດລຽງຂອງຂັ້ນຕອນການຕັດສິນໃຈເສີມການຮຽນຮູ້. ພວກເຂົາເຈົ້າດໍາເນີນການໂດຍການຮຽນຮູ້ Q-function ທີ່ຄາດຄະເນລາງວັນທີ່ຄາດວ່າຈະສໍາລັບການດໍາເນີນການສະເພາະໃດຫນຶ່ງໃນເງື່ອນໄຂສະເພາະໃດຫນຶ່ງ.
Q-function ແມ່ນສອນໂດຍການທົດລອງແລະຄວາມຜິດພາດ, ກັບ algorithm ພະຍາຍາມປະຕິບັດຕ່າງໆແລະການຮຽນຮູ້ຈາກຜົນໄດ້ຮັບ.
ພິຈາລະນາມັນຄືກັບ ກ ວິດີໂອເກມ ລັກສະນະການທົດລອງກັບການກະທໍາຕ່າງໆແລະຄົ້ນພົບວ່າອັນໃດນໍາໄປສູ່ຄວາມສໍາເລັດ! DQNs ຝຶກອົບຮົມ Q-function ໂດຍໃຊ້ເຄືອຂ່າຍ neural ເລິກ, ເຮັດໃຫ້ພວກເຂົາເປັນເຄື່ອງມືທີ່ມີປະສິດທິພາບສໍາລັບວຽກງານທີ່ມີຄວາມຫຍຸ້ງຍາກໃນການຕັດສິນໃຈ.
ພວກເຂົາເຈົ້າໄດ້ເອົາຊະນະເຖິງແມ່ນວ່າແຊ້ມມະນຸດໃນເກມເຊັ່ນ: Go ແລະ chess, ເຊັ່ນດຽວກັນກັບໃນການຫຸ່ນຍົນແລະລົດຍົນຂັບດ້ວຍຕົນເອງ. ດັ່ງນັ້ນ, ທັງຫມົດ, DQNs ເຮັດວຽກໂດຍການຮຽນຮູ້ຈາກປະສົບການເພື່ອເພີ່ມທັກສະການຕັດສິນໃຈຂອງເຂົາເຈົ້າໃນໄລຍະເວລາ.
10. ເຄືອຂ່າຍຟັງຊັນພື້ນຖານ radial (RBFNs)
Radial Basis Function Networks (RBFNs) ແມ່ນປະເພດຂອງເຄືອຂ່າຍ neural ທີ່ຖືກນໍາໃຊ້ເພື່ອປະຕິບັດຫນ້າໂດຍປະມານແລະປະຕິບັດວຽກງານການຈັດປະເພດ. ພວກເຂົາເຈົ້າດໍາເນີນການໂດຍການຫັນປ່ຽນຂໍ້ມູນປ້ອນເຂົ້າໄປໃນພື້ນທີ່ມິຕິລະດັບທີ່ສູງຂຶ້ນໂດຍນໍາໃຊ້ການເກັບກໍາຂອງຫນ້າທີ່ພື້ນຖານ radial.
ຜົນຜະລິດຂອງເຄືອຂ່າຍແມ່ນການປະສົມປະສານເສັ້ນຊື່ຂອງຫນ້າທີ່ພື້ນຖານ, ແລະແຕ່ລະຫນ້າທີ່ພື້ນຖານ radial ສະແດງເຖິງຈຸດສູນກາງໃນຊ່ອງປ້ອນຂໍ້ມູນ.
RBFNs ມີປະສິດທິພາບໂດຍສະເພາະສໍາລັບສະຖານະການທີ່ມີການໂຕ້ຕອບ input-output ທີ່ສັບສົນ, ແລະພວກເຂົາອາດຈະຖືກສອນໂດຍໃຊ້ເຕັກນິກທີ່ຫລາກຫລາຍ, ລວມທັງການຮຽນຮູ້ແບບຄວບຄຸມແລະບໍ່ມີການຄວບຄຸມ. ພວກມັນຖືກໃຊ້ເພື່ອຫຍັງຕັ້ງແຕ່ການຄາດເດົາດ້ານການເງິນຈົນເຖິງຮູບພາບແລະການຮັບຮູ້ສຽງເວົ້າຈົນເຖິງການວິນິດໄສທາງການແພດ.
ພິຈາລະນາ RBFNs ເປັນລະບົບ GPS ທີ່ໃຊ້ຊຸດຂອງຈຸດສະມໍເພື່ອຊອກຫາທາງຂອງມັນໃນທົ່ວພູມສັນຖານທີ່ທ້າທາຍ. ຜົນຜະລິດຂອງເຄືອຂ່າຍແມ່ນການປະສົມປະສານຂອງຈຸດສະມໍ, ເຊິ່ງຢືນຢູ່ໃນຫນ້າທີ່ພື້ນຖານ radial.
ພວກເຮົາສາມາດຄົ້ນຫາຂໍ້ມູນທີ່ສັບສົນແລະສ້າງການຄາດຄະເນທີ່ຊັດເຈນກ່ຽວກັບວິທີການສະຖານະການຈະເກີດຂຶ້ນໂດຍການຈ້າງ RBFNs.
11. Multilayer Perceptrons (MLPs)
ຮູບແບບປົກກະຕິຂອງເຄືອຂ່າຍ neural ທີ່ເອີ້ນວ່າ multilayer perceptron (MLP) ແມ່ນໃຊ້ສໍາລັບວຽກງານການຮຽນຮູ້ທີ່ມີການເບິ່ງແຍງເຊັ່ນການຈັດປະເພດແລະການຖົດຖອຍ. ພວກເຂົາເຈົ້າດໍາເນີນການໂດຍການ stacking ຫຼາຍຊັ້ນຂອງ nodes ເຊື່ອມຕໍ່, ຫຼື neurons, ກັບແຕ່ລະຊັ້ນ nonlinearly ການປ່ຽນແປງຂໍ້ມູນຂາເຂົ້າ.
ໃນ MLP, ແຕ່ລະ neuron ໄດ້ຮັບການປ້ອນຂໍ້ມູນຈາກ neurons ໃນຊັ້ນຂ້າງລຸ່ມນີ້ແລະສົ່ງສັນຍານໄປຫາ neurons ໃນຊັ້ນຂ້າງເທິງ. ຜົນຜະລິດຂອງ neuron ແຕ່ລະຄົນແມ່ນຖືກກໍານົດໂດຍໃຊ້ຫນ້າທີ່ກະຕຸ້ນ, ເຊິ່ງເຮັດໃຫ້ເຄືອຂ່າຍ nonlinearity.
ພວກເຂົາສາມາດຮຽນຮູ້ການເປັນຕົວແທນທີ່ຊັບຊ້ອນຂອງຂໍ້ມູນການປ້ອນຂໍ້ມູນນັບຕັ້ງແຕ່ພວກເຂົາສາມາດມີຊັ້ນເຊື່ອງໄວ້ຫຼາຍ.
MLPs ໄດ້ຖືກນໍາໄປໃຊ້ກັບຫຼາຍໆວຽກງານ, ເຊັ່ນ: ການວິເຄາະຄວາມຮູ້ສຶກ, ການກວດສອບການສໍ້ໂກງ, ແລະການຮັບຮູ້ສຽງແລະຮູບພາບ. MLPs ອາດຈະຖືກປຽບທຽບກັບກຸ່ມຂອງນັກສືບສວນທີ່ເຮັດວຽກຮ່ວມກັນເພື່ອທໍາລາຍກໍລະນີທີ່ຫຍຸ້ງຍາກ.
ຮ່ວມກັນ, ພວກເຂົາສາມາດແຍກຂໍ້ເທັດຈິງຮ່ວມກັນແລະແກ້ໄຂອາຊະຍາກໍາເຖິງວ່າຈະມີຄວາມຈິງທີ່ວ່າແຕ່ລະຄົນມີຈຸດພິເສດສະເພາະ.
12. Convolutional Neural Networks (CNNs)
ຮູບພາບແລະວິດີໂອຖືກປະມວນຜົນໂດຍໃຊ້ເຄືອຂ່າຍ neural convolutional (CNNs), ຮູບແບບຂອງເຄືອຂ່າຍ neural. ພວກມັນເຮັດວຽກໂດຍການຈ້າງຊຸດຂອງຕົວກອງທີ່ສາມາດຮຽນຮູ້ໄດ້, ຫຼືແກ່ນ, ເພື່ອສະກັດລັກສະນະທີ່ສໍາຄັນຈາກຂໍ້ມູນການປ້ອນຂໍ້ມູນ.
ຕົວກອງຈະເລື່ອນພາບໃສ່ຮູບການປ້ອນຂໍ້ມູນ, ປະຕິບັດການໝູນວຽນເພື່ອສ້າງແຜນທີ່ຄຸນສົມບັດທີ່ບັນທຶກລັກສະນະທີ່ສຳຄັນຂອງຮູບ.
ເນື່ອງຈາກ CNNs ສາມາດຮຽນຮູ້ການເປັນຕົວແທນຕາມລໍາດັບຂອງຄຸນລັກສະນະຂອງຮູບພາບ, ພວກມັນເປັນປະໂຫຍດໂດຍສະເພາະສໍາລັບສະຖານະການທີ່ກ່ຽວຂ້ອງກັບປະລິມານຂໍ້ມູນສາຍຕາ. ຄໍາຮ້ອງສະຫມັກຈໍານວນຫນຶ່ງໄດ້ນໍາໃຊ້ພວກມັນ, ເຊັ່ນ: ການກວດຫາວັດຖຸ, ການຈັດປະເພດຮູບພາບ, ແລະການກວດຈັບໃບຫນ້າ.
ພິຈາລະນາ CNNs ເປັນນັກແຕ້ມທີ່ນໍາໃຊ້ແປງຫຼາຍເພື່ອສ້າງ masterpiece. ແຕ່ລະແປງແມ່ນແກ່ນ, ແລະນັກສິລະປິນອາດຈະສ້າງຮູບພາບທີ່ສະລັບສັບຊ້ອນ, ຄວາມເປັນຈິງໂດຍການປະສົມແກ່ນຫຼາຍ. ພວກເຮົາສາມາດສະກັດລັກສະນະທີ່ສໍາຄັນຈາກຮູບພາບແລະນໍາໃຊ້ພວກມັນເພື່ອຄາດຄະເນເນື້ອຫາຂອງຮູບພາບໄດ້ຢ່າງຖືກຕ້ອງໂດຍການໃຊ້ CNNs.
13. ເຄືອຂ່າຍຄວາມເຊື່ອທີ່ເລິກເຊິ່ງ (DBNs)
DBNs ແມ່ນຮູບແບບຂອງເຄືອຂ່າຍ neural ທີ່ຖືກນໍາໃຊ້ສໍາລັບວຽກງານການຮຽນຮູ້ທີ່ບໍ່ມີການເບິ່ງແຍງເຊັ່ນການຫຼຸດຜ່ອນຂະຫນາດແລະການຮຽນຮູ້ຄຸນສົມບັດ. ພວກມັນເຮັດວຽກໂດຍການວາງຫຼາຍຊັ້ນຂອງ Restricted Boltzmann Machines (RBMs), ເຊິ່ງເປັນເຄືອຂ່າຍ neural ສອງຊັ້ນທີ່ສາມາດຮຽນຮູ້ທີ່ຈະປະກອບຂໍ້ມູນການປ້ອນຂໍ້ມູນຄືນໃໝ່.
DBNs ມີປະໂຫຍດຫຼາຍສໍາລັບບັນຫາຂໍ້ມູນໃນມິຕິລະດັບສູງເພາະວ່າພວກເຂົາສາມາດຮຽນຮູ້ການເປັນຕົວແທນທີ່ຫນາແຫນ້ນແລະມີປະສິດທິພາບຂອງການປ້ອນຂໍ້ມູນ. ພວກມັນຖືກໃຊ້ເພື່ອຫຍັງຈາກການຮັບຮູ້ສຽງ ການຈັດປະເພດຮູບພາບ ຈົນເຖິງການຄົ້ນພົບຢາ.
ສໍາລັບຕົວຢ່າງ, ນັກຄົ້ນຄວ້າໄດ້ຈ້າງ DBN ເພື່ອປະເມີນຄວາມໃກ້ຊິດຂອງຜູ້ສະຫມັກຢາກັບຜູ້ຮັບ estrogen. DBN ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບການລວບລວມຄຸນລັກສະນະທາງເຄມີແລະຄວາມຜູກພັນ, ແລະມັນສາມາດຄາດຄະເນໄດ້ຢ່າງຖືກຕ້ອງກ່ຽວກັບຄວາມຜູກພັນຂອງຜູ້ສະຫມັກຢາໃຫມ່.
ນີ້ຊີ້ໃຫ້ເຫັນເຖິງການນໍາໃຊ້ DBNs ໃນການພັດທະນາຢາແລະຄໍາຮ້ອງສະຫມັກຂໍ້ມູນລະດັບສູງອື່ນໆ.
14. ເຄື່ອງເຂົ້າລະຫັດອັດຕະໂນມັດ
Autoencoders ແມ່ນເຄືອຂ່າຍ neural ທີ່ຖືກນໍາໃຊ້ສໍາລັບວຽກງານການຮຽນຮູ້ທີ່ບໍ່ມີການເບິ່ງແຍງ. ພວກມັນມີຈຸດປະສົງເພື່ອສ້າງຂໍ້ມູນການປ້ອນຂໍ້ມູນຄືນໃໝ່, ເຊິ່ງໝາຍຄວາມວ່າພວກເຂົາຈະຮຽນຮູ້ການເຂົ້າລະຫັດຂໍ້ມູນໃຫ້ເປັນຕົວແທນທີ່ໜາແໜ້ນ ແລະ ຈາກນັ້ນຖອດລະຫັດມັນກັບຄືນສູ່ການປ້ອນຂໍ້ມູນເດີມ.
Autoencoders ມີປະສິດທິພາບຫຼາຍສໍາລັບການບີບອັດຂໍ້ມູນ, ການກໍາຈັດສິ່ງລົບກວນ, ແລະການກວດຫາຄວາມຜິດປົກກະຕິ. ພວກມັນຍັງສາມາດຖືກນໍາໃຊ້ເພື່ອການຮຽນຮູ້ຄຸນສົມບັດ, ບ່ອນທີ່ການເປັນຕົວແທນທີ່ຫນາແຫນ້ນຂອງ autoencoder ໄດ້ຖືກປ້ອນເຂົ້າໃນວຽກງານການຮຽນຮູ້ທີ່ມີການເບິ່ງແຍງ.
ພິຈາລະນາ autoencoders ເປັນນັກຮຽນເຮັດບັນທຶກໃນຫ້ອງຮຽນ. ນັກຮຽນຟັງການບັນຍາຍ ແລະ ສະຫຼຸບຈຸດທີ່ກ່ຽວຂ້ອງທີ່ສຸດຢ່າງຮັດກຸມ ແລະ ມີປະສິດທິພາບ.
ຫຼັງຈາກນັ້ນ, ນັກຮຽນອາດຈະສຶກສາແລະຈື່ຈໍາບົດຮຽນໂດຍໃຊ້ບັນທຶກຂອງເຂົາເຈົ້າ. ໃນທາງກົງກັນຂ້າມ, ເຄື່ອງເຂົ້າລະຫັດອັດຕະໂນມັດຈະເຂົ້າລະຫັດການປ້ອນຂໍ້ມູນເຂົ້າໃນການສະແດງຕົວແບບທີ່ໜາແໜ້ນ ເຊິ່ງຕໍ່ມາອາດຈະຖືກນຳໃຊ້ເພື່ອຈຸດປະສົງທີ່ແຕກຕ່າງກັນເຊັ່ນ: ການກວດຫາຄວາມຜິດປົກກະຕິ ຫຼືການບີບອັດຂໍ້ມູນ.
15. ເຄື່ອງຈັກ Boltzmann ທີ່ຖືກຈຳກັດ (RBMs)
RBMs (Restricted Boltzmann Machines) ແມ່ນປະເພດຂອງເຄືອຂ່າຍ neural generative ທີ່ຖືກນໍາໃຊ້ສໍາລັບວຽກງານການຮຽນຮູ້ທີ່ບໍ່ມີການເບິ່ງແຍງ. ພວກມັນປະກອບດ້ວຍຊັ້ນທີ່ເບິ່ງເຫັນແລະຊັ້ນທີ່ເຊື່ອງໄວ້, ມີ neurons ໃນແຕ່ລະຊັ້ນ, ເຊື່ອມຕໍ່ແຕ່ບໍ່ແມ່ນພາຍໃນຊັ້ນດຽວກັນ.
RBMs ໄດ້ຮັບການຝຶກອົບຮົມໂດຍໃຊ້ເຕັກນິກທີ່ເອີ້ນວ່າ divergence ກົງກັນຂ້າມ, ເຊິ່ງປະກອບມີການປ່ຽນແປງນ້ໍາຫນັກລະຫວ່າງຊັ້ນທີ່ເບິ່ງເຫັນແລະເຊື່ອງໄວ້ເພື່ອເພີ່ມປະສິດທິພາບຄວາມເປັນໄປໄດ້ຂອງຂໍ້ມູນການຝຶກອົບຮົມ. RBMs ອາດຈະສ້າງຂໍ້ມູນສົດຫຼັງຈາກການຝຶກອົບຮົມໂດຍການເກັບຕົວຢ່າງຈາກການແຈກຢາຍທີ່ຮຽນຮູ້.
ການຮັບຮູ້ຮູບພາບ ແລະສຽງເວົ້າ, ການກັ່ນຕອງຮ່ວມມື, ແລະການກວດຫາຄວາມຜິດປົກກະຕິແມ່ນທຸກແອັບພລິເຄຊັນທີ່ນຳໃຊ້ RBMs. ພວກເຂົາຍັງຖືກ ນຳ ໃຊ້ໃນລະບົບການແນະ ນຳ ເພື່ອສ້າງຂໍ້ສະ ເໜີ ແນະທີ່ປັບແຕ່ງໂດຍການຮຽນຮູ້ຮູບແບບຈາກພຶດຕິກໍາຂອງຜູ້ໃຊ້.
RBMs ຍັງໄດ້ຖືກນໍາໃຊ້ໃນການຮຽນຮູ້ຄຸນສົມບັດເພື່ອສ້າງການເປັນຕົວແທນທີ່ຫນາແຫນ້ນແລະປະສິດທິພາບຂອງຂໍ້ມູນໃນມິຕິລະດັບສູງ.
Wrap-Up ແລະການພັດທະນາທີ່ຫມັ້ນສັນຍາໃນຂອບເຂດ
ວິທີການຮຽນຮູ້ເລິກ, ເຊັ່ນ: Convolutional Neural Networks (CNNs) ແລະ Recurrent Neural Networks (RNNs), ແມ່ນຫນຶ່ງໃນວິທີການປັນຍາປະດິດທີ່ກ້າວຫນ້າທີ່ສຸດ. CNNs ໄດ້ຫັນປ່ຽນການຮັບຮູ້ຮູບພາບແລະສຽງ, ໃນຂະນະທີ່ RNNs ໄດ້ກ້າວຫນ້າຢ່າງຫຼວງຫຼາຍໃນການປຸງແຕ່ງພາສາທໍາມະຊາດແລະການວິເຄາະຂໍ້ມູນຕາມລໍາດັບ.
ຂັ້ນຕອນຕໍ່ໄປຂອງການວິວັດທະນາການຂອງວິທີການເຫຼົ່ານີ້ມີແນວໂນ້ມທີ່ຈະສຸມໃສ່ການປັບປຸງປະສິດທິພາບແລະຂະຫນາດຂອງເຂົາເຈົ້າ, ໃຫ້ເຂົາເຈົ້າສາມາດວິເຄາະຊຸດຂໍ້ມູນທີ່ໃຫຍ່ກວ່າແລະສັບສົນຫຼາຍ, ເຊັ່ນດຽວກັນກັບການເສີມຂະຫຍາຍການຕີຄວາມແລະຄວາມສາມາດໃນການຮຽນຮູ້ຈາກຂໍ້ມູນປ້າຍຊື່ຫນ້ອຍ.
ການຮຽນຮູ້ຢ່າງເລິກເຊິ່ງມີຄວາມເປັນໄປໄດ້ທີ່ອະນຸຍາດໃຫ້ມີບາດກ້າວບຸກທະລຸໃນຂະແໜງຕ່າງໆເຊັ່ນ: ການດູແລສຸຂະພາບ, ການເງິນ, ແລະລະບົບການປົກຄອງຕົນເອງຕາມທີ່ມັນກ້າວໜ້າ.
ອອກຈາກ Reply ເປັນ