No nā makahiki, ua hana ka aʻo hohonu i nā poʻomanaʻo ma ka ʻenehana. A, maʻalahi ke hoʻomaopopo i ke kumu.
Ke hoʻololi nei kēia lālā o ka naʻauao artificial i nā ʻāpana mai ka mālama olakino a hiki i ka waihona kālā a hiki i ka lawe ʻana, e hiki ai i ka holomua mua ʻole.
Kūkulu ʻia ke aʻo hohonu ma luna o kahi pūʻulu o nā algorithms maʻalahi e aʻo i ka unuhi a wānana i nā ʻano paʻakikī mai ka nui o ka ʻikepili.
E nānā mākou i nā algorithm aʻo hohonu 15 maikaʻi loa i kēia pou, mai Convolutional Neural Networks a Generative Adversarial Networks a i nā pūnaewele hoʻomanaʻo lōʻihi pōkole.
E hāʻawi kēia pou i nā ʻike koʻikoʻi inā he a mea hoʻomaka a akamai paha i ke aʻo hohonu.
1. Pūnaehana Transformer
Ua hoʻololi nā pūnaewele Transformer ʻikeʻikepili a me nā noi hana ʻōlelo kūlohelohe (NLP). Hoʻopili lākou i nā ʻikepili e hiki mai ana a hoʻohana i nā kaʻina hana no ka hopu ʻana i nā pilina lōʻihi. ʻOi aku ka wikiwiki o kēia ma mua o nā hiʻohiʻona maʻamau.
Ua wehewehe mua ʻia nā pūnaewele Transformer ma ka puke "Attention Is All You Need" na Vaswani et al.
Aia lākou i kahi encoder a me kahi decoder (2017). Ua hōʻike ka mea hoʻohālike transformer i ka hana ma nā ʻano noi NLP, me kālailai manaʻo, hoʻokaʻawale kikokikona, a me ka unuhi mīkini.
Hiki ke hoʻohana ʻia nā hiʻohiʻona e pili ana i ka Transformer i ka ʻike kamepiula no nā noi. Hiki iā lākou ke hana i ka ʻike mea a me ka captioning kiʻi.
2. Pūnaehana hoʻomanaʻo lōʻihi pōkole (LSTMs)
ʻO nā pūnaewele hoʻomanaʻo lōʻihi pōkole (LSTMs) kahi ʻano o kaʻenehana kikowaena i kūkulu ʻia no ka mālama ʻana i ka hoʻokomo sequential. Ua kapa ʻia lākou he "lōʻihi pōkole" no ka mea hiki iā lākou ke hoʻomanaʻo i ka ʻike mai ka wā kahiko a me ka poina ʻana i ka ʻike pono ʻole.
Hoʻohana ʻia nā LSTM ma kekahi "puka" e hoʻokele i ka kahe o ka ʻike i loko o ka pūnaewele. Ma muli o ka manaʻo nui a ʻaʻole paha ka ʻike, hiki i kēia mau ʻīpuka ke hoʻokuʻu a pale paha.
Hiki i kēia ʻenehana i nā LSTM ke hoʻomanaʻo a poina paha i ka ʻike mai nā ʻanuʻu o ka wā i hala, he mea koʻikoʻi ia no nā hana e like me ka ʻike leo, ka hoʻoponopono ʻōlelo kūlohelohe, a me ka wānana manawa.
He mea maikaʻi loa nā LSTM i kēlā me kēia hihia i loaʻa iā ʻoe ka ʻikepili sequential pono e loiloi a wānana paha. Hoʻohana pinepine ʻia lākou i ka polokalamu ʻike leo e hoʻohuli i nā huaʻōlelo i ʻōlelo ʻia i kikokikona, a i ʻole kumukuai makeke ka nānā ʻana e wānana i nā kumukūʻai e hiki mai ana ma muli o ka ʻikepili mua.
3. Nā palapala ʻāina hoʻonohonoho ponoʻī (SOMs)
ʻO nā SOM kahi ʻano mea hana neural network hiki ke aʻo a hōʻike i ka ʻikepili paʻakikī i kahi kaiapuni haʻahaʻa. Hoʻohana ʻia ke ʻano hana ma ka hoʻololi ʻana i ka ʻikepili hoʻokomo kiʻekiʻe i loko o kahi mākia ʻelua, me kēlā me kēia ʻāpana a i ʻole neuron e hōʻike ana i kahi ʻāpana ʻokoʻa o ka wahi hoʻokomo.
Hoʻopili pū ʻia nā neurons a hana i kahi ʻano topological, e ʻae iā lākou e aʻo a hoʻoponopono i ka ʻikepili komo. No laila, hoʻokumu ʻia ʻo SOM ma ke aʻo ʻole ʻia.
ʻAʻole pono ka algorithm ʻikepili hōʻailona e aʻo mai. Akā, hoʻohana ia i nā hiʻohiʻona helu o ka ʻikepili hoʻokomo e ʻike i nā ʻano a me nā pilina ma waena o nā mea hoʻololi.
I ka wā hoʻomaʻamaʻa, hoʻokūkū nā neurons i hōʻailona maikaʻi loa o ka ʻikepili hoʻokomo. A, hoʻonohonoho lākou iā lākou iho i kahi ʻano kūpono. Loaʻa i nā SOM nā ʻano noi like ʻole, me ka ʻike kiʻi a me ka ʻōlelo, ka mining data, a me ka ʻike kumu.
Pono lākou no ka nānā ʻana i ka ʻikepili paʻakikī, hui pū ʻana i nā helu ʻikepili pili, a me ka ʻike ʻana i nā mea ʻino a i ʻole nā mea waho.
4. Aʻo Hoʻoikaika Hohonu
Deep Hoʻomaopopo hoʻomaʻamaʻa He ʻano aʻo mīkini kahi i aʻo ʻia ai kahi luna e hana i nā hoʻoholo e pili ana i kahi ʻōnaehana uku. Hana ia ma ka ʻae ʻana i ka ʻelele e launa pū me kona puni a aʻo ma o ka hoʻāʻo a me ka hewa.
Hoʻomaikaʻi ʻia ka ʻelele no kēlā me kēia hana āna e hana ai, a ʻo kāna kumu e aʻo ai pehea e hoʻomaikaʻi ai i kāna mau pono i ka manawa. Hiki ke hoʻohana ʻia kēia e aʻo i nā ʻelele e pāʻani i nā pāʻani, hoʻokele kaʻa, a me ka hoʻokele robots.
ʻO ka Q-Learning kahi ʻano hana hoʻoikaika hohonu hohonu. Hoʻohana ia ma ka loiloi ʻana i ka waiwai o ka hana ʻana i kekahi hana ma kekahi mokuʻāina a me ka hoʻonui ʻana i kēlā manaʻo i ka wā e launa pū ai ka luna me ke kaiapuni.
A laila hoʻohana ka luna i kēia mau manaʻo e hoʻoholo i ka hana e loaʻa ai ka uku nui loa. Ua hoʻohana ʻia ka Q-Learning e aʻo i nā ʻelele e pāʻani i nā pāʻani Atari, a me ka hoʻomaikaʻi ʻana i ka hoʻohana ʻana i ka ikehu ma nā kikowaena data.
ʻO Deep Q-Networks kekahi mea kaulana ʻo Deep Reinforcement Learning method (DQN). Ua like nā DQN me ka Q-Learning i ka manaʻo o lākou i nā waiwai hana me ka hoʻohana ʻana i kahi pūnaewele neural hohonu ma mua o ka papaʻaina.
Hiki iā lākou ke hana i nā hoʻonohonoho nui a paʻakikī me nā hana ʻē aʻe he nui. Ua hoʻohana ʻia nā DQN e hoʻomaʻamaʻa i nā ʻelele e pāʻani i nā pāʻani e like me Go a me Dota 2, a me ka hana ʻana i nā robots hiki ke aʻo e hele.
5. Nā Pūnaehana Neural Recurrent (RNNs)
ʻO nā RNN kahi ʻano o ka neural network e hiki ke hana i ka ʻikepili sequential ʻoiai e mālama ana i kahi kūlana kūloko. E noʻonoʻo ʻoe e like me ka heluhelu ʻana o ke kanaka i kahi puke, kahi e ʻeli ai kēlā me kēia huaʻōlelo e pili ana i nā huaʻōlelo i hele mai ma mua.
No laila, kūpono nā RNN no nā hana e like me ka ʻike leo, ka unuhi ʻōlelo, a me ka wānana ʻana i ka huaʻōlelo aʻe i loko o kahi māmalaʻōlelo.
Hana nā RNN ma ka hoʻohana ʻana i nā puka lou no ka hoʻopili ʻana i ka puka o kēlā me kēia manawa e hoʻi i ka hoʻokomo o ka manawa aʻe. Hāʻawi kēia i ka pūnaewele e hoʻohana i ka ʻike kaʻina hana mua e hoʻomaopopo i kāna wānana no nā kaʻina manawa e hiki mai ana. ʻO ka mea pōʻino, ʻo ia hoʻi, he palupalu nā RNN i ka pilikia gradient e nalowale ana, kahi i liʻiliʻi loa nā gradients i hoʻohana ʻia no ke aʻo ʻana a paʻakikī ka ʻoihana e aʻo i nā pilina lōʻihi.
ʻOiai ʻo kēia kaohi i ʻike ʻia, ua ʻike nā RNN i ka hoʻohana ʻana i kahi ākea o nā noi. Aia kēia mau noi i ka hoʻoponopono ʻōlelo kūlohelohe, ʻike ʻōlelo, a me ka hana mele.
Unuhi google, no ka laʻana, hoʻohana i kahi ʻōnaehana RNN e unuhi i nā ʻōlelo, ʻoiai ʻo Siri, ke kōkua virtual, hoʻohana i kahi ʻōnaehana RNN e ʻike i ka leo. Ua hoʻohana pū ʻia nā RNN e wānana i nā kumukūʻai kumukūʻai a hana i nā kikokikona a me nā kiʻi maoli.
6. Pūnaehana Capsule
ʻO ka Capsule Networks kahi ʻano hou o ka hoʻolālā neural network e hiki ke ʻike i nā mamana a me ka hoʻoponopono ʻana i ka ʻikepili i ʻoi aku ka maikaʻi. Hoʻonohonoho lākou i nā neurons i loko o nā "capsules" e hoʻopili i kekahi mau ʻano o kahi hoʻokomo.
Ma kēia ala hiki iā lākou ke hana i nā wānana pololei. Lawe ʻo Capsule Networks i nā waiwai paʻakikī mai ka ʻikepili hoʻokomo ma o ka hoʻohana ʻana i nā papa he nui o nā capsules.
Hiki i ka ʻenehana Capsule Networks ke aʻo i nā hierarchical hiʻohiʻona o ka mea i hāʻawi ʻia. Hiki iā lākou ke hoʻopili pono i nā pilina spatial ma waena o nā mea i loko o ke kiʻi ma ke kamaʻilio ʻana ma waena o nā capsules.
ʻO ka ʻike ʻana i nā mea, ka ʻāpana kiʻi, a me ka hoʻoili ʻana i ka ʻōlelo kūlohelohe i nā noi āpau o Capsule Networks.
Hiki i nā Capsule Networks ke hoʻohana i loko kalaiwa kū kaʻawale ʻenehana. Kōkua lākou i ka ʻōnaehana i ka ʻike a me ka hoʻokaʻawale ʻana ma waena o nā mea e like me nā kaʻa, nā kānaka, a me nā hōʻailona kaʻa. Hiki i kēia mau ʻōnaehana ke pale i ka hui ʻana ma o ka hana ʻana i nā wānana pololei e pili ana i ke ʻano o nā mea i ko lākou kaiapuni.
7. Nā mea hoʻololi ʻokoʻa ʻokoʻa (VAE)
ʻO nā VAE kahi ʻano o ka mea hana hoʻonaʻauao hohonu i hoʻohana ʻia no ke aʻo ʻole ʻia. Ma ka hoʻopili ʻana i ka ʻikepili i loko o kahi ākea haʻahaʻa a laila hoʻololi hou i ke ʻano kumu, hiki iā lākou ke aʻo e ʻike i nā kumu ma ka ʻikepili.
Ua like lākou me ka mea kilokilo hiki ke hoʻololi i ka lapeti i pāpale a hoʻi hou i kahi pua! Pono nā VAE no ka hana ʻana i nā kiʻi ʻike maoli a i ʻole nā mele. A, hiki ke hoʻohana ʻia e hana i nā ʻikepili hou e like me ka ʻikepili kumu.
Ua like nā VAE me ka mea huna codebreaker. Hiki iā lākou ke ʻike i ke kumu hanana o ka ʻikepili ma ka wāwahi ʻana i nā ʻāpana maʻalahi, e like me ka wāwahi ʻia ʻana o kahi puzzle. Hiki iā lākou ke hoʻohana i kēlā ʻike e kūkulu i ka ʻikepili hou e like me ka mea kumu ma hope o ka hoʻokaʻawale ʻana i nā ʻāpana.
Hiki ke maʻalahi kēia no ke kaomi ʻana i nā faila nui a i ʻole ka hana ʻana i nā kiʻi hou a i ʻole nā mele i kekahi ʻano. Hiki i nā VAE ke hana i nā mea hou, e like me nā moʻolelo nūhou a i ʻole nā mele mele.
8. Generative Adversarial Networks (GANs)
ʻO GANs (Generative Adversarial Networks) kahi ʻano o kahi ʻōnaehana hoʻonaʻauao hohonu e hana ana i nā ʻikepili hou e like me ke kumu. Hoʻohana lākou ma ke aʻo ʻana i ʻelua mau ʻupena: kahi mīkini hana a me kahi pūnaewele discriminator.
Hoʻopuka ka mīkini hana i nā ʻikepili hou e like me ka mea kumu.
A, hoʻāʻo ka mea hoʻokae e hoʻokaʻawale i waena o ka ʻikepili kumu a me ka ʻikepili i hana ʻia. Hoʻomaʻamaʻa pū ʻia nā pūnaewele ʻelua, me ka hoʻāʻo ʻana o ka mea hana e hoʻopunipuni i ka mea hoʻokae a me ka mea hoʻokae e hoʻāʻo nei e ʻike pono i ka ʻikepili kumu.
E noʻonoʻo i nā GAN he keʻa ma waena o ka mea hoʻopunipuni a me ka mea mākaʻikaʻi. Hoʻohana like ka mīkini hana me ka mea hoʻoheheʻe, e hana ana i nā hana kiʻi hou e like me ke kumu.
Hana ka mea hoʻokae ma ke ʻano he mākaʻikaʻi, e hoʻāʻo ana e hoʻokaʻawale ma waena o ka hana noʻeau maoli a me ka hoʻopunipuni. Hoʻomaʻamaʻa ʻia nā pūnaewele ʻelua i ka tandem, me ka hoʻomaikaʻi ʻana o ka mīkini hana i ka hana ʻana i nā fakes plausible a hoʻomaikaʻi ka mea hoʻokae i ka ʻike ʻana iā lākou.
Nui nā hoʻohana ʻana o nā GAN, mai ka hana ʻana i nā kiʻi maoli o ke kanaka a i ʻole nā holoholona a i ka hana ʻana i nā mele hou a i ʻole ke kākau ʻana. Hiki ke hoʻohana ʻia lākou no ka hoʻonui ʻana i ka ʻikepili, e pili ana i ka hoʻohui ʻana i ka ʻikepili i hana ʻia me ka ʻikepili maoli e kūkulu i kahi ʻikepili nui aʻe no ka hoʻomaʻamaʻa ʻana i nā hiʻohiʻona aʻo mīkini.
9. Nā Pūnaewele Q Hohonu (DQNs)
ʻO Deep Q-Networks (DQNs) kahi ʻano o ka hoʻoholo hoʻoikaika ʻana i ka algorithm aʻo. Hana lākou ma ke aʻo ʻana i kahi Q-hana e wānana i ka uku i manaʻo ʻia no ka hana ʻana i kekahi hana ma kahi kūlana.
Ua aʻo ʻia ka Q-hana e ka hoʻāʻo a me ka hewa, me ka algorithm e hoʻāʻo nei i nā hana like ʻole a me ke aʻo ʻana mai nā hopena.
E noʻonoʻo e like me a wikiō i io holoholona hihiu ʻano hoʻokolohua me nā hana like ʻole a ʻike i nā mea e alakaʻi i ka holomua! Hoʻomaʻamaʻa nā DQN i ka hana Q me ka hoʻohana ʻana i kahi pūnaewele neural hohonu, e hana ana iā lākou i nā mea hana pono no nā hana hoʻoholo paʻakikī.
Ua lanakila lākou i nā poʻokela kanaka i nā pāʻani e like me Go a me chess, a me nā robotics a me nā kaʻa kaʻa ponoʻī. No laila, ʻo nā mea a pau, hana nā DQN ma ke aʻo ʻana mai ka ʻike e hoʻomaikaʻi i kā lākou mākaukau hoʻoholo i ka manawa.
10. Nā Pūnaewele Hana Radial Basis (RBFNs)
ʻO Radial Basis Function Networks (RBFNs) kahi ʻano o ka neural network i hoʻohana ʻia e pili i nā hana a hana i nā hana hoʻohālikelike. Hana lākou ma ka hoʻololi ʻana i ka ʻikepili hoʻokomo i kahi ākea kiʻekiʻe me ka hoʻohana ʻana i kahi hōʻiliʻili o nā hana kumu radial.
ʻO ka hoʻopukaʻana o ka pūnaewele he hui laina laina o nā hana kumu, aʻo kēlā me kēia hana kumu radial e hōʻike ana i kahi kiko waena ma kahi hoʻokomo.
ʻOi aku ka maikaʻi o nā RBFN no nā kūlana me ka paʻakikī o ka hoʻokomo ʻana i ka hoʻopukapuka, a hiki ke aʻo ʻia lākou me ka hoʻohana ʻana i nā ʻano hana like ʻole, me ke aʻo ʻana i mālama ʻia a mālama ʻole ʻia. Ua hoʻohana ʻia lākou no kekahi mea mai nā wānana kālā a hiki i ke kiʻi a me ka ʻōlelo ʻana i nā diagnostics olakino.
E noʻonoʻo i nā RBFN ma ke ʻano he ʻōnaehana GPS e hoʻohana ana i kahi pūʻulu o nā wahi heleuma e ʻimi ai i kona ala ma ka ʻāina paʻakikī. ʻO ka hoʻopukaʻana o ka pūnaewele he hui ia o nā heleuma, kahi e kū nei no nā hana kumu radial.
Hiki iā mākou ke nānā i ka ʻike paʻakikī a hoʻopuka i nā wānana pololei e pili ana i ka hopena o kahi hiʻohiʻona ma ka hoʻohana ʻana i nā RBFN.
11. Nā Manaʻo Multilayer (MLPs)
Hoʻohana ʻia kahi ʻano maʻamau o ka neural network i kapa ʻia he multilayer perceptron (MLP) no nā hana aʻo e mālama ʻia e like me ka hoʻokaʻawale ʻana a me ka regression. Hana lākou ma ka hoʻopaʻa ʻana i kekahi mau ʻāpana o nā nodes i hoʻopili ʻia, a i ʻole nā neurons, me kēlā me kēia papa me ka hoʻololi ʻole i ka ʻikepili e hiki mai ana.
I loko o kahi MLP, loaʻa i kēlā me kēia neuron ka hoʻokomo mai nā neurons i ka papa ma lalo a hoʻouna i kahi hōʻailona i nā neurons ma ka papa ma luna. Hoʻoholo ʻia ka hopena o kēlā me kēia neuron me ka hoʻohana ʻana i kahi hana hoʻāla, e hāʻawi ana i ka nonlinearity pūnaewele.
Hiki iā lākou ke aʻo i nā hiʻohiʻona paʻakikī o ka ʻikepili hoʻokomo ʻana no ka mea hiki iā lākou ke loaʻa i kekahi mau papa huna.
Ua hoʻohana ʻia nā MLP i nā hana like ʻole, e like me ka nānā ʻana i ka manaʻo, ka ʻike hoʻopunipuni, a me ka ʻike leo a me ke kiʻi. Hiki ke hoʻohālikelike ʻia nā MLP me kahi pūʻulu o nā mea noiʻi e hana pū ana e haki i kahi hihia paʻakikī.
Hiki iā lākou ke hōʻuluʻulu i nā ʻoiaʻiʻo a hoʻoponopono i ka hewa ʻoiai ʻo ka ʻoiaʻiʻo ua loaʻa i kēlā me kēia me kahi ʻano kūikawā.
12. Nā Pūnaewele Neural Convolutional (CNNs)
Hoʻohana ʻia nā kiʻi a me nā wikiō me ka convolutional neural networks (CNNs), kahi ʻano o ka neural network. Hana lākou ma ka hoʻohana ʻana i nā kānana hiki ke aʻo ʻia, a i ʻole kernels, e unuhi i nā ʻano koʻikoʻi mai ka ʻikepili komo.
Holo nā kānana ma luna o ke kiʻi hoʻokomo, e hoʻokō ana i nā convolutions e kūkulu i kahi palapala hiʻona e hopu i nā mea koʻikoʻi o ke kiʻi.
Hiki i nā CNN ke aʻo i nā hierarchical hiʻohiʻona o nā hiʻohiʻona kiʻi, kōkua nui lākou i nā kūlana e pili ana i ka nui o ka ʻikepili ʻike. Ua hoʻohana kekahi mau noi iā lākou, e like me ka ʻike mea, ka hoʻokaʻawale kiʻi, a me ka ʻike maka.
E noʻonoʻo iā CNN ma ke ʻano he mea pena nāna e hoʻohana i kekahi mau pulupulu e hana i kahi haku hana. ʻO kēlā me kēia pulupulu he kernel, a hiki i ka mea pena ke kūkulu i kahi kiʻi paʻakikī a ʻoiaʻiʻo hoʻi ma ka hui ʻana i nā kernels he nui. Hiki iā mākou ke unuhi i nā hiʻohiʻona koʻikoʻi mai nā kiʻi a hoʻohana iā lākou e wānana pololei i nā mea o ke kiʻi ma o ka hoʻohana ʻana iā CNN.
13. Nā Pūnaewele Hoʻomanaʻo Hohonu (DBNs)
ʻO nā DBN kahi ʻano o ka neural network i hoʻohana ʻia no nā hana aʻo ʻole i mālama ʻia e like me ka hoʻemi ʻana o ka dimensionality a me ke aʻo ʻana i nā hiʻohiʻona. Hana lākou ma ka hoʻopaʻa ʻana i kekahi mau papa o Restricted Boltzmann Machines (RBMs), ʻo ia nā ʻoihana neural ʻelua-layer hiki ke aʻo e hoʻohui i ka ʻikepili komo.
Pono nui nā DBN no nā pilikia ʻikepili kiʻekiʻe no ka mea hiki iā lākou ke aʻo i kahi hōʻike paʻa a maikaʻi o ka hoʻokomo. Ua hoʻohana ʻia lākou no kekahi mea mai ka ʻike leo i ka hoʻokaʻawale kiʻi ʻana i ka ʻike lāʻau.
No ka laʻana, ua hoʻohana nā mea noiʻi i kahi DBN e hoʻohālikelike i ka pilina paʻa o nā moho lāʻau lapaʻau i ka mea loaʻa estrogen. Ua aʻo ʻia ka DBN ma ka hōʻiliʻili o nā ʻano kemika a me nā pili pili, a ua hiki iā ia ke wānana pololei i ka pilina paʻa o nā moho lāʻau lapaʻau hou.
Hōʻike kēia i ka hoʻohana ʻana o DBN i ka hoʻomohala ʻana i ka lāʻau lapaʻau a me nā noi ʻikepili kiʻekiʻe.
14. Autoencoders
ʻO Autoencoders nā pūnaewele neural i hoʻohana ʻia no nā hana aʻo ʻole i mālama ʻia. Manaʻo lākou e kūkulu hou i ka ʻikepili hoʻokomo, ʻo ia hoʻi e aʻo lākou e hoʻopili i ka ʻike i loko o kahi hōʻike paʻa a laila hoʻihoʻi hou i ka hoʻokomo kumu.
He mea maikaʻi loa nā Autoencoders no ka hoʻopili ʻana i ka ʻikepili, ka wehe ʻana i ka walaʻau, a me ka ʻike anomaly. Hiki ke hoʻohana ʻia no ke aʻo hiʻona, kahi e hānai ʻia ai ka hōʻike paʻa o ka autoencoder i kahi hana aʻo i mālama ʻia.
E noʻonoʻo i nā autoencoders i mau haumāna e kākau memo ma ka papa. Hoʻolohe ka haumāna i ka haʻiʻōlelo a kākau i nā kikoʻī kūpono loa ma ke ʻano pōkole a maikaʻi.
Ma hope aku, hiki i ka haumāna ke aʻo a hoʻomanaʻo i ka haʻawina me ka hoʻohana ʻana i kā lākou mau memo. ʻO ka autoencoder, ma ka ʻaoʻao ʻē aʻe, hoʻopili i ka ʻikepili hoʻokomo i loko o kahi hōʻike paʻa i hiki ke hoʻohana ʻia no nā kumu like ʻole e like me ka ʻike anomaly a i ʻole ka hoʻopaʻa ʻana i ka ʻikepili.
15. Nā Mīkini Boltzmann i kaupalena ʻia ( RBMs)
ʻO RBMs (Mīkini Boltzmann i hoʻopaʻa ʻia) he ʻano o ka ʻenehana neural generative i hoʻohana ʻia no nā hana aʻo ʻole i mālama ʻia. Hana ʻia lākou me kahi papa ʻike ʻia a me kahi papa huna, me nā neurons i kēlā me kēia papa, i hoʻopili ʻia akā ʻaʻole i loko o ka papa hoʻokahi.
Hoʻomaʻamaʻa ʻia nā RBM me ka hoʻohana ʻana i kahi ʻenehana i kapa ʻia ʻo ka contrastive divergence, kahi e hoʻololi ai i nā kaupaona ma waena o nā papa ʻike ʻia a huna ʻia i mea e hiki ai ke koho i ka hiki o ka ʻikepili aʻo. Hiki i nā RBM ke hana i ka ʻikepili hou ma hope o ka hoʻomaʻamaʻa ʻia ʻana e ka laʻana mai ka māhele aʻo.
ʻO ka ʻike kiʻi a me ka ʻōlelo, kānana hui ʻana, a me ka ʻike anomaly ʻo ia nā noi āpau i hoʻohana i nā RBM. Ua hoʻohana ʻia lākou i nā ʻōnaehana paipai e hana i nā manaʻo i hoʻohālikelike ʻia e ke aʻo ʻana i nā ʻōnaehana mai ka ʻano mea hoʻohana.
Ua hoʻohana pū ʻia nā RBM i ke aʻo hiʻona e hana i kahi hōʻike paʻa a maikaʻi o ka ʻikepili kiʻekiʻe.
ʻO nā mea hoʻomohala hoʻohiki ma ka Horizon
ʻO nā ʻano hoʻonaʻauao hohonu, e like me Convolutional Neural Networks (CNNs) a me Recurrent Neural Networks (RNNs), ʻo ia kekahi o nā ʻano hoʻokokoke ʻoi loa. Ua hoʻololi nā CNN i ke kiʻi a me ka ʻike leo, ʻoiai ua holomua nui nā RNN i ka hoʻoponopono ʻōlelo kūlohelohe a me ka nānā ʻana i ka ʻikepili sequential.
ʻO ka ʻanuʻu aʻe o ka hoʻomohala ʻana o kēia mau ala e pili ana i ka hoʻomaikaʻi ʻana i ko lākou pono a me ka scalability, e ʻae iā lākou e kālailai i nā ʻikepili nui a paʻakikī, a me ka hoʻonui ʻana i kā lākou wehewehe a me ka hiki ke aʻo mai nā ʻikepili liʻiliʻi.
Loaʻa i ke aʻo hohonu ka hiki ke ʻae i nā holomua i nā kula e like me ke olakino, kālā, a me nā ʻōnaehana autonomous i kona holomua ʻana.
Waiho i ka Reply