Table of Contents[Hūnā][Hōʻike]
- 1. He aha ka Deep Learning?
- 2. He aha ka mea e ʻokoʻa ai ke aʻo hohonu mai ka aʻo mīkini?
- 3. He aha kāu ʻike i kēia manawa no nā neural network?
- 4. He aha ke ʻano o ka perceptron?
- 5. He aha ke ʻano o kahi pūnaewele neural hohonu?
- 6. He aha ka Multilayer Perceptron (MLP)?
- 7. He aha ke kumu e pāʻani ai nā hana hoʻonā i loko o kahi pūnaewele neural?
- 8. He aha ka iho ʻana o Gradient Descent?
- 9. He aha ka pono o ke kumu kūʻai?
- 10. Pehea e hiki ai i nā pūnaewele hohonu ke ʻoi aku ka maikaʻi ma mua o nā mea pāpaʻu?
- 11. E wehewehe i ka hoolaha mua.
- 12. He aha ka backpropagation?
- 13. I loko o ka pōʻaiapili o ka hoʻonaʻauao hohonu, pehea ʻoe e hoʻomaopopo ai i ka ʻoki ʻana i ka gradient?
- 14. He aha nā hana Softmax a me ReLU?
- 15. Hiki ke a'o 'ia ke kŘkohu neural network me na paona a pau i 0?
- 16. He aha ka mea e hoʻokaʻawale ai i kahi wā mai kahi pūʻulu a me kahi hoʻololi?
- 17. He aha ka Batch Normalization a me ka Haʻalele?
- 18. He aha ka mea e ho'oka'awale ai i ka Descent Stochastic Gradient mai ka Descent Gradient Batch?
- 19. No ke aha he mea koʻikoʻi ka hoʻokomo ʻana i nā laina laina ʻole i nā neural network?
- 20. He aha ka tensor i ke aʻo hohonu?
- 21. Pehea ʻoe e koho ai i ka hana hoʻāla no kahi kumu hoʻonaʻauao hohonu?
- 22. He aha kāu e ʻōlelo nei e CNN?
- 23. He aha ka nui o nā papa CNN?
- 24. He aha nā hopena o ka hoʻonui a me ka hoʻopaʻa ʻole, a pehea ʻoe e pale aku ai?
- 25. Ma ke aʻo hohonu, he aha ka RNN?
- 26. E wehewehe i ka Adam Optimizer
- 27. Nā autoencoders hohonu: he aha lākou?
- 28. He aha ka manaʻo o Tensor ma Tensorflow?
- 29. He wehewehe no ka pakuhi helu
- 30. Generative adversarial networks (GANs): he aha ia?
- 31. Pehea ʻoe e koho ai i ka helu o nā neurons a me nā papa huna e hoʻokomo i loko o ka neural network i kou hoʻolālā ʻana i ka hoʻolālā?
- 32. He aha nā ʻano pūnaewele neural i hoʻohana ʻia e ke aʻo hoʻoikaika hohonu?
- Panina
ʻAʻole manaʻo hou ke aʻo hohonu. ʻO nā ʻoihana neural artificial ke kumu hoʻokahi o ka ʻāpana aʻo mīkini i ʻike ʻia ʻo ke aʻo hohonu.
ʻO ke aʻo hohonu ka lolo kanaka, e like me nā neural network, ʻoiai ua hana ʻia lākou e hoʻohālike i ka lolo kanaka.
Aia kēia no kekahi manawa. I kēia mau lā, ke kamaʻilio nei ka poʻe a pau no ka mea ʻaʻole like ka nui o ka mana hana a i ʻole ka ʻikepili e like me kā mākou i kēia manawa.
I nā makahiki he 20 i hala iho nei, ua puka mai ke aʻo hohonu a me ke aʻo ʻana i ka mīkini ma muli o ka piʻi nui ʻana o ka hiki ke hana.
I mea e kōkua ai iā ʻoe e hoʻomākaukau no nā nīnau āu e alo ai i ka wā e ʻimi nei i kāu hana moeʻuhane, e alakaʻi kēia pou iā ʻoe ma o nā nīnau nīnau nīnau hohonu hohonu, mai ka maʻalahi a paʻakikī.
1. He aha ka Deep Learning?
Inā ʻoe e hele ana i kahi haʻawina hohonu e ninaninau, maopopo iā ʻoe ke aʻo hohonu. Ke manaʻo nei ka mea nīnau nīnau iā ʻoe e hāʻawi i kahi pane kikoʻī me kahi kiʻi i pane i kēia nīnau.
I mea e aʻo ai nā hanana laulā no ke aʻo hohonu, pono e hoʻohana ʻia ka nui o nā ʻikepili i hoʻonohonoho ʻia a i hoʻonohonoho ʻole ʻia. No ka ʻimi ʻana i nā hiʻohiʻona huna a me nā hiʻohiʻona, hana ia i nā kaʻina hana paʻakikī (e like me ka hoʻokaʻawale ʻana i ke kiʻi o ka pōpoki a me ke kiʻi o ka ʻīlio).
2. He aha ka mea e ʻokoʻa ai ke aʻo hohonu mai ka aʻo mīkini?
Ma ke ʻano he lālā o ka naʻauao hana i ʻike ʻia ʻo ke aʻo ʻana i ka mīkini, hoʻomaʻamaʻa mākou i nā kamepiula me ka hoʻohana ʻana i ka ʻikepili a me nā ʻenehana helu a me algorithmic i mea e hoʻomaikaʻi ai lākou i ka manawa.
Ma ke ʻano he ʻano o aʻo aʻo, ke aʻo hohonu e hoʻohālike i ka hoʻolālā pūnaewele neural i ʻike ʻia i loko o ka lolo kanaka.
3. He aha kāu ʻike i kēia manawa no nā neural network?
ʻO nā ʻōnaehana artificial i kapa ʻia ʻo nā neural network e like me nā neural network i loaʻa i loko o ke kino kanaka.
Ke hoʻohana nei i kahi ʻenehana e like me ke ʻano o ka ka lolo kanaka nā hana, ʻo ka neural network kahi hōʻiliʻili o nā algorithms e manaʻo ana e ʻike i nā correlations i lalo i kahi ʻāpana ʻikepili.
Loaʻa i kēia mau ʻōnaehana ka ʻike kikoʻī hana ma ka hōʻike ʻana iā lākou iho i kahi ʻano o nā ʻikepili a me nā hiʻohiʻona, ma mua o ka hahai ʻana i nā lula kikoʻī hana.
ʻO ka manaʻo, ʻaʻole i loaʻa kahi ʻike i hoʻonohonoho mua ʻia o kēia mau ʻikepili, aʻo ka ʻōnaehana i nā ʻano ʻokoʻa mai ka ʻikepili i hānai ʻia.
ʻO nā papa pūnaewele ʻekolu i hoʻohana pinepine ʻia i nā Neural Networks penei:
- Papa hookomo
- Papa huna
- Papa puka
4. He aha ke ʻano o ka perceptron?
ʻO ka neuron biological i loaʻa i loko o ka lolo o ke kanaka e like me ka perceptron. Loaʻa nā mea hoʻokomo he nui e ka perceptron, a laila hana i nā loli a me nā hana he nui a hoʻopuka i kahi puka.
Hoʻohana ʻia kahi hoʻohālike laina i kapa ʻia he perceptron i ka hoʻohālikelike binary. Hoʻohālikelike ia i kahi neuron me nā ʻano hoʻokomo like ʻole, kēlā me kēia me ke kaumaha ʻokoʻa.
Hoʻopili ka neuron i kahi hana me ka hoʻohana ʻana i kēia mau hoʻokomo kaumaha a hoʻopuka i nā hopena.
5. He aha ke ʻano o kahi pūnaewele neural hohonu?
ʻO kahi pūnaewele neural hohonu kahi pūnaewele neural artificial (ANN) me nā papa he nui ma waena o nā papa hoʻokomo a me nā papa puka (DNN).
ʻO nā pūnaewele neural hohonu nā pūnaewele neural hohonu. ʻO ka huaʻōlelo "hohonu" pili i nā hana me nā pae he nui a me nā ʻāpana i kahi papa hoʻokahi. Hiki ke hana ʻia nā hiʻohiʻona ʻoi aku ka pololei ma o ka hoʻohui ʻana i nā papa ʻoi aʻe a nui aʻe e hopu i nā pae kiʻekiʻe o nā mamana.
6. He aha ka Multilayer Perceptron (MLP)?
Aia nā papa hoʻokomo, huna, a me nā mea hoʻopuka i nā MLP, e like me nā pūnaewele neural. Kūkulu ʻia ia e like me ka perceptron one-layer me hoʻokahi a ʻoi aku paha nā papa huna.
Hiki ke hoʻokaʻawale i nā papa hoʻokaʻawale linear (0,1) ka puka binary o kahi perceptron papa hoʻokahi, akā hiki i ka MLP ke hoʻokaʻawale i nā papa nonlinear.
7. He aha ke kumu e pāʻani ai nā hana hoʻonā i loko o kahi pūnaewele neural?
Hoʻoholo ka hana hoʻāla i ka hana a i ʻole ka neuron ma ka pae kumu. Hiki i kēlā me kēia hana hoʻāla ke ʻae i ka huina kaumaha o nā mea hoʻokomo a me ka bias ma ke ʻano he hoʻokomo. Loaʻa nā hana hoʻoulu i ka hana step, ka Sigmoid, ka ReLU, ka Tanh, a me ka Softmax.
8. He aha ka iho ʻana o Gradient Descent?
ʻO ke ala maikaʻi loa no ka hōʻemi ʻana i kahi hana kumu kūʻai a i ʻole kahi hewa ʻo ia ka iho gradient. ʻO ka ʻimi ʻana i ka minima kūloko-ka honua ka pahuhopu. Hōʻike kēia i ke ala e pono ai ke kumu hoʻohālike e hōʻemi i ka hewa.
9. He aha ka pono o ke kumu kūʻai?
ʻO ka hana kumu kūʻai he metric e loiloi i ka maikaʻi o kāu hana hoʻohālike; ʻike ʻia ʻo ia i kekahi manawa he "nalo" a i ʻole "hewa." I ka wā backpropagation, hoʻohana ʻia e helu i ka hewa o ka papa puka.
Hoʻohana mākou i kēlā hemahema e hoʻonui i nā kaʻina aʻo ʻana o ka neural network ma ka hoʻihoʻi ʻana iā ia ma o ka pūnaewele neural.
10. Pehea e hiki ai i nā pūnaewele hohonu ke ʻoi aku ka maikaʻi ma mua o nā mea pāpaʻu?
Hoʻohui ʻia nā papa huna i nā ʻupena neural me ka hoʻohui ʻana i nā papa hoʻokomo a me nā papa puka. Ma waena o nā papa hoʻokomo a me nā mea hoʻopuka, hoʻohana nā ʻupena neural pāpaʻu i hoʻokahi papa huna, akā hoʻohana nā ʻoihana neural hohonu i nā pae he nui.
Pono ka ʻupena pāpaʻu i kekahi mau ʻāpana i hiki ke hoʻopili i kekahi hana. Hiki i nā pūnaewele hohonu ke kūpono i nā hana ʻoi aku ka liʻiliʻi o nā ʻāpana ʻoiai ua hoʻokomo lākou i kekahi mau papa.
Ua makemake ʻia nā pūnaewele hohonu ma muli o ko lākou maʻalahi i ka hana ʻana me nā ʻano hoʻohālike ʻikepili, inā paha no ka ʻōlelo a i ʻole ka ʻike kiʻi.
11. E wehewehe i ka hoolaha mua.
Hoʻouna ʻia nā mea hoʻokomo me nā paona i ka papa i kanu ʻia ma kahi kaʻina i kapa ʻia ʻo ka hoʻolaha hoʻolaha.
Hoʻopili ʻia ka hoʻopuka ʻana o ka hana hoʻāla i kēlā me kēia papa kanu ma mua o ka hiki ke hele i ka papa aʻe.
Hoʻomaka ke kaʻina hana ma ka papa hoʻokomo a holomua i ka papa hoʻopuka hope loa, pēlā ka inoa hoʻolaha mua.
12. He aha ka backpropagation?
Ke hoʻoponopono ʻia nā kaupaona a me nā ʻāʻī i ka neural network, hoʻohana ʻia ka backpropagation e hōʻemi i ka hana kumukūʻai ma ka nānā mua ʻana i ka loli ʻana o ka waiwai.
Ma ka hoʻomaopopo ʻana i ka gradient ma kēlā me kēia papa huna e maʻalahi ka helu ʻana i kēia hoʻololi.
Hoʻomaka ke kaʻina hana, i kapa ʻia ʻo backpropagation, ma ka papa hoʻopuka a neʻe i hope i nā papa hoʻokomo.
13. I loko o ka pōʻaiapili o ka hoʻonaʻauao hohonu, pehea ʻoe e hoʻomaopopo ai i ka ʻoki ʻana i ka gradient?
ʻO Gradient Clipping kahi ala no ka hoʻoponopono ʻana i ka pilikia o nā gradient pahū e kū mai ana i ka wā o ka backpropagation (kahi kūlana e hōʻiliʻili ai nā gradients hewa nui i ka manawa, e alakaʻi ana i nā hoʻololi koʻikoʻi i nā paona kumu hoʻohālike neural network i ke aʻo ʻana).
ʻO ka pahū ʻana i nā gradients kahi pilikia e kū mai ana i ka wā e nui ai nā gradients i ka wā o ke aʻo ʻana, ʻaʻole paʻa ke kumu hoʻohālike. Inā ua ʻoi aku ka gradient i ka laulā i manaʻo ʻia, ua hoʻoneʻe ʻia nā koina gradient i ka ʻeleʻele i kēlā me kēia ʻeleʻele i kahi waiwai liʻiliʻi a i ʻole ka nui.
Hoʻonui ka gradient clipping i ke kūpaʻa helu o kahi pūnaewele neural i ke aʻo ʻana, akā liʻiliʻi ka hopena i ka hana o ke kumu hoʻohālike.
14. He aha nā hana Softmax a me ReLU?
ʻO kahi hana hoʻonā i kapa ʻia ʻo Softmax e hoʻopuka i kahi puka ma waena o 0 a me 1. Ua māhele ʻia kēlā me kēia puka i mea e hoʻokahi ka huina o nā huahana a pau. No nā papa puka, hoʻohana pinepine ʻia ʻo Softmax.
Hoʻoponopono Linear Unit, i kekahi manawa i kapa ʻia ʻo ReLU, ʻo ia ka hana hoʻāla i hoʻohana nui ʻia. Inā maikaʻi ʻo X, hoʻopuka ʻo ia i ka X, inā ʻaʻole ia e hoʻopuka i nā zeros. Hoʻohana mau ʻia ka ReLU i nā papa i kanu ʻia.
15. Hiki ke a'o 'ia ke kŘkohu neural network me na paona a pau i 0?
ʻAʻole e aʻo ka neural network e hoʻopau i kahi hana i hāʻawi ʻia, no laila ʻaʻole hiki ke hoʻomaʻamaʻa i kahi kumu hoʻohālike ma ka hoʻomaka ʻana i nā paona āpau i 0.
E mau ana na huahelu no na paona a pau ma W [1] ina e hoomua ia na paona a pau i ka ale, a e a'o ana na neurons i na hiohiona like.
ʻAʻole wale ka hoʻomaka ʻana i nā paona i ka 0, akā i kēlā me kēia ʻano o ka mea mau e hopena paha i kahi hopena subpar.
16. He aha ka mea e hoʻokaʻawale ai i kahi wā mai kahi pūʻulu a me kahi hoʻololi?
ʻO nā ʻano like ʻole o ka hoʻoili ʻana i nā ʻikepili a me nā ʻenehana iho gradient ʻo ia ka pūʻulu, ka hoʻololi ʻana, a me ka wā. Hoʻopili ʻo Epoch i hoʻokahi-ma o kahi pūnaewele neural me kahi ʻikepili piha, i mua a i hope.
I mea e hāʻawi ai i nā hualoaʻa hilinaʻi, ua hāʻawi pinepine ʻia ka ʻikepili i nā manawa he nui no ka mea ʻoi aku ka nui o ka hele ʻana i hoʻokahi hoʻāʻo.
ʻO kēia hana o ka holo pinepine ʻana i kahi liʻiliʻi o ka ʻikepili ma o ka neural network i kapa ʻia ʻo ka iteration. No ka hōʻoiaʻiʻo ʻana i ka holo pono ʻana o ka ʻikepili i nā ʻupena neural, hiki ke hoʻokaʻawale ʻia i kekahi mau pūʻulu a i ʻole nā subsets, i kapa ʻia ʻo batching.
Ma muli o ka nui o ka hōʻiliʻili ʻikepili, ʻo nā ʻano ʻekolu a pau—epoch, iteration, a me ka nui o ka puʻupuʻu—ʻo ia nā ala e hoʻohana ai i ka algorithm gradient descent.
17. He aha ka Batch Normalization a me ka Haʻalele?
Kāohi ʻia ka haʻalele ʻana i ka ʻikepili ma o ka wehe wale ʻana i nā ʻāpana pūnaewele ʻike a huna ʻia (e hāʻule pinepine ana i ka 20 pakeneka o nā nodes). Hoʻopālua ia i ka helu o nā iterations e pono ai e hoʻohui i ka pūnaewele.
Ma ka hana maʻamau i nā mea hoʻokomo i kēlā me kēia papa e loaʻa i ka mean output activation o ka zero a me ka deviation maʻamau o hoʻokahi, ʻo ka batch normalization kahi hoʻolālā e hoʻonui ai i ka hana a me ke kūpaʻa o nā ʻupena neural.
18. He aha ka mea e ho'oka'awale ai i ka Descent Stochastic Gradient mai ka Descent Gradient Batch?
ʻO ka Descent Gradient Batch:
- Hoʻohana ʻia ka ʻikepili piha e kūkulu i ka gradient no ka gradient batch.
- ʻO ka nui o ka ʻikepili a me ka hoʻonui lohi ʻana i nā paona e paʻakikī ai ka convergence.
ʻO ka Descent Gradient Stochastic:
- Hoʻohana ka gradient stochastic i hoʻokahi laʻana e helu i ka gradient.
- Ma muli o ka hoʻololi pinepine ʻana o ke kaumaha, ʻoi aku ka wikiwiki o ka hoʻololi ʻana ma mua o ka gradient batch.
19. No ke aha he mea koʻikoʻi ka hoʻokomo ʻana i nā laina laina ʻole i nā neural network?
No ka nui o nā papa, e hana ana kahi neural network e like me ka perceptron me ka ʻole o nā laina laina ʻole, e hilinaʻi ana ka huahana ma ka hoʻokomo.
No ka waiho ʻana i kahi ala ʻē aʻe, ʻo kahi ʻupena neural me nā ʻāpana n a me nā m huna huna a me nā hana hoʻonā laina e like me ka linear neural network me ka ʻole o nā papa huna a me ka hiki ke ʻike i nā palena hoʻokaʻawale linear wale nō.
Me ka ʻole o nā laina laina, ʻaʻole hiki i kahi neural network ke hoʻoponopono i nā pilikia paʻakikī a hoʻokaʻawale pololei i ka hoʻokomo.
20. He aha ka tensor i ke aʻo hohonu?
ʻO kahi hui multidimensional i ʻike ʻia he tensor e lawelawe ma ke ʻano he laulā o nā matrices a me nā vectors. He ʻano ʻikepili koʻikoʻi no ke aʻo hohonu. Hoʻohana ʻia nā papa kuhikuhi N-dimensional o nā ʻano ʻikepili kumu e hōʻike i nā tensor.
Loaʻa i kēlā me kēia ʻāpana o ka tensor ke ʻano ʻikepili like, a ʻike mau ʻia kēia ʻano ʻikepili. Hiki ke ʻike ʻia he ʻāpana wale nō o ke ʻano—ʻo ia hoʻi, ʻehia nā ana a me ka nui o kēlā me kēia.
I nā kūlana i ʻike piha ʻia nā mea hoʻokomo, hana ka hapa nui o nā hana i nā tensors ʻike piha ʻia; i nā hihia ʻē aʻe, hiki ke hoʻokumu ʻia ke ʻano o ka tensor i ka wā e hoʻokō ai i ka pakuhi.
21. Pehea ʻoe e koho ai i ka hana hoʻāla no kahi kumu hoʻonaʻauao hohonu?
- Maikaʻi ka hoʻohana ʻana i kahi hana hoʻāla laina inā ʻoiaʻiʻo ka hopena i manaʻo ʻia.
- Pono e hoʻohana ʻia kahi hana Sigmoid inā ʻo ka hoʻopuka e wānana ʻia he ʻano like ʻole o ka papa binary.
- Hiki ke hoʻohana ʻia kahi hana Tanh inā loaʻa i ka hoʻopuka i manaʻo ʻia he ʻelua papa.
- Ma muli o ka maʻalahi o ka helu ʻana, pili ka hana ReLU i nā kūlana ākea.
22. He aha kāu e ʻōlelo nei e CNN?
ʻO nā pūnaewele neural hohonu e loea i ka loiloi ʻana i nā kiʻi kiʻi i loaʻa nā convolutional neural networks (CNN, a i ʻole ConvNet). Maʻaneʻi, ma mua o nā pūnaewele neural kahi e hōʻike ai kahi vector i ka hoʻokomo, ʻo ka hoʻokomo he kiʻi multi-channeled.
Hoʻohana ʻia nā perceptrons multilayer ma kahi ala kūikawā e nā CNN e koi ai i ka preprocessing liʻiliʻi.
23. He aha ka nui o nā papa CNN?
Layer Convolutional: ʻO ka papa nui ka papa convolutional, nona nā ʻano kānana hiki ke aʻo ʻia a me kahi kahua hoʻokipa. Lawe kēia papa mua i ka ʻikepili hoʻokomo a unuhi i kona mau hiʻohiʻona.
ʻO ka Layer ReLU: Ma ka hana ʻana i nā ʻupena i ka laina ʻole, hoʻololi kēia papa i nā pika maikaʻi ʻole i ʻole.
ʻO ka papa hoʻopulapula: Ma ka hoʻemi ʻana i ka hoʻoponopono ʻana a me nā hoʻonohonoho pūnaewele, e hoʻemi mālie ka papa pooling i ka nui spatial o ka hōʻike. ʻO Max pooling ka mea i hoʻohana nui ʻia o ka pooling.
24. He aha nā hopena o ka hoʻonui a me ka hoʻopaʻa ʻole, a pehea ʻoe e pale aku ai?
ʻIke ʻia kēia ma ke ʻano he overfitting ke aʻo ʻia kahi kumu hoʻohālike i ka paʻakikī a me ka walaʻau o ka ʻikepili hoʻomaʻamaʻa a hiki i kahi hopena maikaʻi ʻole i ka hoʻohana ʻana o ke kumu hoʻohālike i ka ʻikepili hou.
ʻOi aku ka paʻakikī o ka hana ʻana me nā kumu hoʻohālike nonlinear i ʻoi aku ka maʻalahi i ke aʻo ʻana i kahi hana pahuhopu. Hiki ke aʻo ʻia ke kumu hoʻohālike e ʻike i nā kaʻa a me nā kaʻa, akā hiki iā ia ke ʻike i nā kaʻa me kahi ʻano pahu.
Ma muli o ka hoʻomaʻamaʻa ʻana i hoʻokahi ʻano kaʻa, ʻaʻole hiki iā ia ke ʻike i kahi kaʻa palahalaha. Ma ka ʻikepili aʻo, hana maikaʻi ke kumu hoʻohālike, akā ʻaʻole i ka honua maoli.
ʻO kahi kumu hoʻohālike i hoʻokomo ʻole ʻia e pili ana i kahi mea i aʻo ʻole ʻia i ka ʻikepili a i ʻole hiki ke hoʻomāhuahua i ka ʻike hou. Hana pinepine kēia i ka wā e hoʻomaʻamaʻa ʻia ana ke kumu hoʻohālike me ka ʻikepili lawa ʻole a pololei ʻole paha.
Hoʻopili ʻia ka pololei a me ka hana ʻana e ka underfitting.
ʻO ka hoʻohana hou ʻana i ka ʻikepili no ka hoʻohālikelike ʻana i ka pololei o ke kumu hoʻohālike (K-fold cross-validation) a me ka hoʻohana ʻana i ka ʻikepili hōʻoia no ka loiloi ʻana i ke kumu hoʻohālike, ʻelua mau ala e pale aku ai i ka overfitting a underfitting.
25. Ma ke aʻo hohonu, he aha ka RNN?
ʻO nā pūnaewele neural hou (RNNs), kahi ʻano maʻamau o nā ʻupena neural artificial, hele ma ka abbreviation RNN. Hoʻohana ʻia lākou e hana i nā genomes, kākau lima, kikokikona, a me nā kaʻina ʻikepili, a me nā mea ʻē aʻe. No ka hoʻomaʻamaʻa pono, hoʻohana nā RNN i ka backpropagation.
26. E wehewehe i ka Adam Optimizer
ʻO Adam optimizer, ʻike ʻia hoʻi ʻo adaptive momentum, kahi ʻenehana loiloi i hoʻomohala ʻia e mālama i nā kūlana walaʻau me nā gradient liʻiliʻi.
Ma waho aʻe o ka hoʻolako ʻana i nā mea hou no ka hoʻololi wikiwiki ʻana, hoʻomaikaʻi ka Adam optimizer i ka convergence ma o ka manawa, me ka hōʻoia ʻana ʻaʻole e paʻa ke kumu hoʻohālike i ka wahi noho.
27. Nā autoencoders hohonu: he aha lākou?
ʻO ka Deep autoencoder ka inoa hui no ʻelua mau ʻupena hilinaʻi hohonu like me ʻehā a ʻelima paha papa pāpaʻu no ka hapalua o ka hoʻopā ʻana o ka pūnaewele a me kekahi pūʻulu ʻehā a ʻelima paha papa no ka hapalua decoding.
Hoʻokumu kēia mau papa i ke kumu o nā ʻoihana hilinaʻi hohonu a kāohi ʻia e nā mīkini Boltzmann. Ma hope o kēlā me kēia RBM, hoʻohana ka autoencoder hohonu i nā hoʻololi binary i ka MNIST dataset.
Hiki iā lākou ke hoʻohana ʻia i nā ʻikepili ʻē aʻe kahi i makemake ʻia ai nā hoʻololi hoʻoponopono Gaussian ma mua o RBM.
28. He aha ka manaʻo o Tensor ma Tensorflow?
ʻO kēia kekahi nīnau nīnau nīnau aʻo hohonu e nīnau mau ʻia. ʻO ka tensor kahi manaʻo makemakika i ʻike ʻia ma ke ʻano he papa kiʻekiʻe.
ʻO Tensors kēia mau ʻikepili i hāʻawi ʻia ma ke ʻano he hoʻokomo i ka neural network a loaʻa nā ʻano like ʻole a me nā pae.
29. He wehewehe no ka pakuhi helu
ʻO ke kumu o kahi TensorFlow ke kūkulu ʻana i kahi pakuhi helu. Hana kēlā me kēia node i kahi pūnaewele o nā nodes, kahi e kū ai nā node no nā hana makemakika a me nā kihi no nā tensor.
Ua kapa ʻia ia i kekahi manawa he "DataFlow Graph" no ka mea e kahe ana ka ʻikepili i ke ʻano o kahi pakuhi.
30. Generative adversarial networks (GANs): he aha ia?
Ma ke aʻo hohonu, hoʻokō ʻia ka hoʻohālike generative me ka hoʻohana ʻana i nā ʻoihana ʻenemi generative. He hana i mālama ʻole ʻia kahi i hoʻopuka ʻia ai ka hopena ma ka ʻike ʻana i nā mamana i ka ʻikepili hoʻokomo.
Hoʻohana ʻia ka discriminator e hoʻokaʻawale i nā manawa i hana ʻia e ka generator, akā hoʻohana ʻia ka generator e hana i nā hiʻohiʻona hou.
31. Pehea ʻoe e koho ai i ka helu o nā neurons a me nā papa huna e hoʻokomo i loko o ka neural network i kou hoʻolālā ʻana i ka hoʻolālā?
Hāʻawi ʻia i kahi paʻakikī ʻoihana, ʻaʻole hiki ke hoʻoholo ʻia ka helu pololei o nā neurons a me nā papa huna e pono ai ke kūkulu ʻana i kahi hoʻolālā neural network e nā lula paʻakikī a wikiwiki hoʻi.
I loko o kahi pūnaewele neural, pono e hāʻule ka nui o ka papa huna i kahi ma waena o ka nui o ka hoʻokomo a me nā papa puka.
Hiki ke hoʻokō ʻia ke poʻo i ka hana ʻana i kahi hoʻolālā neural network ma kekahi mau ala maʻalahi, ʻoiai:
ʻO ka hoʻomaka ʻana me kekahi hoʻāʻo ʻōnaehana maʻamau e ʻike i ka mea e hana maikaʻi loa no kēlā me kēia ʻikepili kikoʻī e pili ana i ka ʻike ma mua me nā neural network i nā ʻōnaehana honua maoli ʻo ia ke ala maikaʻi loa e hoʻoponopono ai i kēlā me kēia ʻano hoʻohālikelike hoʻohālike o ka honua maoli.
Hiki ke koho ʻia ka hoʻonohonoho pūnaewele ma muli o ka ʻike o kekahi i ka pae hoʻopuka a me ka ʻike neural network ma mua. I ka loiloi ʻana i kahi hoʻonohonoho neural network, ʻo ka helu o nā papa a me nā neurons i hoʻohana ʻia i nā pilikia pili kahi wahi maikaʻi e hoʻomaka ai.
Pono e hoʻonui mālie ʻia ka paʻakikī o ka neural network ma muli o ka hoʻopuka ʻana a me ka pololei, e hoʻomaka ana me kahi hoʻolālā neural network maʻalahi.
32. He aha nā ʻano pūnaewele neural i hoʻohana ʻia e ke aʻo hoʻoikaika hohonu?
- I loko o kahi paradigm aʻo mīkini i kapa ʻia ke aʻo hoʻoikaika, hana ke kumu hoʻohālike e hoʻonui i ka manaʻo o ka uku kumulative, e like me nā mea ola.
- Hōʻike ʻia nā pāʻani a me nā kaʻa hoʻokele ponoʻī he mau pilikia e pili ana Hoʻoikaika i ka aʻo.
- Hoʻohana ʻia ka pale i mea hoʻokomo inā he pāʻani ka pilikia e hōʻike ʻia. I mea e hoʻopuka ai i kahi hoʻopuka no nā kaʻina aʻe, lawe ka algorithm i nā pika ma ke ʻano he hoʻokomo a hana iā lākou ma o nā papa he nui o nā ʻupena neural convolutional.
- ʻO nā hopena o nā hana a ke kumu hoʻohālike, maikaʻi a maikaʻi ʻole paha, e lilo i mea hoʻoikaika.
Panina
Ua piʻi aʻe ke kaulana ʻo Deep Learning i nā makahiki, me nā noi ma kahi kokoke i kēlā me kēia wahi ʻoihana.
Ke ʻimi nei nā ʻoihana i nā loea akamai e hiki ke hoʻolālā i nā hiʻohiʻona e hoʻohālikelike i ka ʻano kanaka me ka hoʻohana ʻana i ke aʻo hohonu a me ke aʻo ʻana i ka mīkini.
Hiki i nā moho e hoʻonui i kā lākou mākaukau a mālama i ko lākou ʻike no kēia mau ʻenehana ʻokiʻoki ke loaʻa i kahi ākea o nā manawa hana me ka uku hoihoi.
Hiki iā ʻoe ke hoʻomaka me nā nīnauele i kēia manawa ua paʻa ʻoe i ka pane ʻana i kekahi o nā nīnau nīnau nīnau hohonu hohonu i noi ʻia. E hana i ka hana hou e pili ana i kāu mau pahuhopu.
E kipa iā Hashdork Nīnauele Series e hoʻomākaukau no nā nīnauele.
Waiho i ka Reply