Table of Contents[Hūnā][Hōʻike]
- 1. E wehewehe i ka ʻokoʻa ma waena o ke aʻo ʻana i ka mīkini, ka naʻauao hana, a me ke aʻo hohonu.
- 2. E ʻoluʻolu e wehewehe i nā ʻano like ʻole o ka mīkini aʻo.
- 3. He aha ke ʻano o ka hoʻokaʻawale ʻana i nā ʻano like ʻole?
- 4. Ua ulu nui nā algorithm aʻo mīkini i ka wā. Pehea e koho ai kekahi i ka algorithm kūpono e hoʻohana ai i kahi hoʻonohonoho ʻikepili?
- 5. Pehea ka ʻokoʻa o ka covariance a me ka correlation?
- 6. Ma ke aʻo mīkini, he aha ke ʻano o ka clustering?
- 7. He aha kāu algorithm aʻo mīkini makemake?
- 8. Linear Regression i ka Mīkini Aʻo: He aha ia?
- 9. E wehewehe i ka like ole ma waena o KNN a me k-means clustering.
- 10. He aha ke ʻano o ka "koho koho" iā ʻoe?
- 11. He aha ke ano o Bayes' Theorem?
- 12. I loko o kahi kŘkohu a'o Mīkini, he aha ka 'ho'oma'ama'a 'a'o 'a'o 'set ho'ā'o'?
- 13. He aha ke Kuhiakau ma ke Aʻo Mīkini?
- 14. He aha ke ʻano o ka overfitting aʻo mīkini, a pehea e pale ʻia ai?
- 15. He aha nā mea hoʻohālikelike o Naive Bayes?
- 16. He aha ka manaʻo o nā hana kumu kūʻai a me nā hana poho?
- 17. He aha ka mea e ʻokoʻa ai ke kumu hoʻohālike generative mai ke ʻano hoʻokae?
- 18. E wehewehe i nā ʻokoʻa ma waena o nā hewa Type I a me Type II.
- 19. Ma ke aʻo ʻana i ka mīkini, he aha ka ʻenehana aʻo Ensemble?
- 20. He aha nā hiʻohiʻona parametric? Hāʻawi i kahi laʻana.
- 21. E wehewehe i ka kānana hui. E like me ka kānana ma muli o ka maʻiʻo?
- 22. He aha kāu e manaʻo nei e pili ana i ka Time series?
- 23. E wehewehe i nā ʻokoʻa ma waena o nā algorithms Gradient Boosting a me Random Forest.
- 24. No ke aha ʻoe e pono ai i kahi matrix huikau? He aha kēīa?
- 25. He aha ke ʻano o ka hoʻokaʻawale ʻana i nā ʻāpana kumu?
- 26. No ke aha i koʻikoʻi ai ka hoʻololi ʻana o nā ʻāpana i ka PCA?
- 27. Pehea e ʻokoʻa ai ka hoʻoponopono ʻana a me ka hoʻoponopono ʻana mai kekahi i kekahi?
- 28. Pehea ka ʻokoʻa o ka normalization a me ka standardization mai kekahi?
- 29. He aha ke ʻano o ka "variance inflation factor"?
- 30. Ma muli o ka nui o ka hoʻonohonoho hoʻomaʻamaʻa, pehea ʻoe e koho ai i kahi papa helu?
- 31. He aha ka algorithm i ke aʻo ʻana i ka mīkini i kapa ʻia ʻo "ka mea palaualelo" a no ke aha?
- 32. He aha ka ROC Curve a me AUC?
- 33. He aha nā hyperparameters? He aha ka mea ʻokoʻa iā lākou mai nā ʻāpana hoʻohālike?
- 34. He aha ke ʻano o ka F1 Score, hoʻomanaʻo, a me ka pololei?
- 35. He aha ke ʻano o ka hoʻopaʻapaʻa ʻana?
- 36. E ʻōlelo mākou ua ʻike ʻoe he ʻokoʻa nui kāu kumu hoʻohālike. He aha ka algorithm, i kou manaʻo, i kūpono loa e hoʻoponopono i kēia kūlana?
- 37. He aha ka mea e ʻokoʻa ai ka hoʻihoʻi ʻana o Ridge mai ka regression Lasso?
- 38. ʻO wai ka mea nui: ka hana hoʻohālike a i ʻole ka pololei o ka hoʻohālike? ʻO wai a no ke aha ʻoe e makemake ai?
- 39. Pehea ʻoe e hoʻokele ai i kahi waihona me nā like ʻole?
- 40. Pehea ʻoe e hoʻokaʻawale ai ma waena o ka hoʻoulu ʻana a me ka ʻeke?
- 41. E wehewehe i ka ʻokoʻa ma waena o ke aʻo inductive a me deductive.
- Panina
Ke hoʻohana nei nā ʻoihana i ka ʻenehana ʻokiʻoki, e like me ke akamai artificial (AI) a me ke aʻo ʻana i ka mīkini, e hoʻonui i ka hiki ke loaʻa o ka ʻike a me nā lawelawe i nā poʻe.
Hoʻohana ʻia kēia mau ʻenehana e nā ʻano ʻoihana like ʻole, me ka waihona kālā, ke kālā, ke kūʻai aku, ka hana ʻana, a me ka mālama olakino.
ʻO kekahi o nā kuleana hoʻonohonoho i ʻimi nui ʻia e hoʻohana ana iā AI no nā ʻepekema data, nā ʻenekini akamai artificial, nā ʻenekini aʻo mīkini, a me nā mea loiloi data.
Na kēia pou e alakaʻi iā ʻoe i nā ʻano like ʻole aʻo aʻo nā nīnau nīnauele, mai ke kumu a i ka paʻakikī, e kōkua iā ʻoe e mākaukau no nā nīnau e nīnau ʻia iā ʻoe ke ʻimi nei i kāu hana kūpono.
1. E wehewehe i ka ʻokoʻa ma waena o ke aʻo ʻana i ka mīkini, ka naʻauao hana, a me ke aʻo hohonu.
Hoʻohana ka naʻauao artificial i nā ʻano aʻo mīkini a me nā ala hoʻonaʻauao hohonu e hiki ai i nā ʻōnaehana kamepiula ke hoʻokō i nā hana e hoʻohana ana i ka naʻauao e like me ke kanaka me ka loiloi a me nā lula.
Hoʻohana ka mīkini aʻo i nā ʻano helu helu a me nā ala Hoʻonaʻauao hohonu e hiki ai i nā mīkini ke aʻo mai kā lākou hana mua a lilo i mea akamai i ka hana ʻana i kekahi mau hana iā lākou iho me ka nānā ʻole ʻana o ke kanaka.
ʻO Deep Learning kahi hōʻiliʻili o nā algorithms e hiki ai i ka polokalamu ke aʻo mai iā ia iho a hoʻokō i nā ʻano hana pāʻoihana like ʻole, e like me ka ʻike leo a me ke kiʻi.
Nā ʻōnaehana e hōʻike ana i kā lākou multilayered nā hanana laulā i ka nui o ka ʻikepili no ke aʻo ʻana i hiki ke hana i ke aʻo hohonu.
2. E ʻoluʻolu e wehewehe i nā ʻano like ʻole o ka mīkini aʻo.
Loaʻa ka aʻo mīkini i ʻekolu ʻano ākea ākea:
- Aʻo Manaʻo ʻia: Hoʻokumu ke kumu hoʻohālike i nā wānana a i ʻole nā hoʻoponopono e hoʻohana ana i ka ʻikepili i hōʻailona ʻia a i ʻole ka mōʻaukala i ke aʻo ʻana i nā mīkini i mālama ʻia. ʻO nā pūʻulu ʻikepili i hōʻailona ʻia a hoʻopaʻa ʻia paha i mea e hoʻonui ai i ko lākou manaʻo, ua kapa ʻia ʻo ia ka ʻikepili lepili.
- Hoʻonaʻauao ʻAʻole mālama ʻia: ʻAʻohe o mākou ʻikepili i hoʻopaʻa ʻia no ke aʻo ʻole ʻia. I ka ʻikepili e hiki mai ana, hiki i kahi kŘkohu ke ʻike i nā mamana, nā mea ʻokoʻa, a me nā pilina.
- Hoʻoikaika i ke aʻo ʻana: Hiki ke kumu hoʻohālike e aʻo me ka hoʻohana ʻana i ka hoʻoikaika aʻo a me nā uku i loaʻa iā ia no kāna hana mua.
3. He aha ke ʻano o ka hoʻokaʻawale ʻana i nā ʻano like ʻole?
ʻO ka overfitting ka hopena o ka bias, ʻo ia ke kiʻekiʻe e kūpono ai ke kumu hoʻohālike i ka ʻikepili. Ma muli o nā kuhi hewa ʻole a maʻalahi paha i kāu mīkini aʻo algorithm.
ʻO ka ʻokoʻa e pili ana i nā hewa i hoʻokumu ʻia e ka paʻakikī o kāu ML algorithm, kahi e hoʻopuka ai i ka naʻau i nā pae nui o ka ʻokoʻa i ka ʻikepili hoʻomaʻamaʻa a me ka overfitting.
ʻO ka ʻokoʻa ka nui o ka ʻokoʻa o ke kumu hoʻohālike e pili ana i nā mea hoʻokomo.
ʻO ia hoʻi, ʻokoʻa loa nā kumu hoʻohālike akā paʻa (ʻano like ʻole). ʻO ka overfitting kahi pilikia me nā hiʻohiʻona paʻakikī, ʻoiai naʻe e hopu lākou i ka ʻoiaʻiʻo o ke kumu hoʻohālike (haʻahaʻa haʻahaʻa).
I mea e pale aku ai i ka ʻokoʻa kiʻekiʻe a me ke kiʻekiʻe kiʻekiʻe, pono ke kūʻai aku ma waena o ka bias a me ka ʻokoʻa no ka hōʻemi hewa maikaʻi loa.
4. Ua ulu nui nā algorithm aʻo mīkini i ka wā. Pehea e koho ai kekahi i ka algorithm kūpono e hoʻohana ai i kahi hoʻonohonoho ʻikepili?
ʻO ka ʻenehana aʻo mīkini e hoʻohana wale ʻia ma muli o ke ʻano o ka ʻikepili i loko o kahi waihona kikoʻī.
Ke laina laina, hoʻohana ʻia ka regression linear. E ʻoi aku ka maikaʻi o ke ʻano ʻeke inā hōʻike ʻia ka ʻikepili i ka laina ʻole. Hiki iā mākou ke hoʻohana i nā kumulāʻau hoʻoholo a i ʻole SVM inā pono e loiloi ʻia ka ʻikepili a unuhi ʻia no nā kumu kūʻai.
Hiki ke loaʻa ka pane pololei inā loaʻa nā kiʻi, wikiō, a me nā leo i loko o ka waihona.
ʻAʻole hiki ke koho ʻia ka algorithm no kahi kūlana kikoʻī a i ʻole ka hōʻiliʻili ʻana o ka ʻikepili ma ke ana hoʻokahi wale nō.
No ka manaʻo o ka hoʻomohala ʻana i ke ʻano kūpono kūpono, pono mākou e nānā mua i ka ʻikepili me ka hoʻohana ʻana i ka ʻikepili ʻikepili ʻimi (EDA) a hoʻomaopopo i ka pahuhopu o ka hoʻohana ʻana i ka ʻikepili.
5. Pehea ka ʻokoʻa o ka covariance a me ka correlation?
Hoʻololi ka Covariance i ka pili ʻana o ʻelua mau ʻokoʻa i kekahi i kekahi a pehea e loli ai kekahi i ka pane ʻana i nā loli i kekahi.
Inā maikaʻi ka hopena, hōʻike ia he loulou pololei ma waena o nā mea hoʻololi a e piʻi a emi paha kekahi me ka hoʻonui a i ʻole ka emi ʻana o ka waihona kumu, me ka manaʻo e noho mau nā kūlana ʻē aʻe.
Hoʻoponopono ka pilina ma waena o ʻelua mau ʻokoʻa like ʻole a loaʻa ʻekolu mau waiwai kūʻokoʻa: 1, 0, a me -1.
6. Ma ke aʻo mīkini, he aha ke ʻano o ka clustering?
Ua kapa ʻia nā ʻano aʻo ʻike ʻole e hui pū i nā helu ʻikepili. Me ka hōʻiliʻili o nā helu ʻikepili, hiki ke hoʻohana ʻia ka ʻenehana clustering.
Hiki iā ʻoe ke hui pū i nā helu ʻikepili āpau e like me kā lākou hana me ka hoʻohana ʻana i kēia hoʻolālā.
ʻO nā hiʻohiʻona a me nā hiʻohiʻona o nā kikoʻikepili i hāʻule i loko o ka ʻāpana like he ʻano like, ʻoiai ʻo nā mea o nā kikoʻikepili i hāʻule i loko o nā hui kaʻawale.
Hiki ke hoʻohana ʻia kēia ʻano e kālailai i ka ʻikepili helu.
7. He aha kāu algorithm aʻo mīkini makemake?
Loaʻa iā ʻoe ka manawa e hōʻike i kāu mau makemake a me kāu mau talena kūʻokoʻa i kēia nīnau, a me kāu ʻike piha o nā ʻenehana aʻo mīkini he nui.
Eia kekahi mau algorithm aʻo mīkini maʻamau e noʻonoʻo ai:
- Hoʻohui laina
- Hoʻohuli loiloi
- Naive Bayes
- ʻO nā lāʻau hoʻoholo
- K manaʻo
- Algorithm ululāʻau random
- K-nohona kokoke loa (KNN)
8. Linear Regression i ka Mīkini Aʻo: He aha ia?
ʻO kahi algorithm aʻo mīkini i mālama ʻia he linear regression.
Hoʻohana ʻia ia i ka nānā ʻana wānana e hoʻoholo i ka pilina laina ma waena o nā mea hoʻololi hilinaʻi a kūʻokoʻa.
Penei ka hoohalike o ka regression linear:
Y = A + BX
kahi:
- Kapa ʻia ka mea hoʻokomo a i ʻole ka hoʻololi kūʻokoʻa ʻo X.
- ʻO ka hoʻololi hilinaʻi a i ʻole ka hoʻololi ʻana ʻo Y.
- ʻO ka helu helu o X he b, a ʻo kona keakea he a.
9. E wehewehe i ka like ole ma waena o KNN a me k-means clustering.
ʻO ka ʻokoʻa mua, ʻo ia ka KNN (kahi ʻano hoʻokaʻawale, ke aʻo ʻana i mālama ʻia) pono i nā helu i hoʻopaʻa ʻia aʻo k-means ʻaʻole (clustering algorithm, unsupervised learning).
Hiki iā ʻoe ke hoʻokaʻawale i ka ʻikepili i hōʻailona ʻia i kahi kikoʻī ʻole ma o ka hoʻohana ʻana i K-Nearest Neighbors. Hoʻohana ʻo K-means clustering i ka awelika ka mamao ma waena o nā kiko e aʻo ai pehea e hui pū ai i nā helu ʻole.
10. He aha ke ʻano o ka "koho koho" iā ʻoe?
Ma muli o ka pololei ʻole o ka helu helu ʻana i ke ʻano o ka hoʻokolohua.
Ua koho pinepine ʻia kekahi pūʻulu laʻana ma mua o nā hui ʻē aʻe o ka hoʻokolohua ma muli o ka pololei ʻole.
Inā ʻaʻole ʻae ʻia ke ʻano koho, hiki ke hopena i ka hopena hewa.
11. He aha ke ano o Bayes' Theorem?
Ke ʻike mākou i nā probabilities ʻē aʻe, hiki iā mākou ke hoʻoholo i kahi kūpono me ka hoʻohana ʻana i ka Theorem Bayes. Hāʻawi ia i ka hopena hope o kahi hanana e pili ana i ka ʻike mua, ʻo ia hoʻi.
Hāʻawi ʻia kahi ala maikaʻi no ka helu ʻana i nā kūlana kūlana e kēia theorem.
I ka hoʻomohala ʻana i nā pilikia hoʻohālikelike wānana a hoʻokomo i kahi kumu hoʻohālike i kahi hoʻomaʻamaʻa ʻikepili ma ke aʻo ʻana i ka mīkini, Hoʻohana ʻia ka theorem Bayes (ie Naive Bayes, Bayes Optimal Classifier).
12. I loko o kahi kŘkohu a'o Mīkini, he aha ka 'ho'oma'ama'a 'a'o 'a'o 'set ho'ā'o'?
Hoʻonohonoho hoʻomaʻamaʻa:
- Aia ka papa hoʻonaʻauao i nā manawa i hoʻouna ʻia i ke kumu hoʻohālike no ka nānā ʻana a me ke aʻo ʻana.
- ʻO kēia ka ʻikepili i hoʻopaʻa ʻia e hoʻohana ʻia e hoʻomaʻamaʻa i ke kumu hoʻohālike.
- ʻO ka maʻamau, hoʻohana ʻia ʻo 70% o ka nui o ka ʻikepili e like me ka ʻikepili aʻo.
Hoʻonohonoho hoʻāʻo:
- Hoʻohana ʻia ka hoʻonohonoho hoʻāʻo e loiloi i ka pololei o ka hana kuhiakau o ke kumu hoʻohālike.
- Hoʻāʻo mākou me ka ʻole o ka ʻikepili i hōʻailona ʻia a laila hoʻohana i nā lepili e hōʻoia i nā hopena.
- Hoʻohana ʻia ke koena 30% ma ke ʻano he hōʻike hōʻike hōʻike.
13. He aha ke Kuhiakau ma ke Aʻo Mīkini?
Hiki i ke aʻo ʻana i ka mīkini ke hoʻohana i nā ʻikepili i loaʻa e hoʻomaopopo maikaʻi i kahi hana i hāʻawi ʻia e hoʻopili i ka hoʻokomo i ka hoʻopuka. ʻIke ʻia kēia ma ke ʻano he function approximation.
I kēia hihia, pono e hoʻohana ʻia ka hoʻopili ʻana no ka hana i ʻike ʻole ʻia e hoʻololi i nā ʻike a pau e pili ana i ke kūlana i hāʻawi ʻia i ke ala maikaʻi loa.
Ma ke aʻo ʻana i ka mīkini, ʻo ke kuhiakau he kumu hoʻohālike e kōkua ana i ka helu ʻana i ka hana i hoʻopaʻa ʻia a hoʻopau i nā palapala hoʻokomo-a-puka kūpono.
ʻO ka kohoʻana a me ka hoʻolālāʻana o nā algorithms eʻae i ka weheweheʻana i ka hakahaka o nā kuhiakau hiki ke hōʻikeʻia e kahi hoʻohālike.
No ke kuhiakau hoʻokahi, hoʻohana ʻia ka hua liʻiliʻi h (h), akā hoʻohana ʻia ke poʻo nui h (H) no ka hakahaka kuhiakau holoʻokoʻa e ʻimi ʻia nei. E noʻonoʻo pōkole mākou i kēia mau hōʻailona:
- ʻO ke kuhiakau (h) he kumu hoʻohālike e hoʻomaʻamaʻa i ka palapala ʻāina o ka hoʻokomo i ka hoʻopuka, hiki ke hoʻohana ʻia no ka loiloi a me ka wānana.
- ʻO kahi hoʻonohonoho kuhiakau (H) he wahi hiki ke ʻimi ʻia o nā kuhiakau e hiki ke hoʻohana ʻia e palapala i nā hoʻokomo i nā huahana. ʻO ka hoʻopili ʻana i nā pilikia, ka hoʻohālike, a me ka hoʻonohonoho hoʻohālike kekahi mau laʻana o nā palena maʻamau.
14. He aha ke ʻano o ka overfitting aʻo mīkini, a pehea e pale ʻia ai?
Ke ho'āʻo ka mīkini e aʻo mai kahi ʻikepili lawa ʻole, hiki mai ka overfitting.
ʻO ka hopena, hoʻopili ʻia ka overfitting me ka nui o ka ʻikepili. ʻO ke ala hoʻoholo cross-validation hiki ke pale ʻia ka overfitting no nā waihona liʻiliʻi. Hoʻokaʻawale ʻia kahi waihona i ʻelua ʻāpana ma kēia ʻano.
ʻO ka ʻikepili no ka hoʻāʻo ʻana a me ke aʻo ʻana e loaʻa i kēia mau ʻāpana ʻelua. Hoʻohana ʻia ka ʻikepili hoʻomaʻamaʻa no ka hana ʻana i kahi kumu hoʻohālike, ʻoiai hoʻohana ʻia ka ʻikepili hoʻāʻo e loiloi i ke kumu hoʻohālike me ka hoʻohana ʻana i nā hoʻokomo like ʻole.
ʻO kēia ke ʻano e pale ai i ka overfitting.
15. He aha nā mea hoʻohālikelike o Naive Bayes?
Hana ʻia nā ʻano hoʻohālikelike like ʻole i ka Naive Bayes classifiers. ʻO kahi pūʻulu o nā algorithms i ʻike ʻia ʻo kēia mau papa helu e hana ana i ka manaʻo kumu like.
ʻO ka manaʻo i hana ʻia e nā mea hoʻohālikelike Bayes naive, ʻo ka hele ʻana a i ʻole ka hele ʻana o kekahi hiʻohiʻona ʻaʻohe pili i ka hiki a i ʻole ka ʻole o kekahi hiʻohiʻona.
I nā huaʻōlelo ʻē aʻe, ʻo ia ka mea a mākou e ʻōlelo ai he "naive" no ka mea ua manaʻo ʻia he ʻano koʻikoʻi a kūʻokoʻa kēlā me kēia hiʻohiʻona.
Hana ʻia ka hoʻokaʻawale ʻana me ka hoʻohana ʻana i nā classifiers naive Bayes. He maʻalahi lākou e hoʻohana a hoʻopuka i nā hopena maikaʻi aʻe ma mua o nā mea wānana paʻakikī inā ʻoiaʻiʻo ka manaʻo kūʻokoʻa.
Ma ka ʻatikala kikokikona, kānana spam, a me nā ʻōnaehana paipai, hoʻohana ʻia lākou.
16. He aha ka manaʻo o nā hana kumu kūʻai a me nā hana poho?
ʻO ka huaʻōlelo "hana poho" e pili ana i ke kaʻina hana o ka helu ʻana i ka nalowale ke lawe ʻia kahi ʻāpana ʻikepili.
Hoʻohālikelike, hoʻohana mākou i ka hana kumu kūʻai e hoʻoholo i ka nui o nā hewa no nā ʻikepili he nui. ʻAʻohe ʻokoʻa koʻikoʻi.
I nā huaʻōlelo ʻē aʻe, ʻoiai ʻo nā hana kumu kūʻai e hōʻuluʻulu i ka ʻokoʻa no ka ʻikepili aʻo holoʻokoʻa, ua hoʻolālā ʻia nā hana poho e hopu i ka ʻokoʻa ma waena o nā waiwai maoli a me ka wānana no kahi moʻolelo hoʻokahi.
17. He aha ka mea e ʻokoʻa ai ke kumu hoʻohālike generative mai ke ʻano hoʻokae?
ʻIke ʻia ka ʻokoʻa ma waena o kekahi mau ʻano ʻikepili. Hoʻopili ke kumu hoʻohālike generative i nā ʻano ʻikepili like ʻole.
Ma nā pilikia hoʻohālikelike, ʻoi aku ka maikaʻi o nā hiʻohiʻona hoʻokae i nā kumu hoʻohālike ʻē aʻe.
18. E wehewehe i nā ʻokoʻa ma waena o nā hewa Type I a me Type II.
Hāʻule nā mea maikaʻi hewa ma lalo o ka māhele o nā hewa Type I, aʻo nā hewa hewa e hele ma lalo o nā hewa Type II (e ʻōlelo ana ʻaʻohe mea i loaʻa inā loaʻa maoli).
19. Ma ke aʻo ʻana i ka mīkini, he aha ka ʻenehana aʻo Ensemble?
Hoʻohui ʻia kahi ʻenehana i kapa ʻia ʻo ensemble learning i nā hiʻohiʻona aʻo mīkini e hana i nā kumu hoʻohālike ʻoi aku ka ikaika.
Hiki ke hoʻololi ʻia ke kumu hoʻohālike no nā kumu like ʻole. ʻO kekahi mau kumu:
- Lahui kanaka like ole
- Nā Kuhiakau like ʻole
- Nā ʻano hoʻohālike like ʻole
E loaʻa iā mākou kahi pilikia i ka wā e hoʻohana ai i ka ʻikepili hoʻomaʻamaʻa a me ka hoʻāʻo ʻana. ʻO ke kuhi, ka ʻokoʻa, a me ka hewa hiki ʻole ke hōʻemi ʻia nā ʻano o kēia kuhihewa.
I kēia manawa, kapa mākou i kēia kaulike ma waena o ka bias a me ka ʻokoʻa i loko o ke kumu hoʻohālike he kūʻai kūʻokoʻa-variance, a pono e noho mau. Hoʻokō ʻia kēia kālepa-off ma o ka hoʻohana ʻana i ke aʻo ʻana ensemble.
ʻOiai aia nā ʻano hoʻohālikelike like ʻole, aia ʻelua mau hoʻolālā maʻamau no ka hoʻohui ʻana i nā hiʻohiʻona he nui:
- Hoʻohana ʻia kahi ala ʻōiwi i kapa ʻia ʻo ka ʻeke ʻeke i ka hoʻonohonoho hoʻomaʻamaʻa e hana i nā pūʻulu hoʻomaʻamaʻa hou.
- ʻO ka hoʻoikaika ʻana, kahi ʻenehana ʻoi aku ka maʻalahi: E like me ka ʻeke ʻeke, hoʻohana ʻia ka hoʻoikaika ʻana e ʻimi i ke ʻano paona kūpono no kahi hoʻonohonoho hoʻomaʻamaʻa.
20. He aha nā hiʻohiʻona parametric? Hāʻawi i kahi laʻana.
Loaʻa ka palena palena o nā ʻāpana i nā hiʻohiʻona parametric. No ka wānana ʻana i ka ʻikepili, pono ʻoe e ʻike i nā palena o ke kumu hoʻohālike.
ʻO kēia nā hiʻohiʻona maʻamau: hoʻihoʻi logistic, regression linear, a me linear SVMs. Hiki ke maʻalahi nā kumu hoʻohālike ʻole no ka mea hiki ke loaʻa ka helu palena ʻole o nā ʻāpana.
Pono nā ʻāpana o ke kŘkohu a me ke kūlana o ka ʻikepili i nānā ʻia no nā wānana ʻikepili. Eia kekahi mau laʻana maʻamau: kumu hoʻohālike, laau hooholo, a me k-kokoke kokoke.
21. E wehewehe i ka kānana hui. E like me ka kānana ma muli o ka maʻiʻo?
ʻO kahi ʻano hoʻāʻo a ʻoiaʻiʻo no ka hana ʻana i nā manaʻo manaʻo i hoʻopili ʻia ʻo ia ke kānana hui.
ʻO ke ʻano o ka ʻōnaehana manaʻo i kapa ʻia ʻo kānana hui ʻana e wānana i nā mea hou ma ke kaulike ʻana i nā makemake mea hoʻohana me nā makemake like.
ʻO nā makemake o nā mea hoʻohana wale nō ka mea i noʻonoʻo ʻia e nā ʻōnaehana hoʻolaha pili i ka ʻike. Ma muli o nā koho mua a ka mea hoʻohana, hāʻawi ʻia nā manaʻo hou mai nā mea pili.
22. He aha kāu e manaʻo nei e pili ana i ka Time series?
ʻO ka pūʻulu manawa he hōʻuluʻulu o nā helu ma ka papa piʻi. Ma luna o kahi manawa i koho mua ʻia, nānā ʻo ia i ka neʻe ʻana o nā helu ʻikepili i koho ʻia a hopu i kēlā me kēia manawa i nā helu ʻikepili.
ʻAʻohe mea hoʻokomo manawa liʻiliʻi a kiʻekiʻe paha no ka moʻo manawa.
Hoʻohana pinepine ʻia nā pūʻulu manawa e ka poʻe loiloi e kālailai i ka ʻikepili e like me kā lākou koi kūikawā.
23. E wehewehe i nā ʻokoʻa ma waena o nā algorithms Gradient Boosting a me Random Forest.
Nahele Kūʻokoʻa:
- Hoʻohui pū ʻia ka nui o nā kumulāʻau hoʻoholo ma ka hopena a ua ʻike ʻia ʻo ia nā ululāʻau random.
- ʻOiai ʻo ka hoʻonui ʻana i ka gradient e hoʻohua i kēlā me kēia kumulāʻau me ke kūʻokoʻa o nā mea ʻē aʻe, kūkulu ka nahele ulu lāʻau i kēlā me kēia kumulāʻau i ka manawa.
- ʻO nā papa he nui ʻike mea hana maikaʻi me nā ululāʻau random.
Hoʻonui Gradient:
- ʻOiai e hui pū nā ululāʻau Random i nā kumulāʻau hoʻoholo i ka hopena o ke kaʻina hana, hoʻohui nā Gradient Boosting Machines iā lākou mai ka hoʻomaka.
- Inā hoʻoponopono pono ʻia nā ʻāpana, ʻoi aku ka maikaʻi o ka hoʻonui ʻana i nā ululāʻau ma ke ʻano o nā hopena, akā ʻaʻole ia he koho naʻauao inā he nui nā outliers, anomalies, a walaʻau paha ka hoʻonohonoho ʻikepili no ka mea hiki ke lilo ke kumu hoʻohālike.
- Ke loaʻa ka ʻikepili kaulike ʻole, ʻoiai aia i ka loiloi pilikia manawa maoli, hana maikaʻi ka hoʻonui ʻana i ka gradient.
24. No ke aha ʻoe e pono ai i kahi matrix huikau? He aha kēīa?
Hoʻohana nui ʻia ka papa ʻaina i kapa ʻia ʻo ka huikau huikau, i kekahi manawa i kapa ʻia ʻo ka error matrix, e hōʻike i ka maikaʻi o ka hana ʻana o kahi hoʻohālike hoʻohālikelike, a i ʻole classifier, ma kahi pūʻulu o ka ʻikepili hoʻāʻo i ʻike ʻia nā waiwai maoli.
Hiki iā mākou ke ʻike i ka hana ʻana o kahi hoʻohālike a i ʻole algorithm. He mea maʻalahi iā mākou ke ʻike i nā kuhi hewa ma waena o nā papa like ʻole.
He ala ia e loiloi ai i ka maikaʻi o ka hana ʻana o kahi hoʻohālike a i ʻole algorithm.
Hoʻohui ʻia nā wānana o kahi hoʻohālike hoʻohālikelike i loko o kahi matrix huikau. Ua hoʻohana ʻia nā helu helu o kēlā me kēia papa inoa e wāwahi i ka helu o nā wānana pololei a pololei ʻole.
Hāʻawi ia i nā kikoʻī e pili ana i nā hewa i hana ʻia e ka classifier a me nā ʻano hewa like ʻole i hana ʻia e nā classifiers.
25. He aha ke ʻano o ka hoʻokaʻawale ʻana i nā ʻāpana kumu?
Ma ka hōʻemi ʻana i ka helu o nā mea hoʻololi i hoʻopili ʻia me kekahi, ʻo ka pahuhopu ke hōʻemi i ka dimensionality o ka hōʻiliʻili ʻikepili. Akā he mea nui e mālama i ka ʻokoʻa e like me ka hiki.
Hoʻololi ʻia nā mea hoʻololi i kahi hoʻonohonoho hou loa o nā mea hoʻololi i kapa ʻia nā ʻāpana kumu.
He orthogonal kēia mau PC no ka mea ʻo ia nā eigenvectors covariance matrix.
26. No ke aha i koʻikoʻi ai ka hoʻololi ʻana o nā ʻāpana i ka PCA?
He mea koʻikoʻi ka hoʻololi ʻana i ka PCA no ka mea ʻoi aku ka maikaʻi o ka hoʻokaʻawale ʻana ma waena o nā ʻokoʻa i loaʻa i kēlā me kēia ʻāpana, e maʻalahi ai ka wehewehe ʻana i nā mea.
Pono mākou i nā ʻāpana hoʻonui e hōʻike i ka hoʻololi ʻana o nā ʻāpana inā ʻaʻole i hoʻololi ʻia nā ʻāpana.
27. Pehea e ʻokoʻa ai ka hoʻoponopono ʻana a me ka hoʻoponopono ʻana mai kekahi i kekahi?
Ka Hoʻohālikelike:
Hoʻololi ʻia ka ʻikepili i ka wā maʻamau. Pono ʻoe e hoʻoponopono i ka ʻikepili inā loaʻa nā unahi ʻokoʻa loa, ʻoi aku ka haʻahaʻa a hiki i ke kiʻekiʻe. Hoʻoponopono i kēlā me kēia kolamu i kūpono nā ʻikepili kumu.
No ka hōʻoia ʻana ʻaʻohe nalowale o ka pololei, hiki ke hoʻohana ʻia kēia. ʻO ka ʻike ʻana i ka hōʻailona me ka nānā ʻole ʻana i ka walaʻau kekahi o nā pahuhopu o ke aʻo ʻana.
Loaʻa ka manawa o ka overfitting inā hāʻawi ʻia ka mana piha e hōʻemi i ka hewa.
Hoʻoponopono:
I ka regularization, hoʻololi ʻia ka hana wānana. Aia kēia i kekahi mana ma o ka regularization, e makemake ana i nā hana kūpono maʻalahi ma mua o nā hana paʻakikī.
28. Pehea ka ʻokoʻa o ka normalization a me ka standardization mai kekahi?
ʻO nā ʻenehana ʻelua i hoʻohana nui ʻia no ka scaling hiʻohiʻona ʻo ka normalization a me ka standardization.
Ka Hoʻohālikelike:
- ʻO ka hoʻihoʻi hou ʻana i ka ʻikepili e kūpono i kahi pae [0,1] ʻike ʻia ʻo ka normalization.
- Ke loaʻa ka pālākiō maikaʻi like nā ʻāpana āpau, kōkua ka hana maʻamau, akā nalowale nā outliers o ka pūʻulu ʻikepili.
Hoʻoponopono:
- Hoʻihoʻi hou ʻia ka ʻikepili i loaʻa kahi mean o 0 a me kahi ʻokoʻa maʻamau o 1 ma ke ʻano o ke kaʻina hana maʻamau (Unit variance)
29. He aha ke ʻano o ka "variance inflation factor"?
ʻO ka lakio o ka ʻokoʻa o ke kŘkohu me ka ʻokoʻa o ke kŘkohu me hoʻokahi hoʻololi kūʻokoʻa wale nō i ʻike ʻia ʻo ka variation inflation factor (VIF).
Manaʻo ʻo VIF i ka nui o ka multicollinearity i loko o kahi pūʻulu o nā mea hoʻololi regression.
Ka 'oko'a o ke kŘkohu (VIF) kŘkohu me ho'okahi 'ano like 'ole
30. Ma muli o ka nui o ka hoʻonohonoho hoʻomaʻamaʻa, pehea ʻoe e koho ai i kahi papa helu?
ʻOi aku ka maikaʻi o ke ʻano hoʻohālike kiʻekiʻe, ʻokoʻa haʻahaʻa no kahi hoʻonohonoho hoʻomaʻamaʻa pōkole no ka mea ʻoi aku ka liʻiliʻi o ka overfitting. ʻO Naive Bayes kekahi laʻana.
I mea e hōʻike ai i nā pilina paʻakikī no kahi hoʻonohonoho hoʻomaʻamaʻa nui, ʻoi aku ka maikaʻi o kahi hoʻohālike me ka haʻahaʻa haʻahaʻa a me ka ʻokoʻa kiʻekiʻe. He kumu hoʻohālike maikaʻi ka loiloi loiloi.
31. He aha ka algorithm i ke aʻo ʻana i ka mīkini i kapa ʻia ʻo "ka mea palaualelo" a no ke aha?
He haumāna lohi, ʻo KNN kahi algorithm aʻo mīkini. Ma muli o ka helu ʻana o K-NN i ka mamao i kēlā me kēia manawa e makemake ʻo ia e hoʻokaʻawale ma mua o ke aʻo ʻana i nā waiwai i aʻo ʻia e nā mīkini a i ʻole nā mea hoʻololi mai ka ʻikepili hoʻomaʻamaʻa, hoʻopaʻanaʻau i ka ʻikepili aʻo.
He haumana palaualelo ia K-NN.
32. He aha ka ROC Curve a me AUC?
Hōʻike kiʻi ʻia ka hana o kahi kumu hoʻohālike ma nā paepae āpau e ka pihi ROC. Loaʻa iā ia nā pae hoʻohālikelike maikaʻi ʻoiaʻiʻo a me nā pae hoʻohālikelike hoʻohālikelike.
ʻO ka ʻōlelo maʻalahi, ʻike ʻia ka wahi ma lalo o ka pihi ROC ʻo AUC (Area Under the ROC Curve). Ua ana ʻia ka ʻāpana ʻelua o ka ʻāpana ROC mai (0,0) a i AUC (1,1). No ka loiloi ʻana i nā hiʻohiʻona hoʻohālikelike binary, hoʻohana ʻia ma ke ʻano he helu hana.
33. He aha nā hyperparameters? He aha ka mea ʻokoʻa iā lākou mai nā ʻāpana hoʻohālike?
ʻIke ʻia kahi ʻano hoʻololi i loko o ke kŘkohu ma ke ʻano he kumu hoʻohālike. Me ka hoʻohana ʻana i ka ʻikepili aʻo, ua hoʻohālikelike ʻia ka waiwai o kahi parameter.
ʻAʻole i ʻike ʻia e ke kumu hoʻohālike, he ʻano loli ka hyperparameter. ʻAʻole hiki ke hoʻoholo ʻia ka waiwai mai ka ʻikepili, no laila ua hoʻohana pinepine ʻia lākou e helu i nā ʻāpana hoʻohālike.
34. He aha ke ʻano o ka F1 Score, hoʻomanaʻo, a me ka pololei?
ʻO ke ana huikau ka metric i hoʻohana ʻia e ana i ka pono o ke kumu hoʻohālike. Hiki ke hoʻohana ʻia nā ʻōlelo aʻe no ka wehewehe maikaʻi ʻana i ka metric huikau:
TP: Pono Pono - ʻO ia nā waiwai maikaʻi i manaʻo pono ʻia. Hōʻike ia he maikaʻi nā waiwai o ka papa i manaʻo ʻia a me ka papa maoli.
TN: ʻOiaʻiʻo Negatives- ʻO kēia nā waiwai ʻino i wānana pololei ʻia. Hōʻike ia he ʻino ka waiwai o ka papa maoli a me ka papa i manaʻo ʻia.
ʻO kēia mau waiwai—nā mea maikaʻi ʻole a me nā mea ʻino ʻole—e loaʻa ke ʻokoʻa kāu papa maoli mai ka papa i manaʻo ʻia.
Ano,
ʻO ka lakio o ka pākēneka maikaʻi ʻoiaʻiʻo (TP) i nā ʻike a pau i hana ʻia ma ka papa maoli ua kapa ʻia ka hoʻomanaʻo, ʻike ʻia hoʻi ʻo ka sensitivity.
ʻO ka hoʻomanaʻo ʻana ʻo TP/(TP+FN).
ʻO ka precision kahi ana o ka waiwai wānana maikaʻi, kahi e hoʻohālikelike ai i ka helu o nā mea maikaʻi a ke kumu hoʻohālike i wānana maoli i ka nui o nā pono kūpono āna i wānana pololei ai.
ʻO ka pololei ʻo TP/(TP + FP)
ʻO ka metric hana maʻalahi loa e hoʻomaopopo ʻo ia ka pololei, ʻo ia wale nō ka māhele o nā ʻike wānana kūpono i nā nānā āpau.
Ua like ka pololei me (TP+TN)/(TP+FP+FN+TN).
Kaumaha ʻia ka pololei a me ka hoʻomanaʻo ʻana e hāʻawi i ka helu F1. ʻO ka hopena, noʻonoʻo kēia helu i nā mea maikaʻi ʻole a me nā mea ʻole.
ʻOi aku ka waiwai o F1 ma mua o ka pololei, ʻoiai inā loaʻa iā ʻoe ka puʻunaue like ʻole, ʻoiai inā ʻaʻole maʻalahi ka hoʻomaopopo ʻana e like me ka pololei.
Loaʻa ka pololei maikaʻi loa ke hoʻohālikelike ʻia ke kumukūʻai o nā mea maikaʻi ʻole a me nā mea hoʻopunipuni. ʻOi aku ka maikaʻi o ka hoʻokomo ʻana i ka Precision a me ka Hoʻomanaʻo inā ʻokoʻa nā kumukūʻai e pili ana i nā hopena maikaʻi ʻole a me nā mea ʻole hoʻopunipuni.
35. He aha ke ʻano o ka hoʻopaʻapaʻa ʻana?
ʻO ke ala hoʻohālikelike helu helu i kapa ʻia ʻo cross-validation ma ke aʻo ʻana i ka mīkini e hoʻohana ana i nā ʻāpana helu helu e hoʻomaʻamaʻa a loiloi i kahi algorithm aʻo mīkini ma waena o kekahi mau pōʻai.
Hoʻāʻo ʻia kahi pūʻulu ʻikepili hou ʻaʻole i hoʻohana ʻia no ka hoʻomaʻamaʻa ʻana i ke kumu hoʻohālike me ka hoʻohana ʻana i ka cross-validation e ʻike i ka maikaʻi o ka wānana ʻana o ke kumu hoʻohālike. Kāohi ʻia ka overfitting ʻikepili ma o ka cross-validation.
K-Fold ʻO ke ʻano hoʻohana pinepine ʻana e hoʻokaʻawale i ka ʻikepili holoʻokoʻa i nā pūʻulu K o nā nui like. Ua kapa ʻia ʻo cross-validation.
36. E ʻōlelo mākou ua ʻike ʻoe he ʻokoʻa nui kāu kumu hoʻohālike. He aha ka algorithm, i kou manaʻo, i kūpono loa e hoʻoponopono i kēia kūlana?
Ka mālama ʻana i ka ʻokoʻa kiʻekiʻe
Pono mākou e hoʻohana i ka ʻenehana ʻeke no nā pilikia me nā ʻano like ʻole.
E hoʻohana hou ʻia ka laʻana o ka ʻikepili maʻamau e ka ʻeke algorithm e puʻunaue i ka ʻikepili i nā pūʻulu. Ke hoʻokaʻawale ʻia ka ʻikepili, hiki iā mākou ke hoʻohana i ka ʻikepili random a me kahi kaʻina aʻo kūikawā e hana i nā lula.
Ma hope o kēlā, hiki ke hoʻohana ʻia ke koho balota e hoʻohui i nā wānana o ke kumu hoʻohālike.
37. He aha ka mea e ʻokoʻa ai ka hoʻihoʻi ʻana o Ridge mai ka regression Lasso?
ʻElua mau ʻano hoʻohana maʻamau ʻo Lasso (i kapa ʻia ʻo L1) a me Ridge (i kapa ʻia ʻo L2) regression. Hoʻohana ʻia lākou e pale i ka overfitting o ka ʻikepili.
I mea e ʻike ai i ka hopena maikaʻi loa a hōʻemi i ka paʻakikī, hoʻohana ʻia kēia mau ʻenehana e hoʻopaʻi i nā coefficients. Ma ka hoʻopaʻi ʻana i ka huina o nā waiwai kūʻokoʻa o nā coefficients, hoʻohana ka Lasso regression.
Loaʻa ka hana hoʻopaʻi ma Ridge a i ʻole L2 regression mai ka huina o nā huinahā o nā coefficients.
38. ʻO wai ka mea nui: ka hana hoʻohālike a i ʻole ka pololei o ka hoʻohālike? ʻO wai a no ke aha ʻoe e makemake ai?
He nīnau hoʻopunipuni kēia, no laila e hoʻomaopopo mua i ke ʻano o ka Model Performance. Inā wehewehe ʻia ka hana e like me ka wikiwiki, a laila hilinaʻi ia i ke ʻano o ka noi; ʻO kekahi noi e pili ana i kahi kūlana manawa maoli e koi i ka wikiwiki kiʻekiʻe ma ke ʻano he mea koʻikoʻi.
No ka laʻana, e emi ana ka waiwai o nā Huli Huli maikaʻi loa inā lōʻihi loa ka hōʻea ʻana o nā hopena Huli.
Inā hoʻohana ʻia ka hana ma ke ʻano he hōʻoia no ke kumu e pono ai e hoʻokumu ʻia ka pololei a me ka hoʻomanaʻo ʻana ma mua o ka pololei, a laila e ʻoi aku ka maikaʻi o ka helu F1 ma mua o ka pololei i ka hōʻike ʻana i ka hihia pāʻoihana no kekahi pūʻulu ʻikepili i kaulike ʻole.
39. Pehea ʻoe e hoʻokele ai i kahi waihona me nā like ʻole?
Hiki ke loaʻa i kahi ʻikepili helu kaulike ʻole mai nā ʻenehana laʻana. Hiki ke hana ʻia ma ke ʻano ma lalo a i ʻole oversampled.
Ma lalo o Sampling hiki iā mākou ke hōʻemi i ka nui o ka papa nui e kūlike me ka papa liʻiliʻi, e kōkua ana i ka hoʻonui ʻana i ka wikiwiki e pili ana i ka mālama ʻana a me ka hoʻokō ʻana i ka wā holo akā hiki ke hopena i ka nalowale o ka ʻikepili waiwai.
I mea e hoʻoponopono ai i ka pilikia o ka nalo ʻana o ka ʻike ma muli o ka oversampling, hoʻonui mākou i ka papa Minority; akā naʻe, ke kumu kēia iā mākou e holo i nā pilikia overfitting.
Loaʻa i nā hoʻolālā hou:
- Cluster-Based Over Sampling- ʻO ka hapa liʻiliʻi a me ka hapa nui o ka papa i hoʻopaʻa ʻia i ke ʻano K-means clustering i kēia kūlana. Hana ʻia kēia no ka ʻimi ʻana i nā pūʻulu waihona. A laila, hoʻonui ʻia kēlā me kēia puʻupuʻu i like ka nui o nā papa a pau a me nā hui āpau i loko o kahi papa i like ka helu o nā manawa.
- SMOTE: Synthetic Minority Over-sampling Technique- Hoʻohana ʻia kahi ʻāpana ʻikepili mai ka papa liʻiliʻi ma ke ʻano he laʻana, ma hope o ka hana ʻia ʻana a hoʻohui ʻia i nā hiʻohiʻona artificial hou e like me ia. Hana maikaʻi kēia ʻano me nā helu ʻikepili helu.
40. Pehea ʻoe e hoʻokaʻawale ai ma waena o ka hoʻoulu ʻana a me ka ʻeke?
Loaʻa i nā Ensemble Techniques nā mana i ʻike ʻia he ʻeke a hoʻonui.
ʻeke ʻeke-
No nā algorithms me kahi hoʻololi kiʻekiʻe, ʻo ka ʻeke kahi ʻenehana i hoʻohana ʻia e hoʻohaʻahaʻa i ka ʻokoʻa. ʻO kekahi o ia ʻohana o nā mea hoʻohālikelike e pili ana i ka manaʻo ʻole ʻo ia ka ʻohana kumulāʻau hoʻoholo.
ʻO ke ʻano o ka ʻikepili i aʻo ʻia ai nā kumulāʻau hoʻoholo he hopena koʻikoʻi i kā lākou hana. Ma muli o kēia, ʻoiai me ka hoʻoponopono maikaʻi loa, ʻoi aku ka paʻakikī o ka hoʻonui ʻana i nā hopena i kekahi manawa.
Inā hoʻololi ʻia ka ʻikepili aʻo ʻana o nā kumulāʻau hoʻoholo, ʻokoʻa ka hopena.
ʻO ka hopena, hoʻohana ʻia ka ʻeke, kahi i hana ʻia ai nā kumulāʻau hoʻoholo he nui, ua aʻo ʻia kēlā me kēia me ka hoʻohana ʻana i kahi laʻana o ka ʻikepili kumu, a ʻo ka hopena hopena ka awelika o kēia mau hiʻohiʻona like ʻole.
Hoʻonui:
ʻO ka hoʻoikaika ʻana ke ʻano o ka hana ʻana i nā wānana me kahi ʻōnaehana papa helu n-nawaliwali kahi e hoʻoponopono ai kēlā me kēia papa helu nāwaliwali i nā hemahema o kāna mau papa ikaika. Ke kuhikuhi nei mākou i kahi papa helu i hana maikaʻi ʻole i kahi hoʻonohonoho ʻikepili i hāʻawi ʻia ma ke ʻano he "classifier nāwaliwali."
ʻO ka hoʻonui ʻana he hana ma mua o kahi algorithm. ʻO ka hoʻihoʻi ʻana i ka logistic a me nā kumu lāʻau hoʻoholo pāpaʻu he mau laʻana maʻamau o nā classifier nāwaliwali.
ʻO Adaboost, Gradient Boosting, a me XGBoost nā ʻelua algorithms hoʻonui kaulana loa, akā naʻe, he nui aku.
41. E wehewehe i ka ʻokoʻa ma waena o ke aʻo inductive a me deductive.
Ke aʻo ʻia ma ka laʻana mai kahi pūʻulu o nā hiʻohiʻona i ʻike ʻia, hoʻohana ke kumu hoʻohālike i ke aʻo inductive e hōʻea i kahi hopena ākea. Ma ka ʻaoʻao ʻē aʻe, me ke aʻo deductive, hoʻohana ke kumu hoʻohālike i ka hopena ma mua o ka hana ʻana i kāna iho.
ʻO ke aʻo inductive ke kaʻina o ka huki ʻana i nā hopena mai nā ʻike.
ʻO ke aʻo deductive ka hana o ka hana ʻana i nā nānā ma muli o nā inferences.
Panina
Hoʻomaikaʻi! ʻO kēia nā nīnau nīnau nīnau 40 kiʻekiʻe loa no ka aʻo ʻana i ka mīkini āu e ʻike nei i nā pane. ʻepekema ʻikepili a me ʻimi hoʻopunipuni manao e hoʻomau ʻia nā ʻoihana i ka holomua ʻana o ka ʻenehana.
Hiki i nā moho e hōʻano hou i ko lākou ʻike no kēia mau ʻenehana ʻokiʻoki a hoʻomaikaʻi i kā lākou mākaukau mākaukau ke loaʻa i nā ʻano hana like ʻole me ka uku hoʻokūkū.
Hiki iā ʻoe ke hoʻomau i ka pane ʻana i nā nīnauele i kēia manawa ua loaʻa iā ʻoe kahi ʻike paʻa i ka pane ʻana i kekahi o nā nīnau nīnau nīnau nīnau aʻo mīkini.
Ma muli o kāu mau pahuhopu, e hana i kēia kaʻina. E hoʻomākaukau no nā nīnauele ma ke kipa ʻana iā Hashdork's Nīnauele Series.
Waiho i ka Reply