Hive គឺជាឧបករណ៍វិភាគទិន្នន័យធំដែលត្រូវបានប្រើប្រាស់យ៉ាងទូលំទូលាយនៅក្នុងអាជីវកម្ម ហើយវាជាកន្លែងដ៏អស្ចារ្យមួយដើម្បីចាប់ផ្តើម ប្រសិនបើអ្នកថ្មីចំពោះទិន្នន័យធំ។ មេរៀន Apache Hive នេះឆ្លងកាត់មូលដ្ឋានគ្រឹះនៃ Apache Hive ហេតុអ្វីបានជាសំបុកចាំបាច់ លក្ខណៈពិសេសរបស់វា និងអ្វីៗផ្សេងទៀតដែលអ្នកគួរដឹង។
ចូរយើងស្វែងយល់ពីក្របខ័ណ្ឌ Hadoop ជាដំបូងដែល Apache Hive ត្រូវបានបង្កើតឡើង។
កម្មវិធី Apache Hadoop
Apache Hadoop គឺឥតគិតថ្លៃនិង ប្រភពបើកចំហ វេទិកាសម្រាប់រក្សាទុក និងដំណើរការសំណុំទិន្នន័យធំ ៗ ដែលមានទំហំចាប់ពីជីហ្គាបៃដល់ប៉េតាបៃ។ Hadoop អនុញ្ញាតឱ្យដាក់ចង្កោមកុំព្យូទ័រជាច្រើនដើម្បីវិភាគសំណុំទិន្នន័យដ៏ធំសម្បើមស្របគ្នា ជាជាងតម្រូវឱ្យកុំព្យូទ័រធំតែមួយរក្សាទុក និងវិភាគទិន្នន័យ។
MapReduce និង Hadoop Distributed File System គឺជាធាតុផ្សំពីរ៖
- កាត់បន្ថយផែនទី - MapReduce គឺជាបច្ចេកទេសសរសេរកម្មវិធីស្របគ្នាសម្រាប់គ្រប់គ្រងបរិមាណដ៏ធំនៃទិន្នន័យដែលបានរៀបចំ ពាក់កណ្តាលរចនាសម្ព័ន្ធ និងមិនមានរចនាសម្ព័ន្ធនៅលើចង្កោមផ្នែករឹងទំនិញ។
- HDFS - HDFS (Hadoop Distributed File System) គឺជាសមាសធាតុក្របខ័ណ្ឌ Hadoop ដែលរក្សាទុក និងដំណើរការទិន្នន័យ។ វាជាប្រព័ន្ធឯកសារដែលអត់ឱនកំហុសដែលដំណើរការលើផ្នែករឹងស្តង់ដារ
គម្រោងរងផ្សេងៗ (ឧបករណ៍) នៅក្នុងប្រព័ន្ធអេកូឡូស៊ី Hadoop រួមមាន Sqoop, Pig, និង Hive ត្រូវបានប្រើដើម្បីជួយដល់ម៉ូឌុល Hadoop ។
- សំបុក - Hive គឺជាក្របខ័ណ្ឌសម្រាប់សរសេរស្គ្រីបរចនាប័ទ្ម SQL ដែលអនុវត្តការគណនា MapReduce ។
- ជ្រូក - Pig គឺជាភាសាសរសេរកម្មវិធីតាមនីតិវិធី ដែលអាចត្រូវបានប្រើដើម្បីបង្កើតស្គ្រីបសម្រាប់ដំណើរការ MapReduce ។
- Sqoop - Sqoop គឺជាឧបករណ៍សម្រាប់នាំចូល និងនាំចេញទិន្នន័យរវាង HDFS និង RDBMS ។
តើអ្វីជា Apache Hive?
Apache Hive គឺជាប្រភពបើកចំហ ឃ្លាំងទិន្នន័យ កម្មវិធីសម្រាប់អាន សរសេរ និងគ្រប់គ្រងសំណុំទិន្នន័យដ៏ធំដែលរក្សាទុកដោយផ្ទាល់នៅក្នុង Apache Hadoop Distributed File System (HDFS) ឬប្រព័ន្ធផ្ទុកទិន្នន័យផ្សេងទៀតដូចជា Apache HBase ជាដើម។
អ្នកអភិវឌ្ឍន៍ SQL អាចប្រើ Hive ដើម្បីបង្កើត Hive Query Language (HQL) statements សម្រាប់សំណួរទិន្នន័យ និងការវិភាគដែលអាចប្រៀបធៀបទៅនឹងសេចក្តីថ្លែងការណ៍ SQL ធម្មតា។ វាត្រូវបានបង្កើតឡើងដើម្បីធ្វើឱ្យកម្មវិធី MapReduce កាន់តែងាយស្រួលដោយលុបបំបាត់តម្រូវការក្នុងការរៀន និងសរសេរកូដ Java ដ៏វែង។ ជំនួសមកវិញ អ្នកអាចសរសេរសំណួររបស់អ្នកនៅក្នុង HQL ហើយ Hive នឹងបង្កើតផែនទី និងកាត់បន្ថយមុខងារសម្រាប់អ្នក។
ចំណុចប្រទាក់ SQL-like របស់ Apache Hive បានក្លាយជាស្តង់ដារមាសសម្រាប់ធ្វើការស្វែងរកដោយ ad-hoc សង្ខេប និងវិភាគទិន្នន័យ Hadoop ។ នៅពេលរួមបញ្ចូលក្នុងពពក បណ្តាញកុំព្យូទ័រជាពិសេស ដំណោះស្រាយនេះមានប្រសិទ្ធភាពខ្ពស់ក្នុងការចំណាយ និងអាចធ្វើមាត្រដ្ឋានបាន ដែលនេះជាមូលហេតុដែលក្រុមហ៊ុនជាច្រើន រួមទាំង Netflix និង Amazon បន្តអភិវឌ្ឍ និងកែលម្អ Apache Hive។
ប្រវត្តិសាស្រ្ត
ក្នុងអំឡុងពេលរបស់ពួកគេនៅ Facebook Joydeep Sen Sarma និង Ashish Thusoo បានសហការបង្កើត Apache Hive ។ ពួកគេទាំងពីរបានទទួលស្គាល់ថាដើម្បីទទួលបានអត្ថប្រយោជន៍ច្រើនបំផុតពី Hadoop ពួកគេនឹងត្រូវបង្កើតការងារ Java Map-Reduce ដ៏ស្មុគស្មាញមួយចំនួន។ ពួកគេបានទទួលស្គាល់ថាពួកគេនឹងមិនអាចអប់រំក្រុមវិស្វកម្ម និងក្រុមវិភាគដែលកំពុងរីកចម្រើនយ៉ាងឆាប់រហ័សរបស់ពួកគេលើជំនាញដែលពួកគេត្រូវការដើម្បីប្រើប្រាស់ Hadoop នៅទូទាំងក្រុមហ៊ុននោះទេ។ វិស្វករ និងអ្នកវិភាគតែងតែប្រើប្រាស់ SQL ជាចំណុចប្រទាក់អ្នកប្រើប្រាស់។
ខណៈពេលដែល SQL អាចបំពេញតម្រូវការវិភាគភាគច្រើន អ្នកអភិវឌ្ឍន៍ក៏មានបំណងដាក់បញ្ចូលកម្មវិធីរបស់ Hadoop ផងដែរ។ Apache Hive កើតចេញពីគោលបំណងទាំងពីរនេះ៖ ភាសាប្រកាសដែលមានមូលដ្ឋានលើ SQL ដែលអាចឱ្យអ្នកអភិវឌ្ឍន៍នាំយកស្គ្រីប និងកម្មវិធីផ្ទាល់ខ្លួនរបស់ពួកគេនៅពេលដែល SQL មិនគ្រប់គ្រាន់។
វាត្រូវបានបង្កើតឡើងផងដែរដើម្បីរក្សាទិន្នន័យមេតាកណ្តាល (Hadoop-based) អំពីសំណុំទិន្នន័យទាំងអស់នៅក្នុងក្រុមហ៊ុនដើម្បីធ្វើឱ្យការកសាងអង្គការដែលដឹកនាំដោយទិន្នន័យកាន់តែងាយស្រួល។
តើ Apache Hive ដំណើរការយ៉ាងដូចម្តេច?
សរុបមក Apache Hive បំប្លែងកម្មវិធីបញ្ចូលដែលសរសេរក្នុងភាសា HiveQL (SQL-like) ទៅជាកិច្ចការ Java MapReduce, Tez ឬ Spark មួយឬច្រើន។ (ម៉ាស៊ីនប្រតិបត្តិទាំងអស់នេះគឺត្រូវគ្នាជាមួយ Hadoop YARN។) បន្ទាប់ពីនោះ Apache Hive រៀបចំទិន្នន័យទៅជាតារាងសម្រាប់ Hadoop Distributed File System HDFS) ហើយអនុវត្តភារកិច្ចនៅលើចង្កោមដើម្បីទទួលបានចម្លើយ។
ទិន្នន័យ
តារាង Apache Hive ត្រូវបានរៀបចំតាមរបៀបដូចគ្នានឹងតារាងក្នុងមូលដ្ឋានទិន្នន័យទំនាក់ទំនងត្រូវបានរៀបចំ ដោយឯកតាទិន្នន័យមានទំហំចាប់ពីធំទៅតូច។ មូលដ្ឋានទិន្នន័យត្រូវបានបង្កើតឡើងដោយតារាងដែលត្រូវបានបែងចែកទៅជាផ្នែកដែលបែងចែកបន្ថែមទៀតទៅជាធុង។ HiveQL (Hive Query Language) ត្រូវបានប្រើដើម្បីចូលប្រើទិន្នន័យ ដែលអាចត្រូវបានផ្លាស់ប្តូរ ឬបន្ថែម។ ទិន្នន័យតារាងត្រូវបានដាក់សៀរៀលក្នុងមូលដ្ឋានទិន្នន័យនីមួយៗ ហើយតារាងនីមួយៗមានថត HDFS ផ្ទាល់ខ្លួន។
ស្ថាបត្យកម្ម
ឥឡូវនេះយើងនឹងនិយាយអំពីទិដ្ឋភាពសំខាន់បំផុតនៃស្ថាបត្យកម្ម Hive ។ សមាសធាតុនៃ Apache Hive មានដូចខាងក្រោម៖
ហាងមេតា - វាតាមដានព័ត៌មានអំពីតារាងនីមួយៗ ដូចជារចនាសម្ព័ន្ធ និងទីតាំងរបស់វា។ ទិន្នន័យមេតានៃភាគថាសក៏ត្រូវបានរួមបញ្ចូលផងដែរនៅក្នុង Hive។ នេះអនុញ្ញាតឱ្យអ្នកបើកបរតាមដានវឌ្ឍនភាពនៃសំណុំទិន្នន័យផ្សេងៗគ្នាដែលរីករាលដាលនៅទូទាំងចង្កោម។ ទិន្នន័យត្រូវបានរក្សាទុកក្នុងទម្រង់ RDBMS ធម្មតា។ ទិន្នន័យមេតា Hive គឺមានសារៈសំខាន់ខ្លាំងណាស់សម្រាប់អ្នកបើកបរក្នុងការរក្សាដាននៃទិន្នន័យ។ ម៉ាស៊ីនមេបម្រុងទុកចម្លងទិន្នន័យជាប្រចាំ ដូច្នេះវាអាចត្រូវបានសង្គ្រោះឡើងវិញក្នុងករណីបាត់បង់ទិន្នន័យ។
កម្មវិធីបញ្ជា - សេចក្តីថ្លែងការណ៍ HiveQL ត្រូវបានទទួលដោយអ្នកបើកបរដែលមានមុខងារជាឧបករណ៍បញ្ជា។ តាមរយៈការបង្កើតវគ្គ អ្នកបើកបរចាប់ផ្តើមការប្រតិបត្តិនៃសេចក្តីថ្លែងការណ៍។ វាតាមដានអាយុកាល និងវឌ្ឍនភាពរបស់នាយកប្រតិបត្តិ។ កំឡុងពេលប្រតិបត្តិសេចក្តីថ្លែងការ HiveQL អ្នកបើកបររក្សាទុកទិន្នន័យមេតាដែលត្រូវការ។ វាក៏បម្រើជាចំណុចប្រមូលលទ្ធផលសំណួរ ឬទិន្នន័យបន្ទាប់ពីដំណើរការកាត់បន្ថយ។
អ្នកចងក្រង - វាដំណើរការការចងក្រងសំណួរ HiveQL ។ ឥឡូវនេះសំណួរត្រូវបានបំប្លែងទៅជាផែនការប្រតិបត្តិ។ ភារកិច្ចត្រូវបានរាយក្នុងផែនការ។ វាក៏រួមបញ្ចូលផងដែរនូវជំហានដែល MapReduce ត្រូវធ្វើដើម្បីទទួលបានលទ្ធផលដូចដែលបានបកប្រែដោយសំណួរ។ សំណួរត្រូវបានបំប្លែងទៅជាមែកធាងវាក្យសម្ព័ន្ធអរូបីដោយអ្នកចងក្រងរបស់ Hive (AST)។ បំប្លែង AST ទៅជាក្រាហ្វអាសុីលីកដែលដឹកនាំបន្ទាប់ពីពិនិត្យមើលភាពឆបគ្នា និងកំហុសពេលចងក្រង (DAG)។
ល្អប្រសើរបំផុត។ - វាបង្កើនប្រសិទ្ធភាព DAG ដោយអនុវត្តការផ្លាស់ប្តូរផ្សេងៗគ្នាលើផែនការប្រតិបត្តិ។ វារួមបញ្ចូលគ្នានូវការបំប្លែងសម្រាប់ការធ្វើឱ្យប្រសើរឡើងនូវប្រសិទ្ធភាព ដូចជាការបង្វែរបំពង់នៃ Joins ទៅជា Joins តែមួយ។ ដើម្បីកែលម្អល្បឿន កម្មវិធីបង្កើនប្រសិទ្ធភាពអាចបែងចែកសកម្មភាព ដូចជាការអនុវត្តការបំប្លែងទៅជាទិន្នន័យ មុនពេលអនុវត្តប្រតិបត្តិការកាត់បន្ថយ។
អ្នកប្រតិបត្តិ - ប្រតិបត្តិករដំណើរការភារកិច្ច នៅពេលដែលការចងក្រង និងបង្កើនប្រសិទ្ធភាពត្រូវបានបញ្ចប់។ ការងារត្រូវបានបង្ហូរដោយ Executor ។
CLI, UI, និង Thrift Server - ចំណុចប្រទាក់បន្ទាត់ពាក្យបញ្ជា (CLI) គឺជាចំណុចប្រទាក់អ្នកប្រើដែលអនុញ្ញាតឱ្យអ្នកប្រើខាងក្រៅទំនាក់ទំនងជាមួយ Hive ។ ម៉ាស៊ីនមេរបស់ Hive ស្រដៀងទៅនឹងពិធីការ JDBC ឬ ODBC អនុញ្ញាតឱ្យអតិថិជនខាងក្រៅទំនាក់ទំនងជាមួយ Hive តាមរយៈបណ្តាញមួយ។
សុវិត្ថភាព
Apache Hive ត្រូវបានរួមបញ្ចូលជាមួយសុវត្ថិភាព Hadoop ដែលប្រើ Kerberos សម្រាប់ការផ្ទៀងផ្ទាត់គ្នាទៅវិញទៅមករវាងម៉ាស៊ីនភ្ញៀវ និងម៉ាស៊ីនមេ។ HDFS កំណត់ការអនុញ្ញាតសម្រាប់ឯកសារដែលបានបង្កើតថ្មីនៅក្នុង Apache Hive ដែលអនុញ្ញាតឱ្យអ្នកអនុម័តដោយអ្នកប្រើប្រាស់ ក្រុម និងអ្នកដទៃ។
លក្ខណៈពិសេស
- Hive គាំទ្រតារាងខាងក្រៅ ដែលអនុញ្ញាតឱ្យអ្នកដំណើរការទិន្នន័យដោយមិនចាំបាច់រក្សាទុកវានៅក្នុង HDFS ។
- វាក៏អាចឱ្យការបែងចែកទិន្នន័យនៅកម្រិតតារាងដើម្បីបង្កើនល្បឿនផងដែរ។
- Apache Hive បំពេញតម្រូវការចំណុចប្រទាក់កម្រិតទាបរបស់ Hadoop យ៉ាងល្អឥតខ្ចោះ។
- Hive ធ្វើឱ្យការសង្ខេបទិន្នន័យ សំណួរ និងការវិភាគកាន់តែងាយស្រួល។
- HiveQL មិនតម្រូវឱ្យមានជំនាញសរសេរកម្មវិធីណាមួយឡើយ។ ការយល់ដឹងសាមញ្ញអំពីសំណួរ SQL គឺគ្រប់គ្រាន់ហើយ។
- យើងក៏អាចប្រើ Hive ដើម្បីធ្វើការសាកសួរ ad-hoc សម្រាប់ការវិភាគទិន្នន័យផងដែរ។
- វាអាចធ្វើមាត្រដ្ឋាន ស្គាល់ និងអាចសម្របបាន។
- HiveQL មិនតម្រូវឱ្យមានជំនាញសរសេរកម្មវិធីណាមួយឡើយ។ ការយល់ដឹងសាមញ្ញអំពីសំណួរ SQL គឺគ្រប់គ្រាន់ហើយ។
អត្ថប្រយោជន៍
Apache Hive អនុញ្ញាតឱ្យមានរបាយការណ៍ចុងថ្ងៃ ការវាយតម្លៃប្រតិបត្តិការប្រចាំថ្ងៃ ការស្វែងរកដោយផ្ទាល់ និងការវិភាគទិន្នន័យ។ ការយល់ដឹងទូលំទូលាយដែលផ្តល់ដោយ Apache Hive ផ្តល់នូវគុណសម្បត្តិប្រកួតប្រជែងសំខាន់ៗ និងធ្វើឱ្យវាកាន់តែងាយស្រួលសម្រាប់អ្នកក្នុងការឆ្លើយតបទៅនឹងតម្រូវការទីផ្សារ។
នេះគឺជាអត្ថប្រយោជន៍មួយចំនួននៃការមានព័ត៌មានបែបនេះដែលអាចរកបានយ៉ាងងាយស្រួល៖
- ភាពងាយស្រួលនៃការប្រើប្រាស់ - ជាមួយនឹងភាសាដូច SQL របស់វា ការសាកសួរទិន្នន័យគឺសាមញ្ញក្នុងការយល់។
- ការបញ្ចូលទិន្នន័យបង្កើនល្បឿន — ដោយសារ Apache Hive អានគ្រោងការណ៍ដោយមិនបានផ្ទៀងផ្ទាត់ប្រភេទតារាង ឬនិយមន័យគ្រោងការណ៍ ទិន្នន័យមិនចាំបាច់ត្រូវបានអាន ញែក និងសៀរៀលទៅក្នុងឌីសក្នុងទម្រង់ខាងក្នុងរបស់មូលដ្ឋានទិន្នន័យនោះទេ។ ផ្ទុយទៅវិញ នៅក្នុងមូលដ្ឋានទិន្នន័យធម្មតា ទិន្នន័យត្រូវតែមានសុពលភាពរាល់ពេលដែលវាត្រូវបានបន្ថែម។
- សមត្ថភាពធ្វើមាត្រដ្ឋាន ភាពបត់បែន និងប្រសិទ្ធភាពខ្ពស់ - ដោយសារទិន្នន័យត្រូវបានរក្សាទុកក្នុង HDFS Apache Hive អាចផ្ទុកទិន្នន័យ 100s នៃ petabytes ដែលធ្វើឱ្យវាជាជម្រើសដែលអាចធ្វើមាត្រដ្ឋានបានច្រើនជាងមូលដ្ឋានទិន្នន័យធម្មតា។ Apache Hive ជាសេវាកម្ម Hadoop ដែលមានមូលដ្ឋានលើពពក អនុញ្ញាតឱ្យអតិថិជនបង្វិលឡើង និងចុះក្រោមម៉ាស៊ីនមេនិម្មិតយ៉ាងឆាប់រហ័ស ដើម្បីបំពេញការផ្លាស់ប្តូរបន្ទុកការងារ។
- សមត្ថភាពការងារទូលំទូលាយ - សំណុំទិន្នន័យធំអាចដោះស្រាយបានរហូតដល់ 100,000 សំណួរក្នុងមួយម៉ោង។
ដែនកំណត់
- ជាទូទៅ សំណួរ Apache Hive មានភាពយឺតយ៉ាវខ្ពស់ណាស់។
- ការគាំទ្រសំណួររងមានកំណត់។
- សំណួរតាមពេលវេលាជាក់ស្តែង និងការផ្លាស់ប្តូរកម្រិតជួរដេកមិនមាននៅក្នុង Apache Hive ទេ។
- មិនមានការគាំទ្រសម្រាប់ទស្សនៈជាក់ស្តែងទេ។
- នៅក្នុងសំបុក សកម្មភាពអាប់ដេត និងលុបមិនត្រូវបានគាំទ្រទេ។
- មិនមានបំណងសម្រាប់ OLTP (ដំណើរការអន្តរកាលតាមអ៊ីនធឺណិត)។
ចាប់ផ្តើមជាមួយ Apache Hive
Apache Hive គឺជាដៃគូ Hadoop ដ៏រឹងមាំដែលជួយសម្រួល និងសម្រួលលំហូរការងាររបស់អ្នក។ ដើម្បីទទួលបានអត្ថប្រយោជន៍ច្រើនបំផុតពី Apache Hive ការរួមបញ្ចូលដោយគ្មានថ្នេរគឺចាំបាច់ណាស់។ ជំហានដំបូងគឺត្រូវទៅ គេហទំព័រ.
1. ការដំឡើងសំបុកពីការចេញផ្សាយស្ថេរភាព
ចាប់ផ្តើមដោយការទាញយកការចេញផ្សាយដែលមានស្ថេរភាពថ្មីបំផុតនៃ Hive ពីកញ្ចក់ទាញយក Apache (សូមមើល ការចេញផ្សាយសំបុក) បន្ទាប់មក tarball ត្រូវតែត្រូវបានខ្ចប់។ វានឹងបង្កើតថតរងដែលហៅថា hive-xyz (ដែល xyz ជាលេខចេញផ្សាយ)៖
កំណត់អថេរបរិស្ថាន HIVE_HOME ដើម្បីចង្អុលទៅថតដំឡើង៖
ជាចុងក្រោយ បន្ថែម $HIVE_HOME/bin ទៅក្នុងរបស់អ្នក។ PATH
:
2. ការរត់សំបុក
Hive ប្រើ Hadoop ដូច្នេះ៖
- អ្នកត្រូវតែមាន Hadoop នៅក្នុងផ្លូវរបស់អ្នក OR
3. ប្រតិបត្តិការ DLL
ការបង្កើតតារាង Hive
បង្កើតតារាងមួយដែលមានឈ្មោះថា pokes ដែលមានជួរឈរពីរ ដែលទីមួយជាចំនួនគត់ និងទីពីរគឺជាខ្សែអក្សរ។
ការរុករកតាមតារាង
ការចុះបញ្ជីតារាងទាំងអស់។
ការផ្លាស់ប្តូរនិងទម្លាក់តារាង
ឈ្មោះតារាងអាចត្រូវបានផ្លាស់ប្តូរ ហើយជួរឈរអាចត្រូវបានបន្ថែម ឬជំនួស៖
គួរកត់សម្គាល់ថា REPLACE COLUMNS ជំនួសជួរឈរដែលមានស្រាប់ទាំងអស់ ខណៈពេលដែលគ្រាន់តែផ្លាស់ប្តូររចនាសម្ព័ន្ធតារាងប៉ុណ្ណោះ មិនមែនទិន្នន័យទេ។ SerDe ដើមត្រូវតែប្រើក្នុងតារាង។ ជំនួសជួរឈរក៏អាចត្រូវបានប្រើដើម្បីយកជួរឈរចេញពីគ្រោងការណ៍នៃតារាង៖
តារាងទម្លាក់
មានប្រតិបត្តិការ និងមុខងារបន្ថែមជាច្រើននៅក្នុង Apache Hive ដែលអ្នកអាចស្វែងយល់បានដោយចូលទៅកាន់គេហទំព័រផ្លូវការ។
សន្និដ្ឋាន
និយមន័យ Hive គឺជាចំណុចប្រទាក់កម្មវិធីទិន្នន័យសម្រាប់សំណួរ និងការវិភាគសម្រាប់សំណុំទិន្នន័យដ៏ធំដែលត្រូវបានបង្កើតឡើងនៅលើកំពូលនៃ Apache Hadoop ។ អ្នកជំនាញជ្រើសរើសវាជាងកម្មវិធី ឧបករណ៍ និងកម្មវិធីផ្សេងទៀត ដោយសារវាត្រូវបានរចនាឡើងជាចម្បងសម្រាប់ទិន្នន័យទូលំទូលាយ Hive និងងាយស្រួលប្រើ។
សង្ឃឹមថាការបង្រៀននេះអាចជួយអ្នកឱ្យចាប់ផ្តើមជាមួយ Apache Hive និងធ្វើឱ្យលំហូរការងាររបស់អ្នកកាន់តែមានប្រសិទ្ធភាព។ អនុញ្ញាតឱ្យយើងដឹងនៅក្នុងមតិយោបល់។
សូមផ្ដល់យោបល់