Data lakehouses ຜະສົມຜະສານສາງຂໍ້ມູນແລະແນວຄວາມຄິດຂອງ Data Lake ສໍາລັບທຸລະກິດ.
ເຄື່ອງມືເຫຼົ່ານີ້ຊ່ວຍໃຫ້ທ່ານສ້າງການແກ້ໄຂການເກັບຮັກສາຂໍ້ມູນທີ່ມີປະສິດທິພາບຄ່າໃຊ້ຈ່າຍໂດຍການລວມເອົາຄວາມສາມາດໃນການຄຸ້ມຄອງຂອງຂໍ້ມູນຂໍ້ມູນກັບສະຖາປັດຕະຍະກໍາຂໍ້ມູນທີ່ພົບໃນຄັງຂໍ້ມູນ.
ນອກຈາກນັ້ນ, ມີການຫຼຸດຜ່ອນການເຄື່ອນຍ້າຍຂໍ້ມູນແລະການຊ້ໍາຊ້ອນ, ໃຊ້ເວລາຫນ້ອຍໃນການຄຸ້ມຄອງ, ແລະຂັ້ນຕອນການຄຸ້ມຄອງຂໍ້ມູນສັ້ນກວ່າແລະກາຍເປັນຄວາມເປັນຈິງ.
ຫນຶ່ງ lakehouse ຂໍ້ມູນມີຂໍ້ໄດ້ປຽບຫຼາຍເມື່ອທຽບກັບລະບົບການເກັບຮັກສາທີ່ມີການແກ້ໄຂຫຼາຍ.
ເຄື່ອງມືເຫຼົ່ານີ້ຍັງຖືກນໍາໃຊ້ໂດຍນັກວິທະຍາສາດຂໍ້ມູນເພື່ອປັບປຸງຄວາມເຂົ້າໃຈຂອງເຂົາເຈົ້າກ່ຽວກັບປັນຍາທຸລະກິດແລະຂັ້ນຕອນການຮຽນຮູ້ເຄື່ອງຈັກ.
ບົດຄວາມນີ້ຈະເບິ່ງຢ່າງວ່ອງໄວກ່ຽວກັບການ lakehouse ຂໍ້ມູນ, ຄວາມສາມາດຂອງຕົນ, ແລະເຄື່ອງມືທີ່ມີຢູ່.
ແນະນຳກ່ຽວກັບ Data Lakehouse
ສະຖາປັດຕະຍະກໍາຂໍ້ມູນປະເພດໃຫມ່ທີ່ເອີ້ນວ່າ "lakehouse ຂໍ້ມູນ” ສົມທົບການເກັບຂໍ້ມູນແລະຄັງຂໍ້ມູນເພື່ອແກ້ໄຂຈຸດອ່ອນຂອງແຕ່ລະຄົນຢ່າງເປັນເອກະລາດ.
ລະບົບ lakehouse, ເຊັ່ນ: ທະເລສາບຂໍ້ມູນ, ໃຊ້ການເກັບຮັກສາທີ່ມີລາຄາຖືກເພື່ອຮັກສາຂໍ້ມູນຈໍານວນຫຼວງຫຼາຍໃນຮູບແບບຕົ້ນສະບັບຂອງມັນ.
ການເພີ່ມຊັ້ນ metadata ຢູ່ດ້ານເທິງຂອງຮ້ານຍັງສະຫນອງໂຄງສ້າງຂໍ້ມູນແລະສ້າງຄວາມເຂັ້ມແຂງເຄື່ອງມືການຄຸ້ມຄອງຂໍ້ມູນທີ່ຄ້າຍຄືກັນກັບສິ່ງທີ່ພົບເຫັນຢູ່ໃນຄັງຂໍ້ມູນ.
ມັນປະກອບດ້ວຍຂໍ້ມູນທີ່ມີໂຄງສ້າງ, ເຄິ່ງໂຄງສ້າງ, ແລະບໍ່ມີໂຄງສ້າງຈໍານວນຫລາຍທີ່ໄດ້ຮັບຈາກຄໍາຮ້ອງສະຫມັກທຸລະກິດຕ່າງໆ, ລະບົບ, ແລະອຸປະກອນທີ່ໃຊ້ໃນທົ່ວວິສາຫະກິດ.
ດັ່ງນັ້ນ, ບໍ່ເຫມືອນກັບ lakes ຂໍ້ມູນ, ລະບົບ lakehouse ສາມາດຈັດການແລະເພີ່ມປະສິດທິພາບຂໍ້ມູນນັ້ນສໍາລັບການປະຕິບັດ SQL.
ມັນຍັງມີຄວາມສາມາດໃນການເກັບຮັກສາແລະປະມວນຜົນຂໍ້ມູນຈໍານວນຫລາຍທີ່ມີຄວາມຫຼາກຫຼາຍໃນລາຄາຖືກກວ່າຄັງຂໍ້ມູນ.
A lakehouse ຂໍ້ມູນມາສະດວກໃນເວລາທີ່ທ່ານຕ້ອງການປະຕິບັດການເຂົ້າເຖິງຂໍ້ມູນຫຼືການວິເຄາະຕໍ່ກັບຂໍ້ມູນໃດໆແຕ່ບໍ່ແນ່ໃຈວ່າຂໍ້ມູນຫຼືການວິເຄາະທີ່ແນະນໍາ.
ສະຖາປັດຕະຍະກໍາ lakehouse ຈະເຮັດວຽກໄດ້ດີຖ້າຫາກວ່າການປະຕິບັດບໍ່ແມ່ນຄວາມກັງວົນຕົ້ນຕໍ.
ນັ້ນບໍ່ໄດ້ ໝາຍ ຄວາມວ່າທ່ານຄວນຈະອີງໃສ່ໂຄງສ້າງທັງ ໝົດ ຂອງເຈົ້າຢູ່ເທິງທະເລສາບ.
ຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບວິທີການເລືອກ lake ຂໍ້ມູນ, lakehouse, ຄັງຂໍ້ມູນ, ຫຼືຖານຂໍ້ມູນການວິເຄາະພິເສດສໍາລັບແຕ່ລະກໍລະນີການນໍາໃຊ້ສາມາດພົບໄດ້. ທີ່ນີ້.
ຄຸນນະສົມບັດຂອງ Data Lakehouse
- ການອ່ານ ແລະການຂຽນຂໍ້ມູນພ້ອມກັນ
- ຄວາມສາມາດປັບໄດ້ແລະການປັບຂະໜາດ
- ການຊ່ວຍເຫຼືອ Schema ກັບເຄື່ອງມືການຄຸ້ມຄອງຂໍ້ມູນ
- ການອ່ານ ແລະການຂຽນຂໍ້ມູນພ້ອມກັນ
- ການເກັບຮັກສາທີ່ມີລາຄາບໍ່ແພງ
- ທຸກປະເພດຂໍ້ມູນແລະຮູບແບບໄຟລ໌ແມ່ນສະຫນັບສະຫນູນ.
- ເຂົ້າເຖິງວິທະຍາສາດຂໍ້ມູນ ແລະເຄື່ອງມືການຮຽນຮູ້ເຄື່ອງຈັກທີ່ເໝາະສົມ
- ທີມງານຂໍ້ມູນຂອງທ່ານຈະໄດ້ຮັບຜົນປະໂຫຍດຈາກການມີການເຂົ້າເຖິງພຽງແຕ່ລະບົບດຽວເພື່ອໂອນວຽກຜ່ານມັນໄວແລະຖືກຕ້ອງ.
- ຄວາມສາມາດໃນເວລາຈິງສໍາລັບການລິເລີ່ມໃນວິທະຍາສາດຂໍ້ມູນ, ການຮຽນຮູ້ເຄື່ອງຈັກ, ແລະການວິເຄາະ
ເຄື່ອງມື Top 5 Data Lakehouse
ຖານຂໍ້ມູນ
Databricks, ເຊິ່ງໄດ້ຖືກສ້າງຕັ້ງຂຶ້ນໂດຍຜູ້ທີ່ທໍາອິດທີ່ພັດທະນາ Apache Spark ແລະເຮັດມັນ Open source, ໃຫ້ບໍລິການ Apache Spark ທີ່ຖືກຄຸ້ມຄອງແລະຖືກຈັດເປັນເວທີສໍາລັບຂໍ້ມູນ lakes.
ທະເລສາບຂໍ້ມູນ, ທະເລສາບ delta, ແລະອົງປະກອບເຄື່ອງຈັກ delta ຂອງສະຖາປັດຕະຍະກໍາ Databricks lakehouse ຊ່ວຍໃຫ້ປັນຍາທຸລະກິດ, ວິທະຍາສາດຂໍ້ມູນ, ແລະກໍລະນີການນໍາໃຊ້ການຮຽນຮູ້ເຄື່ອງຈັກ.
ທະເລສາບຂໍ້ມູນແມ່ນບ່ອນເກັບມ້ຽນຄລາວສາທາລະນະ.
ດ້ວຍການສະຫນັບສະຫນູນການຈັດການ metadata, batch ແລະ stream ການປະມວນຜົນຂໍ້ມູນສໍາລັບຊຸດຂໍ້ມູນທີ່ມີໂຄງສ້າງຫຼາຍ, ການຄົ້ນພົບຂໍ້ມູນ, ການຄວບຄຸມການເຂົ້າເຖິງທີ່ປອດໄພ, ແລະການວິເຄາະ SQL.
Databricks ສະເຫນີຫນ້າທີ່ເກັບຮັກສາຂໍ້ມູນສ່ວນໃຫຍ່ທີ່ຄົນເຮົາອາດຈະຄາດຫວັງວ່າຈະເຫັນຢູ່ໃນເວທີການເກັບຂໍ້ມູນ.
ບໍ່ດົນມານີ້, Databricks ໄດ້ເປີດເຜີຍ Auto Loader ຂອງມັນ, ເຊິ່ງເຮັດໃຫ້ອັດຕະໂນມັດ ETL ແລະຂໍ້ມູນເຂົ້າ, ແລະນໍາໃຊ້ການເກັບຕົວຢ່າງຂໍ້ມູນເພື່ອ infer schema ສໍາລັບປະເພດຂໍ້ມູນຕ່າງໆ, ເພື່ອສະຫນອງອົງປະກອບທີ່ສໍາຄັນຂອງຍຸດທະສາດການເກັບຮັກສາຂໍ້ມູນ.
ໃນທາງກົງກັນຂ້າມ, ຜູ້ໃຊ້ສາມາດສ້າງທໍ່ ETL ລະຫວ່າງ cloud data lake ແລະ Delta Lake ຂອງພວກເຂົາໂດຍໃຊ້ Delta Live Tables.
ໃນເຈ້ຍ, Databricks ປະກົດວ່າມີຄວາມໄດ້ປຽບທັງຫມົດ, ແຕ່ການສ້າງຕັ້ງການແກ້ໄຂແລະການສ້າງທໍ່ຂໍ້ມູນຂອງມັນຮຽກຮ້ອງໃຫ້ມີແຮງງານຂອງມະນຸດຫຼາຍຈາກຜູ້ພັດທະນາທີ່ມີຄວາມຊໍານິຊໍານານ.
ໃນຂະຫນາດ, ຄໍາຕອບຍັງກາຍເປັນສະລັບສັບຊ້ອນຫຼາຍ. ມັນສັບສົນຫຼາຍກ່ວາມັນເບິ່ງຄືວ່າ.
ອານາ
ອ່າງເກັບຂໍ້ມູນແມ່ນບ່ອນດຽວ, ໃຈກາງທີ່ທ່ານສາມາດເກັບຮັກສາຂໍ້ມູນປະເພດໃດກໍ່ຕາມທີ່ທ່ານເລືອກໃນລະດັບຂະຫນາດ, ລວມທັງຂໍ້ມູນທີ່ບໍ່ມີໂຄງສ້າງແລະໂຄງສ້າງ. AWS S3, Microsoft Azure, ແລະ Google Cloud Storage ແມ່ນສາມບ່ອນເກັບຂໍ້ມູນທົ່ວໄປ.
ທະເລສາບຂໍ້ມູນແມ່ນເປັນທີ່ນິຍົມຢ່າງບໍ່ຫນ້າເຊື່ອເພາະວ່າມັນມີລາຄາບໍ່ແພງຫຼາຍ ແລະໃຊ້ງ່າຍ; ເຈົ້າສາມາດເກັບຮັກສາຂໍ້ມູນປະເພດໃດກໍໄດ້ຕາມທີ່ທ່ານຕ້ອງການດ້ວຍເງິນໜ້ອຍຫຼາຍ.
ແຕ່ Data Lake ບໍ່ໄດ້ໃຫ້ເຄື່ອງມືໃນຕົວເຊັ່ນ: ການວິເຄາະ, ສອບຖາມ, ແລະອື່ນໆ.
ທ່ານຕ້ອງການເຄື່ອງຈັກແບບສອບຖາມແລະລາຍການຂໍ້ມູນຢູ່ເທິງຂອງຂໍ້ມູນ (ບ່ອນທີ່ Ahana Cloud ເຂົ້າມາ) ເພື່ອສອບຖາມຂໍ້ມູນຂອງທ່ານແລະໃຊ້ມັນ.
ດ້ວຍສິ່ງທີ່ດີທີ່ສຸດຂອງທັງ Data Warehouse ແລະ Data Lake, ການອອກແບບ lakehouse ຂໍ້ມູນໃຫມ່ໄດ້ພັດທະນາ.
ນີ້ຊີ້ໃຫ້ເຫັນວ່າມີຄວາມໂປ່ງໃສ, ສາມາດປັບຕົວໄດ້, ມີລາຄາ / ການປະຕິບັດທີ່ດີ, ຂະຫນາດເຊັ່ນ Data lake ສະຫນັບສະຫນູນການເຮັດທຸລະກໍາ, ແລະມີຄວາມປອດໄພສູງທຽບກັບຄັງຂໍ້ມູນ.
ເຄື່ອງຈັກການສອບຖາມ SQL ທີ່ມີປະສິດທິພາບສູງຂອງທ່ານແມ່ນສະຫມອງທີ່ຢູ່ເບື້ອງຫຼັງ Data Lakehouse. ດ້ວຍເຫດຜົນນີ້, ທ່ານສາມາດປະຕິບັດການວິເຄາະທີ່ມີປະສິດທິພາບສູງໃນຂໍ້ມູນ lake ຂໍ້ມູນຂອງທ່ານ.
Ahana Cloud ສໍາລັບ Presto ແມ່ນ SaaS ສໍາລັບ Presto ໃນ AWS, ເຮັດໃຫ້ມັນງ່າຍດາຍຢ່າງບໍ່ຫນ້າເຊື່ອທີ່ຈະເລີ່ມຕົ້ນໃຊ້ Presto ໃນຄລາວ.
ສໍາລັບຖານຂໍ້ມູນທີ່ອີງໃສ່ S3 ຂອງທ່ານ, Ahana ມີແຄດຕາລັອກຂໍ້ມູນ ແລະຖານຄວາມຈໍາໃນຕົວແລ້ວ. Ahana ໃຫ້ຄຸນສົມບັດຂອງ Presto ແກ່ເຈົ້າໂດຍບໍ່ຈໍາເປັນຕ້ອງໃຫ້ເຈົ້າຈັດການດ້ານເທິງເພາະວ່າມັນເຮັດພາຍໃນ.
AWS Lake Formation, Apache Hudi, ແລະ Delta Lake ແມ່ນພຽງແຕ່ຈໍານວນຫນ້ອຍຂອງຜູ້ຈັດການທຸລະກໍາທີ່ເປັນສ່ວນຫນຶ່ງຂອງ stack ແລະປະສົມປະສານກັບມັນ.
Dremio
ອົງການຈັດຕັ້ງສະແຫວງຫາການປະເມີນຢ່າງໄວວາ, ງ່າຍດາຍ, ແລະປະສິດທິພາບການປະເມີນຈໍານວນຂະຫນາດໃຫຍ່ຂອງຂໍ້ມູນທີ່ເພີ່ມຂຶ້ນຢ່າງໄວວາ.
Dremio ເຊື່ອວ່າບ່ອນເກັບຂໍ້ມູນເປີດລວມເອົາຜົນປະໂຫຍດຂອງຖານຂໍ້ມູນແລະຄັງເກັບຂໍ້ມູນບົນພື້ນຖານເປີດແມ່ນວິທີການທີ່ດີທີ່ສຸດເພື່ອເຮັດສໍາເລັດນີ້.
ແພລະຕະຟອມ lakehouse ຂອງ Dremio ສະຫນອງປະສົບການທີ່ເຮັດວຽກສໍາລັບທຸກຄົນ, ດ້ວຍ UI ງ່າຍໆທີ່ຊ່ວຍໃຫ້ຜູ້ໃຊ້ສາມາດເຮັດການວິເຄາະສໍາເລັດໃນສ່ວນຫນຶ່ງຂອງເວລາ.
Dremio Cloud, ແພລະຕະຟອມ lakehouse ຂໍ້ມູນທີ່ມີການຄຸ້ມຄອງຢ່າງເຕັມທີ່, ແລະການເປີດຕົວຂອງສອງບໍລິການໃຫມ່: Dremio Sonar, ເຄື່ອງຈັກ lakehouse query, ແລະ Dremio Arctic, megastore ອັດສະລິຍະສໍາລັບ Apache Iceberg ທີ່ສະຫນອງປະສົບການທີ່ເປັນເອກະລັກຂອງ Git-like ສໍາລັບ lakehouse.
ທັງໝົດຂອງວຽກ SQL ຂອງອົງກອນສາມາດແລ່ນໄດ້ໃນແພລດຟອມ Dremio Cloud ທີ່ສາມາດປັບຂະໜາດໄດ້ແບບບໍ່ຢຸດຢັ້ງ, ເຊິ່ງເຮັດໃຫ້ວຽກງານການຈັດການຂໍ້ມູນອັດຕະໂນມັດ.
ມັນຖືກສ້າງຂຶ້ນສໍາລັບ SQL, ສະຫນອງປະສົບການຄ້າຍຄື Git, ເປັນແຫຼ່ງເປີດ, ແລະບໍ່ເສຍຄ່າສະເຫມີ.
ພວກເຂົາສ້າງມັນເປັນເວທີ lakehouse ທີ່ທີມງານຂໍ້ມູນຮັກ.
ການນໍາໃຊ້ຕາຕະລາງແຫຼ່ງເປີດແລະຮູບແບບໄຟລ໌ເຊັ່ນ Apache Iceberg ແລະ Apache Parquet, ຂໍ້ມູນຂອງທ່ານແມ່ນຄົງຢູ່ໃນບ່ອນເກັບຂໍ້ມູນຂອງທ່ານເອງໃນເວລາທີ່ໃຊ້ Dremio Cloud.
ການປະດິດສ້າງໃນອະນາຄົດສາມາດຖືກຮັບຮອງເອົາໄດ້ງ່າຍ, ແລະເຄື່ອງຈັກທີ່ເຫມາະສົມສາມາດຖືກເລືອກໂດຍອີງໃສ່ວຽກງານຂອງທ່ານ.
Snowflake
Snowflake ເປັນແພລະຕະຟອມຂໍ້ມູນຄລາວແລະການວິເຄາະທີ່ສາມາດຕອບສະຫນອງຄວາມຕ້ອງການຂໍ້ມູນແລະຄັງສິນຄ້າ.
ມັນໄດ້ເລີ່ມຕົ້ນເປັນລະບົບຄັງຂໍ້ມູນທີ່ສ້າງຂຶ້ນໃນໂຄງສ້າງພື້ນຖານຂອງຄລາວ.
ແພລດຟອມປະກອບດ້ວຍບ່ອນເກັບມ້ຽນທີ່ມີສູນກາງທີ່ຕັ້ງຢູ່ເທິງບ່ອນເກັບມ້ຽນຄລາວສາທາລະນະຈາກ AWS, Microsoft Azure, ຫຼື Google Cloud Platform (GCP).
ຕໍ່ໄປນີ້ແມ່ນຊັ້ນການຄິດໄລ່ຫຼາຍກຸ່ມ, ບ່ອນທີ່ຜູ້ໃຊ້ສາມາດເປີດສາງຂໍ້ມູນ virtual ແລະດໍາເນີນການສອບຖາມ SQL ຕໍ່ກັບການເກັບຮັກສາຂໍ້ມູນຂອງເຂົາເຈົ້າ.
ສະຖາປັດຕະຍະກໍາອະນຸຍາດໃຫ້ສໍາລັບການ decoupling ການເກັບຮັກສາແລະການຄິດໄລ່ຊັບພະຍາກອນ, ອະນຸຍາດໃຫ້ອົງການຈັດຕັ້ງຂະຫນາດທັງສອງເປັນເອກະລາດຕາມຄວາມຕ້ອງການ.
ສຸດທ້າຍ, Snowflake ໃຫ້ຊັ້ນບໍລິການທີ່ມີການຈັດປະເພດ metadata, ການຄຸ້ມຄອງຊັບພະຍາກອນ, ການຄຸ້ມຄອງຂໍ້ມູນ, ການເຮັດທຸລະກໍາ, ແລະລັກສະນະອື່ນໆ.
ຕົວເຊື່ອມຕໍ່ເຄື່ອງມື BI, ການຈັດການເມຕາເດຕາ, ການຄວບຄຸມການເຂົ້າເຖິງ, ແລະການສອບຖາມ SQL ແມ່ນພຽງແຕ່ບາງສ່ວນຂອງການທໍາງານຂອງຄັງຂໍ້ມູນທີ່ເວທີດີເລີດໃນການສະເຫນີ.
Snowflake, ແນວໃດກໍ່ຕາມ, ຖືກຈໍາກັດກັບເຄື່ອງຈັກການສອບຖາມທີ່ອີງໃສ່ SQL ທີ່ກ່ຽວຂ້ອງດຽວ.
ດັ່ງນັ້ນ, ມັນກາຍເປັນເລື່ອງງ່າຍໃນການຄຸ້ມຄອງແຕ່ສາມາດປັບຕົວໄດ້ໜ້ອຍລົງ, ແລະວິໄສທັດທະເລສາບຂໍ້ມູນແບບຫຼາຍແບບແມ່ນບໍ່ຖືກຮັບຮູ້.
ນອກຈາກນັ້ນ, ກ່ອນທີ່ຂໍ້ມູນຈາກການເກັບຮັກສາຟັງຄລາວສາມາດຄົ້ນຫາຫຼືວິເຄາະ, Snowflake ຮຽກຮ້ອງໃຫ້ທຸລະກິດໂຫລດມັນເຂົ້າໄປໃນຊັ້ນເກັບຮັກສາສູນກາງ.
ຂັ້ນຕອນການວາງທໍ່ຂໍ້ມູນຄູ່ມືຈໍາເປັນຕ້ອງມີ ETL ກ່ອນ, ການສະຫນອງ, ແລະການຈັດຮູບແບບຂໍ້ມູນກ່ອນທີ່ຈະສາມາດກວດສອບໄດ້. ການຂະຫຍາຍຂະບວນການຄູ່ມືເຫຼົ່ານີ້ເຮັດໃຫ້ພວກເຂົາອຸກອັ່ງ.
ທາງເລືອກອື່ນທີ່ເບິ່ງຄືວ່າດີຢູ່ໃນເຈ້ຍແຕ່ໃນຄວາມເປັນຈິງ, deviates ຈາກຫຼັກການ lake ຂໍ້ມູນຂອງການປ້ອນຂໍ້ມູນງ່າຍດາຍແມ່ນ Snowflake's data lakehouse.
Oracle
ສະຖາປັດຕະຍະກຳທີ່ທັນສະໄໝ, ເປັນທີ່ຮູ້ຈັກໃນນາມ "ຫໍເກັບຂໍ້ມູນ" ເຮັດໃຫ້ມັນເປັນໄປໄດ້ທີ່ຈະເກັບຮັກສາ, ເຂົ້າໃຈ ແລະວິເຄາະຂໍ້ມູນທັງໝົດຂອງເຈົ້າ.
ຄວາມກວ້າງແລະຄວາມຍືດຫຍຸ່ນຂອງຂໍ້ມູນ open source ທີ່ເປັນທີ່ນິຍົມທີ່ສຸດແມ່ນລວມເຂົ້າກັບຄວາມເຂັ້ມແຂງແລະຄວາມເລິກຂອງຄັງຂໍ້ມູນ.
ກອບວຽກ AI ໃໝ່ລ່າສຸດ ແລະການບໍລິການ AI ທີ່ສ້າງຂຶ້ນກ່ອນສາມາດນຳໃຊ້ໄດ້ກັບລະບົບຖານຂໍ້ມູນໃນ Oracle Cloud Infrastructure (OCI).
ມັນເປັນໄປໄດ້ທີ່ຈະເຮັດວຽກກັບປະເພດຂອງຂໍ້ມູນເພີ່ມເຕີມໃນຂະນະທີ່ນໍາໃຊ້ແຫຼ່ງເປີດແຫຼ່ງຂໍ້ມູນ. ແຕ່ເວລາແລະຄວາມພະຍາຍາມທີ່ຕ້ອງການໃນການຄຸ້ມຄອງມັນສາມາດເປັນຂໍ້ບົກຜ່ອງຢ່າງຕໍ່ເນື່ອງ.
OCI ສະຫນອງການບໍລິການ open source lakehouse ທີ່ມີການຄຸ້ມຄອງຢ່າງເຕັມທີ່ໃນອັດຕາຕ່ໍາແລະມີການຄຸ້ມຄອງຫນ້ອຍ, ຊ່ວຍໃຫ້ທ່ານສາມາດຄາດຄະເນຄ່າໃຊ້ຈ່າຍໃນການດໍາເນີນງານຕ່ໍາ, ຂະຫນາດແລະຄວາມປອດໄພທີ່ດີກວ່າ, ແລະຄວາມສາມາດໃນການລວມຂໍ້ມູນທີ່ມີຢູ່ທັງຫມົດຂອງທ່ານຢູ່ໃນສະຖານທີ່ດຽວ.
A lakehouse ຂໍ້ມູນຈະເພີ່ມມູນຄ່າຂອງສາງຂໍ້ມູນແລະ marts, ຊຶ່ງເປັນສິ່ງຈໍາເປັນສໍາລັບວິສາຫະກິດສົບຜົນສໍາເລັດ.
ຂໍ້ມູນສາມາດດຶງຂໍ້ມູນໄດ້ໂດຍໃຊ້ lakehouse ຈາກຫຼາຍສະຖານທີ່ໂດຍມີພຽງແຕ່ຫນຶ່ງ SQL query.
ໂປຣແກຣມ ແລະເຄື່ອງມືທີ່ມີຢູ່ນັ້ນໄດ້ຮັບການເຂົ້າເຖິງຂໍ້ມູນທັງໝົດຢ່າງໂປ່ງໃສ ໂດຍບໍ່ຕ້ອງມີການປັບປ່ຽນ ຫຼືໄດ້ຮັບທັກສະໃໝ່.
ສະຫຼຸບ
ການແນະນໍາການແກ້ໄຂຂໍ້ມູນ lakehouse ແມ່ນການສະທ້ອນເຖິງແນວໂນ້ມຂະຫນາດໃຫຍ່ໃນຂໍ້ມູນໃຫຍ່, ເຊິ່ງແມ່ນການລວມເອົາການວິເຄາະແລະການເກັບຮັກສາຂໍ້ມູນໃນເວທີຂໍ້ມູນທີ່ເປັນເອກະພາບເພື່ອເພີ່ມມູນຄ່າທຸລະກິດຈາກຂໍ້ມູນໃນຂະນະທີ່ຫຼຸດລົງເວລາ, ຄ່າໃຊ້ຈ່າຍແລະຄວາມຊັບຊ້ອນຂອງການຂຸດຄົ້ນມູນຄ່າ.
ແພລະຕະຟອມລວມທັງ Databricks, Snowflake, Ahana, Dremio, ແລະ Oracle ທັງຫມົດໄດ້ຖືກເຊື່ອມໂຍງກັບແນວຄວາມຄິດຂອງ "ຂໍ້ມູນທະເລສາບ", ແຕ່ພວກເຂົາແຕ່ລະຄົນມີລັກສະນະພິເສດແລະແນວໂນ້ມທີ່ຈະເຮັດວຽກຄືກັບຄັງຂໍ້ມູນຫຼາຍກ່ວາຂໍ້ມູນທີ່ແທ້ຈິງ. ໂດຍລວມ.
ເມື່ອການແກ້ໄຂຖືກວາງຂາຍເປັນ "ບ່ອນເກັບຂໍ້ມູນ", ທຸລະກິດຄວນລະວັງວ່າມັນຫມາຍຄວາມວ່າແນວໃດ.
ວິສາຫະກິດຕ້ອງເບິ່ງນອກເໜືອໄປຈາກຄຳສັບດ້ານການຕະຫຼາດເຊັ່ນ "data lakehouse" ແລະແທນທີ່ຈະເບິ່ງລັກສະນະຕ່າງໆຂອງແຕ່ລະແພລດຟອມເພື່ອເລືອກແພລະຕະຟອມຂໍ້ມູນທີ່ດີທີ່ສຸດທີ່ຈະຂະຫຍາຍໄປກັບທຸລະກິດຂອງພວກເຂົາໃນອະນາຄົດ.
ອອກຈາກ Reply ເປັນ