tentang blueprint optimisasi data warehouse pada bigdata dengan menggunakan Pentaho
Optimisasi Data Warehouse. Saat ini lagi ngetrend istilah mengenai data warehouse. Namun untuk kali ini kita tidak membahas mengenai sitilah data warehouse tersebut. Yang akan kita coba bahas kali ini adalah tentang blueprint optimisasi data warehouse pada bigdata dengan menggunakan Pentaho sebagai tertera di halaman web pentaho yang dapat anda akses di web pentaho.
Mengurangi kekakuan pada data warehouse ketika offloading kurang sering digunakan data dan sesuai beban kerja transformasi untuk Hadoop tanpa coding atau mengandalkan script warisan dan dengan segala keterbatasan produk ETL.
Bentuk Makhluk Seperti Apa ini ?
Hadoop DIBUAT SEDERHANA, DAPAT DIAKSES DAN LEBIH CEPAT 15X
Pentaho menyederhanakan offloading atau beban kerja untuk Hadoop dan mempercepat pengembangan dan penyebaran sebanyak 15x lebih cepat dibandingkan dengan pendekatan manual coding dengan tangan. Alat integrasi lengkap secara visual yang menghilangkan kebutuhan untuk coding tangan di SQL atau pekerjaan MapReduce berbasis java.
MENGHEMAT BIAYA DATA DAN MENINGKATKAN ANALYTICS PERFORMANCE
- Sebuah grafis intuitif, tidak ada-coding integrasi big data.
- Akses ke setiap sumber data - dari operasional untuk relasional untuk teknologi NoSQL.
- Dukungan untuk setiap distribusi major Hadoop dengan adaptif lapisan big data masa depan.
- Mencapai kinerja pengolahan yang lebih tinggi dengan Pentaho MapReduce ketika berjalan pada cluster.
100% Java, cepat dan efisien.
Sebagai bagian dari Analytics platform Pentaho Bisnis, tidak ada cara yang lebih cepat atau lebih hemat biaya untuk segera mendapatkan nilai dari data melalui pelaporan terintegrasi, dashboard, data discovery dan predictive analytic.
Bagaimana cara kerja Pentaho dan Hadoop ?
CONTOH BAGAIMANA HAL INI TERJADI DAPAT DILIHAT DALAM SEBUAH LANDSCAPE BERIKUT:
Perusahaan ini memanfaatkan data dari sumber yang berbeda termasuk CRM dan ERP sistem.
Sebuah cluster Hadoop telah diimplementasikan untuk memprocess lebih sering menggunakan data dari data warehouse yang ada.
Perusahaan menghemat biaya penyimpanan dan meningkatkan kecepatan kinerja query dan akses ke analytic data mart mereka.
HASIL
Penghematan staf dan produktivitas: Pentaho Visual MapReduce GUI dan integrasi bigdata ini berarti ada pengembang data warehouse dapat memindahkan data antara data warehouse dan Hadoop tanpa coding.
Waktu untuk nilai: waktu pengembangan MapReduce berkurang hingga 15x dibandingkan coding manual berdasarkan perbandingan.
Pelaksanaan pekerjaan lebih cepat: Pentaho MapReduce berjalan lebih cepat dalam cluster vs kode menghasilkan alat scripting.
ROI pelanggan
PERUSAHAAN TERKEMUKA GLOBAL NETWORK STORAGE
TUJUAN BIG DATA:
- Scaling mesin pengelolaan data untuk meningkatkan kinerja produk dan keberhasilan pelanggan.
- Terjangkau skala Data mesin dari perangkat penyimpanan untuk aplikasi pelanggan
- Memprediksi kegagalan perangkat
- Meningkatkan kinerja produk
ARSITEKTUR CONTOH:
MANFAAT Pentaho:
- Mudah digunakan ETL dan analisis untuk sumber data Hadoop, Hbase, dan Oracle
- 15x perbaikan data dan biaya
- Kinerja kuat terhadap SLA pelanggan (Service Level AgreementsS)
Demikian informasi mengenai Optimisasi Data Warehoue Menggunakan Pentaho. Semoga dengan kita membaca artikel Optimisasi Data Warehoue Menggunakan Pentaho, dapat menambah wawasan kita dalam dunia business intelligence dan data analytic. Blog BI Analyst tidak bertanggung jawab atas segala akibat yang mungkin timbul dari penggunaan informasi ini.