Program ini dirancang khusus untuk peserta yang ingin menguasai alat ETL dan analitik data populer seperti Pentaho Data Integration (PDI) sebagai bagian dari pemenuhan kompetensi Big Data Scientist berbasis SKKNI. Pelatihan ini juga sekaligus mempersiapkan peserta untuk mendapatkan sertifikasi resmi BNSP. Kegiatan ini dilakukan secara offline, biaya hanya Rp7.500.000 sudah termasuk penginapan dan makan, dengan minimal 8 peserta.
Pendahuluan
Dalam dunia big data, kemampuan untuk mengintegrasikan data dari berbagai sumber dan membentuk data warehouse yang efisien sangat dibutuhkan. Salah satu tools yang banyak digunakan untuk keperluan ini adalah Pentaho – sebuah platform open-source yang menyediakan fitur lengkap untuk ETL (Extract, Transform, Load), reporting, dan analitik data.
Pelatihan ini mengajarkan bagaimana menggunakan Pentaho Data Integration (Kettle) untuk membangun pipeline data dan mengimplementasikan proyek data warehouse secara end-to-end. Selain itu, peserta akan dibekali dengan pemahaman menyeluruh terhadap manajemen, arsitektur, dan kualitas data sesuai unit-unit dalam skema sertifikasi BNSP.
Unit Kompetensi
-
J.62DMS00.002.1 – Merencanakan Manajemen Data
-
J.62DMS00.003.1 – Merencanakan Arsitektur Data
-
J.62DMS00.004.1 – Merencanakan Integrasi Data
-
J.62DMS00.005.1 – Merencanakan Media Penyimpanan Data
-
J.62DMS00.007.1 – Merancangbangun Big Data
-
J.62DMS00.008.1 – Mengelola Reference and Master Data
-
J.62DMS00.009.1 – Mengelola Metadata
-
J.62DMS00.012.1 – Mengelola Kualitas Data
-
J.62DMS00.014.1 – Membuat Data Warehouse
-
J.62DMS00.001.1 – Memahami Kebutuhan Bisnis Akan Data
Studi Kasus
Kasus: Integrasi Data Penjualan dari Tiga Cabang Toko
Perusahaan ingin menggabungkan data transaksi dari 3 cabang toko yang masing-masing memiliki sistem POS berbeda. Tantangannya adalah membuat integrasi data dan membangun data warehouse agar manajemen bisa menganalisis performa penjualan harian, mingguan, dan bulanan.
Penyelesaian dengan Pentaho PDI:
-
Menggunakan Table Input untuk membaca data dari masing-masing cabang (MySQL, PostgreSQL, dan Excel).
-
Menggunakan transformasi Merge Join, Filter Rows, dan Lookup untuk menyatukan dan membersihkan data.
-
Menyimpan hasil akhir ke dalam database warehouse menggunakan Table Output.
-
Menambahkan proses otomatisasi dengan Job di Pentaho agar pipeline berjalan setiap malam secara terjadwal.
Silabus Pelatihan 2 Hari + 1 Hari Uji Kompetensi
Hari | Waktu | Materi / Aktivitas |
---|---|---|
1 | 08.30 – 12.00 | Pengantar Big Data, SKKNI Big Data Scientist, manajemen dan arsitektur data |
13.00 – 16.00 | Praktik perencanaan integrasi dan media penyimpanan data menggunakan tools ETL | |
2 | 08.30 – 12.00 | Penggunaan Pentaho untuk pembuatan data warehouse dan pengelolaan kualitas data |
13.00 – 16.00 | Simulasi studi kasus end-to-end: integrasi dan warehouse menggunakan Pentaho | |
3 | 08.30 – 12.00 | Uji kompetensi praktik (per peserta) dan wawancara |
13.00 – 15.00 | Uji tulis dan finalisasi penilaian asesmen |
Rincian Unit Kompetensi / Uraian Tugas
-
Perencanaan & Manajemen Data: Menyusun strategi dan kebijakan pengelolaan data.
-
Arsitektur Data: Merancang struktur data dan integrasi antar sistem.
-
Media Penyimpanan: Memilih dan mengelola media penyimpanan data besar (on-premise/cloud).
-
Big Data & Metadata: Mengimplementasikan sistem Big Data dan manajemen metadata.
-
Quality Control & Data Warehouse: Menjaga kualitas data dan membangun warehouse menggunakan tools seperti Pentaho.
Kesimpulan
Pelatihan Pentaho untuk Sertifikasi BNSP Big Data Scientist adalah solusi ideal bagi Anda yang ingin menjadi praktisi data berkompetensi tinggi. Peserta akan mendapatkan pemahaman teoretis dan keterampilan praktis membangun sistem big data dan data warehouse berbasis Pentaho, serta siap mengikuti sertifikasi resmi BNSP sesuai SKKNI.
💼 Biaya pelatihan & sertifikasi: Rp7.500.000 (sudah termasuk penginapan & makan)
👥 Minimal peserta: 8 orang
📍 Pelaksanaan: Offline
🔗 Lihat info lengkap dan daftar sekarang:
https://mobilefaculty.com/skema-sertifikasi-bidang-komputer