Mengapa Backhaul Data Berkelanjutan ke Cloud Membutuhkan Biaya Lebih Dari yang Anda Pikirkan
Dalam industri yang semakin didorong oleh pengambilan keputusan secara real-time, seperti manufaktur, transportasi, telekomunikasi, keselamatan publik, dan banyak lagi, data tidak lagi dibuat secara berkala. Itu datang secara terus menerus dan dalam skala besar dari sensor, mesin, aset seluler, dan aplikasi digital. Meskipun memusatkan data tersebut di cloud atau pusat data untuk analisis dulunya tampak efisien, volume, kecepatan, dan pentingnya aliran data saat ini telah memperlihatkan keterbatasan serius pada pendekatan tradisional yang mengutamakan backhaul.
Selama bertahun-tahun, organisasi yang secara rutin menangani aliran data tersebut dan ingin menggunakan data tersebut untuk mendapatkan wawasan real-time telah memindahkan analisis data tersebut ke edge, tempat data tersebut dibuat. Seiring dengan meningkatnya volume data dan laju pembuatan data, banyak organisasi yang memberikan sistem edge mereka dengan kecerdasan canggih untuk bertindak secara adaptif berdasarkan wawasan real-time dan hampir real-time yang diperoleh dari analisis mereka.
Lihat juga: Melampaui Latensi:Fase Selanjutnya dari Adaptive Edge Intelligence
Keterbatasan Data Backhaul
Backhaul data ke fasilitas terpusat telah mempunyai penerapan praktis selama beberapa dekade ketika volume data dan kecepatan pembuatan data masih terbatas. Data akan disimpan dan dianalisis untuk tindakan segera atau untuk memahami tren historis.
Model tersebut tidak lagi berfungsi di industri yang memiliki data streaming berkelanjutan dalam jumlah besar. Beberapa industri yang terkena dampak antara lain:
- Organisasi jasa keuangan mencoba bertindak berdasarkan aliran data transaksional yang tiada habisnya.
- Perusahaan manufaktur mencoba memahami IoT dan data sensor lainnya dari peralatan di lini produksi.
- Retailer online mencoba memanfaatkan momen dan menyajikan item yang relevan kepada pelanggan di situs mereka.
- Kendaraan otonom mencoba menafsirkan streaming video untuk menghindari rintangan jalan dan mematuhi peraturan lalu lintas.
Dalam kasus ini, dan kasus lainnya, salah satu tantangan paling mendesak terkait backhaul data adalah kemacetan jaringan . Sumber data frekuensi tinggi seperti sensor IoT, umpan video HD, sistem otonom, atau mesin industri dapat menghasilkan data berukuran gigabyte atau bahkan terabyte per jam. Mencoba menyalurkannya ke lokasi pusat akan membebani bandwidth yang tersedia, sehingga meningkatkan biaya dan menurunkan kinerja jaringan secara keseluruhan. Peningkatan bandwidth memang membantu, namun skalanya buruk sehingga menyebabkan biaya lebih tinggi.
Lalu ada latensi , yang merupakan silent killer dari responsivitas real-time. Ketika data mentah harus menempuh jarak yang jauh untuk diproses, penundaan bolak-balik dapat membuat wawasan menjadi tidak berguna pada saat sistem analisis mengambil tindakan terhadap data tersebut. Dalam skenario yang kritis terhadap keselamatan atau sensitif terhadap waktu, seperti deteksi kesalahan pada utilitas, kontrol kualitas di jalur produksi, atau pemeliharaan prediktif armada transportasi, milidetik sangatlah penting. Arsitektur pemrosesan terpusat tidak dapat menjamin performa deterministik.
Masalah lain yang sering diabaikan adalah inefisiensi biaya . Penyimpanan cloud, biaya transfer data, dan sumber daya komputasi menjadi mahal ketika kumpulan data besar dipindahkan secara terus-menerus. Banyak organisasi menyadari bahwa mereka membayar untuk menyimpan dan menganalisis data yang berlebihan, bernilai rendah, atau tidak relevan. Faktanya, penelitian secara rutin menunjukkan bahwa sebagian besar data sensor mentah tidak pernah digunakan, namun masih memerlukan biaya transportasi dan penyimpanan penuh saat di-backhaul.
Risiko keamanan dan privasi juga tumbuh seiring dengan peningkatan volume data. Memindahkan data tanpa filter ke seluruh jaringan area luas akan memperluas permukaan serangan dan memerlukan enkripsi, pemantauan, dan kontrol kepatuhan yang ketat. Data sensitif, seperti informasi lokasi, telemetri operasional, atau pola penggunaan pelanggan, dapat membawa implikasi peraturan ketika dipindahkan melintasi wilayah atau batas cloud. Bagi beberapa industri, hal ini saja membuat backhaul terpusat menjadi tidak praktis.
Terakhir, arsitektur terpusat membatasi ketahanan . Jika konektivitas hilang atau kinerja menurun, sistem yang bergantung pada cloud untuk analisis mungkin gagal mengambil keputusan tepat waktu. Hal ini tidak dapat diterima di lingkungan edge seperti operasi penambangan jarak jauh, platform energi lepas pantai, jaringan pintar, atau sistem transportasi yang tidak dapat menghentikan operasi hingga jaringan pulih.
Melihat Lebih Dekat Masalah Backhaul Data
Singkatnya, seiring berkembangnya sistem real-time, analisis dan pengambilan keputusan harus semakin dekat dengan sumber peristiwa, mempertahankan status, mengeksekusi dengan latensi minimal, dan konsistensi penuh.
Blog Volt Active Data baru-baru ini memaparkan masalah backhauling data ke dalam perspektif dan membahas bagaimana sistem kecerdasan edge adaptif menghilangkan masalah tersebut.
Blog tersebut mencatat bahwa meskipun pemrosesan data terpusat menawarkan kemudahan pengelolaan, hal ini menimbulkan biaya tersembunyi yang besar. Hal ini mencakup biaya bandwidth dan penyimpanan yang tinggi akibat pengangkutan dan penyimpanan kumpulan data berukuran besar, peningkatan konsumsi energi dan jejak karbon terkait, tantangan latensi dan keandalan jaringan (terutama untuk aplikasi real-time), serta risiko kegagalan tunggal yang lebih besar ketika semua pemrosesan bergantung pada infrastruktur terpusat.
Untuk mengatasi permasalahan ini, banyak organisasi yang beralih ke tingkat intelijen:memproses dan memfilter data lebih dekat ke sumbernya sehingga hanya informasi bermakna dan lebih sedikit yang dikirim ke hulu. Model edge-native seperti ini menurunkan biaya transmisi dan penyimpanan, mengurangi latensi secara signifikan, meningkatkan ketahanan operasional, dan memungkinkan arsitektur yang lebih ramah lingkungan dan berkelanjutan.
Kata Terakhir
Ketika organisasi mengadopsi lebih banyak otomatisasi, AI, dan operasi otonom, model pengiriman segala sesuatu ke pusat data menjadi semakin tidak berkelanjutan. Masa depan terletak pada arsitektur hybrid dan edge-native di mana data diproses secara lokal, dikurangi atau diperkaya pada sumbernya, dan hanya keluaran atau agregat bernilai tinggi yang dikirim ke hulu.