Manufaktur industri
Industri Internet of Things | bahan industri | Pemeliharaan dan Perbaikan Peralatan | Pemrograman industri |
home  MfgRobots >> Manufaktur industri >  >> Industrial Internet of Things >> Komputasi awan

Mengapa Backhaul Data Berkelanjutan ke Cloud Membutuhkan Biaya Lebih Dari yang Anda Pikirkan

Dalam industri yang semakin didorong oleh pengambilan keputusan secara real-time, seperti manufaktur, transportasi, telekomunikasi, keselamatan publik, dan banyak lagi, data tidak lagi dibuat secara berkala. Itu datang secara terus menerus dan dalam skala besar dari sensor, mesin, aset seluler, dan aplikasi digital. Meskipun memusatkan data tersebut di cloud atau pusat data untuk analisis dulunya tampak efisien, volume, kecepatan, dan pentingnya aliran data saat ini telah memperlihatkan keterbatasan serius pada pendekatan tradisional yang mengutamakan backhaul.

Selama bertahun-tahun, organisasi yang secara rutin menangani aliran data tersebut dan ingin menggunakan data tersebut untuk mendapatkan wawasan real-time telah memindahkan analisis data tersebut ke edge, tempat data tersebut dibuat. Seiring dengan meningkatnya volume data dan laju pembuatan data, banyak organisasi yang memberikan sistem edge mereka dengan kecerdasan canggih untuk bertindak secara adaptif berdasarkan wawasan real-time dan hampir real-time yang diperoleh dari analisis mereka.

Lihat juga: Melampaui Latensi:Fase Selanjutnya dari Adaptive Edge Intelligence

Keterbatasan Data Backhaul

Backhaul data ke fasilitas terpusat telah mempunyai penerapan praktis selama beberapa dekade ketika volume data dan kecepatan pembuatan data masih terbatas. Data akan disimpan dan dianalisis untuk tindakan segera atau untuk memahami tren historis.

Model tersebut tidak lagi berfungsi di industri yang memiliki data streaming berkelanjutan dalam jumlah besar. Beberapa industri yang terkena dampak antara lain:

Dalam kasus ini, dan kasus lainnya, salah satu tantangan paling mendesak terkait backhaul data adalah kemacetan jaringan . Sumber data frekuensi tinggi seperti sensor IoT, umpan video HD, sistem otonom, atau mesin industri dapat menghasilkan data berukuran gigabyte atau bahkan terabyte per jam. Mencoba menyalurkannya ke lokasi pusat akan membebani bandwidth yang tersedia, sehingga meningkatkan biaya dan menurunkan kinerja jaringan secara keseluruhan. Peningkatan bandwidth memang membantu, namun skalanya buruk sehingga menyebabkan biaya lebih tinggi.

Lalu ada latensi , yang merupakan silent killer dari responsivitas real-time. Ketika data mentah harus menempuh jarak yang jauh untuk diproses, penundaan bolak-balik dapat membuat wawasan menjadi tidak berguna pada saat sistem analisis mengambil tindakan terhadap data tersebut. Dalam skenario yang kritis terhadap keselamatan atau sensitif terhadap waktu, seperti deteksi kesalahan pada utilitas, kontrol kualitas di jalur produksi, atau pemeliharaan prediktif armada transportasi, milidetik sangatlah penting. Arsitektur pemrosesan terpusat tidak dapat menjamin performa deterministik.

Masalah lain yang sering diabaikan adalah inefisiensi biaya . Penyimpanan cloud, biaya transfer data, dan sumber daya komputasi menjadi mahal ketika kumpulan data besar dipindahkan secara terus-menerus. Banyak organisasi menyadari bahwa mereka membayar untuk menyimpan dan menganalisis data yang berlebihan, bernilai rendah, atau tidak relevan. Faktanya, penelitian secara rutin menunjukkan bahwa sebagian besar data sensor mentah tidak pernah digunakan, namun masih memerlukan biaya transportasi dan penyimpanan penuh saat di-backhaul.

Risiko keamanan dan privasi juga tumbuh seiring dengan peningkatan volume data. Memindahkan data tanpa filter ke seluruh jaringan area luas akan memperluas permukaan serangan dan memerlukan enkripsi, pemantauan, dan kontrol kepatuhan yang ketat. Data sensitif, seperti informasi lokasi, telemetri operasional, atau pola penggunaan pelanggan, dapat membawa implikasi peraturan ketika dipindahkan melintasi wilayah atau batas cloud. Bagi beberapa industri, hal ini saja membuat backhaul terpusat menjadi tidak praktis.

Terakhir, arsitektur terpusat membatasi ketahanan . Jika konektivitas hilang atau kinerja menurun, sistem yang bergantung pada cloud untuk analisis mungkin gagal mengambil keputusan tepat waktu. Hal ini tidak dapat diterima di lingkungan edge seperti operasi penambangan jarak jauh, platform energi lepas pantai, jaringan pintar, atau sistem transportasi yang tidak dapat menghentikan operasi hingga jaringan pulih.

Melihat Lebih Dekat Masalah Backhaul Data

Singkatnya, seiring berkembangnya sistem real-time, analisis dan pengambilan keputusan harus semakin dekat dengan sumber peristiwa, mempertahankan status, mengeksekusi dengan latensi minimal, dan konsistensi penuh.

Blog Volt Active Data baru-baru ini memaparkan masalah backhauling data ke dalam perspektif dan membahas bagaimana sistem kecerdasan edge adaptif menghilangkan masalah tersebut.

Blog tersebut mencatat bahwa meskipun pemrosesan data terpusat menawarkan kemudahan pengelolaan, hal ini menimbulkan biaya tersembunyi yang besar. Hal ini mencakup biaya bandwidth dan penyimpanan yang tinggi akibat pengangkutan dan penyimpanan kumpulan data berukuran besar, peningkatan konsumsi energi dan jejak karbon terkait, tantangan latensi dan keandalan jaringan (terutama untuk aplikasi real-time), serta risiko kegagalan tunggal yang lebih besar ketika semua pemrosesan bergantung pada infrastruktur terpusat.

Untuk mengatasi permasalahan ini, banyak organisasi yang beralih ke tingkat intelijen:memproses dan memfilter data lebih dekat ke sumbernya sehingga hanya informasi bermakna dan lebih sedikit yang dikirim ke hulu. Model edge-native seperti ini menurunkan biaya transmisi dan penyimpanan, mengurangi latensi secara signifikan, meningkatkan ketahanan operasional, dan memungkinkan arsitektur yang lebih ramah lingkungan dan berkelanjutan.

Kata Terakhir

Ketika organisasi mengadopsi lebih banyak otomatisasi, AI, dan operasi otonom, model pengiriman segala sesuatu ke pusat data menjadi semakin tidak berkelanjutan. Masa depan terletak pada arsitektur hybrid dan edge-native di mana data diproses secara lokal, dikurangi atau diperkaya pada sumbernya, dan hanya keluaran atau agregat bernilai tinggi yang dikirim ke hulu.


Komputasi awan

  1. Apa itu Sertifikasi AWS Sysops :Biaya, Prasyarat, Tinjauan
  2. Jadikan Implementasi ServiceNow Anda Bekerja Tanpa Masalah
  3. Jaringan berbasis niat vs. SD-WAN:Apa perbedaannya, dan mengapa itu penting
  4. Wawasan Pasar Analisis Real-Time:Minggu yang Berakhir 28 Februari – Sorotan &Tren AI
  5. Apa itu Pulumi? Pengantar Infrastruktur sebagai Kode
  6. Panduan Arsitektur Komputasi Awan
  7. Dasar-Dasar Azure SDK:Pelajari Semuanya
  8. Kelebihan dan Kerugian Awan Publik
  9. 5 Situs Web Blog Komputasi Awan Teratas untuk Diikuti
  10. Pengembangan API-Pertama:Landasan eCommerce yang Tangkas dan Tangguh