Akamai luncurkan Cloud Inference untuk performa AI lebih cepat
Akamai memperkenalkan Akamai Cloud Inference, layanan inferensi AI terdistribusi yang memaksimalkan kecepatan dan efisiensi beban kerja AI di edge.
Ilustrasi AI
Akamai memperkenalkan Akamai Cloud Inference, layanan inferensi AI terdistribusi yang memaksimalkan kecepatan dan efisiensi beban kerja AI di edge. Dibangun di atas kekuatan platform Akamai Cloud dengan lebih dari 4.200 titik kehadiran di 130+ negara, solusi ini menawarkan throughput hingga 3× lebih tinggi, latensi 60% lebih rendah, dan penghematan biaya hingga 86% dibanding infrastruktur hyperscale tradisional.
Mempercepat Inferensi AI di Edge
Inferensi—proses menjalankan model AI terlatih untuk menghasilkan prediksi—didorong sedekat mungkin ke pengguna akhir menggunakan komputasi edge. Menurut Adam Karon, COO Cloud Technology Group Akamai, “Meskipun pelatihan LLM tetap berada di data center hyperscale, inferensi yang dapat ditindaklanjuti harus berlangsung di edge untuk menghadapi tantangan latensi dan ketersediaan data.” Dengan arsitektur terdistribusi, Akamai Cloud Inference menempatkan sumber daya compute persis di titik pembuatan data, memastikan respon real-time dan skalabilitas global.
Komponen Utama Akamai Cloud Inference
1. Komputasi Serbaguna
• CPU klasik untuk inferensi standar
• GPU dan VPU ASIC terintegrasi Nvidia (Triton, TensorRT) untuk beban kerja berat
- Red Hat Perkuat Inferensi AI di AWS, Dorong Kinerja Tinggi dan Efisiensi Biaya AI Generatif
- Google dan OpenAI Luncurkan Pembaruan Model AI dalam Waktu Berdekatan, Sinyal Perang AI Makin Intens
- Prediksi Tren AI Analog Devices: Makin Terasa Nyata dengan Physical AI dan Desentralisasi di Perangkat Humanoid
- Lonjakan Agentic AI Picu Peningkatan Risiko Siber: F5 Peringatkan Kesenjangan Keamanan API di Asia Pasifik
2. Manajemen Data Canggih
• Fabrik data terpadu hasil kolaborasi dengan VAST Data
• Penyimpanan objek terukur dan integrasi database vektor (Aiven, Milvus) untuk RAG
3. Kontainerisasi & Orkestrasi
• Linode Kubernetes Engine–Enterprise dan Akamai App Platform
• Dukungan KServe, Kubeflow, dan SpinKube untuk deployment otomatis
4. Komputasi Edge dengan WASM
• Kemampuan WebAssembly bersama mitra seperti Fermyon
• Jalankan inferensi LLM langsung di aplikasi tanpa server
Manfaat Bisnis dan Kasus Penggunaan
Perusahaan dapat mengimplementasikan asisten suara mobil, optimisasi gambar e-commerce, generator deskripsi produk otomatis, hingga analisis sentimen pelanggan—semua dengan latensi rendah dan biaya optimal. Rasio peningkatan throughput 3× dan pengurangan latensi 2,5× menjadikannya platform ideal untuk kecerdasan operasional yang menuntut respons instan.
Mendorong Fokus pada AI Praktis
Seiring banyak bisnis menimbang ulang hype LLM, inferensi AI menjadi landasan adopsi solusi khusus industri. Layanan Akamai memudahkan perusahaan memindahkan beban kerja dari pusat data tradisional ke infrastruktur terdistribusi, mengoptimalkan ROI, dan menghadirkan pengalaman personalisasi real-time.
Dengan Akamai Cloud Inference, perusahaan kini siap memasuki “frontier berikutnya” AI—menggunakan pengetahuan model secara langsung untuk mengambil keputusan cerdas dan responsif, di mana pun data dan pengguna berada.









