Akamai luncurkan Cloud Inference untuk performa AI lebih cepat
Akamai memperkenalkan Akamai Cloud Inference, layanan inferensi AI terdistribusi yang memaksimalkan kecepatan dan efisiensi beban kerja AI di edge.

Akamai memperkenalkan Akamai Cloud Inference, layanan inferensi AI terdistribusi yang memaksimalkan kecepatan dan efisiensi beban kerja AI di edge. Dibangun di atas kekuatan platform Akamai Cloud dengan lebih dari 4.200 titik kehadiran di 130+ negara, solusi ini menawarkan throughput hingga 3× lebih tinggi, latensi 60% lebih rendah, dan penghematan biaya hingga 86% dibanding infrastruktur hyperscale tradisional.
Mempercepat Inferensi AI di Edge
Inferensi—proses menjalankan model AI terlatih untuk menghasilkan prediksi—didorong sedekat mungkin ke pengguna akhir menggunakan komputasi edge. Menurut Adam Karon, COO Cloud Technology Group Akamai, “Meskipun pelatihan LLM tetap berada di data center hyperscale, inferensi yang dapat ditindaklanjuti harus berlangsung di edge untuk menghadapi tantangan latensi dan ketersediaan data.” Dengan arsitektur terdistribusi, Akamai Cloud Inference menempatkan sumber daya compute persis di titik pembuatan data, memastikan respon real-time dan skalabilitas global.
Komponen Utama Akamai Cloud Inference
1. Komputasi Serbaguna
• CPU klasik untuk inferensi standar
• GPU dan VPU ASIC terintegrasi Nvidia (Triton, TensorRT) untuk beban kerja berat
- MediaTek perkenalkan inovasi AI terbaru di Indonesia, perkuat dominasi teknologi cerdas
- Samsung Galaxy Tech Forum 2025 bahas Ambient Intelligence dan kesehatan digital
- Claude AI terintegrasi dengan Canvas, Panopto & Wiley untuk revolusi pendidikan digital
- Apple siapkan asisten AI canggih untuk aplikasi Support
2. Manajemen Data Canggih
• Fabrik data terpadu hasil kolaborasi dengan VAST Data
• Penyimpanan objek terukur dan integrasi database vektor (Aiven, Milvus) untuk RAG
3. Kontainerisasi & Orkestrasi
• Linode Kubernetes Engine–Enterprise dan Akamai App Platform
• Dukungan KServe, Kubeflow, dan SpinKube untuk deployment otomatis
4. Komputasi Edge dengan WASM
• Kemampuan WebAssembly bersama mitra seperti Fermyon
• Jalankan inferensi LLM langsung di aplikasi tanpa server
Manfaat Bisnis dan Kasus Penggunaan
Perusahaan dapat mengimplementasikan asisten suara mobil, optimisasi gambar e-commerce, generator deskripsi produk otomatis, hingga analisis sentimen pelanggan—semua dengan latensi rendah dan biaya optimal. Rasio peningkatan throughput 3× dan pengurangan latensi 2,5× menjadikannya platform ideal untuk kecerdasan operasional yang menuntut respons instan.
Mendorong Fokus pada AI Praktis
Seiring banyak bisnis menimbang ulang hype LLM, inferensi AI menjadi landasan adopsi solusi khusus industri. Layanan Akamai memudahkan perusahaan memindahkan beban kerja dari pusat data tradisional ke infrastruktur terdistribusi, mengoptimalkan ROI, dan menghadirkan pengalaman personalisasi real-time.
Dengan Akamai Cloud Inference, perusahaan kini siap memasuki “frontier berikutnya” AI—menggunakan pengetahuan model secara langsung untuk mengambil keputusan cerdas dan responsif, di mana pun data dan pengguna berada.