×
Kanal
    • partner tek.id realme
    • partner tek.id samsung
    • partner tek.id acer
    • partner tek.id wd
    • partner tek.id wd
    • partner tek.id wd
    • partner tek.id wd

Akamai luncurkan Cloud Inference untuk performa AI lebih cepat

Oleh: Erlan - Senin, 30 Juni 2025 08:08

Akamai memperkenalkan Akamai Cloud Inference, layanan inferensi AI terdistribusi yang memaksimalkan kecepatan dan efisiensi beban kerja AI di edge.

Akamai luncurkan Cloud Inference untuk performa AI mutakhir Ilustrasi AI

Akamai memperkenalkan Akamai Cloud Inference, layanan inferensi AI terdistribusi yang memaksimalkan kecepatan dan efisiensi beban kerja AI di edge. Dibangun di atas kekuatan platform Akamai Cloud dengan lebih dari 4.200 titik kehadiran di 130+ negara, solusi ini menawarkan throughput hingga 3× lebih tinggi, latensi 60% lebih rendah, dan penghematan biaya hingga 86% dibanding infrastruktur hyperscale tradisional.

Mempercepat Inferensi AI di Edge
Inferensi—proses menjalankan model AI terlatih untuk menghasilkan prediksi—didorong sedekat mungkin ke pengguna akhir menggunakan komputasi edge. Menurut Adam Karon, COO Cloud Technology Group Akamai, “Meskipun pelatihan LLM tetap berada di data center hyperscale, inferensi yang dapat ditindaklanjuti harus berlangsung di edge untuk menghadapi tantangan latensi dan ketersediaan data.” Dengan arsitektur terdistribusi, Akamai Cloud Inference menempatkan sumber daya compute persis di titik pembuatan data, memastikan respon real-time dan skalabilitas global.

Komponen Utama Akamai Cloud Inference

1. Komputasi Serbaguna
• CPU klasik untuk inferensi standar
• GPU dan VPU ASIC terintegrasi Nvidia (Triton, TensorRT) untuk beban kerja berat

2. Manajemen Data Canggih
• Fabrik data terpadu hasil kolaborasi dengan VAST Data
• Penyimpanan objek terukur dan integrasi database vektor (Aiven, Milvus) untuk RAG

3. Kontainerisasi & Orkestrasi
• Linode Kubernetes Engine–Enterprise dan Akamai App Platform
• Dukungan KServe, Kubeflow, dan SpinKube untuk deployment otomatis

4. Komputasi Edge dengan WASM
• Kemampuan WebAssembly bersama mitra seperti Fermyon
• Jalankan inferensi LLM langsung di aplikasi tanpa server

Manfaat Bisnis dan Kasus Penggunaan
Perusahaan dapat mengimplementasikan asisten suara mobil, optimisasi gambar e-commerce, generator deskripsi produk otomatis, hingga analisis sentimen pelanggan—semua dengan latensi rendah dan biaya optimal. Rasio peningkatan throughput 3× dan pengurangan latensi 2,5× menjadikannya platform ideal untuk kecerdasan operasional yang menuntut respons instan.

Mendorong Fokus pada AI Praktis
Seiring banyak bisnis menimbang ulang hype LLM, inferensi AI menjadi landasan adopsi solusi khusus industri. Layanan Akamai memudahkan perusahaan memindahkan beban kerja dari pusat data tradisional ke infrastruktur terdistribusi, mengoptimalkan ROI, dan menghadirkan pengalaman personalisasi real-time.

Dengan Akamai Cloud Inference, perusahaan kini siap memasuki “frontier berikutnya” AI—menggunakan pengetahuan model secara langsung untuk mengambil keputusan cerdas dan responsif, di mana pun data dan pengguna berada.

Tag

Tagar Terkait

×
back to top