×
Kanal
    • partner tek.id realme
    • partner tek.id samsung
    • partner tek.id acer
    • partner tek.id wd
    • partner tek.id wd
    • partner tek.id wd
    • partner tek.id wd

Kaspersky Ungkap Strategi Aman Mengelola Agen AI di Organisasi

Oleh: Tek ID - Minggu, 01 Februari 2026 17:10

Kaspersky membagikan strategi mengelola agen AI secara aman, mulai dari pembatasan akses hingga pengawasan ketat dan pelatihan pengguna.

Kaspersky Ungkap Strategi Aman Mengelola Agen AI Ilustrasi AI Agen. dok. Kaspersky

Pemanfaatan agen kecerdasan buatan (AI agent) di lingkungan organisasi kian meluas, namun di saat yang sama menghadirkan tantangan baru di bidang keamanan siber. 

Risiko yang ditimbulkan bukan lagi bersifat teoritis, mulai dari gangguan layanan pelanggan hingga potensi kerusakan serius seperti penghapusan basis data utama perusahaan.

Situasi ini menjadi perhatian serius para pimpinan bisnis, regulator, hingga pakar keamanan. Bagi CIO dan CISO, agen AI memunculkan persoalan tata kelola yang kompleks karena mampu membuat keputusan, menggunakan berbagai alat, serta memproses data sensitif tanpa campur tangan manusia. 

Dalam banyak kasus, perangkat teknologi informasi dan sistem keamanan konvensional bahkan belum siap mengendalikan perilaku AI yang bersifat otonom.

Perusahaan keamanan siber global Kaspersky menilai keamanan sempurna dalam sistem AI berbasis agen hampir mustahil dicapai. Hal ini disebabkan sifat probabilistik model bahasa besar (LLM) serta minimnya pemisahan antara instruksi dan alur data. 

Meski demikian, penerapan kontrol yang ketat mendekati pendekatan Zero Trust dinilai dapat secara signifikan membatasi dampak ketika terjadi kesalahan atau penyalahgunaan.

Menurut Kaspersky, langkah awal yang krusial adalah menerapkan prinsip otonomi minimal dan hak akses paling rendah. 

“Agen AI sebaiknya hanya diberi tugas yang memiliki batasan jelas, dengan akses terbatas pada alat, API, dan data yang benar-benar diperlukan. Dalam banyak kasus, mode baca saja (read-only) dinilai sudah cukup untuk mengurangi risiko,” tulis Kaspersky dalam keterangannya.

Penggunaan kredensial berumur pendek juga menjadi rekomendasi utama. Token atau kunci API sementara dengan cakupan terbatas dapat mencegah penyalahgunaan ulang jika agen berhasil dikompromikan pihak tidak bertanggung jawab.

Meski berbasis otomatisasi, Kaspersky menekankan keterlibatan manusia tetap wajib untuk operasi berisiko tinggi. 

Tindakan seperti otorisasi transfer keuangan atau penghapusan data dalam jumlah besar harus memerlukan konfirmasi eksplisit dari manusia.

Di sisi teknis, agen AI perlu dijalankan di lingkungan terisolasi seperti kontainer atau sandbox, dengan kontrol lalu lintas jaringan berbasis daftar izin. Pendekatan ini bertujuan mencegah koneksi keluar yang tidak sah atau penyalahgunaan alat.

Kaspersky juga menyarankan penegakan kebijakan keamanan yang ketat sebelum agen benar-benar beroperasi. Setiap rencana dan argumen agen perlu diperiksa terlebih dahulu agar sesuai dengan aturan yang telah ditetapkan.

“Validasi dan sanitasi input serta output menjadi langkah penting lainnya. Seluruh permintaan dan respons model harus difilter untuk mencegah injeksi perintah maupun konten berbahaya, terutama ketika data berpindah antar agen,” imbuh Kaspersky.

Selain itu, pencatatan log secara berkelanjutan dan aman perlu dilakukan untuk setiap aktivitas agen. Log yang tidak dapat diubah ini akan menjadi fondasi penting dalam proses audit maupun investigasi forensik di kemudian hari.

Pemantauan perilaku agen secara otomatis dinilai krusial untuk mendeteksi anomali, seperti lonjakan panggilan API, upaya replikasi diri, atau penyimpangan dari tujuan awal. 

Organisasi yang telah mengadopsi XDR dan mengolah telemetri di SIEM disebut memiliki keunggulan dalam mengendalikan agen AI.

Kaspersky juga menekankan pentingnya kontrol rantai pasok dan penggunaan software bill of materials (SBOM). Hanya model dan alat yang berasal dari sumber tepercaya yang sebaiknya digunakan, dengan setiap komponen ditandatangani dan dependensi dikunci versinya.

Untuk kode yang dihasilkan agen AI, analisis statis dan dinamis perlu diterapkan sebelum dijalankan. Fungsi berisiko tinggi seperti eval() sebaiknya dilarang sepenuhnya. 

Praktik ini idealnya menjadi bagian dari alur kerja DevSecOps yang diperluas ke seluruh kode buatan agen AI.

Sebagai langkah mitigasi terakhir, organisasi dianjurkan memiliki kill switch, mekanisme untuk segera menghentikan atau mengunci agen ketika perilaku mencurigakan terdeteksi.

Di luar aspek teknis, Kaspersky menyoroti pentingnya pelatihan berkelanjutan bagi karyawan. Edukasi mengenai risiko dan realitas operasional sistem berbasis AI perlu disesuaikan dengan peran masing-masing pengguna. 

Mengingat perkembangan teknologi yang sangat cepat, pelatihan satu kali dalam setahun dinilai tidak lagi memadai dan perlu diperbarui secara berkala.

Bagi analis SOC, pengembang, dan arsitek AI, Kaspersky juga merekomendasikan pelatihan khusus keamanan LLM untuk memahami ancaman utama sekaligus strategi pertahanannya.

×
back to top