Akselerasi AI TensorRT kini tersedia untuk seluruh GPU GeForce RTX
NVIDIA menyebut kini akselerasi AI TensorRT telah tersedia untuk seluruh GPU GeForce RTX.
NVIDIA secara resmi mengumumkan bahwa teknologi akselerasi AI TensorRT kini tersedia untuk seluruh GPU GeForce RTX, memberikan peningkatan performa hingga 2x dibandingkan dengan DirectML. Dengan kehadiran TensorRT, pengguna PC berbasis RTX kini dapat merasakan peningkatan signifikan dalam aplikasi berbasis AI melalui backend inferensi yang telah dioptimalkan.
TensorRT kini didukung secara native oleh Windows ML, dan TensorRT-LLM juga telah tersedia di Windows. Menurut NVIDIA, banyak pengembang AI saat ini dihadapkan pada dilema antara memilih framework dengan dukungan perangkat keras yang luas namun memiliki performa lebih rendah, atau jalur yang dioptimalkan untuk hardware tertentu namun memerlukan pengelolaan kompleks.
Windows ML hadir sebagai solusi, dibangun di atas ONNX Runtime dan terintegrasi langsung dengan lapisan eksekusi AI dari tiap produsen hardware, termasuk TensorRT dari NVIDIA untuk perangkat GeForce RTX.
Dibandingkan DirectML, TensorRT menawarkan performa lebih dari 50% lebih tinggi untuk beban kerja AI di PC. Dalam pengujian, pengguna dapat merasakan peningkatan performa 2x di aplikasi seperti ComfyUI, serta peningkatan hingga 60% di DaVinci Resolve dan Vegas Pro, yang secara signifikan mempercepat alur kerja dan waktu proses AI.
TensorRT untuk RTX tidak hanya unggul dalam hal kecepatan. Teknologi ini juga menghadirkan file library yang 8x lebih kecil dan mendukung optimisasi just-in-time berdasarkan GPU yang digunakan. TensorRT untuk RTX akan tersedia mulai Juni 2025 di seluruh lini NVIDIA GeForce RTX GPU, seperti lapor Wccftech (20/5).