Section courante

A propos

Section administrative du site

Fiche technique
Type de produit : SDK
Auteur : NVIDIA
Langage : C++/Python
Lience : Propriétaire/Apache?2.0
Date de publication : 2016 à maintenant
Site Web : https://developer.nvidia.com/tensorrt

Introduction

TensorRT est un SDK d'optimisation et d'inférence de modèles d'intelligence artificielle développé par NVIDIA. Il est conçu pour accélérer les réseaux de neurones profonds sur les GPU NVIDIA, en particulier pour les déploiements en production. TensorRT convertit les modèles entraînés (venant de PyTorch, TensorFlow, ONNX,...) en graphes optimisés et compressés, adaptés à une exécution rapide sur GPU. Il prend en charge plusieurs techniques comme la fusion de couches, la quantification (FP16, INT8), et la calibration dynamique pour réduire la latence et la consommation mémoire. L'objectif est de fournir des performances maximales avec une précision maîtrisée, ce qui est idéal pour les systèmes embarqués, les serveurs et les applications temps réel. Il est compatible avec les plateformes CUDA et s'intègre naturellement dans l'écosystème IA de NVIDIA. TensorRT est utilisé dans des domaines comme la vision par ordinateur, le NLP, la robotique et la conduite autonome.

Le SDK propose une API native en C++ ainsi qu'un binding Python très populaire pour les développeurs d'IA. Cela permet une flexibilité d'intégration dans divers pipelines de production ou de recherche. Le coeur de TensorRT comprend un moteur d'inférence configurable, un optimiseur de graphe et un planificateur de ressources GPU. Il peut être utilisé directement ou intégré avec d'autres outils comme Triton Inference Server, DeepStream, ou NVIDIA TAO Toolkit pour créer des flux d'inférence complexes. L'API permet aussi d'ajuster finement les performances selon les contraintes d'un système : vitesse, précision, mémoire,... TensorRT est très utilisé dans les déploiements edge avec Jetson et dans les centres de données avec des GPU comme les A100, T4 ou L40. Il est également compatible avec les conteneurs NVIDIA NGC pour faciliter le déploiement infonuagique ou sur site.

TensorRT est proposé sous une licence mixte : la partie SDK binaire est propriétaire, tandis qu'une partie de l'optimiseur est publiée sous licence Apache 2.0. Il est téléchargeable gratuitement depuis le site NVIDIA Developer, mais nécessite un GPU NVIDIA compatible. Grâce à sa maturité et ses optimisations poussées, il est devenu une référence pour le déploiement d'IA à grande échelle, remplaçant souvent les moteurs d'inférence natifs de PyTorch ou TensorFlow lorsqu'il s'agit de performance maximale. Des entreprises l'utilisent dans des applications critiques comme la détection d'objets en temps réel, l'analyse vidéo intelligente ou les assistants vocaux. En combinant vitesse, efficacité et précision, TensorRT permet à l'intelligence artificielle de dépasser les limites traditionnelles de l'inférence sur GPU.



Dernière mise à jour : Dimanche, le 6 juillet 2025