Des GPU devenus un poste de dépense central
Datadog enrichit sa plate-forme d’observabilité avec un suivi dédié aux GPU, alors que ces accélérateurs prennent une place de plus en plus importante dans les budgets cloud. Selon l’éditeur, ils représentent déjà 14 % des coûts de calcul cloud chez ses clients.
Le timing n’a rien d’anodin. Les investissements dans les infrastructures d’IA continuent de grimper, et les GPU restent le cœur de la plupart des déploiements. Le problème, pour les équipes techniques comme pour les directions financières, est simple : la facture monte vite, sans toujours offrir une lecture claire de ce qui consomme vraiment.
Relier coût, santé et performance
La nouveauté annoncée par Datadog vise justement à rapprocher trois vues souvent séparées : l’état du parc GPU, les coûts associés et l’impact sur les performances des charges de travail. L’idée est de fournir un tableau unique pour comprendre où part l’argent, et pourquoi certains traitements ralentissent.
Datadog insiste aussi sur la possibilité de suivre les GPU dans plusieurs environnements, du cloud aux infrastructures sur site, en passant par certaines offres neocloud. Un point utile pour les organisations qui veulent garder la main sur leurs données ou répartir leurs charges entre plusieurs modèles d’hébergement.
Débusquer le gaspillage plus vite
Au-delà du suivi global, l’outil cherche à faire ressortir les usages inefficaces : GPU laissés à l’arrêt, processus bloqués, ressources consommées par des tâches qui n’en ont pas réellement besoin. Pour les équipes, cela peut représenter un gain rapide, à la fois en performance et en facture.
Datadog met aussi en avant une logique d’imputabilité entre équipes. Le suivi par flotte et par usage doit permettre de savoir quel service consomme quoi, afin de mieux arbitrer les priorités et d’éviter les zones grises dans les dépenses d’IA.
Un révélateur des arbitrages à venir
Cette annonce illustre une tendance nette du marché : l’IA ne se limite plus à la course aux modèles, elle entre aussi dans une phase de contrôle des coûts. Plus les organisations déploient de GPU, plus elles cherchent des outils capables d’expliquer ce qu’elles achètent réellement.
Datadog ne tranche pas le débat sur la rentabilité de l’IA. En revanche, l’éditeur s’attaque à un problème très concret : savoir si la puissance achetée sert vraiment, ou si elle se perd dans des files d’attente, des processus inutiles et des configurations trop généreuses.




