Bientôt trois ans après la hype : où en est l’adoption de l’IA en entreprise ?

L’IA, entre promesses flamboyantes et incertitudes stratégiques

Depuis l’irruption de ChatGPT fin 2022, l’intelligence artificielle est devenue l’obsession des conseils d’administration. Les PDG exigent des DSI qu’ils « intègrent l’IA dans les processus », qu’ils « assistent les métiers dans leur démarche IA » et qu’ils « apporte rapidement de la valeur ». L’IA générative n’est plus un gadget d’innovation, mais un symbole de compétitivité. Dans un climat de ralentissement économique, elle est vue comme un levier incontournable… et immédiat. 

Pour les DSI, la pression est immense : l’adoption de l’IA peut faire ou défaire leur carrière dans l’entreprise. À l’instar du web il y a vingt ans, elle s’impose comme une révolution incontournable, avec cette différence : les attentes sont bien plus élevées et les délais pour produire des résultats bien plus courts. 

Trois ans plus tard, le moment est venu de s’interroger. L’IA tient-elle réellement ses promesses pour l’entreprise ? Les coûts engagés sont-ils soutenables et justifiés par un retour sur investissement tangible ? Faut-il construire sa propre IA en interne ou miser sur des solutions de marché ? Jusqu’où peut-on aller avec les données sensibles sans compromettre la souveraineté de l’organisation ? Et enfin, comment piloter cette adoption : centraliser ou laisser les métiers expérimenter, encadrer le shadow AI ou l’encourager ? 

Dans cet article, nous aborderons : 

  • Les chiffres clés du MIT et de Gartner, qui mesurent l’écart entre attentes et réalité. 
  • Les principaux freins à l’adoption : coûts, absence de ROI, fiabilité, intégration organisationnelle. 
  • Le dilemme IA maison versus solutions de marché, et ses implications pour les DSI. 
  • Les attitudes possibles face à cette révolution : partenariats stratégiques, gouvernance, shadow AI, composite AI et place des métiers. 

Des chiffres qui refroidissent l’enthousiasme

Trois ans après le début de la hype, le bilan est bien plus nuancé que les promesses initiales. Deux études majeures permettent de mesurer l’écart. 

  • Selon le MIT (NANDA Initiative, 2025) :
    • Seuls 5 % des projets IA génèrent une réelle accélération de revenus.
    • 95 % stagnent ou échouent, sans impact tangible sur le compte de résultat.
    • Les réussites se concentrent dans les startups jeunes et agiles, qui choisissent un problème précis, exécutent rapidement et s’appuient sur des partenariats stratégiques.
  • Selon Gartner :
    • L’IA générative a quitté le pic d’attentes exagérées pour plonger dans le gouffre de désillusion de son Hype Cycle. 
    • Les principaux freins : hallucinations, manque de fiabilité, coûts énergétiques exorbitants. 
    • Gartner estime qu’il faudra 2 à 5 ans pour atteindre la « pente des éclaircissements » et créer de la valeur à grande échelle. 

Des freins massifs : coûts exorbitants et absence de ROI

Le frein majeur à l’adoption de l’IA est aujourd’hui économique. Les coûts liés à l’IA sont colossaux, et les retours sur investissement encore très incertains. 

  • Coûts d’infrastructure : l’entraînement et l’exécution de modèles avancés mobilisent des ressources énergétiques et informatiques hors normes. Certaines entreprises évoquent des factures de plusieurs millions de dollars pour des usages encore expérimentaux.
  • Coûts humains : constituer une équipe interne de data scientists, d’ingénieurs IA et d’architectes spécialisés est devenu un luxe réservé aux géants.
    Absence de ROI : la majorité des projets pilotes échouent à prouver leur valeur financière, créant une frustration croissante dans les comités de direction.

L’exemple d’OpenAI illustre cette réalité : malgré une adoption mondiale et une notoriété planétaire, la société enregistre encore des pertes financières abyssales. Si le leader emblématique du secteur peine à trouver la rentabilité, comment s’attendre à ce que les entreprises clientes, elles, en tirent rapidement un retour mesurable ? Cette équation interroge non seulement la viabilité des modèles économiques des fournisseurs, mais aussi la pérennité de la technologie elle-même dans son adoption massive. 

Autre frein : fiabilité et intégration organisationnelle

Au-delà des coûts, un autre obstacle majeur réside dans la fiabilité des modèles et leur intégration dans l’entreprise. 

  • Hallucinations et résultats incohérents : l’IA générative reste capricieuse et ne peut pas encore être déployée dans des environnements où la précision est critique. Luc Julia, Chief AI Officer chez Renault et co-créateur de Siri lorsqu’il travaillait chez Apple, en donne une démonstration frappante : en posant à un modèle la question binaire de la date de naissance de Victor Hugo, il obtient des réponses différentes selon les jours. Ce simple exemple interroge profondément sur le degré de véracité et de fiabilité que l’on peut attendre de ces systèmes.
  • Shadow AI : l’usage non contrôlé d’outils comme ChatGPT par les collaborateurs expose les organisations à des risques de conformité, de confidentialité et de cybersécurité.
  • Rigidité des workflows : si ChatGPT est efficace pour un usage individuel, son intégration dans les processus métiers complexes se heurte à des limites structurelles.
  • Mauvais ciblage budgétaire : plus de la moitié des budgets IA sont encore dirigés vers les ventes et le marketing, alors que le MIT observe que le véritable ROI se situe dans l’automatisation du back-office et la rationalisation des opérations.

IA maison versus solutions de marché : deux approches, deux résultats

L’enquête du MIT met en évidence un contraste frappant. Les entreprises qui ont tenté de développer leur propre IA « maison » (souvent un ChatGPT interne entraîné sur leurs données) ont, dans une large majorité, échoué. Les coûts d’infrastructure, de main-d’œuvre et de R&D se sont révélés prohibitifs, et les résultats rarement au rendez-vous. 

À l’inverse, celles qui ont adopté des solutions prêtes à l’emploi affichent des succès bien plus nombreux. Ce choix implique parfois de renoncer à une part de souveraineté sur la donnée, mais il permet d’obtenir rapidement des gains tangibles. 

Si l’on résume : les DSI qui réussiront dans l’adoption de l’IA seront avant tout de très bons acheteurs (capables d’identifier les bons fournisseurs et de négocier les bonnes conditions) plutôt que de très bons constructeurs bâtissant from scratch des outils sophistiqués. 

Dans ce contexte, une règle de prudence s’impose : éviter à ce stade de mener des projets IA sur des données hyper sensibles, qui exposent la souveraineté et la sécurité de l’entreprise. Tant que l’organisation n’a pas bâti une solide expérience sur des cas d’usage moins critiques, la priorité doit être donnée à des domaines où le risque est maîtrisable et les bénéfices rapidement mesurables. 

Quelle attitude adopter ?

Pour réussir dans ce contexte, les DSI doivent adopter une posture lucide, méthodique et stratégique. 

  • Prioriser les cas d’usage pragmatiques : l’automatisation du back-office, la réduction du recours à l’externalisation et la rationalisation des processus administratifs restent les terrains les plus propices à générer rapidement de la valeur.
  • Explorer le “composite AI” : il ne s’agit pas de tout miser sur un seul modèle, mais d’orchestrer plusieurs briques technologiques (LLM (modèles de langage), machine learning traditionnel, computer vision, agents autonomes) afin de compenser les faiblesses de chaque approche isolée. Concrètement, le composite AI repose sur une idée simple : aucune technologie IA n’est parfaite en elle-même. Les LLM excellent dans la génération de texte mais souffrent d’hallucinations. Le machine learning est robuste sur la prédiction mais limité en compréhension contextuelle. La vision par ordinateur est très performante sur la reconnaissance d’images, mais n’a pas de capacité de raisonnement. Les agents, enfin, apportent de l’autonomie mais manquent encore de fiabilité. En combinant ces techniques dans une architecture composite, les entreprises parviennent à tirer parti des forces de chacune tout en minimisant leurs faiblesses. De nombreuses entreprises basculent déjà dans ce mode multi-technologies. Dans le retail, un moteur de recherche interne peut croiser un LLM (pour comprendre la requête) avec un algorithme de ML (pour recommander des produits) et un module de vision (pour identifier un article en photo). Dans la supply chain, l’optimisation d’un entrepôt peut s’appuyer sur des modèles de prévision, des algorithmes logistiques et un agent conversationnel pour assister les opérateurs. Miser sur une seule brique est une impasse stratégique. Le composite AI apporte robustesse, adaptabilité, maîtrise des coûts et scalabilité. C’est la condition pour sortir du “POC permanent” et industrialiser l’IA.
  • Construire par partenariats stratégiques : le choix d’un vendor clé (qu’il s’agisse de Mistral AI, Anthropic, Google ou d’autres acteurs stratégiques) ne peut pas être traité comme une simple décision IT. C’est un enjeu de gouvernance d’entreprise. La sélection d’un partenaire IA doit être négociée avec la direction générale, intégrée dans la stratégie globale, et validée par le département juridique pour anticiper les implications de souveraineté, de confidentialité et de dépendance technologique.
  • Décentraliser l’adoption : l’IA ne doit pas rester confinée dans un “AI Lab” central. Elle doit être portée par les métiers eux-mêmes. Les managers de terrain connaissent mieux que quiconque leurs processus et leurs irritants : leur donner la main sur l’expérimentation est le meilleur moyen d’éviter que l’IA reste une innovation hors sol.
  • Gérer intelligemment le Shadow AI : il serait illusoire (et contre-productif) de vouloir interdire totalement l’usage d’outils comme ChatGPT ou Claude par les collaborateurs. Le shadow AI est souvent le premier vecteur d’adoption : il révèle la curiosité, la créativité et les besoins réels des métiers. Le rôle du DSI n’est pas de bloquer ces usages, mais de les canaliser, d’instaurer des garde-fous, et de créer un cadre sécurisé permettant de transformer ces expérimentations individuelles en pratiques collectives.
  • Renforcer la gouvernance et la maîtrise des coûts : l’IA doit être encadrée comme une ressource stratégique. Qui peut l’utiliser, sur quelles données, avec quelles limites et à quel coût ? Ces décisions nécessitent des comités de gouvernance associant DSI, juridique, métiers et direction générale, afin de piloter la transformation de manière responsable et durable.

Un potentiel intact, mais pas au prix de l’illusion

Le MIT comme Gartner le soulignent : malgré la désillusion actuelle, le potentiel de l’IA reste immense. Avec des modèles plus fiables, des données mieux préparées et des cadres d’évaluation plus rigoureux, l’IA générative transformera durablement la productivité et l’innovation. 

Mais il faut en finir avec l’illusion d’une rentabilité immédiate. L’IA est une technologie coûteuse, exigeante et incertaine. Pour les DSI, le véritable enjeu n’est pas de « faire comme tout le monde » mais de transformer une promesse excitante mais capricieuse en un levier durable de performance. Ceux qui sauront orchestrer l’IA avec discernement, patience et méthode seront les véritables gagnants des prochaines années. 

À propos de l'auteur

Ismail a une expérience de 15 ans dans le conseil IT et digital. Il a évolué pendant près de 7 ans chez Gartner. Il a accompagné des startups innovantes dans leur stratégie de croissance, mais aussi travaillé avec des DSI de grands groupes sur leur transformation digitale. En 2021, Ismail a créé Hubadviser pour permettre aux DSI de challenger leur vision avec des experts de haut niveau.