16/01/2026

Le coût invisible de l’IA : vigilance, sens et capacité d’adaptation

Il m’est arrivé de suivre mon GPS dans une ville en travaux. Le système m’a indiqué avec assurance de tourner à droite. Faisant confiance à sa précision, j’ai obéi — pour me retrouver à contresens dans une rue à sens unique, face à des voitures arrivant en sens inverse. Le GPS n’avait pas intégré les changements récents du réseau routier. Le coût immédiat a été limité : j’ai perdu quelques points sur mon permis de conduire. La leçon, en revanche, était bien plus importante. J’avais suspendu mon propre jugement et mon attention à la situation au profit d’une technologie qui paraissait sûre d’elle.

Les organisations courent aujourd’hui un risque similaire avec l’intelligence artificielle. Si l’IA peut être un puissant outil d’aide à la décision, une confiance excessive peut affaiblir discrètement la vigilance organisationnelle, l’apprentissage collectif et la capacité d’adaptation.

L'IA comme outil d'aide à la décision : utile, mais pas neutre

Les systèmes d’IA sont de plus en plus intégrés aux processus de décision managériale. Ils traitent de grandes quantités de données, identifient des régularités et produisent rapidement des recommandations. Dans des environnements stables et bien connus, cela peut améliorer l’efficacité et la cohérence des décisions.


Cependant, l’IA n’est pas neutre. Elle s’appuie sur des données historiques, des catégories prédéfinies et des hypothèses intégrées. Elle ne « comprend » pas le contexte : elle reflète la manière dont l’organisation a compris le monde par le passé. Des travaux académiques récents montrent que l’adoption de l’IA peut renforcer les silos et réduire l’ouverture de la pensée organisationnelle, sauf si elle est accompagnée de pratiques de leadership favorisant la curiosité, l’ouverture et la réflexion.


Le risque n’est donc pas que l’IA prenne des décisions — un acte qui reste juridiquement et moralement humain — mais qu’elle verrouille le champ des possibles. En proposant une recommandation assortie d'une apparente certitude, l'IA rend certaines interprétations du réel extrêmement difficiles à contester. Le manager ne perd pas son pouvoir de décision, mais il risque de perdre sa liberté de douter.

Une lecture inspirée de Weick : l’IA et la stabilisation du sens

Karl Weick montre que les organisations ne se contentent pas « d’analyser des données » avant de décider. Les individus cherchent d’abord à comprendre ce qui se passe en échangeant entre eux, en s’appuyant sur leur expérience passée et en construisant une explication partagée qui leur paraît raisonnable. L’objectif n’est pas de trouver la réponse parfaite, mais une interprétation suffisamment cohérente pour permettre l’action.

Une fois qu’une explication semble convaincante, les organisations ont tendance à s’y accrocher. Elles deviennent moins attentives aux points de vue alternatifs ou aux signaux nouveaux — en particulier lorsque ceux-ci introduisent de l’incertitude ou de la confusion.

Dans cette perspective, l’IA s’intègre naturellement aux processus de construction du sens organisationnel, mais d’une manière particulière. En étant entraînée sur des données passées, elle renforce des interprétations rétrospectives. Elle peut stabiliser des catégories existantes et des récits dominants, en leur donnant une apparence de cohérence et de légitimité accrue. Cela peut être utile, mais cela réduit aussi la sensibilité à la nouveauté et à l’ambiguïté.

Weick insistait sur l’importance de résister à la simplification excessive. Les organisations fiables et adaptatives restent attentives aux anomalies, maintiennent plusieurs interprétations possibles et laissent le sens ouvert suffisamment longtemps pour apprendre. L’IA, au contraire, tend souvent à accélérer la stabilisation du sens en produisant des résultats clairs et confiants qui réduisent l’ambiguïté.

L’épisode du GPS illustre bien cette dynamique. Le GPS n’a pas pris une mauvaise décision — c’est moi qui ai failli. Je n’ai pas su rester vigilant et j’ai remplacé mon jugement par celui de la technologie. Le risque pour les organisations est similaire : le problème vient rarement de l’IA elle-même, mais de la manière dont elle est utilisée.

Contrairement à mon erreur de conduite, le coût d’une confiance excessive dans l’IA en entreprise est rarement immédiat ou visible. Il s’accumule progressivement : moindre attention aux signaux faibles, retard dans les ajustements stratégiques, baisse de l’expérimentation et affaiblissement de la capacité collective à donner du sens. L’efficacité peut s’améliorer à court terme, mais l’adaptabilité se détériore.

Trois signaux d’alerte — et ce que les managers peuvent faire

Les managers n’ont pas besoin de rejeter l’IA, mais ils doivent rester attentifs aux signes indiquant que la construction du sens est remplacée par une simple stabilisation des interprétations.

1. Les résultats de l’IA mettent fin aux discussions au lieu de les lancer
Lorsque les recommandations de l’IA sont perçues comme des réponses définitives, les échanges s’arrêtent. Les équipes passent rapidement à l’exécution sans explorer d’autres pistes. Les décisions sont rapides — mais la réflexion disparaît.

Actions correctives

  • Exiger qu’au moins une interprétation alternative soit discutée avant toute décision.
  • Poser explicitement des questions comme : « Que pourrait-il se passer d’autre ? » ou « Qu’est-ce que cela pourrait ne pas prendre en compte ? »


2. Les mêmes explications sont systématiquement confirmées
L’IA valide en permanence les stratégies, indicateurs ou modes de fonctionnement actuels. Les résultats semblent toujours confirmer que « nous sommes sur la bonne voie », même lorsque l’environnement évolue.

Actions correctives

  • Remettre régulièrement en question les conclusions soutenues par l’IA à l’aide de données externes ou de scénarios alternatifs.
  • Introduire des points de vue différents en impliquant des personnes extérieures à la fonction ou à la hiérarchie concernée.

 

3. Les savoirs de terrain et l’expérience sont marginalisés
Les retours du terrain, l’expérience pratique ou la connaissance du contexte sont ignorés parce que « le système dit autre chose ». Le jugement humain est écarté au lieu d’être intégré.

Actions correctives

  • Créer des espaces où la parole du terrain est prise en compte dans les décisions appuyées par l’IA.
  • Encourager les managers à expliquer pourquoi ils suivent — ou non — une recommandation de l’IA.

 

Conclusion : Utiliser l’IA sans perdre la capacité à donner du sens

Dans une perspective inspirée de Weick, l’IA doit soutenir la construction du sens, et non s’y substituer. Sa valeur réside dans l’éclairage qu’elle apporte, pas dans la fermeture des interprétations. Pour y parvenir, les leaders doivent assumer leur responsabilité épistémique : c’est-à-dire l'obligation de ne pas se contenter de "croire" l'IA, mais de s'assurer que les connaissances sur lesquelles ils fondent leurs décisions sont solides et comprises. Contrairement à l'algorithme, le manager reste l'unique garant de la validité du raisonnement face au contexte.

 

Les organisations doivent donc volontairement préserver des espaces d’ambiguïté, de dialogue et de confrontation des points de vue. Tout comme un conducteur doit continuer à regarder la route lorsqu’il utilise un GPS, les organisations doivent rester activement engagées dans l’interprétation de leur environnement.

 

Si le coût d’une confiance excessive dans la technologie, au volant, se traduit par quelques points perdus sur un permis de conduire, le coût pour les organisations est une forme de cécité stratégique : une perte de capacité à détecter le changement, à réviser le sens partagé et, finalement, à s'adapter à un monde qui ne se trouve pas toujours dans les données d'hier.

Daniel Scott EVANS, PH.D., SFHEA
Responsable Executive Education
 

Entreprise