L’IA, c’est une redistribution du pouvoir. Mais au profit de qui ?
Publié le 19 Mars 2026
L’IA est le sujet du moment. Dans les entreprises et dans nos vies quotidiennes. Dans la guerre de demain (et déjà d’aujourd’hui) aussi.
Certains rêvent d’enrichissement rapide, d’autres craignent pour leurs emplois. Et nous pouvons tous nous poser la question de nos libertés et, dans nos rues voire sur les champs de conflictualité, des risques sur nos vies. Comme de la vérité de ce que nous lisons, des images que nous voyons, avec l’IA générative.
Dans les entreprises, les dirigeants s’interrogent sur les gains de productivité, sur la pérennité de certains métiers, sur leurs marges de manœuvre et de décision face aux apports du « big data » : ces quantités astronomiques de données désormais analysées avec ces outils puissants. Et ils se préoccupent de l’adoption de l’IA par leurs équipes, comme pour tout changement majeur qu’ils souhaitent ou qui leur paraît inévitable, mais qu’on ne peut tout simplement imposer.
Mais ce qui n’est pas explicitement abordé, et qui devrait l’être avec plus de sérieux par tous ceux qui ont à se prononcer sur l’acquisition et l’usage de ces outils, c’est la question du pouvoir des décideurs. Et de leur responsabilité. Des décideurs qui acceptent parfois sans y penser de se dessaisir de ce pouvoir et négligent leur responsabilité. Faute de prendre le temps d’y penser, le plus souvent. Ou par facilité parfois, malheureusement.
Le pouvoir des fournisseurs, ou l’omniscience à portée de clic
Comme à chaque étape de la « transformation numérique », les entreprises et leurs dirigeants sont assaillis de promesses miracles de fournisseurs de produits et de services. Un grand classique, avec des promesses non tenues et des abus parfois, qui ont conduit au fil des décennies à une forme de discrédit des métiers du conseil ou plutôt, devrait-on dire, de la prestation de services.
On a eu au siècle dernier les ERP qui promettaient de mettre dans la main unique des dirigeants toutes les données relatives à leur entreprise, afin d’en garantir la bonne « gouvernance » : les finances, les ressources humaines, les approvisionnements, … Tout allait pouvoir être piloté, d’un seul coup d’œil.
On nous a plus tard vendu, pour répondre aux éternels enjeux de communication interne et de cohésion sociale, les RSE – les réseaux sociaux d’entreprise -. Des plate-formes numériques qui allaient permettre d’animer les communautés, de contribuer à l’intelligence collective, au dialogue social… en s’affranchissant de l’animation managériale, des échanges entre pairs, et même de la machine à café…
On a vu aussi fleurir, et avec une croissance explosive destinée à apporter une réponse technologique aux besoins ponctuels du confinement sanitaire, et plus généralement à la recherche permanente des économies sur les frais immobiliers, une pluralité d’outils de visio-conférence et d’échanges de données en temps réel. Eux aussi allaient garantir la productivité tout en réduisant les interactions physiques, considérées comme autant de « frottements », et donc comme autant de dépenses d’énergie et de moyens.
Dans l’industrie, la construction, la santé, on a multiplié les capteurs de données pour permettre la maintenance préventive des machines et des bâtiments et améliorer la santé des hommes. L’objectif était – et est toujours – de créer des « jumeaux numériques ». Mais la conséquence de cette multiplication de capteurs et de données recueillies était la création des « data lakes » insondables et inexploitables.
Ces nouveautés, et tant d’autres, étaient autant de promesses imparfaitement tenues, qui jouaient sur des fantasmes d’omniscience voire d’omnipotence, ou tout simplement, des effets de mode.
Et il n’est pas question ici de refuser la nouvelle révolution industrielle et sociétale que constitue l’irruption du numérique dans nos vies, mais seulement d’en critiquer les fausses promesses, qui conduisent, par effet de fascination, à ne pas se poser les bonnes questions.
Aujourd’hui, la puissance de calcul des machines et le développement des outils d’analyse et de traitement statistique, voire de « raisonnement », apportent des réponses bluffantes à de multiples situations.
A l’écoute des promesses – car les réalisations d’aujourd’hui ne sont rien au regard de ce que demain nous aurons – et aussi face à l’abîme que cette nouvelle situation suscite, nous courrons… Pour poursuivre des chimères ou ne pas être dépassés ?
Quelle soit la réponse à cette question, au moment d’affecter des ressources par nature limitées ou de faire des choix irréversibles, les décideurs devraient prendre le temps de s’arrêter un moment. Et faire ce pour quoi ils sont payés : réfléchir avant de décider.
L’IA, un nouveau FOMO ?
Le sentiment d’urgence est, on le sait avec les escroqueries en ligne dont nous sommes tous les cibles, un des leviers les plus efficaces de la vente d’une solution, qu’elle soit technologique ou humaine.
C’est d’ailleurs une des recommandations de John Kotter, un des « papes » de la conduite du changement, plus cité d’ailleurs par les non-praticiens que par ceux qui appuient leur expertise et leur pratique sur des apports plus complets, et qui voient quotidiennement les limites et les dérives de ses recommandations. Formé aux meilleures pratiques du management d’entreprise aux Etats-Unis, et donc avant tout à la vente, il a su formuler des « recettes » qui marquent, et qui sont toujours recommandées. Et notamment : créer un sentiment d’urgence est, selon lui, une condition impérative de succès – vous noterez le « sentiment » plus que la réalité. Le FOMO (« fear of missing out », ou « anxiété de ratage ») avant la lettre.
Ce sentiment d’urgence est une des clés utilisées par les vendeurs de solutions et de services, qui promeuvent ainsi des changements vertueux et des lendemains qui chantent. Des solutions et des services en effet, car les ESN (entreprises de services numériques) prospèrent à la fois sur la vente de solutions dont la conception est souvent déjà amortie, mais aussi et surtout sur les services dédiés à l’adoption de ces mêmes outils. Car si l’outil magique n’est pas facilement adopté, c’est nécessairement en raison de ce fichu facteur humain… Qu’il faut former et convaincre à grands coups d’opérations de communication managériale. Pas parce que, imparfait, il va nécessiter des ajustements, du temps et des arguments semblables à ceux du tailleur de Fernand Raynaud…
Un grand classique, donc.
Donner le pouvoir de décision à une boîte noire ?
En matière d’IA, il y a cependant une dimension nouvelle qui dépasse les outils.
Car alors que la génération précédente vous promettait une vision panoptique sur l’ensemble des indicateurs de votre entreprise pour vous permettre de décider, les nouvelles solutions vous proposent de vous aider à décider en prenant la décision elles-mêmes – ou en tous cas une partie des décisions.
En effet, il n’est plus humainement possible de faire face à l’avalanche de données captées dans vos machines et dans votre entreprise. Et ceci d’autant que celles-ci sont complétées désormais par celles qui viennent de votre environnement – physique, informationnel, cognitif. Car pour décider, il paraît qu’il faut tout savoir… Quête insensée, assurément, mais qui fascine.
Face à la multiplication des « indicateurs » du siècle dernier, il avait fallu développer des méthodes et des outils pour faire le tri : management visuel, priorisation…
Désormais, et puisque la donnée peut être captée partout et en tout temps, parce que tout événement doit être quantifié et que la puissance de calcul s’accroît chaque jour, on vous promet de pouvoir renoncer à cette priorisation frustrante (car choisir c’est renoncer), pour avoir enfin accès à une analyse extensive… Fini le brouillard de la guerre, finie la complexité des affaires… Vous devenez omniscients. Et vous serez, lorsque l’IA interviendra vraiment dans le monde physique, avec les machines qu’elle pilotera, omnipotents…
Ce qui manque vraiment dans cette promesse, et c’est un des angles morts de l’adoption de l’IA dans les pratiques individuelles et les organisations, c’est qu’en réalité vous ne savez pas sur quelle base est réalisée cette analyse…
Quels sont les critères de choix ? Et quels sont les « failles éventuelles » ?
Car les sciences de la sécurité industrielle le démontrent depuis longtemps : tout système programmé comporte des failles… Soit initiales, soit émergentes. Et ces failles ne tiennent pas toujours au seul « facteur humain », ce coupable idéal que les technologies mises au service du contrôle social voire du contrôle cognitif pourraient aussi viser à mieux « domestiquer ».
En réalité, et les événements quotidiens de nos environnements socio-techniques le prouvent : il n’existe pas de système parfait. Et c’est pourquoi un système doit être résilient plus encore que résistant. Car l’essentiel n’est pas d’être infaillible et indestructible, mais de continuer à fonctionner et produire les services attendus, en dépit des inévitables défaillances et accidents.
Si cette affirmation vous choque, ne vous êtes-vous pas demandé pourquoi, si régulièrement, nos systèmes numériques sont « mis à jour » ? Et pour des raisons qui ne sont que très superficiellement expliquées ?
Il est donc indispensable que les fournisseurs de produits et de services soient explicites quant au fonctionnement de leur « boite noire »… sous réserve qu’ils le sachent eux-mêmes.
Et surtout que les décideurs considèrent avec précaution ce transfert de leur pouvoir à des extensions qu’ils ne connaissent pas vraiment… Transfert de pouvoir, voire transfert de souveraineté, à l’heure où ce terme devient plus usité.
Et on peut traduire cette question de principe, quasi philosophique, en questions plus concrètes :
- Votre organisation déploie aujourd'hui des outils d'IA que vous n'avez pas construits, que vous ne pouvez pas inspecter, et dont les mises à jour peuvent modifier les comportements sur lesquels vos processus entiers ont été construits. Sans préavis, sans négociation, parfois sans que vous le sachiez.
- Qui, dans votre organisation, a réellement lu les conditions générales des fournisseurs de modèles ?
- Qui est capable d'auditer ce que ces outils font de vos données de production ?
- Quelle clause de réversibilité avez-vous négociée si le fournisseur change de modèle tarifaire ou cesse d'exister ?
Ces questions ne sont pas anecdotiques. Elles définissent le degré réel de votre autonomie décisionnelle, de votre pouvoir stratégique. Et dans la grande majorité des cas, la réponse honnête est : personne, personne, aucune.
Ce n'est pas un reproche, c'est un constat. Les fournisseurs d'IA disposent d'une asymétrie d'information considérable, d'une expertise technique difficile à évaluer de l'extérieur et d'une position de marché qui rend la négociation très inégale, en particulier lorsque, du fait de la taille de l’entreprise ou des compétences disponibles, on n’a pas d’interlocuteur vraiment qualifié à mettre en face du vendeur. Pour au moins poser les bonnes questions.
Alors, pour résumer la situation de ce transfert de pouvoir, la question centrale n'est pas : « quel outil déployer ? » mais « à quoi acceptons-nous de renoncer pour l'utiliser ? ».
Il est grand temps, le plus collectivement possible, mais le plus précisément, et donc pour chaque entreprise, chaque organisation car chacune est différente, de prendre le temps d’en formuler les réponses.
La fin de la relation managériale, avec une surveillance qui ne dit pas son nom ?
En promettant une solution de traitement aux données perdues dans ces « data lakes » que j’avais découverts dans les entreprises industrielles qui se lançaient, il y a plus de dix ans, dans la création de jumeaux numériques, l’IA relance cette quête de l’omniscience, promesse préalable à celle de l’omnipotence d’un créateur « parfait ».
Mais comme souvent, cette omniscience a un côté obscur.
Rêver à contrôler les machines est une chose. Mais dans notre monde fait d’humains, et parce que ces humains sont toujours trop humains et donc « imparfaits », certains n’ont pas renoncé au fantasme post-taylorien de faire des exécutants humains les rouages parfaits d’une machinerie bien huilée.
Dans le domaine de la sécurité industrielle – et en particulier celle qui touche aux domaines les plus sensibles et dangereux de notre monde, ceux qui mettent en jeu la vie et la mort des personnes – on a longtemps considéré, et trop le considèrent encore, que le « facteur humain » est « le maillon faible ».
Certains, dans de nombreux domaines, multiplié les mécanismes de défense, les règles et les procédures, jusqu’à l’immobilisme et l’asphyxie… Quand d’autres ont choisi les nouvelles approches de la sécurité, qui repose sur le recours, précisément, au « facteur humain » comme pilier de la résilience organisationnelle.
Avec l’IA, on a le potentiel d’un contrôle accru sur les exécutants : il suffit d’analyser les données, toutes les données. Celles produites, celles captées… de la rapidité d’exécution dans un geste mécanique à l’énergie utilisée pour la frappe sur un clavier.
Et plus couramment : le temps de traitement des dossiers, des scores de qualité automatisés, un suivi des interactions clients, une analyse des échanges internes… Ces données existent désormais, elles sont ou peuvent être collectées, et peuvent alimenter des tableaux de bord que les managers n'ont pas toujours demandés et que les collaborateurs ne connaissent pas toujours.
Ce panoptique n'est plus réservé aux plateformes de livraison à domicile, dont on peut suivre le coursier au mètre près, quand le suivi GPS des camions était auparavant réservé aux seules entreprises.
C’est désormais accessible aux fonctions support, aux services juridiques, aux équipes RH, aux fonctions commerciales.
Les limites que posaient l’analyse humaine au contrôle des autres sont, avec l’IA, désormais repoussées…
Ce « management algorithmique » est donc à même de s’installer dans les organisations, dans tous les métiers. Outil en appui du management classique, ou dessaisissement volontaire ou non du pouvoir, mais aussi de la relation managériale ?
Avec l’IA, vos managers vont-ils devenir les exécutants de décisions prises par des systèmes qu'ils ne comprennent pas ? Certains en seront sans doute heureux, quand ils n’étaient pas disposés, ou pas préparés, à assumer ces fonctions délicates qui demandent du doigté, du courage, de la relation…
Mais est-ce ce que vous attendez d’eux ? Et est-ce ce que vous attendez de vous-même ?
Abandonner le pouvoir de décision : l’algorithme comme alibi
Ce n’est pas un phénomène nouveau. Certains « dirigeants » font parfois appel à des « autorités extérieures » pour justifier des décisions qu’ils ont déjà prises, et qu’ils ne comptent en aucun cas infléchir, ni accompagner. Et ces « autorités » peuvent prendre le visage – ou plutôt la marque – de cabinets de conseil.
Faire appui à un regard extérieur pour confirmer une intuition est une chose. Mais il faut être aussi prêt, le cas échéant, à l’infléchir (la stratégie du « projet latéral »), voire à l’abandonner.
Demander un appui cosmétique est un acte manipulatoire, un gâchis de temps, de moyens humains et financiers, et une forme de lâcheté face à l’adversité… Une adversité qui se révèlera quoiqu’il en soit si l’appui expert demandé l’a révélé et proposé des pistes de solution que l’on aura écartées, par orgueil.
Cette lâcheté managériale et décisionnelle peut être amplifiée avec le recours à l’IA puisque celle-ci est réputée infaillible, en dépit des précautions formulées par les plus prudents et les plus honnêtes, et des leçons de la sécurité industrielle et des « accidents » qui émaillent et font la vie de notre monde, qui démontrent qu’il n’existe jamais de système infaillible.
L'IA pourra servir à habiller des décisions déjà prises avec une apparence d'objectivité. On présentera à un comité de direction une recommandation algorithmique qui "confirme" l'orientation souhaitée. On s'appuiera sur un score automatisé pour justifier une réorganisation que l'on voulait mener de toute façon. On laissera le modèle "décider" pour éviter d'assumer une décision difficile.
Encore une fois : ce n’est pas nouveau. C’était une tentation, parfois une dérive que l’on appuyait sur des tiers. L'IA industrialisera et accélèrera cette dérive.
Mais elle la rendra aussi plus invisible, et donc plus dangereuse. Car l'algorithme n'a pas de visage, pas d'intérêt apparent, pas de biais déclaré. A priori.
C’est sans doute la dynamique la plus subtile, et peut-être la plus dangereuse, de ce transfert du pouvoir décisionnel et managérial, voire de son abandon, au profit des algorithmes.
Abandonner aussi le pouvoir du dialogue social
Cette érosion silencieuse du pouvoir et de la responsabilité managériale se traduira également dans la qualité du dialogue social – et ceci au-delà de ses instances et modalités formelles.
Car lorsqu’on parle de pouvoir, on pense naturellement au « pouvoir sur ». Celui décrit au XIXe siècle déjà par Max Weber : celui des hommes, des organisations, des normes…
Mais on néglige trop souvent que le pouvoir est aussi celui que décrit Hannah Arendt : le « pouvoir avec »… Pour le pire, certes, mais aussi pour le meilleur, heureusement.
Si les décisions sont prises sans que personne ne les assume vraiment, cela se verra vite et la confiance au sein du corps social s’érodera. Sans que ce soit nécessairement une conséquence du rejet d’un « contrôle social » automatisé… mais tout simplement parce que « pouvoir avec », c’est laisser la place aux conversations qui relient, et qui se glissent dans les incertitudes, les imprécisions, les incompréhensions. Des modalités qui imposent le temps de bâtir et entretenir la confiance mutuelle, donc.
Et par-delà ce risque sur la perte de confiance, il y aura également, inévitablement, celui de la défiance : bien au-delà de l’absence de relation, l’affrontement. Car c’est une évolution naturelle de la méconnaissance mutuelle.
Alors, en ce qui concerne l’IA : vos collaborateurs ont-ils été consultés, informés, associés à la mise en place de ces outils ? Et des transformations que cela entraînera sur le dialogue social, dans toutes ses dimensions (formelle et informelle).
Et plutôt que de considérer la nécessité d’en parler comme une contrainte, pensez aussi qu’il n’y a pas que de la résistance à attendre de leurs contributions. Car comme toujours, l’intelligence collective peut utilement enrichir un projet de changement, et l’animation de celle-ci en garantir, en accélérer et en pérenniser la mise en œuvre.
Il est donc grand temps d’anticiper ces questions afin de structurer la nouvelle animation de vos équipes, plutôt que de subir celle qui émergera spontanément, avec les inévitables tensions qui naîtront.
Et perdre le pouvoir de s’améliorer collectivement
Dans la logique du « facteur humain comme maillon faible », cette substitution du pouvoir de décision de l’homme à la machine conduira aussi à la perte par les entreprises de leur capacité à apprendre de leurs erreurs.
En effet, en raison de la croyance en un système technique infaillible, l’erreur, et encore plus l’accident, seront, encore plus qu’aujourd’hui, attribués par défaut au facteur humain comme coupable, plutôt qu’à une propriété émergente du système socio-technique complexe que constituera le système IA-humains.
Cette capacité d’apprentissage est un atout essentiel des entreprises et des organisations qui font face à des environnements complexes.
Dans un environnement mécaniste, prévisible, on peut ériger des murailles (et encore, ça ne suffit pas toujours).
Mais lorsqu’il est complexe, mouvant comme l’est le monde d’aujourd’hui, il faut avoir recours aux systèmes adaptatifs. Des systèmes et des approches qui ne reposent pas sur la traque des défauts, mais plutôt sur ce qui permet la résilience et l’amélioration.
Conserver la capacité de comprendre ce qui se passe (la « situational awareness »). Mais surtout conserver le pouvoir d’initiative individuel et collectif. Pour faire face à l’imprévu, ainsi que les militaires le font avec le « commandement par intention » qui laisse aux acteurs la responsabilité et la capacité de décider et d’agir. Et pour innover, toujours.
Chercher de nouveaux coupables, ou mieux travailler ensemble ?
Les sciences de la sécurité industrielle ont mis du temps à convaincre les organisations qu'un accident n'est jamais la faute d'un seul opérateur. Celles-ci continuent à progresser, en dépit de la tentation permanente de la recherche de coupables. Et on doit reconnaître que les systèmes industriels, bien que beaucoup plus complexes qu’il y a des décennies, sont aussi devenus bien plus sûrs.
Je fais le pari qu'on peut faire la même chose avec l'IA dans les organisations. L’idée n’est pas, là encore, de désigner des coupables : des fournisseurs avides, des DSI tentés par ce transfert de pouvoir, des managers dépassés par ces outils qui les remplacent, des équipes incompétentes ou réticentes à ces changements…
Mais en regardant lucidement les effets que ces transformations peuvent produire. Et en conservant aux décideurs humains les moyens de les piloter vraiment, en se les appropriant.
Ce n'est pas ici un discours anti-IA mais un plaidoyer en faveur des organisations humaines et de leurs décideurs.
Que je vous propose de vous aider à mettre en œuvre, concrètement, dans vos organisations.
/image%2F0995391%2F20260319%2Fob_60b674_adobestock-861151550.jpeg)