Comment réagissons-nous face aux crises ?

Publié le 28 Avril 2021

Comment réagissons-nous face aux crises ?

Lorsqu’un événement dramatique survient, les réponses qu’apportent les organisations dépendent toujours du facteur humain. De ceux qui décident, ou ont délégué leur pouvoir de décision à des outils, ou à des procédures. De ceux qui acceptent et pérennisent les habitudes, les « cultures ». Mais aussi de ceux qui décident d'en changer. Et en situation d’échec, face à la crise, comment changer ?

 

Courant avril, un groupe de praticiens de la conduite du changement (The Change Leaders) s’est attelé à une réflexion collective sur des pistes pour « affronter les crises », à partir d’apports d’expériences et de pratiques. De par l’esprit du temps sans doute, qui accorde beaucoup d’importance au « développement personnel » ou à la « qualité de vie », ou des sensibilités des participants, la « résilience » individuelle a été beaucoup abordée. Comment « absorber » les chocs, comment « vivre avec » le plus sereinement possible.

Nous avons apporté à ces travaux une approche différente, plus opérationnelle, avec des concepts et pratiques issus des nouvelles approches de la sécurité, dans l’industrie, la santé, les conflits… partout où la vie et la mort sont en jeu. Pour ne pas faire qu’accepter.

 

Vivre les crises autrement

A la fin des années 70, et en particulier après l’accident de la centrale nucléaire de Three Miles Island en 1979, de nombreuses entreprises et chercheurs ont exploré la place du « facteur humain » dans les accidents de nos systèmes de plus en plus complexes, sur le plan technologique et humain. De ce foisonnement toujours en cours sont nées, notamment, deux approches particulièrement fécondes: les organisations à haute fiabilité (« High Reliability Organizations »), et l’ingénierie de la résilience (« Resilience Engineering »). Deux approches qui, en dépit des discussions du monde académique quant à leurs similarités et différences, me semblent relever d’un même « changement de paradigme ».

L’atelier que nous avons animé sur ce sujet visait précisément à prendre conscience de ce conflit profond entre les fondamentaux des approches habituelles, et ceux des « nouveaux regards ». Et d’envisager des pistes de changement. Pour soi-même, mais aussi pour nos organisations.

 

Cinq cas pratiques permettaient de prendre conscience des « réflexes » que nous pouvons avoir face à l’accident. Des réflexes très humains qui induisent, lorsque les intéressés sont à des postes de décision, des réponses organisationnelles à forts impacts.

Et vous, que feriez-vous :

  • Si votre fils décédait à l’hôpital, à la suite d’un malaise un matin, à la maison ;
  • Lorsque deux avions (un de ligne, l’autre de transport) se percutent en vol ;
  • Après l’explosion au décollage d’une fusée transportant des astronautes ;
  • Quand des avions de combat abattent des hélicoptères alliés au-dessus d’un territoire incertain ;
  • Quand un train s’élance une nuit sans conducteur et sans passagers, s’encastre dans un immeuble en bout de ligne et qu’on y retrouve un personnel d’entretien ?

Cette mise en situation visait à sensibiliser les participants à de nouveaux apports conceptuels et pratiques, et proposait de les relire, a posteriori, avec ces nouveaux regards, dont voici quelques exemples.

 

Le biais rétrospectif

Connaissez-vous le personnage de « Captain Hindsight » dans le dessin animé Southpark ? Ce super-héros est connu pour intervenir dans des situations d’accident : un incendie domestique par exemple, au cours duquel il arrive pour expliquer aux victimes comment elles auraient dû agir pour éviter l’accident, à la grande satisfaction de celles-ci...

Le biais rétrospectif est largement répandu, et le plus souvent involontairement. Un réflexe.

Après l’accident, on analyse la prise de décision passée au regard des éléments dont on dispose après coup, et non au regard de la connaissance de la situation par les acteurs au moment de la décision. Dès lors, il est aisé de déterminer ce que les acteurs auraient dû faire. Ah, ce fichu « facteur humain » qu’une bonne « analyse des causes profondes » peut débusquer !

Car les pratiques de gestion de nos systèmes technologiques et humains reposent encore beaucoup sur une tradition newtonio-cartésienne (sur ce sujet, pas de jalousie entre la tradition continentale et anglo-saxonne). Des fondamentaux qui se sont incarnés au début du siècle précédent dans le taylorisme… et qui imprègnent encore profondément beaucoup de pratiques, voire de méthodes présentées comme « modernes ».

Ces raisonnements reposent sur le principe de causalité linéaire : l’effet final est généré par une cause initiale, qui agit en cascade. Ou éventuellement par plusieurs, dont l’accumulation provoque l’accident (c’est le modèle du « fromage à trous » (ou « swiss cheese model »). Dans ces approches, aucune prise en compte des effets combinés, et encore moins de l’émergence.

Et la prise en compte des facteurs cognitifs, dans le courant des années 80, a conduit les praticiens et penseurs de ces approches classiques à enrichir la liste des causes possibles par une taxonomie des « erreurs humaines »… Toujours ce fichu « facteur humain » dont il faut se défier…

 

90% des accidents sont dus aux facteurs humains ?

Testez sur votre moteur de recherche préféré, et vous trouverez nombre d’illustrations de ce grand classique de la sécurité traditionnelle. Y compris dans les applications les plus récentes de cette discipline : la sécurité informatique.

Car pour les adeptes de la pensée mécaniciste, l’homme est une machine comme les autres. Plus fragile, moins fiable. Et en particulier lorsque le facteur humain est en bout de chaîne – ce qu’on appelle le bout pointu (sharp end). Là où l’action se déroule, où l’effet de l’ensemble s’applique. Et à l’opposé de ce qui caractérise l’organisation : sa culture, ses normes, son management : le côté émoussé (blunt end).

En décrivant ce continuum de sécurité, les promoteurs des nouvelles approches de la sécurité ont choisi, à l’inverse des traditionnalistes, de démontrer que la quête de l’erreur humaine était ni morale, ni efficace. Car dans un système sociotechnique complexe (et même les programmes les plus complexes ont une origine humaine), le « facteur humain » est partout.

On peut chercher les « pommes pourries ». Celles qui contamineront le reste du panier. Sur des critères opportuns. Chercher des coupables, encourager la dénonciation… toute démarche qui conduit à la dissimulation des écarts à la norme, qu’ils soient anodins ou lourds de conséquences. Pour en protéger certains, au détriment des autres. Et il est vrai que, le plus souvent, le « coupable » est du côté « pointu » : là où se déroule l’action, au plus près du terrain.

Mais si l’on s’imprègne des obsessions foucaldiennes de la domination, il est aussi possible d’inverser la charge de l’accusation et de rechercher la culpabilité du facteur humain à l’autre extrémité : non plus celle de l’exécutant mais celle du manager, de l’actionnaire, du législateur. Changer de coupable. Tout simplement.

On peut aussi, et c’est notre préférence, chercher à comprendre comment les situations échappent à un « contrôle » par essence imparfait et impossible, en raison de surcharges cognitives, de conflits de priorités, de compétences insuffisantes ou inadaptées… pour pouvoir agir modestement, et surtout sans chercher de coupables.

S’atteler à mettre le « facteur humain » en situation d’agir collectivement face à l’imprévu. Car une faiblesse individuelle ne conduit à une catastrophe que si le système n’est pas fiable. Dans cette approche, l’erreur humaine n’est en effet pas la cause des défaillances d’un ensemble. Elle est son symptôme. Cela change tout en termes d’action.

Il ne s’agit donc pas de construire des murailles toujours plus hautes, qu’une vague inattendue pourra submerger, ou d’additionner des couches de protection, qu’une conjonction improbable d’événements indépendants rendra inefficaces, mais d’organiser la réactivité du système et de développer ses capacités d’apprentissage. Pour se préparer à l’aléa de demain, celui qui nous surprendra. Être prêt à ne pas être prêt…

 

Apprendre de ses succès

Car l’approche traditionnelle de la sécurité repose sur un autre modèle de conviction, ou d’habitudes cognitives. Celles qu’un accident grave est un incident qui a « réussi ».

Dès lors, toute démarche de sécurité qui repose sur ce paradigme ancien repose sur la recherche d’un « zéro défaut », même lorsque le « défaut », ou l’écart à la règle, n’a aucune conséquence négative.

Traquer le moindre écart, même justifié par les circonstances, écarter les initiatives qui s’écartent de la norme, même quand elles « sauvent le système », c’est choisir le paradigme du contrôle total. C’est céder à l’ivresse de l’hubris, au fantasme de l’omniscience et de l’omnipotence.

C’est aussi dédier tout son temps, toute son énergie, toute ses capacités cognitives, aux erreurs, aux échecs, aux fautes.

Mais comment mesurer l’amélioration de la sécurité d’un système en comptant le nombre d’événements contraires ? Ou, plus poétiquement, comment être heureux en se consacrant exclusivement à ses échecs ?

Le choix des nouvelles approches de la sécurité est aussi celui d’apprendre des capacités humaines à affronter l’incertain, l’inconnu, l’inattendu. Y compris lorsqu’elles passent outre les normes, en faisant preuve d’initiative. Accepter les écarts – dès lors que l’intention est bonne. Un délicat exercice de doigté que pratiquent les organisations qui recherchent une « culture juste ».

C’est abandonner le fantasme immoral et inefficace du contrôle total, en faisant preuve d’humilité. En ne se tenant pas « droit dans ses bottes » mais en gérant les compromis entre sécurité et efficacité. En naviguant à l’équilibre entre trois lignes de crête : celle de la catastrophe, celle de l’effondrement économique et celle des capacités humaines.

 

Aux cinq cas étudiés dans notre atelier participatif, on pourrait en ajouter un sixième, accessible à tous grâce au film « Sully », de Clint Eastwood, avec Tom Hanks. Issu d’un cas réel.

Après l’accident, décideriez-vous de punir celui qui n’a pas respecté les procédures, au détriment de l’appareil, ou d’apprendre, pour les promouvoir et les diffuser, les compétences et les comportements qui lui ont permis de sauver la vie des passagers ?

 

A l’heure où nos sociétés et nos entreprises sont confrontées à des défis complexes, aux frontières du chaos des systèmes vivants, toutes ces questions se posent avec acuité.

 

 

 

Rédigé par Kaqi

Publié dans #Management, #Social change

Commenter cet article