En s'appuyant sur des exemples saisissants - notamment la décision, prise par la NASA en 1986, de lancer la navette Challenger, qui s'avéra une catastrophe -, il y démontrait que, curieusement, les individus prenaient collectivement des décisions singulières et qu'ils agissaient avec constance dans le sens totalement contraire au but recherché, ce qui aboutit à des erreurs radicales et persistantes : on lance la navette malgré des joints toriques défectueux ; on se trompe de membre ou de côté à opérer en salle d'opération ; pour éviter un accident, des pilotes s'engagent dans une solution qui les y mène tout droit ; on persévère dans l'usage d'un outil de gestion au résultat inverse de l'objectif visé ; on persiste à passer en cordée sous un couloir d'avalanche quand les indicateurs météo sont mauvais et connus.

Quels sont les raisonnements produisant ces décisions absurdes ?

Les mécanismes collectifs qui les construisent ?

Comment peut-on à ce point se tromper et persévérer ?

Dix ans après, son analyse poursuit l'enquête en recherchant, dans des univers à haut risque - porte-avions, sous-marin nucléaire, bloc opératoire, centrale nucléaire, cockpit d'un avion, randonnée hivernale en haute montagne -, des dynamiques visant à favoriser la décision éclairée et fiable. Sait-on par exemple que la pratique du débat contradictoire a été déterminante pour la fiabilité des réacteurs nucléaires de la Marine américaine, que l'introduction d'une check-list - récente en France - a réduit la mortalité chirurgicale de près de moitié, que l'armée de l'air ne sanctionne plus les erreurs pour faciliter la remontée d'informations et les retours d'expérience anonymes ?

À partir de ces expériences réelles, patiemment observées, finement décortiquées, l'auteur dégage ce qu'il appelle "les métarègles de la fiabilité" (pages 249-252) :

1. Dans un grand nombre de situations, notamment critiques, le pouvoir de décision se déplace vers ceux qui savent et sont proches des opérations. La décision collective est alors privilégiée par rapport à la décision hiérarchique.

2. Le débat contradictoire fait partie intégrante des prises de décision : procédure d'avocat du diable, examen d'une contre-proposition minoritaire, attitude interrogative.

3. Le consensus est recherché, mais son authenticité est vérifiée. Un attention est portée au consensus apparent, qui peut se révéler un faux consensus.

4. Les individus s'informent mutuellement en permanence de façon croisée et redondante. Ils effectuent des briefings et debriefings.

5. Les risques de dysfonctionnements liés aux interstices font partie de la conscience collective : séparation des fonctions, séparation géographique, externalisation, sous-traitance, etc. La multiplication infinie des interstices est évitée.

6. Le principe de non-punition des erreurs, événements indésirables, accidents est appliqué en vue de favoriser la remontée d'informations sur les causes profondes. Seule la faute intentionnelle à but personnel ets sanctionnée. Les rapports d'erreurs sont anonymes.

7. La fiabilité ne peut être obtenue sans des règles - procédures, standards, consignes, bonnes pratiques professionnelles - et qu'en même temps des écarts aux règles sont inévitables compte tenu de l'indétermination et du caractère évolutif des situations. Cela suppose une rigueur jurisprudentielle : évolution de la règle, nouvelle règle, écart admis à titre exceptionnel, écart refusé.

8. Les événements indésirables ainsi que les événements positifs sont analysés et diffusés. L'analyse met l'accent sur les facteurs humains et les mécanismes systémiques.

9. Les individus sont formés aux facteurs humains, et aux mécanismes cognitifs, psychologiques et sociologiques qui entravent ou facilitent les prises de décision et les processus organisationnels environnants.

10. Tout projet de réduction de l'investissement en fiabilité est examiné en tenant compte de l'augmentation éventuelle du coût de non-fiabilité.

Bien entendu, on pourrait considérer que l'analyse de l'auteur se limite aux organisations et aux situations professionnelles à haut risque. Et si, tout au contraire, la formation, l'orientation, l'éducation, l'enseignement étaient eux aussi des secteurs à haut risque ?