mercredi 10 avril 2013

Comment les systèmes complexes « plantent »

Les systèmes complexes sont conçus par les ingénieurs pour opérer dans des conditions statiques ou déterministes mais opèrent quotidiennement dans des environnements dynamiques, aléatoires ou stochastiques, et doivent donc être entretenus et adaptés en permanence.



Selon le Dr Richard Cook (chercheur au Cognitive Technologies Laboratory à l'université de Chicago, professeur spécialisé dans la sûreté des systèmes de santé et directeur du département de la sûreté médicale au Royal Institute of Technology à Stockholm), le lien entre la théorie/la conception et l'application est établi par les opérateurs humains dont la résilience repose sur quatre facteurs : la surveillance du système, la réaction aux événements, l'adaptation aux changements de conditions et l'apprentissage d'une utilisation dérivée de l'objectif initial. Tous ces facteurs réunis relèvent de « l'ingénierie de la résilience » ou de la « résilience des systèmes ».


Trop souvent, les concepteurs/ingénieurs et les opérateurs d'un même système pensent et agissent dans deux blocs cloisonnés et opposés. Cook estime que leurs approches doivent être combinées et/ou coordonnées, notamment grâce à la Méthode d'Analyse de la Résonance Fonctionnelle (Functional Resonance Analysis Method) qui, globalement, permet d'étudier la variabilité des usages quotidiens d'un système dans le champ réel. La FRAM repose sur quatre principes généraux : le principe d'équivalence des succès et des échecs, le principe des ajustements approximatifs, le principe d'émergence et le principe de la résonance fonctionnelle.

Un recours plus poussé à la FRAM (par les concepteurs/ingénieurs et opérateurs) donnerait ses lettres de noblesse tant à l'ingénierie de la résilience qu'à l'amélioration des facteurs de résilience dans le cycle de vie d'un produit, d'un service ou d'un système complexe.


Fort de son remarquable savoir-faire, Cook a édité le très enrichissant How Complex Systems Fail dont les 18 points forts (traduits et interprétés en français par mes soins, risques d'erreurs en sus) valent largement le détour :
  1. Les systèmes complexes sont intrinsèquement sujets à des risques.
  2. Les systèmes complexes sont lourdement protégés avec succès contre les défaillances.
  3. Une catastrophe nécessite de multiples défaillances – des points de défaillance uniques ne sont pas suffisants...
  4. Les systèmes complexes comportent en leur sein des mixtures changeantes de défaillances latentes.
  5. Les systèmes complexes fonctionnent en mode dégradé.
  6. La catastrophe est toujours imminente.
  7. L'attribution post-accidentelle à une cause première est fondamentalement erronée.
  8. L'analyse rétrospective biaise les évaluations post-accidentelles du facteur humain.
  9. Les opérateurs humains ont un double rôle : à la fois producteurs de défaillances et protecteurs contre les défaillances.
  10. Toutes les actions de l'opérateur sont des paris.
  11. Les actions résolvent finalement toute ambiguïté.
  12. Les opérateurs humains sont l'élément adaptable des systèmes complexes.
  13. L'expertise humaine dans les systèmes complexes change constamment.
  14. Le changement introduit de nouvelles formes de défaillances.
  15. Des solutions limitées à « la cause première » amoindrissent l'efficacité des protections contre de futurs incidents.
  16. La sûreté n'est pas une composante mais une caractéristique des systèmes.
  17. Les opérateurs et les utilisateurs fabriquent constamment de la sûreté.
  18. La conduite d'opérations sans défaillances nécessite une expérience de la défaillance.

Les professionnels de la cyber/sécurité, de la finance, de la santé, les gestionnaires d'infrastructures vitales et les ingénieurs en aéro/spatial et en armement – pour ne citer qu'eux - feraient bien de lire et relire ce petit chef d'oeuvre de sociotechnique. Et si on allait faire un tour à Tchernobyl puis à Fukushima ?

En savoir plus :
  1. Cognitive Technologies Laboratory : How Complex Systems Fail (PDF)
  2. Velocity 2012 : Richard Cook – How Complex Systems Fail (vidéo, 28 mn)
  3. IT Conversation : How Complex Systems Fail (MP3, 29 mn, 13,6 Mo)

Aucun commentaire: