Retour à la page d'accueil ARTIS FACTA     
Paradoxes et nouvelles orientations du facteur humain en sûreté de fonctionnement
    




Aller à : Conception centrée sur l'utilisateur

Aller à : Organisation par le travail

Aller à : Sureté assurée par l'homme


   Qui sommes nous ?
 
   Notre offre
 
   L'équipe
 
   Notre approche
 
   Les chantiers
 
   Nos clients
 
   Publications
(Retour à la liste)
 
   Bulletin d'infos
 





 

Par Henri FANCHINI
henri.fanchini@artis-facta.com

ARTIS FACTA - Ingénierie des Facteurs Humains
51, rue de l'Amiral Mouchez - 75013 PARIS
Tél : +33 1 43 13 32 33 - Fax : +33 1 43 13 32 39 *

Paru dans la Revue l'ARMEMENT numéro 67, septembre 1999.



Résumé

Un responsable de la sûreté et de l’environnement d’un groupe industriel, avouait récemment que " on ne sait pas se dépatouiller du Facteur Humain. C’est plutôt un angle de vue qu’une modalité pratique… ".

En réponse, nous levons quelques ambiguïtés du terme " facteur humain ", en développant l’idée que l’Homme ne peut pas être abordé comme un facteur.

Pointant les croyances disparates qui coexistent au sein des organisations, nous esquissons les nouvelles orientations de recherche qui, délaissant l’accent mis sur l’opérateur individuel, interrogent désormais les organisations et le management, au travers de la question de la culture de sûreté.




L’homme n’est pas factorisable

Apparue dès le 19ème siècle dans les cercles militaires, pour désigner l’opérateur de premier niveau qui actionne les dispositifs techniques, la notion de facteurs humains (FH) s’est structurée en courant de pensée à partir d’études menées par l’armée américaine, lors de la seconde guerre mondiale, afin d’améliorer les systèmes d’armes de plus en plus complexes.

Entre deux guerres, la Human Factors and Ergonomics Society (HFES) oriente le courant de pensée principalement vers la recherche de la performance.

Puis, en intégrant l’ergonomie et la dimension " adaptation du travail à l’homme ", l’HFES se fixera comme objectif de créer et de diffuser des connaissances permettant de concevoir des systèmes faisant interagir des hommes et des machines dans des environnements variés, en vue d’améliorer non seulement leur efficacité, mais également leur sûreté et leur facilité d’utilisation.

Les accidents industriels majeurs (Three Miles Island, Bhopal, Tchernobyl, Challenger…) ne feront qu’accentuer l’orientation des Facteurs Humains vers la fiabilité humaine.

Qu’il s’agisse du taylorisme, qui ne considère de l’homme que la part utile, en l’occurrence le travail musculaire, le priant de laisser le reste au vestiaire, ou encore du cognitivisme, qui ne considère que sa forme mentale, s’attachant à en connaître les raisonnements tout en ignorant les dimensions physiologiques, psychiques et sociales en jeu, force est de constater que la " question humaine " n’a toujours été abordée que sous une forme partielle, comme un facteur parmi d’autres.

De même, dans les entreprises, la Sûreté de Fonctionnement (SdF) procède par strates successives, les avancées étant d’abord techniques, puis réglementaires, le levier FH n’étant actionné que lorsque les leviers techniques sont " au taquet ".

Le paradigme dominant de ces courants de pensée relève d’une logique d’intégration, qui s’emploie à rapatrier la part de l’homme qui peut " en l’état " s’intégrer dans le dispositif d’ensemble, en considérant le reste comme inexploitable ou dans le meilleur des cas comme un bruit de fond à neutraliser.

L’homme est considéré analytiquement comme un sous-ensemble décomposable dont une ingénierie ad hoc peut intégrer les parties indépendamment les unes des autres.

Alors que les accidents, comme Challenger [1], viennent nous rappeler régulièrement les limites de la maîtrise technique, deux raisons extrêmes peuvent justifier la place de l’homme dans les systèmes :

  • soit que la technique n’est pas encore en mesure de le remplacer. Aussi l’homme est-il considéré comme une machine imparfaite et en sursis utile. Le modèle cible de la sûreté de fonctionnement serait alors un modèle sans l’homme, ce qui est une vue de l’esprit, tant il est vrai que le FH restera encapsulé dans la conception, avec son cortège d’erreurs latentes…
  • soit que la réalité investit un univers ouvert, non connaissable de façon déterministe, dont les frontières se déplacent en permanence. Auquel cas, il appartient à l’homme de définir à chaque instant où situer la frontière, discriminer ce qui doit être pris en compte, et faire face aux événements, imprévus par définition. C’est grâce à une culture du doute, qu’il ne partage pas avec les machines, que l’homme demeure en éveil, aux avant-postes d’un système ouvert.

Quelle qu’en soit la raison, dès lors que l’homme est là pour ce qu’il vaut, il doit être considéré pour ce qu’il est.

Ainsi, la sociologie compréhensive (Weber, Habermas) nous fait connaître que l’action humaine relève toujours de la recherche d’un équilibre entre plusieurs rationalités, parfois contradictoires :

  • une rationalité instrumentale, en recherche d’efficacité, qui emprunte les lois de la physique. Elle sert en premier ressort la logique de productivité de l’entreprise, qui en ignore souvent les autres formes,
  • une rationalité axiologique, qui concerne les valeurs partagées par les groupes sociaux (éthique, religion, appartenance à un corps de métier, etc),
  • une rationalité subjective, qui porte sur la manière dont chacun perçoit et ressent les choses en rapport avec l’authenticité et la construction de soi, génératrice de créativité, d’intuition et de mobilisation,
  • une rationalité communicationnelle, inhérente à la recherche de vérité, qui découle de la capacité de chacun à interagir avec les autres pour se mettre d’accord sur ce qu’ils font et sur ce que lui-même fait.

Aussi, entre la technique et l’homme multidimensionnel, ce n’est pas la logique d’intégration qui prévaut, mais bien une logique de confrontation, une mise en tension permanente, où l’homme ne peut se défaire de ses parties indésirables aux yeux de l’ingénierie. En ce sens, le FH résiste en tant que " modalité pratique " et mérite que l’on adopte à son encontre un " angle de vue ", tout à la fois systémique et éthique.

Cette logique de confrontation s’exprime d’autant mieux que les services en charge des questions de SdF intègrent des compétences pluridisciplinaires, notamment issues des sciences humaines, et ne sont pas constitués exclusivement d’ingénieurs.

Quand la technique et l’homme doivent s’assembler, la résultante est irréductiblement hétérogène. Même si la part intégrable de l’homme progresse de pair avec la connaissance, elle n’en demeure pas moins marginale en regard de sa globalité : l’homme ne peut être appréhendé sous forme de facteur.

Dès lors, même quand il ne représente qu’une portion limitée du dispositif sociotechnique, dans une perspective de SdF, c’est autour de lui qu’il convient d’organiser le reste du système…

 



L’homme agent de fiabilité faillible et/ou agent extra-tolérant ?

Par analogie avec la fiabilité technique, dès 1962, la fiabilité humaine a été définie comme " la probabilité qu'un individu effectue avec succès la mission qu'il doit accomplir, pendant une durée déterminée et dans des conditions définies ".

Dès cette époque, la transposition à la fiabilité de l’homme des modes de raisonnement utilisés pour traiter de la fiabilité technique n’a cessé de mettre en exergue le manque de fiabilité du FH, au fur et à mesure que la fiabilité technique s'améliorait. Néanmoins, les études centrées sur la quantification de l’erreur humaine et l’analyse probabiliste du FH, ont ouvert la voie à la réflexion sur la place de l’homme dans les systèmes.

L’idée de substituer la machine au " maillon faible " humain ne sera tempérée que, vers les années 80, sous l’influence de la psychologie cognitive, de l’anthropologie du travail, de l’ergonomie et de la psychodynamique qui montrent alors l’importance des facteurs de contextes externes sur la performance humaine en matière de fiabilité, et insistent sur la contribution positive de l’homme à la sûreté des systèmes.

Aujourd’hui un consensus prévaut, où il est convenu de dire que l’homme est un agent de fiabilité faillible.

Il est important de noter, par opposition à la machine, que, pour l’homme, ce manque de fiabilité est moins imputable au fait de commettre des erreurs qu’au fait de ne pas être à même de toutes les récupérer.

Aussi, les efforts pour améliorer la fiabilité humaine devraient-ils porter autant sinon plus sur la mise en place d’un environnement technique et organisationnel lui permettant de détecter et de récupérer ses propres erreurs, en privilégiant la réversibilité des systèmes, que sur un environnement lui évitant d’en commettre.

Toutefois, lorsque l’on parle de fiabilité humaine, l’on passe sous silence d’autres dimensions, qui relèvent de l’extra —tolérance [2] humaine :

  • la robustesse, qui consiste à assurer une fonction dans des conditions environnementales pour lesquelles " il n’est pas fait ",
  • l’adaptabilité, qui consiste à assurer une fonction dans des conditions environnementales telles, que les procédures normales ne peuvent être utilisées,
  • le fait que le collectif de travail est supérieur à la somme des individus qui le composent, grâce à des propriétés émergentes dans le registre de la régulation, de la récupération des dysfonctionnements et de l’anticipation.

La confusion est fréquente entre manque de fiabilité et défaut de robustesse ou d’adaptabilité. On omet alors de considérer que l’intervention humaine s’est matérialisée dans une zone où les machines " fiables " étaient disqualifiées d’office.

Par ailleurs, il y a une sorte de contradiction entre la fiabilité, qui relève d’un univers " prévu ", et l’adaptabilité, qui s’exerce dans un univers imprévu, voire imprévisible. Il y a donc comme un paradoxe à attendre de l’homme qu’il développe à la fois des capacités optimales dans les deux registres " antagonistes " que sont la fiabilité et l’adaptabilité.



Zéro incident, croyances et discours associés

L’idée de l’obtention de la SdF en faisant coïncider simplement la dimension de l’individu avec la dimension de la technique est en déclin, et à partir des années 90, une orientation nette a été prise en matière de R&D, axée sur les systèmes de management et les questions de culture de sûreté.

Pour autant, cette orientation ne s’est pas encore répercutée dans les entreprises, où le cheval de bataille reste l’individu et non pas l’organisation.

À l’instar des autres zéros (papier, stock, défaut, etc) le zéro incident est le leitmotiv de beaucoup de grandes entreprises. C’est l’objectif ultime à atteindre, prôné par les dirigeants les plus élevés, qui exhortent leurs cadres à s’investir dans cette croisade.

Engagement de la Direction, exemplarité de l'encadrement, cohérence, présence sur le terrain, sensibilisation et responsabilisation, s'impliquer, communiquer, et le montrer, sont les maîtres mots.

Pourtant, nous sommes de plus en plus nombreux à admettre qu’il existe un taux incompressible d’erreurs, indissociable du processus d’apprentissage humain.

Et quand bien même ce zéro incident serait-il atteint, à quel coût et pour quelle durée pourrait-il être maintenu ?

Aussi, dans les organisations, la " gestion du FH " donne lieu à des croyances et à des dispositions pratiques diversifiées, souvent antinomiques.

À un extrême, erreur et nature humaine forment un amalgame qui rime avec faute et sanction.

Une parade réside dans la sélection. Mais considérer que la compétence est un attribut intrinsèque de la personne, c’est souvent une manière inélégante qu’a l’organisation de se dédouaner de son incapacité à construire ces compétences en rapport avec le travail.

Une autre parade procède de l'évincement de l'homme ou de la limitation de la portée de son action. Ainsi, dans certaines armes, les spécialistes du FH sont convoqués à mettre en place toutes formes possibles de verrouillage, par la technique et par l'organisationnel, afin d'éviter d'aller trop loin dans les actions erronées. Mais le coût de l’automatisation est souvent prohibitif. Par ailleurs, un certain nombre de fiascos militaires, en particulier les quasi-accidents nucléaires lors de la guerre froide [3], tendraient à montrer les limites de cette conception.

Plus bienveillantes sont les dispositions qui visent à l'évitement de l'erreur, en déployant des efforts pour remonter le plus en amont des précurseurs des dysfonctionnements : chasse aux anomalies, gestion des presque événements…ou encore la conception de systèmes techniques tolérants aux erreurs.

Malgré tout, la question du FH n'arrive pas à s'affranchir de celle du comportement individuel. Priorité est alors donnée à l'éducation comportementale et la culture du " bien être ", axée sur l'hygiène et la santé individuelle, est institutionnellement encouragée.

Enfin, lorsqu’un certain degré de confiance vis-à-vis de l’homme est affiché, c’est principalement dans les contextes où, de facto, son influence est quasi inopérante face aux automatismes.

Ces différents états d'avancement de la réflexion sur la place de l'homme cohabitent souvent au sein d'une même organisation.

Pour l’encadrement, il en résulte des dissonances cognitives lourdes à porter. Dans le même temps, instaurer la confiance et la transparence nécessaires au retour d’expérience incidentel, et, d’autre part, obtenir à tout prix des résultats au profit du zéro incident, prête à des injonctions paradoxales qui n’échappent pas aux subordonnés.

À trop vouloir diminuer les indicateurs jusqu’à zéro, on induit des stratagèmes et des pressions pour ne pas déclarer les incidents, minimiser leur gravité ou encore limiter la durée des arrêts de travail.

De fait, le discours du zéro-défaut conduit à une impasse sémantique, une contradiction entre une ambition affichée et les décisions pragmatiques courantes.



Accident organisationnel et culture de sûreté

Le prochain axe de progrès réside vraisemblablement dans la compréhension des contributions de l’organisation et du management en tant que tels aux résultats en SdF [4] et dans la réémergence de la dimension collective.

Face à la précarisation de l’emploi, la flexibilité, et à tous les facteurs économiques qui vont dans le sens d’une force de travail contingente, certains auteurs pronostiquent des modifications profondes du " contrat psychologique " passé entre employeurs et employés. Chez les managers, supposés maîtriser les situations, nombreux sont ceux qui ont fait l’expérience d’un accroissement de l’insécurité de l’emploi, de l’érosion de la motivation et de la loyauté. Le concept de stress organisationnel s’impose de plus en plus.

Récemment, Hale et Hovden [5] ont procédé à une large revue de la littérature internationale portant sur les approches des facteurs organisationnels ayant un impact sur la sûreté, la santé et la protection de l’environnement.

En classant ces facteurs selon quatre grilles de lecture des organisations (structurelle, ressources humaines, politique et symbolique), ils recherchent l’émergence de corrélations entre de bons résultats en SdF et certains facteurs organisationnels (nombres de règles internes, discipline, stress, relations de travail, communication interne, etc).

Reason [6], par démarcation avec l’accident individuel, donne une définition de l’accident organisationnel : c’est un accident rare, aux conséquences étendues, mettant en jeu plusieurs défenses, ayant des causes multiples, produit des nouvelles technologies, et dont la genèse est " longue ".

Il soutient la thèse que les technologies modernes, bien défendues –comme les centrales nucléaires, les usines chimiques et l’aviation commerciale– sont plus vulnérables aux effets d’une piètre culture de sûreté que les industries traditionnelles qui impliquent une proximité entre les gens et les risques –comme les mines, la construction, l’industrie pétrolière, les infrastructures ferrées et les transports routiers.

Dans ces systèmes modernes, la culture de sûreté est l’élément crucial.

Par culture, il faut entendre un partage de valeurs (ce qui est important) et de croyances (comment les choses fonctionnent) qui interagissent avec les structures de l’organisation et les systèmes de contrôle afin de produire des normes comportementales (la manière que l’on a de faire les choses par ici).

Une piètre culture de sûreté se traduit par une augmentation des erreurs actives, la diffusion d’une atmosphère de non-adhésion aux pratiques de prudence, des violations routinières, et un manque de volonté de la part du management pour traiter proactivement des déficiences connues des défenses en profondeur. L’histoire des accidents organisationnels est riche d’exemples de management négligeant ou repoussant à plus tard la mise en place de mesures correctrices, comme en témoigne l’ouvrage de Llory [7].

Reason fustige la mode de la culture du non-blâme systématique et milite pour une culture de sûreté juste, c’est-à-dire, permettant à chaque individu d’être au clair avec ce qui détermine la différence entre action acceptable et inacceptable. À cet égard, il donne un certain nombre de pistes permettant de distinguer les erreurs des violations, ces dernières pouvant avoir une double origine, contextuelle ou motivationnelle, et pour décider de l’opportunité ou non de sanctions.

Les anglo-saxons, qui ont une vision principalement top down de la culture de sûreté, pensent que celle-ci peut se soumettre à une certaine forme d’ingénierie, alors que l’approche francophone considère que la culture de sûreté, pour partie n’est pas consciente, qu’elle procède d’héritages, de routines, de savoir-faire de prudence, et n’offre par conséquent qu’une prise limitée aux décisions top down.

L’obtention d’une culture de sûreté requiert de partager un même angle de vue quant au FH, et de mettre en adéquation les décisions de management avec cette vision.

La culture de sûreté s’élabore, sur le long terme, à partir de d’éléments fragiles que sont la transparence, la peur, le doute, la confiance, la reconnaissance, la cohérence, l’usage des règles, etc.

Par exemple, la peur doit être considérée différemment selon les niveaux où elle s’exerce. Les organisations qui ont désappris la peur sont sujettes au laisser-aller en matière de culture de sûreté.

Or, en matière de SdF, on attend souvent des opérateurs une attitude interrogative, en particulier chez ceux qui, pilotant et supervisant les procédés, contribuent aux lignes de défense en profondeur du système.

À l’exclusion des situations où l’on ne dispose pas du temps suffisant pour se poser des questions et où tout se résume à une question de réflexes issus d’une longue pratique d’entraînements (cas de certaines équipes des systèmes de combat), en SdF, la " culture " du doute est généralement encouragée.

Dans cet esprit, toute information issue des capteurs est sujette à caution et demande à être vérifiée. Mais cette culture du doute ne peut être bénéfique que si elle prend appui sur une assez bonne confiance dans la fiabilité du système piloté et sur des relations de confiance avec les collègues de travail.

Elle relève d’un équilibre fragile qui peut se dérégler. Face au risque voire à la sanction, le doute peut être contaminé par la peur. À trop douter, on s’expose individuellement à une forme de névrose obsessionnelle, qui s’exprime par des vérifications réitérées plus qu’il n’en faut, au détriment de l’avancement du travail.

Ce faisant, ce travail qui piétine est source de tension entre équipes, et engendre une dégradation de la confiance entre collègues. S’élabore alors un cercle vicieux, entre peur, exacerbation du doute et perte de confiance.

Tous ces ingrédients, doute, transparence, confiance etc. n’ont de vertu que s’ils sont érigés en tant que culture, c’est-à-dire dans la mesure où ils contribuent à l’instauration d’un dialogue au sein des équipes et de la hiérarchie.

C’est au niveau des organisations et du management qu’il convient de les travailler, tout en nuance et avec patience.

Les organisations n’auront acquis leur pleine maturité en matière de sûreté de fonctionnement, que lorsque, ayant admis que l’homme n’est pas soluble dans la technique, elles auront la sagesse de considérer qu’un fonctionnement sous-optimal au plan de la rationalité instrumentale peut avoir pour contrepartie bénéfique une réserve d’adaptation de l’organisation face à un environnement ouvert et incertain…

 



Bibliographie

[1] Vaughan, D. (1996). The Challenger Launch Decision. Risky technology, culture, and deviance at Nasa. The University of Chicago Press.

[2] Fanchini, H. & Bieder, C. (1996). Le rôle positif de l'homme dans la fiabilité des systèmes. Rapport ISdF, Projet 7/95.

[3] Sagan, S. D. (1993). The limits of Safety : Organizations, Accidents and Nuclear Weapons. Princeton University Press, Princeton, New Jersey.

[4] Fanchini, H. & Vallee, G. (1999). Impact des changements organisationnels sur la performance des systèmes d’exploitation et/ou de production industrielle. Réflexions sur la maîtrise des risques organisationnels. Rapport ISdF, Projet 1/97.

[5] Hale, A. R. & Hovden, J. (199 ?). Management and culture : the third age of safety. A review of approaches to organizational aspects of safety, health and environment. In Safety management. The challenge of change, A. HALE, M. BARAM, Ed., Pergamon, Elsevier Science, Oxford, RU, 1998, chapitre 11, p.129-165.

[6] Reason J. (1998), Achieving a safe culture : theory and practice. Work and Stress, 1998, vol. 12, n° 3, 293-306.

[7] Llory M. (1996) Accidents Industriels : le coût du silence. Opérateurs privés de parole et cadres introuvables. L'Harmattan.

 

 

Retour en
haut de page
 






ARTIS FACTA 51, rue de l'amiral Mouchez 75013 PARIS (France)
Nous contacter par mail Tél : 33 (1) 43 133 233 plan d'accès