Archivo para la categoría Cultura Justa
“En situaciones degradadas la responsabilidad recae en el factor humano”
La frase que da título a este post la hemos escuchado innumerables veces y bien parece que por haber sido repetida cientos de ocasiones pudiera aparentar una verdad absoluta. Pero las trampas del lenguaje hacen que no caigamos en ese concepto de “responsabilidad” ni en lo que supone “una situación degradada”.
Podría ser una frase con la que comenzar una conversación de seguridad o un debate para alentar la reflexión de los líderes de una organización en una sesión de trabajo de Cultura de Seguridad.
Las industrias de alto riesgo, y las de transporte lo son, han desarrollado enormemente las tecnologías y los procesos automáticos y con ello la seguridad. Quizá debido a esta enorme aportación la mente ha simplificado el concepto de sistema sociotécnico y se ha quedado en sistema técnico, dejando el reducto humano a esa parte de pobre ejecución donde ya no es posible el desarrollo de automatismos.
Como decía Jack el Destripador “vamos por partes”:
¿Qué se entiende por situación degradada? Situación que pierde sus cualidades de eficacia (y sus cualidades de seguridad) generando condiciones de actuación diferentes. Esto es, situación que señala los límites de la tecnología.
Y esto nos hace preguntarnos ¿de quién es la responsabilidad cuando los automatismos funcionan? De quién y no de qué, porque las responsabilidades les corresponden a las personas.
Cuando ustedes respondan a esta pregunta pasamos a chequear si están de acuerdo con la siguiente premisa: hemos diseñado un sistema donde el estándar tecnológico constituye lo normal pero se acepta por las organizaciones que los sistemas tecnológicos pueden fallar.
Hasta el momento no ha aparecido en acción ningún factor humano* ¿cuándo aparece? cuando el sistema se rompe, se avería, falla, entonces el factor humano, como el doble que sustituye al protagonista en las escenas difíciles o peligrosas de un rodaje, el factor humano entra en acción.
Al elemento humano le pedimos lo que el protagonista no ha sido capaz de realizar y casi siempre con un aumento del riesgo: que lo realice limpiamente. Y volvemos a hacer la pregunta ¿de quién es la responsabilidad cuando los automatismos no funcionan y ha de entrar en acción el actor secundario, el factor humano? ¿ha cambiado la responsabilidad? ¿se desentiende ahora la organización de la responsabilidad que tenía cuando disponía de los automatismos? ¿ha habido una transferencia de responsabilidades?
Las trampas del lenguaje nos indican que sí, pero en realidad esto no es cierto. En situaciones degradadas es la tarea la que recae en el factor humano, no la responsabilidad. Una tarea que ha de realizarse de otro modo a como lo hacía el automatismo, que tienen otros riesgos que habrán de haber sido identificados, evaluados y mitigados para esas condiciones concretas, teniendo en cuenta las capacidades y límites humanos, como se tuvo en cuenta los requisitos de las tecnologías para que estuvieran en perfectas condiciones de rendimiento y fiabilidad.
¿Está preparada la organización para que el factor humano falle como estuvo preparada para cuando falló la tecnología?
Desgraciadamente algunas organizaciones no permiten que los individuos fallen y les culpan cuando no obtienen el resultado deseado, quizá como a los dobles en las escenas de riesgo, de que no hayan sido suficientemente hábiles.
Es aquí donde ese subconsciente que venera la tecnología y arrincona el concepto de sistema humano, señala, culpa, responsabiliza, delega toda la seguridad del sistema sin delegar el rol de mando y quizá por ello, en los propios procedimientos y manuales de funcionamiento de los sistemas tecnológicos incluyan un modo donde tecleen “staff responsability”. Una vez más, las trampas del lenguaje. Debería indicar “modo manual”.
Y aquí el debate hace un malabarismo y se cambian las preguntas para desviar el contexto de la verdadera responsabilidad en el diseño de las tareas, la distribución de tareas entre tecnología y personas, para abordar otra cuestión sobre si los trabajadores de primera línea tienen responsabilidad sobre el resultado de sus actuaciones, como si este resultado solo dependiera de su única voluntad y no de la urdimbre “ aguas arriba” de una pobre concepción del trabajo donde el humano no es considerado desde el principio parte crucial en el sistema sociotécnico.
A veces pienso que hemos perdido la batalla a la tecnología, pero no por precisión o eficacia en las tareas (que en esto han demostrado su superioridad en ciertos contextos) sino en asumir una responsabilidad que no nos corresponde, porque no señala con claridad quién ha decidido que ahora cuando los sistemas fallan es donde uno no tiene derecho a fallar y además ha de asumir la responsabilidad de ingenieros, mandos y directores cargándose toda la fragilidad del sistema de seguridad a sus espaldas. Un “solo ante el peligro” donde existe un alto porcentaje de ser quemado en la hoguera de la culpabilidad en caso de fallo.
Esa complacencia de la ingeniería quizá vaya unida a una falsa creencia social según la cual el progreso sólo viene de la mano del desarrollo tecnológico y cuando éste muestra sus límites la responsabilidad queda diluida porque tenemos un plan B, el humano, que en vivo y en directo, como un bombero que ha de apagar un fuego ha de enfrentarse a una situación que no ha generado pero de la que le harán responsable si finamente no logra salvar la situación saltando los obstáculos de la gymkana que se haya preparado como ingredientes de esa “situación degradada” no prevista inicialmente para ser realizada por humanos .
Debemos prestar atención a las trampas del lenguaje, porque éste configura nuestro pensamiento y aplicar cuidadosamente la palabra “responsabilidad” no vaya a ser que en situaciones normales nunca aceptaríamos un encargo precario que luego si vayamos a aceptar en condiciones donde se han degradado las potentes tecnologías, dejando ante nosotros una tarea donde corremos un alto precio si fallamos.
En situaciones degradadas la tarea recae en el humano y deben analizarse previamente los factores que pueden afectar a los humanos de modo que se asegure que el riesgo de error va a ser mitigado y tolerable. Al menos concedámonos las mismas garantías de seguridad y de aceptación de fallo que para los sistemas automáticos.
Esto bien podría constituir una reflexión sobre la integración del factor humano en las primeras fases del ciclo de vida del sistema, aunque también sería útil para reflexionar acerca de las responsabilidades, la culpa y la cultura justa.
*Para otro post dejaremos otra trampa del lenguaje (que en este post se ha utilizado asumiéndola) la habitual confusión de reducir los factores humanos como circunstancias que son capaces de influir en el comportamiento de los individuos con los propios individuos humanos. ¿De qué hablamos cuando hablamos de factor humano, así en singular, de personas o de una disciplina que aborda las causas del comportamiento humano relacionada con la psicología y la ergonomía cognitiva?
Integración de la gestión del factor humano en los sistemas de gestión de la seguridad
Publicado por Baltasar Gil en Cultura Justa, Factores Humanos, innovación ferroviaria, Integración de los Factores Humanos en La Seguridad, Reporte de riesgos, Sistema de Gestion de la Seguridad el 05/02/2019
Existe un amplio campo de trabajo para la investigación e innovación de la integración de los Factores Humano en los Sistemas de Gestión de la Seguridad ferroviaria.
Las interfaces funcionales y técnicas en el sistema, subsistemas y componentes tienen una alta afectación e influencia de los factores humanos. La comprensión de los límites entre el sistema ferroviario o el sistema donde se prevé realizar cambios, su entorno y las interacciones con los subsistemas interrelacionados es un requisito para comprender cómo los fallos del sistema o los errores humanos podrían provocar un accidente y cuáles son los peligros relacionados con dichos fallos.
Los factores humanos son un aspecto central dentro de proceso de gestión de RAMS. Es necesario avanzar en la determinación más precisa del impacto de las características, expectativas y comportamiento humano en los sistemas.
La influencia humana tiene aspectos aleatorios y sistemáticos. Todo ser humano puede sufrir periodos ocasionales de disminución de su rendimiento. Cuando dichos periodos tienen lugar durante las fases de explotación y mantenimiento del ciclo de vida del sistema, tienden a provocar fallos aleatorios. Cuando ocurren en fases iniciales del ciclo de vida, pueden provocar fallos sistemáticos en la fase de explotación. Los modelos de análisis y valoración de riesgos sean cualitativos o cuantitativos o una combinación de éstos deben avanzar en claridad y sencillez en base a lógicas basadas en múltiples factores de influencia en la conducta, tanto de forma genérica como específica y contextual.
Mediante la incorporación de nuevas metodologías y tecnologías para la identificación y evaluación de los riesgos que afectan al elemento humano (HMI), mediante el diseño de tareas en base a principios de ergonomía cognitiva que atienda el impacto que tiene sobre las personas la incorporación continua de nuevas tecnologías y la automatización, o también innovar en los modelos de recolección de datos de seguridad y factores humanos (Big Data) que permitan tomar decisiones en tiempo real, modelos de recolección y explotación de datos (voluntarios, independientes, confidenciales y bajo criterios de Cultura Justa).
Innovar en el conocimiento de las interacciones entre las personas y el sistema ferroviario para evitar la introducción de nuevos riesgos en los procesos de automatización, y con la variabilidad de interfaces, hasta ahora desconocidos.
Promover investigaciones sobre la influencia de la automatización en el comportamiento humano y su capacidad de reaccionar en sistemas complejos o en situaciones degradadas, integrando las conclusiones en los procedimientos de gestión y monitoring del SGS.
Adaptar al sistema de gestión de la seguridad operacional los modelos de análisis del error humano en entornos de altas exigencias cognitivas, para la implementación de barreras tecnológicas capaces de mitigar este riesgo especialmente en lo que se refiere a barreras de prevención frente a las de protección.
En unos entornos cada vez más cambiantes y ante sistemas cada vez más automatizados cabe indagar en los límites y capacidades de los gestores de tráfico (operadores de puesto de mando) ante altas demandas puntuales o elevadas demandas de atención sostenidas en el tiempo con la consiguiente afectación de sus recursos cognitivos.
Es necesario también innovar en los procesos dirigidos a la creación de una Cultura de Seguridad Positiva para los ferrocarriles europeos, que refleje la interacción entre los requisitos del sistema de gestión de la seguridad (SGS), la manera en que las personas los interpretan, conforme a sus actitudes y creencias, y la manera en que realmente actúan.
Mediante la aplicación de modelos estándar para el análisis del factor humano en los accidentes, incidentes y eventos de riesgo, nos debe permitir desarrollar metodologías mejoradas para aumentar la fiabilidad humana en los frontlineworkers. Las conclusiones deben ser lecciones aprendidas e incorporadas a bases de datos de libre acceso internacional, y las recomendaciones tienen que servir para modificar las normas y regulaciones vigentes.
La incorporación de tecnologías que aumentan la automatización, el intercambio de datos y la conectividad entre infraestructura, vehículos y personas, nos plantea el desafío de desarrollar interfaces fáciles de usar, amigables, inteligentes y seguras, capaces de mitigar el riesgo del error humano.
Las soluciones innovadoras que integren el factor humano en el sistema de gestión de la seguridad ferroviaria tienen que tener una visión global que permita una transferencia intermodal con otros modos de transporte y una trasferencia inter-regional que tenga en cuenta las distintas lenguas y culturas en el marco europeo.
Los seres humanos tienen la capacidad de influir positiva o negativamente en las RAMS de un sistema ferroviario. Este impacto afecta a las diferentes fases de vida del sistema y sin embargo aún no se ha experimentado con datos recogidos del impacto positivo de las personas en algunas fases del ciclo de vida decisivas para la gestión del riesgo. Debe ahondarse en el impacto positivo (Safety II) la recolección y análisis de estos datos que permita disponer de inputs innovadores para la gestión de los recursos.
En cuanto a la identificación de algunos retos tecnológicos podemos subrayar:
Desarrollo de tecnologías novedosas para limitar la cuantía de los daños y el impacto de un incidente de seguridad.
Herramientas para la resiliencia en seguridad.
Desarrollo de herramientas para la captura de indicadores de comportamiento en situaciones normales y/o degradadas.
Desarrollos e innovaciones para factores emergentes de riesgo que desafíen límites y capacidades humanos.
(ref:apartado IV del documento de posicionamiento «Innovación en la seguridad del sistema ferroviario, protección al sistema y a la ciudadanía» Plataforma Tecnológica Ferroviaria Española).
Baltasar Gil de Egea
ESM HUman Factors.
Cultura Justa, también en el sector ferroviario
Publicado por Pilar Calvo en Cultura Justa, Factores Humanos, sector ferroviario, seguridad operacional, Sistema de Gestion de la Seguridad el 02/25/2016
Llamada “Just Culture”, en el ámbito internacional, constituye uno de los pilares claves de la Seguridad Operacional y es una lección urgente a aprender en el sector ferroviario.
En el ámbito de los Sistemas de Gestión de la Seguridad es necesario ir incorporando buenas prácticas que se han demostrado eficaces y necesarias en otros ámbitos del transporte, como puede ser el aeronáutico.
El Reglamento (UE) nº 376/2014 del Parlamento Europeo y del Consejo de 3 de abril de 2014 relativo a la aviación civil, la define como:
“La cultura en la que no se castigue a los operadores y demás personal de primera línea por sus acciones, omisiones o decisiones cuando sean acordes con su experiencia y capacitación, pero en la cual no se toleren la negligencia grave, las infracciones intencionadas ni los actos destructivos.”
Ha de estar claro para toda la organización quién toma la decisión y con qué metodología se toma, a fin de determinar si la conducta que ha dado lugar a un acto inseguro es o no aceptable.
Cuando las organizaciones implantan y desarrollan la Cultura Justa como cultura de seguridad operacional, el resultado evidencia que una mínima parte de las acciones se puede considerar negligentes o intencionadas, pero hay algo aún más importante, se demuestra que si la mayoría de los “actos inseguros” se reportan sin miedo a ser sancionados, la información en tiempo real que se obtiene de los riesgos es un dato valiosísimo e insustituible.
La Cultura Justa está emparentada con la Cultura del Reporte, con la notificación de errores o procedimientos que no se han cumplido, entre otras cuestiones, de forma que se pueda reaccionar de forma preventiva ante riesgos latentes para mitigarlos antes de que se conviertan en causas de un accidente.
También está emparentada con la Cultura del Cuestionamiento, cuando el personal, cada vez más consciente de la seguridad operacional, va cuestionándose cómo hacer mejor las tareas y por tanto no cediendo hacia posturas que dan lugar a la complacencia. Asimismo, se complementa con la Cultura del Aprendizaje, donde la información relacionada con la seguridad operacional se reporta de forma abierta y franca, sin temor a represalias, de forma que se toman los datos recabados como lecciones de seguridad operacional y oportunidades para aprender.
El cambio de la “cultura de buscar al culpable” por una más constructiva y positiva “cultura justa” contribuye a esa cultura positiva de seguridad tan ansiada por las organizaciones ferroviarias. Este enfoque, más acorde con la necesidad de obtener evaluaciones de riesgos eficaces, partiendo de una buena identificación de peligros y obteniendo datos fiables que nos ayuden a los cálculos probabilísticos, hace evidentes dos conceptos fundamentales y no mutuamente excluyentes:
-Por un lado que, el error humano es inevitable y por consiguiente la organización necesita vigilarse y mejorarse para asumir y hacerse resistente a esos errores sin que escalen y produzcan consecuencias no deseadas.
-Por otro lado que, los individuos son responsables de sus acciones siempre que conscientemente violen los procedimientos de seguridad operacional establecidos.
Las personas que están en primera línea, están expuestas directamente a los peligros y para conseguir que estas personas notifiquen posibles errores o trasgresiones al realizar sus tareas, se requiere una política organizacional y un acuerdo en el que cualquiera pueda informar sin temor a represalias o sanciones.
Un saludo, más Fiabilidad y un pasito más en el avance y la comprensión de los Factores Humanos…