La frase que da título a este post la hemos escuchado innumerables veces y bien parece que por haber sido repetida cientos de ocasiones pudiera aparentar una verdad absoluta. Pero las trampas del lenguaje hacen que no caigamos en ese concepto de “responsabilidad” ni en lo que supone “una situación degradada”.
Podría ser una frase con la que comenzar una conversación de seguridad o un debate para alentar la reflexión de los líderes de una organización en una sesión de trabajo de Cultura de Seguridad.
Las industrias de alto riesgo, y las de transporte lo son, han desarrollado enormemente las tecnologías y los procesos automáticos y con ello la seguridad. Quizá debido a esta enorme aportación la mente ha simplificado el concepto de sistema sociotécnico y se ha quedado en sistema técnico, dejando el reducto humano a esa parte de pobre ejecución donde ya no es posible el desarrollo de automatismos.
Como decía Jack el Destripador “vamos por partes”:
¿Qué se entiende por situación degradada? Situación que pierde sus cualidades de eficacia (y sus cualidades de seguridad) generando condiciones de actuación diferentes. Esto es, situación que señala los límites de la tecnología.
Y esto nos hace preguntarnos ¿de quién es la responsabilidad cuando los automatismos funcionan? De quién y no de qué, porque las responsabilidades les corresponden a las personas.
Cuando ustedes respondan a esta pregunta pasamos a chequear si están de acuerdo con la siguiente premisa: hemos diseñado un sistema donde el estándar tecnológico constituye lo normal pero se acepta por las organizaciones que los sistemas tecnológicos pueden fallar.
Hasta el momento no ha aparecido en acción ningún factor humano* ¿cuándo aparece? cuando el sistema se rompe, se avería, falla, entonces el factor humano, como el doble que sustituye al protagonista en las escenas difíciles o peligrosas de un rodaje, el factor humano entra en acción.
Al elemento humano le pedimos lo que el protagonista no ha sido capaz de realizar y casi siempre con un aumento del riesgo: que lo realice limpiamente. Y volvemos a hacer la pregunta ¿de quién es la responsabilidad cuando los automatismos no funcionan y ha de entrar en acción el actor secundario, el factor humano? ¿ha cambiado la responsabilidad? ¿se desentiende ahora la organización de la responsabilidad que tenía cuando disponía de los automatismos? ¿ha habido una transferencia de responsabilidades?
Las trampas del lenguaje nos indican que sí, pero en realidad esto no es cierto. En situaciones degradadas es la tarea la que recae en el factor humano, no la responsabilidad. Una tarea que ha de realizarse de otro modo a como lo hacía el automatismo, que tienen otros riesgos que habrán de haber sido identificados, evaluados y mitigados para esas condiciones concretas, teniendo en cuenta las capacidades y límites humanos, como se tuvo en cuenta los requisitos de las tecnologías para que estuvieran en perfectas condiciones de rendimiento y fiabilidad.
¿Está preparada la organización para que el factor humano falle como estuvo preparada para cuando falló la tecnología?
Desgraciadamente algunas organizaciones no permiten que los individuos fallen y les culpan cuando no obtienen el resultado deseado, quizá como a los dobles en las escenas de riesgo, de que no hayan sido suficientemente hábiles.
Es aquí donde ese subconsciente que venera la tecnología y arrincona el concepto de sistema humano, señala, culpa, responsabiliza, delega toda la seguridad del sistema sin delegar el rol de mando y quizá por ello, en los propios procedimientos y manuales de funcionamiento de los sistemas tecnológicos incluyan un modo donde tecleen “staff responsability”. Una vez más, las trampas del lenguaje. Debería indicar “modo manual”.
Y aquí el debate hace un malabarismo y se cambian las preguntas para desviar el contexto de la verdadera responsabilidad en el diseño de las tareas, la distribución de tareas entre tecnología y personas, para abordar otra cuestión sobre si los trabajadores de primera línea tienen responsabilidad sobre el resultado de sus actuaciones, como si este resultado solo dependiera de su única voluntad y no de la urdimbre “ aguas arriba” de una pobre concepción del trabajo donde el humano no es considerado desde el principio parte crucial en el sistema sociotécnico.
A veces pienso que hemos perdido la batalla a la tecnología, pero no por precisión o eficacia en las tareas (que en esto han demostrado su superioridad en ciertos contextos) sino en asumir una responsabilidad que no nos corresponde, porque no señala con claridad quién ha decidido que ahora cuando los sistemas fallan es donde uno no tiene derecho a fallar y además ha de asumir la responsabilidad de ingenieros, mandos y directores cargándose toda la fragilidad del sistema de seguridad a sus espaldas. Un “solo ante el peligro” donde existe un alto porcentaje de ser quemado en la hoguera de la culpabilidad en caso de fallo.
Esa complacencia de la ingeniería quizá vaya unida a una falsa creencia social según la cual el progreso sólo viene de la mano del desarrollo tecnológico y cuando éste muestra sus límites la responsabilidad queda diluida porque tenemos un plan B, el humano, que en vivo y en directo, como un bombero que ha de apagar un fuego ha de enfrentarse a una situación que no ha generado pero de la que le harán responsable si finamente no logra salvar la situación saltando los obstáculos de la gymkana que se haya preparado como ingredientes de esa “situación degradada” no prevista inicialmente para ser realizada por humanos .
Debemos prestar atención a las trampas del lenguaje, porque éste configura nuestro pensamiento y aplicar cuidadosamente la palabra “responsabilidad” no vaya a ser que en situaciones normales nunca aceptaríamos un encargo precario que luego si vayamos a aceptar en condiciones donde se han degradado las potentes tecnologías, dejando ante nosotros una tarea donde corremos un alto precio si fallamos.
En situaciones degradadas la tarea recae en el humano y deben analizarse previamente los factores que pueden afectar a los humanos de modo que se asegure que el riesgo de error va a ser mitigado y tolerable. Al menos concedámonos las mismas garantías de seguridad y de aceptación de fallo que para los sistemas automáticos.
Esto bien podría constituir una reflexión sobre la integración del factor humano en las primeras fases del ciclo de vida del sistema, aunque también sería útil para reflexionar acerca de las responsabilidades, la culpa y la cultura justa.
*Para otro post dejaremos otra trampa del lenguaje (que en este post se ha utilizado asumiéndola) la habitual confusión de reducir los factores humanos como circunstancias que son capaces de influir en el comportamiento de los individuos con los propios individuos humanos. ¿De qué hablamos cuando hablamos de factor humano, así en singular, de personas o de una disciplina que aborda las causas del comportamiento humano relacionada con la psicología y la ergonomía cognitiva?