Читать книгу Investigación sistémica de accidentes - Alejandro Covello - Страница 15
FIGURA 5
ОглавлениеEstrategia de seguridad operacional basada en los Factores Humanos: considerar las performances y limitaciones humanas para diseñar las condiciones locales del lugar de trabajo y el sistema.
Fuente: Elaboración propia.
Obsérvese que en la Figura 5 la condición local del lugar de trabajo no se adapta a la persona, sino a las performances y limitaciones humanas. En este caso, luego de un evento negativo, las recomendaciones se dirigen hacia la modificación del sistema: tecnologías, reglamentos y entrenamiento. Así, las performances y limitaciones humanas comenzaron a tenerse en cuenta y se volvieron importantes para comprender la mejor manera de diseñar los sistemas. Según Dekker: “Esta fue la primera revolución cognitiva (1940 y 1950), alejando la investigación de seguridad operacional del conductismo” (2019: 137).
En resumen, la estrategia de la seguridad operacional de los FF HH ha demostrado que las tecnologías y sistemas en las aeronaves influyen en el comportamiento del operador de primera línea. Por ello tecnologías y sistemas se diseñan no solo para resistir o tolerar las acciones no deseadas de los individuos, sino también para que el diseño no induzca a errores. De esta manera las tecnologías y diseños se ajustan a las fortalezas y limitaciones de las performances y limitaciones humanas.
Continuando con la línea de tiempo, luego de la incorporación de los FF HH llegaron los Factores Organizacionales (FF OO). Estos se enfocan en la gestión de la seguridad operacional, de los prestadores de servicios y autoridades normativas. A su vez se comienza el estudio de la “cognición en la naturaleza”, referido a la cognición humana en su hábitat natural, es decir, a la actividad humana constituida culturalmente de forma natural. Plantea Dekker:
La segunda revolución cognitiva (1980 y 1990) se apartó del primer paradigma de procesamiento de información mentalista y excesivamente tecnificado, individualista, basado en tareas de laboratorio. Tomó el estudio de la cognición “en la naturaleza” y se propuso comprender el sentido de colaboración de las personas en su interacción con las tecnologías complejas y críticas para la seguridad.
La ingeniería de sistemas cognitivos ha llevado las ideas de los factores humanos y la segunda revolución cognitiva a complejos sociotécnicos complejos, donde una multitud de humanos y artefactos tecnológicos gestionan operaciones críticas para la seguridad. La ingeniería de sistemas cognitivos no divide los sistemas en componentes humanos y de máquinas. En cambio, estudia el sistema cognitivo conjunto, con sus funciones y objetivos, como su unidad de análisis (Dekker, 2019: 137).
Llegados a este punto y volviendo al análisis “factor humano” en singular y su resultado en el análisis de accidentes, este término solo fue un maquillaje del error humano. Al observar la clasificación “Factor Humano” en el Anuario 2002 de la JIAAC (2002: 23), podemos afirmar que no fue más que una forma de agrupar las viejas clasificaciones que correspondían a error del piloto y continuar con la estrategia basada en el comportamiento. Todavía no se habían incorporado los FF HH (en plural) al análisis de accidentes. Continuando con la lectura de los anuarios llegamos a los años 2005 y 2006, en los que se observa la misma clasificación con porcentajes centrados en el error del piloto que superan al 80%. Desde 1951 a 2006 en Argentina, es decir durante más de cinco décadas de investigación de accidentes de aviación, se conservó el modelo de análisis lineal de fallo único.
No obstante, antes que El Ateneo naciera allá por el año 2002, otra importante organización vinculada a la industria aeronáutica también se posicionaba críticamente respecto del modelo lineal y abogaba por un modelo sistémico de accidentes. Me refiero a la Asociación de Pilotos de Línea Aérea (APLA), que se pronunció a fines de la década de 1980 respecto de un informe final11 elaborado por la Comisión Investigadora de Accidentes de Aviación de la República Oriental del Uruguay. Se trataba de un accidente ocurrido el 10 de octubre de 1997, a la aeronave LV-WEG, DC 9-32, de Austral Líneas Aéreas (AU 2553). Durante el descenso al aeropuerto de destino, la aeronave perdió el control y colisionó contra el terreno en Nuevo Berlín (República Oriental del Uruguay). El informe reproducía el modelo lineal de fallo único: “[…] el copiloto, quien se encontraba a cargo de los mandos de la aeronave, se planteó una condición de vuelo tal, que lo indujo a extender los slats. Esto se hizo a una velocidad superior […] con la consiguiente pérdida de control e imposibilidad de recuperarlo”.
La comisión de seguridad de APLA discrepó totalmente con el informe final elaborado por la comisión uruguaya y confeccionó un documento en respuesta, en el que manifestó que: “El comité de seguridad no comparte las conclusiones del informe final del accidente del AU 2553”. De la lectura de dicho documento se observa que APLA se apoyó en el modelo del queso suizo de James Reason12 para realizar su crítica, identificando las fallas activas y latentes.13 Además, APLA recalcó que eran estas últimas las condiciones reales de ocurrencia del accidente:
Creemos que este accidente se podría haber evitado, si las fallas latentes (decisiones tomadas muy lejos en el tiempo y no corregidas) no hubieran existido […] si semejante realidad no obliga a las organizaciones involucradas a corregir a la brevedad los errores encontrados, estamos dejando la puerta abierta a la ventana de oportunidad de un nuevo accidente, si el escenario de trabajo de una futura tripulación se reproducen como las vividas por el AU 2553.
El documento de APLA identificó diecinueve fallas latentes en las cuales se encontraban deficiencias en:
El certificado de aeronavegabilidad de la aeronave.
Instrucción de los pilotos, despachantes de aeronaves.
Información meteorológica.
Ausencia de sistema de radares.
Gestión del riesgo de seguridad operacional.
Presión industrial y fatiga.
Como parte de sus conclusiones, APLA manifiesta que “un análisis del accidente desde una perspectiva sistémica del error, sugiere que para comprender acabadamente el porqué del mismo debemos empezar por las fallas latentes (niveles superiores de decisión) que se encadenaron con las fallas activas (ejecución) del personal operativo y produjeron este accidente”. Dos años más tarde, a raíz del accidente del LAPA 3142 y del informe final elaborado por la JIAAC, APLA volvería a expresar su desacuerdo respecto de la investigación de accidentes desde la perspectiva del modelo lineal de fallo único.14