Análisis sistémico de las tragedias de los Boeing 737 MAX 8.

La complejidad crea peligro….No sé vos, pero no quiero que Albert Einstein sea mi piloto…Donald Trump

Desde la primera revolución industrial a la actualidad, han pasado 3 revoluciones más y estamos viviendo lo que se ha dado en llamar la cuarta revolución. La segunda revolución (1870) fue la era del la electricidad, la lamparilla eléctrica, el radio transmisor, el automóvil, etc. Posteriormente la tercera revolución (1930) nos trajo el desarrollo exponencial de la aviación, la era espacial, la energía atómica, la cibernética, ordenadores personales, internet, etc. La definición de la cuarta revolución industrial nace en enero de 2016 durante el foro económico mundial, y la enuncia Klaus Schwab, economista alemán, fundador de dicho foro.

 

 

Esta cuarta revolución se caracteriza por una fusión de tecnologías, sociedades y cuerpos humanos que hace desaparecer las fronteras de las ciencias o tecnologías tradicionales como la física, la biología y las digitales. En donde se dan grandes avances en inteligencia artificial, robótica, nanotecnología, computación cuántica, biotecnología, internet, impresión 3 D, vehículos autónomos, etc. La cuarta revolución va más allá de la automatización y ya se habla de fábricas inteligentes.

La cuarta revolución se representa por la fusión de tecnologías y la nueva forma en que esta fusión se integra en las sociedades y en el cuerpo humano. Esto bien puede ser una definición simple de sistema sociotécnico complejo.

Los llamados sistemas sociotécnicos complejos lo comprenden: la industria aeronáutica, las de energía, el transporte en todos sus modos, industria militar, etc.

En la primera saga sobre el error humano, escribí en mi blog: Aquellos que titulan “error humano” en informes, diarios, twitter, face, etc… consideran que ninguna situación es demasiado compleja como para no ser reducida al concepto de error humano. Da lo mismo un accidente de dos bicicletas sobre una bicisenda que la nave espacial Challenger.[1] 

No se puede investigar sistemas complejos con modelos de análisis simples (causa-efecto, causa raíz, árbol de causas, etc.) Si nos da lo mismo varias lecturas posibles surgen en la actualidad a raíz de los dos accidentes de las aeronaves Boeing 737 Max 8: La primera que el piloto cometió un error o no realizó tal o cual procedimiento y la segunda es que en este nuevo escenario (sistema sociotécnico complejo) de la industria aeronáutica el piloto fue degradado o suplantado por otras tecnologías y que esa automatización y opacidad en los sistemas, convierte “la complejidad en peligro”. Ambos análisis son anacrónicos ya que están basado en modelos anacrónicos: hombre, maquina y medio ambiente o el modelo SHELL[2] como representaciones del sistema, donde el hombre es el centro. Ambos modelos no representan un sistema sociotécnico complejo.

Por otra parte y como veremos más adelante, es un error imaginar que debido a la automatización, la intervención del piloto en una operación aérea es simple, o al revés en palabras de Donald Trump: No sé tú, pero no quiero que Albert Einstein sea mi piloto…la discusión no es un juicio de valor más-menos en funciones, acciones y responsabilidades, lo que ha cambiado es la forma del trabajo, la cual sufrió un desplazamiento. El hombre no es el centro.

A modo de conclusión a esta primera parte, y acercándonos a los accidentes recientes de los Boeing 737 Max 8, cabe decir que podríamos suponer que los antiguos sistemas lineales son más controlados y que es mejor volver a ellos. Sin embargo se puede demostrar que gracias a los sistemas sociotécnicos complejos la aviación alcanzó su estatus de sistema ultraseguro. La noción de sistemas ultraseguros fue explorada inicialmente a mediados de la década de los 90´ por el profesor René Amalberti, en lo que muchos consideran su opera prima: La acción humana en los sistemas de alto riesgo (Daniel Mauriño 2018).

El porcentaje de accidente catastrófico esta en torno a un accidente por millón de movimientos (salida-llegada) (1 x 10 -6)[3] en el transporte aéreo; en los transportes por raíl, en el sector nuclear y otras industrias también se alcanza esta cifra. Se trata de un dato excepcional a escala individual si se considera que un piloto profesional realiza entre 100 y 200 movimientos al año, por lo que en 30 años de profesión habrá realizado entre tres y seis mil movimientos.

Continuando en palabras de Amalberti, nos dice: En pocas palabras los sistemas tecnológicos han pasado a ser cada vez más eficaces y son objetivamente mucho más fiables que sus predecesores…

La acción humana en los sistemas de alto riesgo, Modus Laborandi, 2009, pag.32

El fin de las industrias es la producción y luego la seguridad operacional para llevar a cabo dicha producción. En cuanto a estos dos fines para lo cual se diseñan los sistemas los resultados en aviación son inconfundibles. ¿Por qué volver atrás?

La letanía de problemas de los sistemas complejos y las ventajas de los sistema lineales podría inducir a creer que estos son con mucho preferibles y que los sistema complejos deberían ser transformados en lineales. Por desgracia, no es así. Los sistemas complejos son más eficientes … Hay menos tiempos muertos, menos espacio infrautilizado, menos tolerancia con los resultados de baja calidad y más componentes multifuncionales. Desde este punto de vista, en lo que la eficiencia del diseño y del equipo instalado se refiere, la complejidad es deseable.

Charles Perrow Accidentes normales, como convivir con las tecnologías de alto riesgo, Modus Laborandi 2009 pag 121

Las palabras de Charles Perrow se actualizan y la industria aeronáutica se estremece ante dos accidentes catastróficos ocurridos entre octubre de 2018 y Marzo de 2019, cuando dos aeronaves Boeing 737 Max 8 colisionan contra el terreno a poco de haber despegado. La similitud entre ambos accidentes fue evidente y el foco de análisis se encuentra en el diseño del sistema de ajuste automático del timón de profundidad, conocido como Maneuvering Characteristics Automation System, MCAS por su sigla en inglés. Sin ahondar en la investigación y análisis ya que no se posee al momento el informe final, es interesante observar como el debate “problemas de los sistemas complejos vs las ventajas de los sistema lineales” está vigente, tanto como la persistencia en los análisis lineales de fallo único (error humano).

Como a consecuencia de ambos accidentes, las aeronaves Boeing 737 Max 8, de todas las líneas aéreas del mundo quedaron en tierra, con una inmensa pérdida de dinero e incertidumbre sobre el futuro de la aeronave. El mismo presidente de los Estados Unidos, Donald Trump dio su opinión por twitter.

….needed, and the complexity creates danger. All of this for great cost yet very little gain. I don’t know about you, but I don’t want Albert Einstein to be my pilot. I want great flying professionals that are allowed to easily and quickly take control of a plane!

7:12 – 12 mar. 2019

…. necesario, y la complejidad crea peligro. Todo esto por un gran costo, pero muy poca ganancia. No sé vos, pero no quiero que Albert Einstein sea mi piloto. Quiero grandes profesionales de vuelo que se les permita tomar fácilmente y rápidamente el control de un avión! (traducción propia y negritas mías)

La letanía de problemas de los sistemas complejos y las ventajas de los sistemas lineales en palabras de C. Perrow y D. Trump. Olvidándonos que los sistemas sociotécnicos complejos lograron que la industria de la aviación se transforme en un sistema ultraseguro.

Continuemos ahora con el modelo lineal de fallo único (error humano) y la designación de culpas y responsabilidades[4].

El 29 de Abril de 2019 el portal CNNespañol[5] titula:

El presidente ejecutivo de Boeing sugiere que un error del piloto pudo ser un factor en el accidente del Ethiopian Airlines.

Luego:

Muilenburg dijo que “en algunos casos, los procedimientos no se siguieron completamente” en el accidente.

Muilenburg dijo que si bien su software anti-stall llamado MCAS era un enlace común en lo que él llama la “cadena de eventos” que llevó al accidente de Ethiopian Airlines y la anterior de Lion Air, el sistema cumplió con los criterios de diseño y seguridad de Boeing, como así como los criterios de certificación, y “cuando diseñemos estos sistemas, comprendamos que estos aviones están en manos de los pilotos”.

  • Error humano: los pilotos no siguieron los procedimientos,
  • Análisis lineal: cadena de eventos y
  • Fallo único: el sistema no es el problema (el sistema cumplió con los criterios de diseño y seguridad de Boeing, como así como los criterios de certificación) y los aviones están en manos de los pilotos. El problema es el piloto.

Caben dos preguntas:

Si el sistema cumplió con los criterios de diseño y seguridad de Boeing, como así como los criterios de certificación y la causa es el error humano ¿Por qué no están volando los Boeing 737 MAX? Con un breve entrenamiento de los pilotos en simulador y cambios de procedimientos se podría reanudar la operación de estas aeronaves. Sin embargo la realidad demuestra lo contrario.

Por último un título mas del portal Hispanoaviacion haciendo referencia a la audiencia ante la camara de representantes de los EEUU., donde el jefe interino de la Administración Federal de Aviación FAA, Daniel Elwell, defendió el proceso de certificación de la autoridad y arrojo sombra sobre los pilotos de los vuelos Boeing 737 MAX accidentados: La FAA defiende sus procesos y culpa a los pilotos.

La designacion de responsables y culpas en el trabajador de primera linea (fallo unico, error humano) no es una respuesta a la seguridad operacional, tema que fue desarrollado en “El error humano ha muerto. Parte III”(6).

Demos una respuesta sistémica al accidente y volvamos a las palabras citadas por Amalberti y continuemos su texto:

….En pocas palabras los sistemas tecnológicos han pasado a ser cada vez más eficaces y son objetivamente mucho más fiables que sus predecesores, pero los riesgos residuales, por pequeños que sean, han pasado a ser mas intolerables que antes.

La acción humana en los sistemas de alto riesgo, Modus Laborandi, 2009, pag.32

Riesgo residual significa que su nivel es escaso, casi residual, porque son sistemas con una seguridad muy elevada. Sin embargo el riesgo no fue completamente eliminado (queda un 0,000001 de posibilidades de catástrofe) y esto se debe a que la incorporación de nuevas defensas (tecnología, reglamentos y entrenamiento) soluciona problemas viejos, reduce considerablemente el índice de accidentes pero crea nuevos problemas de seguridad operacional. Estos problemas están en el diseño del sistema y nunca en el hombre. La incorporación de una defensa tecnológica como es el MCAS en el Boeing 737 MAX 8, creó un nuevo problema de seguridad operacional, que debe solucionarse desde el sistema de diseño y de ninguna manera asignando responsabilidades, culpas al piloto (trabajador de primera línea) o lo que es igual, creer que la solución está en el error humano.

Si una sola persona puede causar una catástrofe en el sistema

aeronáutico, entonces el sistema está mal diseñado.

……………………………………..


[1]
https://alejandrocovello.com/2018/05/02/el-error-humano-ha-muerto/

[2] Modelo Hombre, Maquina y Medio ambiente, W. Heinrich (1931). Modelo SHELL, E. Edwards (1972) y F Hawking (1984)

[3] Para profundizar el concepto ultraseguro: https://alejandrocovello.com/2018/05/13/el-error-humano-ha-muerto-parte-ii/

[4] Culpas y responsabilidades: https://alejandrocovello.com/2018/05/23/el-error-humano-ha-muerto-parte-iii/

[5] https://cnnespanol.cnn.com/2019/04/29/el-presidente-ejecutivo-de-boeing-sugiere-que-un-error-del-piloto-pudo-ser-un-factor-en-el-accidente-de-ethiopian-airlines/

[6] http://www.hispaviacion.es/boeing-737-max-la-faa-defiende-procesos-culpa-los-pilotos/

 

Anuncios