Aviones sin piloto ¿Ciencia-ficción o realidad cercana?

Hace poco tiempo tenía una discusión amistosa con un miembro del SEPLA acerca de este asunto.

Su opinión, aunque no puede decirse que la expresara con alegría, era que ése es precisamente el futuro de la aviación. La mía, aunque evidentemente me juego mucho menos en el asunto, era y es justamente la contraria.

Empecemos por el principio. Éste no puede ser otro que preguntarse si es técnicamente factible que un avión vuele sin cabina y, por tanto, sin piloto y la respuesta es tan clara que no hay mucho que discutir al respecto:

Durante la Segunda Guerra Mundial se lanzaron sobre Inglaterra las famosas V1 que, con algunas limitaciones, no dejaban de ser aviones no tripulados. No había un despegue propiamente dicho puesto que se lanzaban desde una rampa y, por razones obvias, no tenían que aterrizar pero sus mecanismos de control eran los de un avión. Tanto es así que se construyeron versiones con cabina siendo la célebre aviadora Hanna Reitsch una de las personas que las pilotaron.

Por supuesto, desde entonces la tecnología ha avanzado mucho y no es necesario extenderse demasiado sobre las posibilidades actuales. Podemos comenzar por aparatos de reconocimiento como los Predator y llegar hasta aparatos pilotados pero en los que, en determinadas condiciones, el piloto no tiene muchas posibilidades de intervenir.

Las misiones de la aviación militar en vuelos muy próximos a tierra y sin visibilidad y donde el avión tiene que seguir muy de cerca los perfiles del terreno son un ejemplo. En el mismo capítulo podríamos colocar a los misiles tipo Cruise diseñados para volar a una altura suficientemente baja para convertirlos en indetectables por el radar.

Ni siquiera hace falta llegar ahí. Hay muchas situaciones en la aviación comercial donde el avión va guiado por un conjunto de automatismos y el piloto ejerce un papel de supervisión que posiblemente pudiera ejercerse desde tierra. Incluso la nueva generación de jets ligeros –los VLJ- están certificados para llevar un solo piloto, aterrizar en aeródromos con poca preparación gracias al GPS de alta precisión e incluso se ha hablado de introducir un botón al que llaman Take me home con el propósito de que, en la eventualidad de una incapacidad del piloto, sea el propio avión el que se encargue de llevar a los pasajeros a tierra sanos y salvos.

Éstos son los hechos iniciales en cuanto a factibilidad. Si hablamos de coste, nos encontraremos con unas enormes ventajas respecto de la situación actual. Si puede prescindirse de una cabina, el diseño se simplifica y el coste desciende de forma espectacular. Supongamos que fuera conveniente tener cabinas en tierra para controlar el avión en alguna situación específica. ¿Habría tantas cabinas como aviones o habría un número mucho más bajo?

No hablemos ya de los costes asociados a los sueldos y desplazamientos de las tripulaciones y a las necesidades de tiempo de descanso en destino. Si llevamos el asunto al transporte de carga, hay aún nuevos elementos de ahorro como la posibilidad de operar con aviones con una presurización mínima o nula.

Por otro lado, durante los ya más de 100 años desde el inicio de la aviación con motor, se ha aprendido mucho. Se sabe mucho sobre el comportamiento de los aviones, de los materiales, de los motores, de la meteorología, de los sistemas de control y comunicación…dicho de otra forma, son pocos los imprevistos que pueden presentarse.

Con todos estos elementos, un jugador de mus utilizaría el dicho de “mal se presenta el reinado de Witiza”, usado cuando las cosas se ponen feas y, probablemente y por la misma razón, muchos pilotos también. El piloto tiene una formación técnica y ello le conduce con frecuencia a tener una mentalidad típicamente técnica de si puede hacerse, se hará aunque, al mismo tiempo, ponga todo de su parte para evitar un desarrollo que va claramente en su perjuicio pero viéndose derrotado de antemano.

Confío en que todo lo anterior haya reflejado fielmente los argumentos de alguien que cree que este tipo de desarrollo, aunque no le favorezca, es imparable y oponerse a él es como colocarse en la vía para tratar de detener con las manos un tren que viene a toda velocidad …y, sin embargo, no es ésa la situación.

Comenzaré mi argumentación contraria a esta idea por una referencia a una conversación con otro miembro del SEPLA que me decía, más o menos, lo siguiente: “Al cabo del año, cada uno de nosotros evita tres o cuatro accidentes. Para eso nos pagan”. Éste es un punto que han publicado desde destacados miembros de la OACI como Daniel Mauriño, autores como Sidney Dekker y, más modestamente, yo mismo al señalar que informaciones como la facilitada por la estadística de Boeing de que el 64% de los accidentes se deben a error humano conducen a conclusiones incorrectas.

Supongamos que es así, aceptemos además que ese porcentaje está bien obtenido y no se habla ni de errores ocurridos como actuaciones inadecuadas después de un fallo técnico ni se incluyen fallos en el diseño o el mantenimiento sino que todos ellos obedecen a errores no forzados durante el pilotaje del avión. Ya es mucho suponer pero aceptémoslo. ¿Supone esto que si eliminamos el factor humano reducimos en un 64% los accidentes? En absoluto.

La contrapartida del 64% no sería el 36% restante sino el número de No-Accidentes producidos por intervención humana (esos 3 o 4 accidentes anuales evitados por persona) que, sin duda, representan una cifra mucho mayor pero no conocida.

Precisamente ahí podría estar uno de los frentes en los que los pilotos deberían presentar batalla. ¿Por qué no se cuentan esas situaciones que se sabe que existen pero no están contabilizadas? ¿Por qué no se genera un sistema tipo ASRS en el que, en lugar de autoinculparse anónimamente, cada uno se cuelgue la medalla públicamente cuando así corresponda? Una vez que haya registrado un conjunto de casos en los que no ha pasado nada gracias a una intervención adecuada en un contexto donde el sistema, incluso sin que haya habido propiamente un fallo, habría conducido al desastre, hay un argumento de primera clase en contra de los aviones con pasajeros pero sin piloto.

En el segundo argumento introduciré con una experiencia propia: Hace ya unos cuantos años, en mi segundo vuelo de suelta en una Rallye 180, un buitre que debió ver en el suelo algún animal muerto vino de arriba y la primera noticia de su existencia la tuve cuando me había abierto un agujero de unos 40 cm. de diámetro en el parabrisas y me había dejado el tablero colgando de un tornillo lateral. Acababa de despegar y virar a viento cruzado cuando ocurrió esto.

Inmediatamente reduje motor por si se había dañado la hélice y me desequilibraba el avión pero, al notar que giraba normalmente y sin vibraciones, recuperé un régimen normal. Recordé que el manual de la Rallye explicaba que se podía llevar la cúpula abierta unos centímetros siempre que no se volase a más de 130 kms./h. y deduje que eso era lo más parecido que iba a encontrar a la situación que tenía entre manos. Intentar aterrizar lo antes posible implicaba hacerlo con un fuerte viento en cola y preferí hacer un tráfico completo sacando medio flap y volando a 120 kms./h. Aterricé felizmente y, eso sí, en el momento de tocar tierra era incapaz de controlar la dirección de la avioneta porque me temblaban las piernas.

Destaco esta anécdota solamente para remarcar un hecho: En un instante, tuve que decidir bastantes cosas. Esas decisiones no fueron deliberadas sino que se produjeron automáticamente y a una velocidad muy superior a la que se producen cuando no está en juego la propia supervivencia. Estoy seguro de que muchos pilotos se reconocen a sí mismos en ese tipo de “modelo de gestión de crisis” por el que, ante una urgencia extrema, se valoran en fracciones de segundo todos los elementos relevantes y se toman de forma automática decisiones complicadas en mucho menos tiempo del que se tarda en contarlo y, por supuesto, del que supone un proceso consciente y deliberado. Obviamente, si se baja al piloto del avión, se está bajando también del avión ese tipo de capacidad.

Me gustaría concluir este argumento con una imagen: En algunos cursos de gestión de empresas se dice que no es lo mismo colaboración y compromiso y hay quien utiliza el siguiente ejemplo: En unos huevos fritos con jamón, la gallina colabora pero el cerdo se compromete ya que está claro que el segundo se juega mucho más que la primera. Espero que nadie se sienta ofendido si digo que prefiero “pilotos cerdos”, es decir, aquéllos que van en las cabinas y que corren el mismo riesgo que el pasajero a “pilotos gallinas”, es decir, aquéllos que podrían intervenir desde tierra. Eso, sin contar con otro hecho nada trivial: El “piloto gallina” interviene por excepción cuando se presenta una situación grave y ello implica que se encuentra totalmente fuera del “loop”, que no ha recibido ninguna información sobre cómo se ha ido generando la situación y, por ello, le faltan las claves más básicas para resolverla. No entremos ya en cuestiones como la fiabilidad del sistema de comunicaciones utilizado o su posibilidad de resistir intrusiones porque ahí ya no sólo tendríamos que hablar de “safety” sino también de “security”.

Un tecnófilo podría replicar a algunas de estas cuestiones que en un entorno de automatización completa no se van a producir situaciones que requieran el uso de esa capacidad y por tanto bastaría con tener “pilotos gallinas” o no los necesitaríamos en absoluto pasando a ser una especie de función añadida al controlador. Me permito dudarlo. Es cierto que en más de 100 años se ha aprendido mucho sobre todos los factores relevantes en aviación pero también lo es que se ha creado un entorno extremadamente complejo que es, en sí mismo, causante de situaciones anómalas y con esto introduciremos el tercer argumento:

Thomas Kuhn, autor de “La estructura de las revoluciones científicas” señalaba un hecho que conviene tener presente: El conocimiento no es acumulativo sino que, de vez en cuando, se producen revoluciones que aportan una nueva luz e invitan a una revisión completa y volvemos, en cierta medida a ser unos novatos. Para expresar la idea de una forma sencilla, podríamos decir que tenemos todos nuestros conocimientos colocados en una serie de cajones y, periódicamente, tenemos que cambiar el número, tamaño, disposición y forma de los cajones y nos vemos obligados a reclasificar todos nuestros conocimientos desechando algunos, adquiriendo otros nuevos y empezando a familiarizarnos con el nuevo sistema de clasificación. Esto nos conduciría a poder afirmar sin ningún temor que el conocimiento útil del que disponemos en aviación no es de 100 años sino mucho menor y sí es posible que se presenten situaciones no previstas derivadas de la propia evolución del sistema, no de factores externos.

Como ejemplo, en un documental sobre el nuevo Airbus se veía como las ruedas del tren principal se negaban a bajar. Alguien podría preguntarse si es que todavía no se ha aprendido a diseñar un tren de aterrizaje que baje bien y a la primera. Evidentemente sí pero las interacciones en un sistema como es el propio avión son tan complejas que dan lugar a situaciones desconocidas y a fallos en elementos que se suponen perfectamente controlados.

La posesión de un mayor conocimiento, por ello, no garantiza que todo este previsto. Hace ya siglos, Pascal decía que el conocimiento es como una esfera que, cuanto mayor tamaño tiene, mayor es el número de puntos de contacto que tiene con lo desconocido. Este principio continúa siendo tan cierto como en el momento en que se enunció.

Las revoluciones que obligan a cambiar en aviación se están produciendo casi constantemente. El intento de garantizar la operatividad en situaciones de tráfico muy denso, de problemas meteorológicos y otros producen cambios importantes que, por una parte, llevan a revisar cada cierto tiempo todo lo que se sabe y, por otra parte, llevan a la situación que Charles Perrow denomina “tightly-coupled organizations” donde un pequeño fallo puede provocar una reacción en cadena que acaba en desastre. Que se sepa, el único elemento de flexibilidad que puede parar esa reacción en cadena es precisamente el elemento humano y su capacidad para reconocer situaciones como diferentes y como no previstas sin que ello le produzca un bloqueo o muestre una pantalla azul como la de los fallos de Windows.

Pequeños fallos de diseño o situaciones triviales no contempladas pueden dar lugar a un efecto de bola de nieve que acabe en desastre. Cuando esos pequeños fallos ocurren, el piloto ni siquiera les da importancia ni mucho menos los notifica; se limita a corregirlos y, como mucho, hace un gesto de fastidio y ahí acaba el asunto. Si ese piloto no estuviera presente, muchas de esas situaciones no podrían ser consideradas triviales sino que podrían conducir a un desastre.

Naturalmente, una situación donde los aviones con pasajeros fueran pilotados por sistemas automáticos exigiría que esas situaciones que hoy se consideran triviales no se presentasen y que los sistemas tuvieran no sólo una fiabilidad absoluta sino que llevasen absolutamente todo previsto…todo ello sin complicarlo de tal manera que comenzasen a producir eventos autogenerados por interferencias internas derivadas de su propia complejidad. Recordemos que estas condiciones se precisan porque el recurso alternativo –el piloto- no estaría presente. ¿Puede garantizarse esa fiabilidad absoluta?

Permítaseme introducir la respuesta y con ello el cuarto argumento presentando al señor Charles Simonyi a quien Wikipedia define como desarrollador de software y turista espacial. Simonyi fue quien dirigió la creación del producto Microsoft Office y, dentro de éste, quien promovió la idea conocida como WYSIWYG (What You See is What You Get) que facilita mucho la tarea de los usuarios ya que, como el nombre indica, en la impresora saldrán las cosas tal como se están viendo en pantalla.

Años después, a Simonyi le empezó a preocupar el hecho de que esa facilidad para el usuario estaba introduciendo de hecho una mayor complejidad en el sistema y estaba produciendo fallos en el mismo sin que hubiera forma de corregirlos. El razonamiento es sencillo: En los primeros tiempos de los sistemas de información, se programaba directamente en el lenguaje de la máquina o en algo muy parecido llamado Assembler y que se correspondía casi punto por punto con el lenguaje de la máquina. Cuando se producía un fallo, no había mucho que buscar: Se le había dado al ordenador una instrucción incorrecta.

A medida que fue creciendo la potencia de los lenguajes, esa correspondencia con el lenguaje interno de la máquina se fue perdiendo y se fue entrando en una escala de abstracción que tenía cada vez más peldaños. El WYSIWYG era, en su momento, el último peldaño de esa escalera. El problema era que la escala de abstracción tenía “goteras” que provocaban fallos en la correspondencia entre lo que el programador escribía –sin que éste hubiera cometido ningún fallo- y lo que la máquina hacía ya que el fallo podía estar enterrado en algún peldaño intermedio. El programador hace tiempo que no programa máquinas sino que programa programas que a su vez programan otros programas.

La gran ambición actual de Simonyi, respecto de la cual hay muchos escépticos, es de recrear los sistemas de información mediante lo que llama software intencional, es decir, hacer desaparecer toda la escala de abstracción y sus múltiples peldaños porque es ahí donde se producen los fallos que ningún sistema puede prever ya que forman parte intrínseca de su diseño y de las herramientas utilizadas para realizar dicho diseño.

Cuando Simonyi denuncia los fallos actuales de los sistemas de información, no es fácil de rebatir la existencia del fallo. Con su curriculum, hay que asumir que algo sabe del asunto y, sin embargo, cuando intenta solucionar el problema se encuentra a un batallón de escépticos. ¿Se está asumiendo que trabajamos con sistemas que distan mucho de ser perfectos y no se está planteando como resolver el asunto de verdad? Si ésas son las piezas con las que se quiere construir automatismos infalibles ¿van a ser tan infalibles como se pretende? Particularmente, sólo se me ocurre una forma de que un automatismo sea infalible y ya la enunció Rasmussen en 1987: “El operador ha de ser capaz de correr cognitivamente el programa que está operando”. Llevado al terreno de la aviación, el piloto ha de comprender el modelo funcional –no sólo el operativo- de los sistemas que está utilizando para poder realizar una supervisión efectiva y, en su caso, ejercer como una alternativa a dichos sistemas.

Probablemente, un empresario más o menos maquiavélico y que quisiera librarse de los pilotos, seguiría una secuencia bastante definida que no excluiría que se encuentre hoy en la mente de algún fabricante u operador:

1. Introduciría aviones no tripulados en vuelos de carga donde el único riesgo es de tipo patrimonial y estaría atento a su desarrollo.
2. Una vez que el sistema estuviera en funcionamiento, comenzaría la introducción gradual a vuelos de transporte de pasajeros. Para ello, haría varias cosas:

a. Explicar cómo se llevaba tiempo funcionando en carga y el sistema funcionaba espléndidamente aunque para ello tuviera que omitirse algún detalle.
b. Daría a elegir en un primer momento a los pasajeros entre vuelos tripulados o no tripulados pero con una fuerte diferencia en precios a favor de los no tripulados a los que, además, procuraría primar en cuestiones como puntualidad, etc.
c. Utilizaría los terminales mediáticos para hablar de las sustanciosas nóminas de los pilotos y cómo éstos, al protestar, no estaban defendiendo niveles de seguridad sino intentando defender su propia posición.
d. Cualquier accidente que se produjera que fuera atribuible a error humano tendría el mayor eco publicitario posible.

Con todas estas piezas, parece que sería posible ganar el favor del público para eliminar a los pilotos creando la imagen de que, sin aportar ningún valor, contribuían a subir los precios e incluso provocaban accidentes que, sin su presencia, no se habrían producido.

Al actuar así, se podrían conseguir elevados rendimientos a corto plazo aunque fuera el equivalente de utilizar un vehículo que llevase nitroglicerina como combustible. Tal vez pudiera ir más rápido que ninguno pero el riesgo de saltar por los aires estaría siempre presente.

En un mercado no instruido en cuanto a cuáles son los determinantes de la seguridad y que decide por conveniencia de precio y horario, es muy fácil desde una posición de fabricante o de gran operador exigir al usuario la fé en sus técnicos “que son los que saben”. Sin embargo, cuando en lugar de dar información se exige fé, puede ocurrir que un accidente grave lleve a mirar la porquería acumulada debajo de las alfombras y haga que esa fé se pierda por completo sin posibilidad de recuperación. De ahí el potencial explosivo de prácticas de aprendiz de Maquiavelo como las sugeridas; eso sí, con suerte, cuando la explosión se produzca, quien ha provocado la situación ya se ha retirado y, además, lo ha hecho convertido en millonario.

No es ésta la única situación de potencial explosivo que se ha dado, se puede dar o se está dando en la aviación. Cuando le preguntaron a O’Leary de Ryanair si su negocio era sólido, contestó que lo único que podía fallar es un accidente grave en una low-cost importante o que hicieran una tontería. La primera posibilidad lleva una carga ciertamente inquietante. ¿Qué quiere decir? ¿Acaso insinúa que un accidente grave pondría encima de la mesa prácticas que se admiten porque no se ha producido AÚN tal accidente grave y se puede acusar a quienes las denuncian de alarmistas?

En contra de los que establecen la aceptabilidad de los niveles de seguridad en términos de porcentajes o índices de riesgo, Luhmann utilizaba los conceptos de riesgo y peligro en función de que la actividad conllevase una posibilidad intrínseca de daño o que ese daño pudiera producirse como derivado de una decisión. El punto que convierte a una situación en explosiva es, precisamente, aquél en que un riesgo se convierte en un peligro, es decir, el punto en que alguien puede resultar herido o muerto porque otro tomó decisiones que así lo posibilitaban a la vez que desinformaba acerca del riesgo real que éstas conllevaban.

La experiencia de los DC-10 y de los más de 300 muertos producidos en Ermenonville porque alguien decidió ocultar el riesgo real de una puerta mal diseñada para ahorrarse unos millones de dólares es un ejemplo. La eventualidad de aviones sin cabina podía conducir a una situación parecida.

Tanto pilotos como pasajeros y reguladores están ahora en una situación de “lluvia fina” donde se deja que vaya calando un mensaje de inevitabilidad y de que, al fin y al cabo, los aviones sin cabina representarían una mejora en seguridad y en costes y, si alguien se opone, es por corporativismo o por mentalidad retrógrada.

Sin duda, todos los afectados tienen enfrente a personas y organizaciones con poder económico, político, mediático y, además, en muchos casos capaces de provocar situaciones explosivas confiando en que su poder y su buena suerte haga que le estallen a otros. ¿Cómo actuar ante esa situación? No son muchas las alternativas pero las hay y, probablemente, debería empezarse ya:

1. Dejar claro cuál es el valor del factor humano en la aviación. Para ello, se deberían crear registros propios y abiertos a los interesados de situaciones no previstas donde la flexibilidad inherente al factor humano ha logrado que acaben felizmente.
2. Introducir en la ecuación a los consumidores y, si es preciso, a las organizaciones de consumidores de forma que fueran adquiriendo información real y que fuesen menos manipulables.

El espejismo de que el desarrollo tecnológico reduce las incertidumbres sobrantes y permite prescindir del elemento humano no deja de ser eso: Un espejismo. El comportamiento del desarrollo tecnológico en cuanto al tratamiento de las situaciones no previstas se parece mucho al de una prensa hidráulica en que, cuanto más aumentamos la potencia de prensado, menos espacio ocupa el material que se prensa pero también más duro está y más difícil es meter la mano para operar. En otros términos, un aumento de la capacidad de respuesta de un 90 a un 95% no representa necesariamente una mejora. Puede representar un empeoramiento de la situación si, al mismo tiempo que se introduce el aumento de capacidad de respuesta se introduce una incapacidad absoluta para gestionar el 5% de incertidumbres sobrantes o situaciones no previstas.

En aviación, lleva mucho tiempo funcionando el espejismo de la tecnología. Tanto es así que un autor muy relevante en los temas de inteligencia artificial –Daniel Hillis- se ofrecía para volar en un avión sin piloto programado por un sistema de inteligencia artificial que generaba programas absolutamente incomprensibles pero que funcionaban. Hillis decía que no sabía cómo operaba el autómata pero, al fin y al cabo, tampoco sabía cómo funcionaba un piloto humano. Sin embargo, se trata de una verdad a medias. Es cierto que no sabemos cómo funciona un piloto humano pero sabemos algo que nos basta:

Hay una probabilidad elevadísima de que el piloto humano quiera disfrutar de un retiro feliz y haga todo lo que esté en su mano para lograrlo. Desde la perspectiva del pasajero de un avión en vuelo, ese sencillo propósito es toda una garantía de la que no se debería prescindir en ningún caso.

Anuncios

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s