Luces y sombras en los avances de la tecnología de la información

Hace solo unas horas, alguien me pedía referencias en un tema que he trabajado bastante, lo que podríamos llamar ergonomía cognitiva, es decir, el hecho de que la lógica de funcionamiento de muchos de los dispositivos que manejamos nos es completamente desconocida y qué consecuencias tiene ese desconocimiento.

En concreto, se trataba de alguien que había comprobado que en una organización con una logística muy compleja, si fallaba el ordenador, no sabían en qué o cómo había fallado porque no podían reproducir a mano el proceso realizado por tal ordenador.

La situación me resultó familiar porque, en una visita al Instituto Nacional de Meteorología (ahora Agencia Estatal de Meteorología, para no herir las delicadas sensibilidades de los nacionalistas) me enteré de que los meteorólogos no pueden cuestionar los resultados que les presenta un ordenador sino que, si ven algo que les parece absurdo, tienen que rechazar todo el modelo o, de lo contrario, aceptarlo por completo. No caben matizaciones o rechazos parciales.

Lo que hay debajo no es una crítica a la formación del meteorólogo. Simplemente, a medida que se han ido multiplicando los puntos de observación, se ha acabado obteniendo una masa ingente de datos a procesar y, en el supuesto de que el meteorólogo conozca perfectamente los modelos utilizados para tal procesamiento, es incapaz de reproducir los resultados porque no tiene posibilidad de procesar toda esa información. Además, los límites de tiempo derivados de su propia actividad hacen que tardar varios días en obtener un resultado convierta a éste en irrelevante. Curiosamente, aunque esto puede ser más un tema de organización, tampoco había una comprobación formalmente organizada y con registros históricos del nivel de acierto del sistema y de cuáles eran las situaciones en que más podía fallar.

Este fenómeno se nos da cada vez en más escenarios, sea previsión meteorológica, gestión empresarial, diseño de coches o aviones…el usuario no tiene posibilidad de contrastar los resultados sino de aceptarlos o rechazarlos ciegamente.

Cada vez que un ordenador personal empieza a comportarse de una forma extraña ¿intentamos averiguar qué ocurre o simplemente reiniciamos? Cuando se avería un coche moderno en la carretera ¿quién se atreve a intentar no ya arreglarlo sino diagnosticar qué es lo que ocurre ? Este fenómeno, que puede verse como algo trivial, está muy extendido y puede llegar a representar una auténtica barrera al avance, incluido paradójicamente el tecnológico.

Los sistemas más complejos no son entendidos en su totalidad por nadie, incluyendo a sus diseñadores, sino que éstos tienen un conocimiento parcial y se nos llegan a dar situaciones tan pintorescas como que sea un sistema de información el que tenga que encargarse de que el trabajo de unos diseñadores no interfiera con el de otros (caso del diseño del Boeing 777).

Un ejemplo reciente: Una compañía aérea se plantea reducir el número de bases, lo que implica una enorme complejidad operativa a la hora de ajustar tripulaciones, aviones y horarios de vuelos. Para hacer esto, inevitablemente, tiene que entrar en un proceso de negociación laboral. En ese proceso, la compañía aporta los resultados obtenidos por el tratamiento de un sistema de información, según los cuales, reduciendo bases se consiguen unos ahorros sustanciales. 

La otra parte negociadora puede entender cuál es la lógica de funcionamiento de los sistemas utilizados pero el volumen de datos que maneja hace que sea imposible reproducir los resultados o plantear escenarios alternativos. En estas situaciones, sólo queda la opción de aceptar o rechazar y, en un entorno de años de desconfianza, la opción es, como podía esperarse,  rechazada.

Los sistemas de información, en el nivel de desarrollo en que ahora nos encontramos, introducen dos tipos distintos de complejidad que, a veces, se mezclan entre sí:

  1. Situaciones donde se conoce la lógica de funcionamiento pero la masa de datos es tan grande que su procesamiento no es reproducible por personas.
  2. Situaciones donde no se conoce la lógica de funcionamiento sino que solamente se conocen entradas y salidas y se opera con algo que podríamos denominar un sistema de metáforas del estilo “Papelera del Windows” que, por supuesto, no existe sino que es una metáfora dirigida al usuario del funcionamiento real.

En cualquiera de las dos situaciones, el papel de la persona como recurso alternativo y como recurso de acumulación de aprendizaje queda muy disminuido y, donde ello es factible, se limita a desconectar o rechazar la información del sistema que se supone que funciona mal y, al hacerlo así, trabaja con sistemas con una funcionalidad degradada.

Sin embargo, todo ello obedece a un modo de funcionamiento que, parafraseando la ley de Murphy y su “si algo puede ir mal, irá mal”, parece haberse llegado a una situación donde “si algo puede hacerse, se hará” sin pensar en cuáles son sus consecuencias o en si existen mejores opciones.

Dos opciones que se me ocurren, en particular en sistemas críticos, son las siguientes:

  1. Suboptimización de la tecnología: Considerar que la máxima complejidad admisible al sistema es aquélla que sus operadores son capaces de entender, es decir, la regla de Rasmussen de que el operador ha de ser capaz de correr cognitivamente el programa que ejecuta el sistema que está operando. La aplicación de esta regla requiere un doble esfuerzo, tanto en el terreno de formación del operador como en la transparencia real de los sistemas en el sentido de que su diseño sea perfectamente visible.
  2. Cuando existan múltiples fuentes de datos, jerarquizar claramente estas fuentes de forma que se pueda ir a escenarios donde la resolución se va perdiendo progresivamente pero no se deja de ver el escenario completo. En el ejemplo de la previsión meteorológica, implicaría realizar múltiples hipótesis retirando progresivamente puntos de observación de acuerdo con una jerarquización de los mismos hasta llegar al punto donde sí era posible contrastar el procesamiento del ordenador y el del meteorólogo.

Si el único punto de vista que se admite es el de la eficiencia, ninguna de las dos soluciones se aceptará. No sólo implican procesamientos de información menos eficiente sino un mayor grado de formación de los operadores. La tentación contraria está clara: Sistemas de información muy eficientes y baja formación de los operadores para conseguir una mayor eficiencia…mientras todo funcione. Cuando deja de hacerlo, cada vez más la situación que asumimos se parece a la de tener un incendio y haber tirado el extintor por la ventana.

Anuncios

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s