Inteligencia Artificial: ¿El nuevo «Camino de Servidumbre»?

Ante los ojos del colectivista hay siempre un objetivo superior a cuya consecución sirven estos actos y que los justifican para aquél, porque la prosecución del fin común de la sociedad no puede someterse a limitaciones por respeto a ningún derecho o valor individual.

Camino de servidumbre, Hayek

Cuando una tecnología o una herramienta es suficientemente poderosa, los cambios que produce en la sociedad no son cuantitativos sino cualitativos. No producen mejoras acumulativas sino que producen cambios sociales profundos.

Hoy podemos preguntarnos si la inteligencia artificial tiene potencial suficiente para alterar el modelo social y llevarnos a un nuevo camino de servidumbre, en términos muy semejantes a los que en su día reflejó Hayek. Probablemente sí; nótese que Hayek se oponía la planificación central por el efecto que ésta suponía sobre la libertad individual. Sin embargo, veremos que un mundo en el que la inteligencia artificial pase a tener un papel relevante es difícilmente separable del concepto de planificación central.

Resulta difícil mantener una discusión racional sobre la inteligencia artificial, sus capacidades, sus limitaciones y sus potenciales efectos. Para algunos, tiene un poder mágico y no hay nada que se le pueda resistir; otros preferirán refugiarse en un esencialismo de lo humano y negarán que nos pueda desplazar.

Entre los iluminados tecnológicos, se da un argumento muy común: Los esencialistas humanos siempre han puesto un límite que, supuestamente, nunca se iba a superar y el desarrollo tecnológico ha superado una y otra vez esos límites; este argumento ha sido utilizado concretamente por Rodney Brooks, uno de los personajes presentes en la primera y fallida etapa de la inteligencia artificial, quien, curiosamente, no percibió que su argumento tenía el mismo fallo que denunciaba: Del hecho de que el progreso tecnológico haya sido capaz de saltar todas las barreras que los esencialistas señalaban como inamovibles no puede deducirse que no exista ningún límite, como parecería concluirse de la crítica al esencialismo humano.

Éste es el terreno en el que nos movemos desde hace mucho tiempo; Aristóteles decía que en el término medio está la virtud…y, en la mayoría de los casos, se equivocaba: Es difícil que la verdad sobre cualquier cosa pueda salir triunfante de una contraposición de absurdos y, tal vez, lo que debe hacerse no es buscar el hipotéticamente virtuoso término medio sino cambiar el modelo de análisis y, sobre todo, que las partes en conflicto no estén defendiendo intereses propios sino que estén buscando la mejora desde distintas perspectivas.

La inteligencia artificial de hoy está muy lejos de la llamada GOFAI (Good Old Fashioned Artificial Intelligence) siempre hambrienta de una memoria y de una capacidad de procesamiento que acabarían siendo las excusas perfectas para justificar la lentitud o la ausencia de avances.

Cuando, hoy, nos definen a los utility-based agents (Norvig y Russell) como an agent that possesses an explicit utility function can make rational decisions with a general-purpose algorithm that does not depend on the specific utility function being maximized es inevitable preguntarnos si está hablando de nosotros y si esa definición no es aplicable a todos y cada uno de los seres humanos. Si es así ¿por qué nos debería preocupar la inteligencia artificial, más allá del hecho de ser un competidor? Si conseguimos a alguien/algo con una capacidad intelectual capaz de romper todos los límites conocidos y que, además, no trae su propio equipaje de intereses bastardos ¿no deberíamos alegrarnos?

Tal vez no, aunque muchos críticos de la inteligencia artificial yerran el tiro: Cuando se habla de sistemas críticos -aviación, industria nuclear y otros- donde el comportamiento correcto es clave para el mantenimiento de la seguridad, dirigen su crítica más hacia lo que les resulta más familiar, es decir, sistemas complejos dotados de reacciones automáticas, cuya complejidad los hace difíciles de entender para quienes los operan y difíciles de utilizar de forma eficaz cuando se presentan eventos no previstos en su diseño.

Cierto es que un sistema dotado de inteligencia artificial no mejoraría esa situación sino que, muy probablemente, la empeoraría y habría que contar con eventos en los que el avanzadísimo sistema entrase en un bucle infinito, en una petición imposible de recursos o requiriese unos tiempos de proceso inasumibles en una situación de urgencia. El piloto, el operador nuclear y otros tienen en estas situaciones el papel de Alejandro Magno deshaciendo el nudo gordiano por el simple procedimiento de cortarlo, sin dejarse enredar por su complejidad; eso sí, para lograrlo necesita una espada y muchos de los sistemas actuales lo primero que hacen es arrebatarle el equivalente metafórico de la espada, es decir, conciencia situacional plena y autoridad indiscutible sobre el sistema que está manejando.

La moderna inteligencia artificial va mucho más allá de la complejidad de automatismos ciegos en los que la complejidad proviene de una lógica interna con multitud de ramas no conocidas y de una interacción con sensores y efectores no conocida en detalle por quien los maneja. No es ésa la complejidad de la inteligencia artificial; ésta evoluciona y es capaz de mejorar pero…

  • ¿Le han marcado correctamente las prioridades de forma que el propio proceso de aprendizaje no pueda hackearlas y producir resultados inesperados?
  • ¿Es capaz de atender a situaciones cambiantes donde la respuesta correcta implica una revisión de las prioridades y los criterios de éxito?
  • ¿Puede enredarse en situaciones que requieran un aumento inasumible de memoria o tiempo de procesamiento?
  • ¿Puede enredarse en situaciones donde no sea capaz de encontrar una respuesta válida y continúe buscándola indefinidamente?

Cada una de estas preguntas puede desarrollarse en otras preguntas de rango inferior y más próximas a la operativa concreta pero, desde un punto de vista estrictamente funcional, son las preguntas a responder y no son fáciles.

Una persona, que conozca a fondo el área de conocimiento a la que se aplica la inteligencia artificial, no tendrá ninguno de estos problemas, sin que ello implique que no pueda ser superada en terrenos donde las reglas son fijas y los objetivos no están sujetos a cambios.

Así, la inteligencia artificial representa un desarrollo tecnológico capaz de competir con ventaja contra humanos en los terrenos en que ha desarrollado su aprendizaje y siempre que disponga de reglas fijas; al mismo tiempo, ese mismo desarrollo es una mala caricatura de un experto cuando las situaciones son ambiguas y cambiantes.

Pueden encontrarse situaciones en que programas de inteligencia artificial ya ampliamente populares son utilizados para realizar tareas en las que se ahorra un buen número de horas de trabajo; al mismo tiempo, hay ocasiones en que las soluciones proporcionadas distan mucho de tener una calidad medianamente buena; lo peor de todo es que no siempre es fácil entender por qué en un caso ha dado una respuesta excelente y en otro, aparentemente muy parecido, ha contestado una trivialidad o ha dado una información errónea.

Sin embargo, su utilización va creciendo de forma bastante acrítica porque, a pesar de estos inconvenientes, la inteligencia artificial puede dar soluciones rápidas y que, incluso en los casos en que su calidad sea cuestionable, pueden pasar como suficientes. Un fenómeno habitual es que la calidad de las respuestas sea vista de forma muy distinta por alguien que es nuevo en el ámbito de conocimiento y por un experto en ese mismo ámbito.

¿Por qué el grado de aceptación es superior a lo que justifican los resultados? Los expertos en calidad nos han enseñado que el coste de la mejora marginal crece exponencialmente; ello puede conducir a conformarse con un resultado mediocre si éste resulta mucho más fácil de conseguir que un resultado excelente y éste sería uno de los primeros peligros de la inteligencia artificial:

Disminuir el valor asociado al conocimiento humano, mucho más lento costoso de adquirir, y preferir una versión degradada de éste conduce a una degradación del conocimiento humano y, con ello, no sólo de la capacidad asociada a la utilización de tal conocimiento sino de la capacidad para marcarle objetivos adecuados a la inteligencia artificial. En otras palabras, podría producirse un parón en la generación de conocimiento y en el desarrollo resultante; además, ese parón no afectaría sólo al conocimiento humano sino también a la capacidad de desarrollo de la inteligencia artificial.

Otro aspecto esperable es una situación de desempleo masivo en todo el mundo; en muchas actividades, la inteligencia artificial podría llevar a cabo las tareas necesarias, en unos casos con mayor calidad que su contraparte humana y en otros, con menor calidad, pero siempre con mucho menor coste de procesamiento.

Normalmente, cuando se utiliza este argumento, cabe esperar como respuesta una referencia a la Revolución Industrial y cómo hubo cambios de tipos de trabajo, pero, globalmente, la cantidad de trabajo existente no sólo no disminuyó, sino que aumentó. ¿Cabe esperar algo parecido ahora? No; debe tenerse en cuenta que la reproducción de sistemas digitales tiene un coste cercano a cero y, por tanto, el número de especialistas en inteligencia artificial no es, en absoluto, proporcional a la cantidad de potencia instalada. De igual modo y por la misma lógica, no se necesita un número de programadores de Windows proporcional al número de unidades en funcionamiento.

Alguien podría pensar que esto vale para el diseño básico, pero no para la adaptación y la implantación. Si es así, recordemos la diferencia entre los sistemas AlphaGo y AlphaZero: El primero fue diseñado específicamente para jugar al Go y competir con el campeón mundial del momento al que derrotó; el segundo fue diseñado para aprender de cualquier conjunto de dato que se le facilitase; cuando le facilitaron un conjunto de datos sobre Go, AlphaZero aprendió el juego con una calidad suficiente para derrotar a AlphaGo, que a su vez había derrotado a un campeón mundial, y aprendió otros juegos en los que también fue capaz de derrotar a programas especializados. ¿De verdad, en ese contexto, alguien puede creer que la adaptación individual y la implantación va a proporcionar el número de puestos de trabajo que produzca un nuevo efecto Revolución Industrial?

¿Puede funcionar un mundo donde el trabajo sea algo cuantitativamente marginal? En teoría, sí. Los aumentos de productividad en actividades donde el trabajo humano sería mínimo o inexistente podrían permitir soluciones como los subsidios universales, en su día defendidos por el propio Keynes, pero ¿quién los controlaría? Una sociedad en la que el trabajo es algo realizado por unos pocos y, probablemente, durante un corto tiempo es una sociedad que, casi por fuerza, funciona mediante una planificación central, es decir, el modelo que Hayek criticaba en “Camino de servidumbre”.

Naturalmente, éste sería el primer paso. Los pasos siguientes consistirían en determinar cuántas personas pueden ser mantenidas por ese sistema centralizado, eliminando toda libertad individual en cuestiones como tener o no hijos y prácticas como la eugenesia y la eutanasia formarían parte del paisaje, con carácter obligatorio.

Curiosamente, este sistema de planificación central apoyado en una eclosión de la inteligencia artificial caería en el mismo problema que todos los sistemas de planificación central anteriores: ¿Cuál es el incentivo para conseguir una mayor productividad? ¿No llegaríamos a una especie de “planeta de los simios”, viviendo del progreso realizado por otros en épocas anteriores?

Cuando alguien dice que la inteligencia artificial puede significar el fin de la humanidad, no es previsible que piense en una nueva edición de “Terminator”, sino en el fin de una humanidad donde el individuo tiene un valor intrínseco y no es una mera pieza de un Leviatán digital.

Si el trabajo desaparece, es previsible que los demás elementos -planificación central, pérdida de valor del individuo, determinación de cuántos habitantes tiene que haber, eugenesia, eutanasia, etc.- aparezcan como una consecuencia lógica.

Por otra parte, puesto que la inteligencia artificial necesita que le faciliten objetivos y la experiencia demuestra que ésta no es una tarea fácil, la regresión hacia la mediocridad del conocimiento humano haría difícil el progreso, incluso si éste se pretende que esté basado en la inteligencia artificial. Llegados aquí, efectivamente, la humanidad tal como la conocemos, habría desaparecido.

Deja un comentario