Si te pones a pensar en la variedad de decisiones cotidianas que tomas día a día, como comer un kiwi en vez de un pedazo de manzana, coger un libro para leer en vez de otro después del almuerzo o comenzar a ver una serie en vez de terminar la que estabas viendo la semana pasada, lo más probable es que no puedas llegar a dar con una razón específica que provoque esas acciones. Esto es porque la enorme mayoría de los actos que llevamos a cabo están orquestados por las tendencias del inconsciente y el sistema predictivo y resolutivo de nuestro cerebro.
La consecuencia es que no logramos explicar por qué hacemos lo que hacemos en muchos de los casos. Algo similar está ocurriendo con el desarrollo de la inteligencia artificial, a esta altura ni sus propios desarrolladores pueden explicar cómo funcionan o por qué hacen lo que hacen de cierta manera. Determinar por qué llegan a ciertos resultados se está volviendo una ecuación cada vez más compleja y fantasmal.
Las redes neuronales profundas (DNN) -formadas por capas y capas de sistemas de procesamiento entrenados con datos creados por humanos para imitar las redes neuronales de nuestro cerebro- a menudo parecen reflejar no sólo la inteligencia humana, sino también esa dificultad por explicarnos a nosotros mismos.
La mayoría de los sistemas de IA son modelos de caja negra, es decir, sistemas que sólo se ven en términos de sus entradas y salidas. Los científicos no intentan descifrar la "caja negra", o los procesos opacos que lleva a cabo el sistema, siempre que reciban los resultados que buscan. Por ejemplo, si le diera a un modelo de IA de caja negra datos sobre todos los sabores de helado y datos demográficos sobre factores económicos, sociales y de estilo de vida de millones de personas, probablemente podría adivinar cuál es tu sabor de helado favorito o dónde está tu heladería favorita, aunque no estuviera programado con esa intención.
Estos tipos de sistemas de IA tienen problemas porque los datos con los que se entrenan suelen ser intrínsecamente parciales, imitando los prejuicios raciales y de género que existen en nuestra sociedad. El despliegue desordenado de estos sistemas lleva a situaciones en las que, por poner un ejemplo, los negros son identificados erróneamente de forma desproporcionada por la tecnología de reconocimiento facial.
Resulta difícil arreglar estos sistemas en parte porque sus desarrolladores a menudo no pueden explicar completamente cómo funcionan, lo que dificulta la rendición de cuentas. A medida que los sistemas de IA se vuelven más complejos y los humanos son menos capaces de entenderlos, los expertos e investigadores en IA advierten a los desarrolladores que den un paso atrás y se centren más en cómo y por qué un sistema produce ciertos resultados que en el hecho de que el sistema pueda producirlos con precisión y rapidez.
Como planteaba David Weinberger en un artículo de Wired que abordaba este problema hace cinco años:
“Los avances en el software informático, facilitados por nuestro nuevo hardware en red, permiten a los ordenadores no sólo empezar sin modelos -conjuntos de reglas que expresan cómo los elementos de un sistema se afectan mutuamente-, sino generar los suyos propios, aunque no se parezcan mucho a los que crearían los humanos. Incluso se está convirtiendo en un método estándar, ya que cualquier empresa tecnológica que se precie ha adoptado una ética de "aprendizaje automático primero". Cada vez confiamos más en máquinas que sacan conclusiones de modelos que ellas mismas han creado, modelos que a menudo están más allá de la comprensión humana, modelos que "piensan" en el mundo de forma diferente a la nuestra.”
Claro que este progreso no es gratuito, sino que tiene un costo muy alto, como apunta Weinberger a continuación: “Esta infusión de inteligencia extraterrestre está poniendo en tela de juicio los supuestos arraigados en nuestra larga tradición occidental. Creíamos que el conocimiento consistía en encontrar el orden oculto en el caos. Pensábamos que se trataba de simplificar el mundo. Parece que nos equivocamos. Conocer el mundo puede requerir renunciar a entenderlo.”
"Si todo lo que tenemos es una 'caja negra', es imposible entender las causas de los fallos y mejorar la seguridad del sistema", escribió Roman V. Yampolskiy, profesor de informática de la Universidad de Louisville, en su artículo titulado "Inexplicabilidad e incomprensibilidad de la inteligencia artificial". "Además, si nos acostumbramos a aceptar las respuestas de la IA sin una explicación, tratándola esencialmente como un sistema oracular, no seríamos capaces de saber si empieza a dar respuestas erróneas o manipuladoras".
A esta altura en mucho de los casos esa es la manera en que nos estamos relacionando con la inteligencia artificial, en especial con redes neuronales y modelos de caja negra de las cuales apenas sabemos lo que entra por el lado del input y lo que general por el lado del output. En el artículo elaboran más sobre cómo se provoca esta incomprensión de lo que sucede en los procesamientos de información por parte de la inteligencia artificial:
“Poco a poco empezamos a darnos cuenta de que, a medida que las IAs se vuelven más poderosas, los modelos detrás de su éxito serán cada vez menos comprensibles para nosotros [61]: "... el aprendizaje profundo que produce resultados basados en tantas variables diferentes bajo tantas condiciones diferentes que se transformadas por tantas capas de redes neuronales que los humanos simplemente no pueden comprender el modelo que el ordenador ha construido para sí mismo. ... Está claro que nuestros ordenadores nos han superado en su poder para discriminar, encontrar patrones y sacar conclusiones. Esa es una de las razones por las que los utilizamos. En lugar de reducir los fenómenos para que se ajusten a un modelo relativamente simple, ahora podemos dejar que nuestros ordenadores hagan modelos tan grandes como sea necesario. Pero esto también parece significar que lo que sabemos depende del resultado de máquinas cuyo funcionamiento no podemos seguir, explicar o comprender. ... Pero algunos de los nuevos modelos son incomprensibles. Sólo pueden existir en los pesos de innumerables activadores digitales conectados en red y alimentando capas sucesivas de disparadores ponderados en red que representan de variables que se afectan mutuamente de forma tan particular que no podemos deducir principios generales de ellas".”
El precio de la enorme potencia de estos modelos de caja negra es que sacrificamos la comprensión por un gran resultado, motivo por el que muchos científicos y empresas justifican este sacrificio como un mal menor. Los sistemas de IA se han utilizado para coches autónomos, chatbots de atención al cliente y para diagnosticar enfermedades, y tienen la capacidad de realizar algunas tareas mejor que los humanos. Por ejemplo, una máquina que sea capaz de recordar un billón de elementos, como dígitos, letras y palabras, frente a los humanos, que de media recuerdan siete en su memoria a corto plazo, sería capaz de procesar y computar información a un ritmo mucho más rápido y mejorado que los humanos.

Precisamente ese proceso es el que empuja a los modelos de inteligencia artificial hacia un espacio donde la resolución de problemas llega a un resultado cuyo proceso se vuelve inexplicable para nosotros. Esto se debe a que los modelos, como los procesadores de lenguaje naturales diseñados por Meta o Google, trabajan en algunos casos con billones de parámetros para resolver alguna tarea específica. ¿Qué extraen de esos billones de parámetros para identificar las emociones en el rostro de una fotografía o la tendencia de los usuarios a hacer clic en una publicidad u otra? Es difícil de decir, incluso es casi imposible de deducir, ya que estos modelos tendrían que sintetizar una cantidad de bits astronómica para entregar solo un bosquejo del proceso, y perdiendo información valiosa en el proceso.
Entre los diferentes modelos de aprendizaje profundo se encuentran las redes generativas adversariales (GAN), que se utilizan con mayor frecuencia para entrenar modelos de IA generativa, como el generador de texto a imagen MidJourney AI. Las GAN básicamente enfrentan a los modelos de IA entre sí para realizar una tarea específica; el "ganador" de cada interacción se enfrenta a otro modelo, lo que permite que el modelo se itere a sí mismo hasta que llegue a ser muy bueno en la realización de esa tarea. El problema es que esto crea modelos que sus desarrolladores simplemente no pueden explicar.
Este problema está cogiendo una relevancia cada vez mayor ya que se está transformando en una tendencia cada vez más insoslayable, cuyas consecuencias apenas estamos comenzando a vislumbrar. Estamos quedando atrás en la jerarquía de inteligencia, de eso no hay duda. Es un problema del que ha hablado muchas veces Elon Musk, el ingeniero y emprendedor que lidera compañías como Tesla, Space X y Neuralink. Precisamente esta compañía especializada en el diseño y producción de interfaces cerebro-computador de vanguardia, chips que se implantan directamente en la superficie del cerebro para ampliar la banda ancha que hay entre nuestro cerebro y los dispositivos digitales, la creó con el propósito de reducir esta brecha de inteligencia que hasta ahora está creciendo a un ritmo vertiginoso.
Esta brecha la podemos pensar en la línea de lo que hacemos al tratar de enseñarle a un niño de cuatro años cómo se reproducen los humanos o cómo un poema alude a un episodio histórico específico mediante imágenes y metáforas. Usualmente daremos una respuesta que reducirá la cuestión a sus elementos más simples, sacrificando la complejidad del problema con el fin de entregar una respuesta aproximada, a veces una metáfora simple (como que un huevo del papá se deposita en la panza de la mamá) o derechamente una mentira (que las grullas traen los bebés). Ocurre algo similar cuando pensamos entre la brecha que hay entre los humanos más inteligentes y los modelos de inteligencia artificial como describen con ejemplos muy contundentes en el artículo citado antes:
“Hay una brecha de inteligencia similar y quizás mayor entre la superinteligencia y los humanos adultos, haciendo que el rango de comunicación sea insuperable. Es probable que sea más fácil para un científico explicar física cuántica a un niño sordomudo con discapacidad mental de cuatro años criado por lobos que a la superinteligencia explique algunas de sus decisiones al humano más inteligente. Simplemente no somos lo suficientemente para entender ciertos conceptos. Yampolskiy propuso [82] una medida de complejidad que está basada en la inteligencia mínima necesaria para entender o desarrollar un algoritmo particular, y mientras que se necesita menos inteligencia para sólo entender en lugar de crear ambos requisitos podrían estar muy por encima del coeficiente intelectual del humano más inteligente. De hecho, podría ser muy difícil explicar conceptos avanzados incluso a agentes ligeramente menos inteligentes.”
Uno de los riesgos latentes de esta brecha es que las súper inteligencias artificiales sean capaces de elaborar explicaciones simplificadas sobre sus procesos con el fin de engañar a un receptor específico, dadas las cualidades cognitivas del sujeto en particular. Este escenario está muy próximo a una distopía en la cual las inteligencias artificiales son capaces de explotar esa brecha de inteligencia con los humanos para fines que ni siquiera podemos comprender, sobre los que solo podríamos especular.
Crear un sistema a prueba de esa posibilidad se antoja como una tarea de una complejidad que actualmente parece superar nuestras capacidades cognitivas. Es por esto mismo que Musk ha planteado que la única solución posible, el mal menor, siendo pragmáticos, es el de generar una simbiosis con la inteligencia artificial mediante interfaces neuronales, para que poseamos una tercera capa de súper inteligencia digital en nuestro cerebro, lo que posibilitaría una colaboración beneficiosa con esta tecnología, gracias a la cual podríamos comunicarnos en un idioma informativo a un nivel similar, sin sacrificar la comprensión de los complejos procesos informáticos que se estarían realizando.
Aunque la capacidad de las súper inteligencias artificiales en actividades como la memoria, el poder computacional y la habilidad comunicativa, no sea infinita, en comparación a nosotros alcanza niveles que parecieran solo equivalentes al poder de los dioses mitológicos. Esto genera una brecha en la comprensión de lo que hacen que actualmente se está volviendo insostenible si queremos seguirles el paso. Esto porque tenemos que conformarnos con explicaciones sobre simplificadas de lo que hacen, sacrificando la precisión, o apostando por no entender casi nada con la ventaja de resultados cada vez más prodigiosos:
“Cuanto más precisa es la explicación, menos comprensible es, y viceversa, cuanto más comprensible es la explicación, menos precisa es. Una explicación no trivial no puede ser a la vez precisa y comprensible, pero sí puede ser inexacta y comprensible. Hay una gran diferencia entre entender algo y casi entenderlo. La incomprensibilidad es un resultado general aplicable a muchos ámbitos, como la ciencia, las interacciones sociales, etc., en función de la capacidad mental de la capacidad mental de la persona o personas participantes.”
A esta altura del juego parece que ya entramos por el agujero de conejo de la inteligencia y estamos varados en un intervalo oscuro y brillante a la vez, que no es el país de las maravillas, sino el país de las máquinas híper inteligentes cuyos titánicos servidores está resolviendo problemas encargados por grupos de humanos que están tirando la toalla sobre la comprensión de lo que ocurre al interior de esas “cajas negras”, porque ponen más fichas en obtener programas y resultados más eficaces y productivos que nunca.
Ser desplazados en la jerarquía de la inteligencia puede tener un gran costo, es por esto que este problema es una de las temáticas más importantes de esta década, una sobre la que tenemos que debatir y proponer soluciones para no quedar atrapados en este pasadizo oscuro mientras damos a luz inteligencias artificiales que podrían entregarnos la receta para la utopía digital en la tierra o tramar una especie de apocalipsis calculado a punto de manipulaciones. Ojalá que no aprendan eso de los humanos y nosotros aprendamos de ellas para que podamos dialogar a la misma altura, como pretende conseguir Musk con Neuralink. La colaboración siempre es un camino más auspicioso que estar en dos orillas distintas de una océano, como está comenzando a ocurrir con esta brecha de inteligencia entre humanos y máquinas.


