¿Estamos o no en vías de alcanzar pronto la Inteligencia Artificial General?
En un reciente artículo de Marta Peirano en El País «No habrá inteligencia artificial general» (3 de junio, 2024), se argumenta que no podemos alcanzar la Inteligencia Artificial General (AGI) debido a las «alucinaciones» de los modelos de lenguaje neurales. Para ello, se apoya en algunas nociones científicas del campo de la biología y la lingüística, a mi entender, ampliamente superadas.
En contra de esa muy respetable opinión, considero que hay varios paradigmas y conceptos científicos vigentes que sugieren que la AGI puede muy bien ser un objetivo alcanzable en el futuro inmediato.
Creo necesario recordar qué se acepta comúnmente como definición de AGI:
«La Inteligencia Artificial General (AGI) es un campo de investigación teórica de la IA que intenta crear software con inteligencia similar a la humana y con capacidad para aprender y resolver problemas complejos sin intervención manual».
No la confundamos, por tanto, con el concepto de superinteligencia, según el cual la IA rebasaría el conocimiento humano en todos los ámbitos.
La complejidad (véase Morin, E. Intelligence de la complexité, 2013) es una característica fundamental de los sistemas biológicos y sociales. Los modelos de lenguaje neurales son sistemas complejos que pueden aprender y adaptarse a nuevas situaciones. La complejidad puede ser una clave para alcanzar la AGI, ya que permite a los modelos de lenguaje neurales desarrollar patrones y estructuras más sofisticadas. Lo que antes nos resultaba un volumen de datos casi inmanejable, como lo fuera el contenido de una enciclopedia o el medio millón de términos de un idioma como el inglés o el español, es ahora una minucia en comparación con el casi petabyte de datos de MLM’s como Gemini, Llama o GPT-4o.
Y no olvidemos que este volumen corresponde a datos de entrenamiento y no incluye el procesamiento de datos incremental sobre el que también aprenden, segundo a segundo, los grandes modelos de lenguaje. La capacidad de cómputo necesaria para manejar este volumen de información antes era impensable, pero hoy es una realidad. Ya la antigua ley de Moore, enunciada en 1965, describía cómo la potencia de los procesadores se duplica aproximadamente cada 18 meses, lo que ha llevado a una explosión en la capacidad computacional y la cantidad de datos disponibles.
La potencia computacional disponible para el entrenamiento y funcionamiento de modelos de lenguaje neurales ha aumentado exponencialmente en los últimos años (Nvidia, Meteor Lake, Qualcomm, Huawei…) y esta tendencia continuará de la mano de nuevos algoritmos y procesadores especializados. Si se mantiene esta tendencia, es predecible que los modelos de lenguaje neurales sigan mejorando y se acerquen a la AGI.
Desde los años 50, la teoría del aprendizaje automático se centra en el desarrollo de algoritmos que permiten a los modelos de lenguaje neurales aprender de manera autónoma. La teoría del aprendizaje automático será una herramienta clave para alcanzar la AGI, pero no solo en el ámbito lingüístico: La colaboración interdisciplinar y la integración de conocimientos constituyen el objetivo fundamental en la AGI. Expertos de muy diferentes campos, desde la informática a la psicología y la robótica, trabajan ya conjuntamente para alcanzar ese objetivo. Ello permitirá a los investigadores compartir conocimientos y enfoques para abordar los desafíos más complejos y entrenar en ese conocimiento (y ahora uso esta palabra intencionalmente) a MLM’s cada vez más sofisticados.
Los modelos de lenguaje neurales tienen ya la capacidad de aprender y combinar diferentes tipos de conocimientos, como la información visual, código en multitud de lenguajes, y muy diferentes contextos, desde la cuántica a la biología molecular. A mi entender, esta integración de conocimientos permitirá muy pronto a los modelos de lenguaje neurales desarrollar una comprensión más profunda del mundo y del razonamiento humano… e incluso superarlo.
Cada nueva versión de un MLM mejora sustancialmente en la identificación y corrección de sesgos y alucinaciones que, a juicio de la redactora de El País, impedirían alcanzar la AGI. Lejos de ello, cada nuevo modelo propone logros tan sorprendentes como la construcción de idiomas más eficientes que los humanos para comunicarse, la redefinición de «arte visual», la nueva robótica o el desdoblamiento de proteínas, por citar solo algunos de los más llamativos.
Y recordando a Galileo, ya que lo cita Peirano, baste decir que en nuestra realidad coexisten los bonsáis y las secoyas. Y los árboles no crecen más hacia arriba porque cuando su inteligencia (si se prefiere ahora, en sentido metafórico) descubre que es más eficiente hacerlo a lo ancho, crea maravillas como el Gigante de Sevier en Utah.
Mala memoria tienen los que no recuerdan cómo era nuestra realidad científica hace solo 5 años… y poca imaginación quienes no sean capaces de visualizar cómo será el próximo lustro.
Hay una amplia gama de paradigmas y conceptos científicos que sugieren que la AGI puede ser un objetivo alcanzable en un futuro muy cercano. Yo lo creo así. Pero, como apunta Josh Bachynski, la discusión no nos corresponde a los programadores, ingenieros, biólogos o mercadólogos, que desconocemos el significado y alcance del término «conocimiento». Es una cuestión epistemológica sobre la que la filosofía lleva reflexionando al menos 2500 años. Tal vez, después de todo este tiempo, sea la AGI la que proporcione la respuesta.