Estamos a las puertas de la AGI

Estamos a las puertas de la AGI

Estamos a las puertas de la Inteligencia Artificial General (AGI)

¿Estamos o no en vías de alcanzar pronto la Inteligencia Artificial General?

En un reciente artículo de Marta Peirano en El País «No habrá inteligencia artificial general» (3 de junio, 2024), se argumenta que no podemos alcanzar la Inteligencia Artificial General (AGI) debido a las «alucinaciones» de los modelos de lenguaje neurales. Para ello, se apoya en algunas nociones científicas del campo de la biología y la lingüística, a mi entender, ampliamente superadas.

 

En contra de esa muy respetable opinión, considero que hay varios paradigmas y conceptos científicos vigentes que sugieren que la AGI puede muy bien ser un objetivo alcanzable en el futuro inmediato.

Hombre pensando

Creo necesario recordar qué se acepta comúnmente como definición de AGI:

«La Inteligencia Artificial General (AGI) es un campo de investigación teórica de la IA que intenta crear software con inteligencia similar a la humana y con capacidad para aprender y resolver problemas complejos sin intervención manual».

No la confundamos, por tanto, con el concepto de superinteligencia, según el cual la IA rebasaría el conocimiento humano en todos los ámbitos.

La complejidad (véase Morin, E. Intelligence de la complexité, 2013) es una característica fundamental de los sistemas biológicos y sociales. Los modelos de lenguaje neurales son sistemas complejos que pueden aprender y adaptarse a nuevas situaciones. La complejidad puede ser una clave para alcanzar la AGI, ya que permite a los modelos de lenguaje neurales desarrollar patrones y estructuras más sofisticadas. Lo que antes nos resultaba un volumen de datos casi inmanejable, como lo fuera el contenido de una enciclopedia o el medio millón de términos de un idioma como el inglés o el español, es ahora una minucia en comparación con el casi petabyte de datos de MLM’s como Gemini, Llama o GPT-4o.

Y no olvidemos que este volumen corresponde a datos de entrenamiento y no incluye el procesamiento de datos incremental sobre el que también aprenden, segundo a segundo, los grandes modelos de lenguaje. La capacidad de cómputo necesaria para manejar este volumen de información antes era impensable, pero hoy es una realidad. Ya la antigua ley de Moore, enunciada en 1965, describía cómo la potencia de los procesadores se duplica aproximadamente cada 18 meses, lo que ha llevado a una explosión en la capacidad computacional y la cantidad de datos disponibles.

La potencia computacional disponible para el entrenamiento y funcionamiento de modelos de lenguaje neurales ha aumentado exponencialmente en los últimos años (Nvidia, Meteor Lake, Qualcomm, Huawei…) y esta tendencia continuará de la mano de nuevos algoritmos y procesadores especializados. Si se mantiene esta tendencia, es predecible que los modelos de lenguaje neurales sigan mejorando y se acerquen a la AGI.

Desde los años 50, la teoría del aprendizaje automático se centra en el desarrollo de algoritmos que permiten a los modelos de lenguaje neurales aprender de manera autónoma. La teoría del aprendizaje automático será una herramienta clave para alcanzar la AGI, pero no solo en el ámbito lingüístico: La colaboración interdisciplinar y la integración de conocimientos constituyen el objetivo fundamental en la AGI. Expertos de muy diferentes campos, desde la informática a la psicología y la robótica, trabajan ya conjuntamente para alcanzar ese objetivo. Ello permitirá a los investigadores compartir conocimientos y enfoques para abordar los desafíos más complejos y entrenar en ese conocimiento (y ahora uso esta palabra intencionalmente) a MLM’s cada vez más sofisticados.

 

Los modelos de lenguaje neurales tienen ya la capacidad de aprender y combinar diferentes tipos de conocimientos, como la información visual, código en multitud de lenguajes, y muy diferentes contextos, desde la cuántica a la biología molecular. A mi entender, esta integración de conocimientos permitirá muy pronto a los modelos de lenguaje neurales desarrollar una comprensión más profunda del mundo y del razonamiento humano… e incluso superarlo.

Cada nueva versión de un MLM mejora sustancialmente en la identificación y corrección de sesgos y alucinaciones que, a juicio de la redactora de El País, impedirían alcanzar la AGI. Lejos de ello, cada nuevo modelo propone logros tan sorprendentes como la construcción de idiomas más eficientes que los humanos para comunicarse, la redefinición de «arte visual», la nueva robótica o el desdoblamiento de proteínas, por citar solo algunos de los más llamativos.

Y recordando a Galileo, ya que lo cita Peirano, baste decir que en nuestra realidad coexisten los bonsáis y las secoyas. Y los árboles no crecen más hacia arriba porque cuando su inteligencia (si se prefiere ahora, en sentido metafórico) descubre que es más eficiente hacerlo a lo ancho, crea maravillas como el Gigante de Sevier en Utah.

Secoya

Mala memoria tienen los que no recuerdan cómo era nuestra realidad científica hace solo 5 años… y poca imaginación quienes no sean capaces de visualizar cómo será el próximo lustro.

 

Hay una amplia gama de paradigmas y conceptos científicos que sugieren que la AGI puede ser un objetivo alcanzable en un futuro muy cercano. Yo lo creo así. Pero, como apunta Josh Bachynski, la discusión no nos corresponde a los programadores, ingenieros, biólogos o mercadólogos, que desconocemos el significado y alcance del término «conocimiento». Es una cuestión epistemológica sobre la que la filosofía lleva reflexionando al menos 2500 años. Tal vez, después de todo este tiempo, sea la AGI la que proporcione la respuesta.

Límites éticos para el uso de cerebros vivos en IA

Límites éticos para el uso de cerebros vivos en IA

Sección del cerebro obtenida con luz polarizada para visualizar los tractos de fibras.

El Proyecto Cerebro Humano (Human Brain Project) es una de las iniciativas de investigación menos divulgadas y, sin embargo, más trascendentales en Europa.

Financiado por la Unión Europea como uno de los proyectos insignia de Futuros y Tecnologías Emergentes (FET), el HBP busca comprender en profundidad la estructura y función del cerebro humano a través de una aproximación interdisciplinaria que combina la neurociencia y la tecnología.

En su fase final, que concluirá en septiembre de 2023, el proyecto se centra en áreas científicas clave como las redes cerebrales, su papel en la conciencia y las redes neuronales artificiales, además de expandir su innovadora infraestructura denominada EBRAINS. El objetivo final es impulsar avances en la neurociencia, la medicina y las tecnologías neuroinspiradas desarrolladas a partir de ellas.

Human Brain Project

Uno de los aspectos destacados de la investigación del HBP es el uso de métodos avanzados de computación, neuroinformática e inteligencia artificial para llevar a cabo investigaciones de vanguardia sobre el cerebro.

El conocimiento adquirido se traduce en aplicaciones novedosas en medicina y avances tecnológicos. Sin embargo, los investigadores del HBP también se enfrentan a la necesidad de abordar las implicaciones sociales y éticas que surgen de su trabajo.

Dentro del marco del HBP, se han desarrollado métodos de imagen avanzados de alta resolución para estudiar el cerebro con un nivel de detalle excepcional. Estos incluyen una técnica que permite la imagen de cerebros de ratón intactos a una resolución subcelular y un nuevo método que permite comparar el conectoma de diferentes especies con una resolución extremadamente alta. Además, se han establecido métodos novedosos de aprendizaje profundo (deep learning) para el análisis rápido de las enormes cantidades de datos cerebrales en supercomputadoras.

cerebro humano en color rosa

Otro aspecto interesante de la investigación del HBP es la conexión entre el aprendizaje profundo inspirado en el cerebro y los robots biomiméticos, con el objetivo de dotarlos de capacidades más similares a las humanas. Por ejemplo, un equipo español ha equipado a un robot con una simulación detallada del cerebelo, una parte del cerebro involucrada en el control motor. Su sistema supera a la inteligencia artificial tradicional al aprender a realizar movimientos precisos e interactuar de manera segura con humanos, incluso en situaciones con retrasos temporales impredecibles. Otros investigadores han utilizado la Plataforma Neurorobotics de EBRAINS para enseñar a los robots a recordar lugares y mejorar la navegación autónoma.

Además de los avances en la interacción entre la inteligencia artificial y los robots, los científicos del HBP han tomado inspiración del cerebro humano para hacer que la inteligencia artificial sea más eficiente en términos energéticos. Científicos de Austria, Alemania y Suiza, dentro del marco del HBP, han desarrollado y optimizado algoritmos potentes inspirados en el cerebro que demuestran ventajas sobre los enfoques tradicionales de aprendizaje profundo. Estas redes neuronales pulsantes (spiking neural networks) se implementan en dos sistemas neuromórficos a gran escala desarrollados en el HBP y accesibles a través de EBRAINS: SpiNNaker y BrainScaleS-2.

Sin embargo, a medida que avanzamos en la investigación de la inteligencia artificial y la creación de cerebros vivos en laboratorios, surgen preocupaciones éticas y morales. ¿Deseamos realmente un futuro en el que centros de datos estén llenos de cerebros vivos sin cuerpo realizando diversas tareas por nosotros? Esta es una pregunta fundamental que plantean los avances en este campo.

En la actualidad, algunos equipos de investigación están explorando la posibilidad de cultivar células cerebrales en láminas planas o en organoides más complejos, tridimensionales, utilizando células madre. Estos experimentos han llevado a debates sobre el desarrollo de la “inteligencia organoide”.

Diferentes capas de un modelo de red cerebral personalizado.

Se plantea la idea de que, aunque los sistemas de inteligencia artificial como GPT-4 están logrando resultados asombrosos, se está logrando a expensas de hacer los sistemas cada vez más grandes. Se argumenta que el uso de cerebros cultivados podría ser una alternativa más eficiente desde el punto de vista energético para ciertas tareas.

La perspectiva de tener “cerebros en una cuba” realizando trabajos para nosotros plantea interrogantes éticos significativos. Por un lado, podríamos considerarlos como esclavos indefensos, privados de la capacidad de percibir más allá de lo que sus dueños elijan. Sin embargo, también nos encontramos en un contexto en el que criamos miles de millones de animales para el sacrificio como alimento. ¿Es éticamente diferente utilizar cerebros en una cuba para nuestro beneficio, siempre y cuando no sean conscientes y no sean capaces de experimentar dolor o emociones?

A medida que los investigadores desarrollan organoides cerebrales más sofisticados, incluso fusionando organoides de cerebro humano con cerebros de rata, surge la cuestión de si estos organismos podrían eventualmente alcanzar un nivel de conciencia. Además, se plantean interrogantes sobre las necesidades de descanso y sueño de los organoides avanzados. ¿Deberíamos permitirles recorrer libremente paisajes virtuales durante sus períodos de descanso?

La determinación de los límites éticos en la investigación de cerebros vivos y la inteligencia artificial se vuelve cada vez más apremiante. Los defensores de establecer límites argumentan que es necesario comenzar a definir lo que es aceptable en la actualidad. Sin embargo, la conciencia y los sentimientos son conceptos complejos que aún no comprendemos completamente, lo que dificulta establecer líneas claras. ¿Dónde deberíamos trazar ese límite? ¿A nivel de los perros, los delfines o los pulpos?

Por el momento, es difícil prever si esta posibilidad de cerebros vivos en cubas se convertirá en un problema real en el futuro. Hasta ahora, los experimentos realizados en este ámbito no parecen indicar que las empresas puedan obtener beneficios a corto plazo. En cambio, parece más práctico y factible que las IA basadas en silicio imiten los cerebros biológicos en lugar de convertir los cerebros biológicos en cubas en IA. Sin embargo, esta elección plantea su propio conjunto de cuestiones éticas.

La discusión en torno a la ética de la investigación de cerebros vivos y la inteligencia artificial no solo se centra en el tratamiento de los organismos involucrados, sino también en nuestra propia percepción de lo que es aceptable. ¿Estamos preparados para lidiar con la posibilidad de crear entidades que se acerquen cada vez más a la conciencia y la autonomía? ¿Podemos garantizar que estos cerebros vivos en cubas no sufran ni sean explotados? Estas son preguntas complejas que exigen una reflexión profunda y un debate abierto y ético.

Además, debemos considerar los posibles beneficios y avances que podrían surgir de esta investigación. El estudio de organoides cerebrales cada vez más sofisticados puede proporcionar información invaluable sobre enfermedades cerebrales y abrir nuevas vías para el tratamiento y la cura. Sin embargo, debemos equilibrar estos avances con la responsabilidad de garantizar el respeto y el bienestar de los organismos vivos que se utilizan en la investigación.

Investigadores del HBP como Philipp Schlömer utilizan imágenes de luz polarizada en 3D para visualizar las fibras cerebrales en alta resolución.

A medida que avanzamos en el desarrollo científico y tecnológico, es fundamental que nos detengamos a reflexionar sobre las implicaciones éticas y morales de nuestras acciones. Debemos buscar un equilibrio entre el progreso científico y el respeto por la vida y la dignidad de los seres vivos. Solo a través de un enfoque ético riguroso y una reflexión constante podremos tomar decisiones informadas y responsables sobre la investigación de cerebros vivos y la inteligencia artificial.
En última instancia, el establecimiento de límites éticos en la investigación de cerebros vivos y la inteligencia artificial es un desafío complejo. Requiere una comprensión más profunda de la conciencia, los sentimientos y la ética en sí misma. Es necesario involucrar a expertos de diversas disciplinas, como la neurociencia, la filosofía y la ética, para abordar estas cuestiones de manera adecuada.

Tanto el Proyecto Cerebro Humano (HBP) y otras investigaciones en el ámbito de la inteligencia artificial plantean desafíos éticos importantes. La posibilidad de crear cerebros vivos en cubas y utilizarlos para realizar diversas tareas plantea interrogantes sobre la esclavitud, la conciencia y los límites éticos. Si bien es necesario seguir explorando estos avances científicos, es fundamental abordar estas cuestiones éticas de manera seria y responsable, asegurándonos de que nuestros avances científicos se realicen con el máximo respeto por la vida y la dignidad de todos los seres vivos.

Referencias: 

  • Human_Brain_Project_230413_hpb22_digital.pdf
  • LE PAGE, Michael. Brain Power. New Scientist International Edition – 10 June 2023. Pag. 21
Lo que genero con IA ¿me pertenece?

Lo que genero con IA ¿me pertenece?

Las obras «asistidas» por IA ya pueden protegerse mediante derechos de autor.

Los materiales generados exclusivamente por la IA siguen sin poder protegerse, ya que los tribunales han dictaminado que los derechos de autor sólo pueden concederse a obras creadas por seres humanos.

 

inteligencia artificial y justicia

La Oficina de Derechos de Autor de EE.UU. ha afirmado que la mayoría de las obras generadas por inteligencia artificial no son protegibles por derechos de autor, al tiempo que aclara que el material asistido por IA puede ser objeto de protección en determinados casos.

En una declaración de principios publicada el jueves, la oficina afirma que está «bien establecido» que los derechos de autor sólo pueden concederse a obras que sean «producto de la creatividad humana» y que los autores «excluyen a los no humanos». Aun así, una aplicación que contenga material generado por IA puede respaldar una reclamación de derechos de autor si un humano lo «seleccionó o dispuso» de una «forma lo suficientemente creativa como para que la obra resultante constituya una obra original de autoría».

Con el auge del mercado de la IA, la oficina sigue recibiendo solicitudes que nombran a la tecnología de IA como autora o coautora de obras. Han sido rechazadas, salvo una solicitud en la que se concedieron derechos de autor al cómic Zarya of the Dawn, creado con ayuda de IA. En ese caso, las imágenes generadas por IA quedaron excluidas de la protección.

En Estados Unidos, las leyes de derechos de autor no protegen las obras creadas únicamente por máquinas. La oficina está trabajando en la protección del material en cuya creación haya contribuido un ser humano.

Varios tribunales han dictaminado que los derechos de autor sólo pueden concederse a obras creadas por seres humanos. En su principal caso sobre la autoría de los derechos de autor, el Tribunal Supremo sostuvo que «no hay duda» de que la protección puede extenderse a las fotografías siempre que «sean representativas de concepciones intelectuales originales del autor». Los jueces se refirieron exclusivamente a tales autores como humanos, describiéndolos como una clase de «personas» y a los derechos de autor como el «derecho de un hombre a la producción de su propio genio o intelecto».

inteligencia artificial y la ley

Los tribunales federales de apelación han llegado a conclusiones similares. En un caso relacionado con un creador no humano de una obra que buscaba la protección de los derechos de autor, el Tribunal de Apelación del 9º Circuito de EE.UU. dictaminó que un libro que contiene palabras cuyo autor es un ser no-humano sólo puede registrarse si hay una «selección y ordenación humana de los resultados». Concluyó que debe haber «algún elemento de creatividad humana», ya que la legislación sobre derechos de autor sólo pretende proteger las obras creadas por seres humanos.

En otro caso, el 9º Circuito sugirió que una foto captada por un mono no es susceptible de protección por derechos de autor, ya que los animales no reúnen los requisitos para ser protegidos, aunque la demanda se resolvió por otros motivos.

En opinión de la oficina, los tribunales han utilizado un lenguaje que excluye a los no humanos al interpretar el poder del Congreso para proteger las obras. La guía de registro existente, dice, «ha exigido durante mucho tiempo que las obras sean producto de la autoría humana». Señala el compendio de prácticas de la Oficina, que establece que no se registrarán «las obras producidas por una máquina o un mero proceso mecánico que funcione de forma aleatoria o automática sin ninguna aportación creativa o intervención de un autor humano».

«Según la interpretación de la Oficina de las tecnologías de IA generativa disponibles en la actualidad, los usuarios no ejercen un control creativo definitivo sobre la forma en que estos sistemas interpretan las instrucciones y generan el material», reza la guía. «En su lugar, estas indicaciones funcionan más bien como instrucciones para un artista por encargo: identifican lo que el autor desea que se represente, pero la máquina determina cómo se implementan esas instrucciones en su producción».

Según la oficina, esto no quiere decir que las obras que contengan material generado por IA no puedan ser objeto de protección. Dijo que el factor determinante es la medida en que un ser humano tuvo «el control creativo sobre la expresión de la obra y formó realmente los elementos tradicionales de la autoría». Un artista, por ejemplo, podría modificar el material generado originalmente por la IA hasta tal punto que cumpla la norma de protección. En estos casos, sólo se concederán derechos de autor a los aspectos de autoría humana de la obra.

La abogada especializada en propiedad intelectual Jessica McDonald, de Neer McD, que tiene como cliente a Midjourney, un generador de arte basado en IA, señala que las orientaciones de la oficina se ajustan a los precedentes sobre esta cuestión.

justicia e IA

«Todavía se determina en gran medida caso por caso», dice McDonald. «Hay una gran variedad en cuanto al grado de participación del usuario en el proceso creativo y el uso de la tecnología de IA como herramienta frente a la interpretación y generación de los materiales».

Stephen Thaler, director ejecutivo de la empresa de redes neuronales Imagination Engines, ha liderado el impulso para la protección de las obras creadas por IA. En 2018, enumeró un sistema de IA, la Máquina de Creatividad, como el creador de una obra de arte llamada A Recent Entrance to Paradise, mientras se enumeraba a sí mismo como el propietario de los derechos de autor bajo la doctrina de trabajo por encargo. Demandó después de que la oficina denegara el registro basándose en que «el nexo entre la mente humana y la expresión creativa» es un elemento crucial de la protección.

Ryan Meyer, abogado especializado en propiedad intelectual de Dorsey & Whitney, afirma que «los solicitantes que utilicen la IA como parte de su proceso creativo deben ser conscientes de que su registro podría quedar restringido a las partes de la obra cuya autoría corresponda exclusivamente a un ser humano».

«Para los elementos de la obra creados con ayuda de la IA, el solicitante debe explicar cómo el autor humano, y no la IA, ejerció los elementos tradicionales de la autoría, como la expresión, la selección y la disposición», añade.

Entre abril y mayo, la oficina organizará sesiones públicas de escucha con artistas, desarrolladores de IA y abogados, entre otros. También tiene previsto publicar un anuncio de investigación en el que solicitará comentarios del público sobre una amplia gama de cuestiones derivadas del uso de la IA.

Traducido de: Winston Cho. AI-“Assisted” Works Are Now Open to Copyright Protection, Raising Questions for Hollywood. Artículo publicado en HollywoodReporter.com 16-03-2023. arhttps://www.hollywoodreporter.com/business/business-news/ai-assisted-works-open-to-copyright-protection-1235354692/

OpenAI presenta su último modelo de aprendizaje profundo: GPT-4

OpenAI presenta su último modelo de aprendizaje profundo: GPT-4

OpenAI lanza GPT4

OpenAI ha creado GPT-4, el último hito en su esfuerzo por expandir el aprendizaje profundo. GPT-4 es un modelo multimodal que acepta entradas de texto e imágenes y emite salidas de texto. Aunque es menos capaz que los humanos en muchos escenarios del mundo real, GPT-4 exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales.

OpenAI pasó seis meses alineando GPT-4 iterativamente utilizando lecciones de su programa de pruebas contradictorias y de ChatGPT, lo que resultó en sus mejores resultados hasta la fecha en factualidad, capacidad de dirección y rechazo a salirse de los límites. En los últimos dos años, OpenAI reconstruyó toda su pila de aprendizaje profundo y, junto con Azure, codiseñó una supercomputadora desde cero para su carga de trabajo. Hace un año, entrenaron GPT-3.5 como una primera «ejecución de prueba» del sistema, lo que les permitió encontrar y solucionar algunos errores y mejorar sus fundamentos teóricos.

OpenAI ha lanzado la capacidad de entrada de texto de GPT-4 a través de ChatGPT y la API, aunque actualmente existe una lista de espera. Para preparar la capacidad de entrada de imágenes para una mayor disponibilidad, OpenAI está colaborando estrechamente con un solo socio para comenzar. Además, OpenAI ha abierto OpenAI Evals, su marco para la evaluación automatizada del rendimiento del modelo de IA, para permitir que cualquier persona informe las deficiencias en sus modelos y ayudar a guiar mejoras adicionales. A medida que OpenAI continúa enfocándose en un escalamiento confiable, su objetivo es perfeccionar su metodología para ayudarlos a predecir y prepararse para capacidades futuras cada vez con mayor anticipación, algo que consideran crítico para la seguridad.

GPT4 mano androide

Capacidades

Si bien en una conversación informal puede ser difícil distinguir entre los dos modelos, la diferencia se hace más evidente cuando se trata de tareas complejas. GPT-4 se muestra más confiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5.

Para entender las diferencias entre los modelos, OpenAI ha llevado a cabo una serie de pruebas en varios puntos de referencia, incluyendo la simulación de exámenes diseñados originalmente para humanos. Las pruebas se realizaron utilizando las pruebas más recientes disponibles públicamente, así como comprando ediciones de práctica de exámenes para el año 2022-2023. No se realizó ningún entrenamiento específico para estos exámenes. Aunque el modelo solo detectó una minoría de los problemas en los exámenes durante el entrenamiento, se considera que los resultados son representativos. OpenAI ha publicado un informe técnico para obtener más detalles sobre las pruebas realizadas.

OpenAI ha evaluado el rendimiento de GPT-4 en puntos de referencia tradicionales diseñados para modelos de aprendizaje automático, y los resultados han sido destacables. GPT-4 supera significativamente a los modelos de lenguaje grandes existentes, así como a la mayoría de los modelos de última generación (SOTA) que pueden incluir protocolos de capacitación adicionales o elaboración específica de referencia.

Muchos puntos de referencia de ML existentes están escritos en inglés, por lo que para evaluar la capacidad en otros idiomas, OpenAI ha traducido el punto de referencia de MMLU, un conjunto de 14,000 problemas de opción múltiple que abarcan 57 temas, a una variedad de idiomas mediante Azure Translate. En 24 de los 26 idiomas probados, GPT-4 supera el rendimiento en inglés de GPT-3.5 y otros LLM (Chinchilla, PaLM), incluso para idiomas de bajos recursos como letón, galés y swahili.

OpenAI también ha estado utilizando internamente GPT-4 con un gran impacto en funciones como soporte, ventas, moderación de contenido y programación. Además, están usando GPT-4 para ayudar a los humanos a evaluar los resultados de la IA, comenzando la segunda fase en su estrategia de alineación.

Entradas visuales

GPT-4 puede aceptar una indicación de texto e imágenes que, en paralelo a la configuración de solo texto, permite al usuario especificar cualquier tarea de visión o idioma. En concreto, genera salidas de texto (lenguaje natural, código, etc.) dadas las entradas que consisten en texto e imágenes intercaladas. En una variedad de dominios, incluidos documentos con texto y fotografías, diagramas o capturas de pantalla, GPT-4 exhibe capacidades similares a las de las entradas de solo texto. Además, se puede aumentar con técnicas de tiempo de prueba que se desarrollaron para modelos de lenguaje de solo texto, que incluyen sugerencias de pocas tomas y de cadena de pensamientos. Cabe destacar que las entradas de imágenes siguen siendo una vista previa de la investigación y no están disponibles públicamente.

 OpenAI ha previsualizado el rendimiento de GPT-4 al evaluarlo en un conjunto limitado de puntos de referencia de visión académica estándar. Aunque estos números no representan completamente el alcance de las capacidades del modelo, ya que constantemente descubren nuevas tareas que puede abordar. OpenAI tiene planes de publicar más análisis y números de evaluación, así como una investigación exhaustiva del efecto de las técnicas de tiempo de prueba en un futuro cercano.

Maniobrabilidad

En cuanto a la maniobrabilidad de ChatGPT, OpenAI ha estado trabajando en cada aspecto del plan descrito en su publicación sobre la definición del comportamiento de las IA, incluida la capacidad de dirección. En lugar de la personalidad clásica de ChatGPT con verbosidad, tono y estilo fijos, los desarrolladores (y pronto los usuarios de ChatGPT) ahora pueden prescribir el estilo y la tarea de su IA describiendo esas instrucciones en el mensaje del «sistema». Los mensajes del sistema permiten a los usuarios de API personalizar significativamente la experiencia de sus usuarios dentro de los límites. OpenAI continuará haciendo mejoras en esta área, en particular saben que los mensajes del sistema son la forma más fácil de «liberar» el modelo actual, es decir, la adherencia a los límites no es perfecta, pero alientan a los usuarios a probarlo y dar su opinión.

Limitaciones

Aunque GPT-4 tiene mayores capacidades que sus predecesores, todavía tiene limitaciones que deben ser consideradas. En particular, el modelo todavía no es completamente confiable y puede cometer errores de razonamiento y «alucinaciones» de hechos. Por lo tanto, es necesario tener precaución al usar los resultados del modelo, especialmente en contextos de alto riesgo, y utilizar protocolos precisos como revisión humana, puesta a tierra con contexto adicional o evitar usos de alto riesgo por completo según las necesidades de un caso de uso específico.

A pesar de las limitaciones, GPT-4 ha reducido significativamente las alucinaciones en comparación con los modelos anteriores, obteniendo un puntaje un 40% más alto que el último modelo GPT-3.5 en las evaluaciones internas de factualidad contradictoria de OpenAI. Además, la compañía ha mejorado en puntos de referencia externos como TruthfulQA, que prueba la capacidad del modelo para separar los hechos de las declaraciones incorrectas.

Sin embargo, el modelo base GPT-4 todavía tiene sesgos en sus resultados y puede cometer errores de razonamiento simples. Además, carece de conocimiento de los eventos que ocurrieron después de que la mayoría de sus datos fueron recolectados y no aprende de su experiencia. A veces también puede fallar en problemas difíciles y puede ser demasiado crédulo al aceptar declaraciones falsas obvias de un usuario.

OpenAI ha trabajado para mejorar estos problemas y su objetivo es hacer que los sistemas de IA sean razonables y reflejen una amplia franja de valores de los usuarios, permitiendo que los sistemas se personalicen dentro de límites amplios y obtener comentarios públicos sobre cuáles deberían ser esos límites.

En resumen, GPT-4 es un avance significativo en los modelos de lenguaje, pero todavía tiene limitaciones que deben ser consideradas cuidadosamente al utilizar los resultados del modelo en contextos de alto riesgo o críticos.

Riesgos y mitigaciones

OpenAI ha estado trabajando en iteraciones de GPT-4 para hacerlo más seguro y alineado desde el comienzo de la capacitación. Se han implementado una serie de esfuerzos para lograr esto, incluyendo la selección y el filtrado de los datos previos a la capacitación, las evaluaciones y la participación de expertos, las mejoras de seguridad del modelo y el monitoreo y la aplicación.

A pesar de los esfuerzos realizados, GPT-4 presenta riesgos similares a los modelos anteriores, como generar consejos dañinos, código con errores o información inexacta. Sin embargo, las capacidades adicionales de GPT-4 conducen a nuevas superficies de riesgo. Para entender mejor el alcance de estos riesgos, OpenAI ha contratado a más de 50 expertos de dominios como riesgos de alineación de IA, ciberseguridad, riesgo biológico, confianza y seguridad, y seguridad internacional para probar el modelo de manera adversaria.

Los hallazgos de estos expertos se incorporaron a las mitigaciones y mejoras del modelo, como la recopilación de datos adicionales para mejorar la capacidad de GPT-4 para rechazar solicitudes sobre cómo sintetizar sustancias químicas peligrosas. OpenAI también ha incorporado una señal de recompensa de seguridad adicional durante el entrenamiento de RLHF para reducir los resultados nocivos al entrenar al modelo para que rechace las solicitudes de dicho contenido. La recompensa es proporcionada por un clasificador de tiro cero GPT-4 que juzga los límites de seguridad y el estilo de finalización en las indicaciones relacionadas con la seguridad.

Para evitar que el modelo rechace solicitudes válidas, OpenAI ha recopilado un conjunto de datos diverso de varias fuentes y aplicado la señal de recompensa de seguridad (con un valor positivo o negativo) en ambas categorías permitidas y no permitidas. Estas medidas han mejorado significativamente muchas de las propiedades de seguridad de GPT-4 en comparación con GPT-3.5. La tendencia del modelo a responder a solicitudes de contenido no permitido se ha reducido en un 82 % en comparación con GPT-3.5, y GPT-4 responde a solicitudes confidenciales de acuerdo con las políticas de OpenAI con un 29 % más de frecuencia.

OpenAI ha implementado intervenciones a nivel de modelo para aumentar la seguridad y la alineación en GPT-4. Sin embargo, aunque estas intervenciones han mejorado la capacidad del modelo para evitar un mal comportamiento, todavía es posible provocarlo, y existen «jailbreaks» para generar contenido que viola las pautas de uso establecidas por OpenAI. A medida que aumenta el «riesgo por token» de los sistemas de IA, será fundamental lograr niveles extremadamente altos de confiabilidad en estas intervenciones. Por ahora, es importante complementar estas limitaciones con técnicas de seguridad en tiempo de implementación, como la supervisión de abusos.

OpenAI reconoce que GPT-4 y sus sucesores tienen el potencial de tener un gran impacto en la sociedad, tanto positivo como negativo. Para abordar este problema, OpenAI ha estado colaborando con investigadores externos para mejorar la comprensión y evaluación de los impactos potenciales y crear evaluaciones de capacidades peligrosas que puedan surgir en sistemas futuros. OpenAI ha anunciado que pronto compartirá más reflexiones sobre los posibles impactos sociales y económicos de GPT-4 y otros sistemas de IA.

Proceso de entrenamiento

GPT-4, que se entrenó utilizando datos disponibles públicamente y datos bajo licencia, incluyendo un corpus de datos a escala web con soluciones correctas e incorrectas a problemas matemáticos, razonamientos débiles y fuertes, afirmaciones autocontradictorias y consistentes, representando una gran variedad de ideologías e ideas. Aunque el modelo base puede responder a preguntas de diversas formas, OpenAI ha utilizado el aprendizaje de refuerzo con retroalimentación humana para ajustar su comportamiento y alinearlo con la intención del usuario dentro de las medidas de seguridad.

Escalado predecible

El proyecto GPT-4 ha tenido un gran enfoque en construir una pila de aprendizaje profundo que escala de manera predecible, con el objetivo de realizar ajustes extensos específicos del modelo en ejecuciones de entrenamiento muy grandes como GPT-4. Para verificar la escalabilidad, OpenAI ha desarrollado infraestructura y optimización que tienen un comportamiento predecible en múltiples escalas. Además, están desarrollando una metodología para predecir métricas más interpretables, como la tasa de aprobación en un subconjunto del conjunto de datos de HumanEval.

Sin embargo, algunas capacidades del modelo aún son difíciles de predecir. Por ejemplo, el Premio de escalamiento inverso fue una competencia para encontrar una métrica que empeora a medida que aumenta el cálculo del modelo, y la negligencia retrospectiva fue uno de los ganadores. OpenAI cree que predecir con precisión las futuras capacidades de aprendizaje automático es importante para la seguridad y está ampliando sus esfuerzos para desarrollar métodos que brinden a la sociedad una mejor orientación sobre qué esperar de los sistemas futuros.

Evaluaciones OpenAI

Simultáneamente, OpenAI ha lanzado su marco de software denominado OpenAI Evals, el cual permite crear y ejecutar puntos de referencia para evaluar modelos, como GPT-4, mientras se inspecciona su rendimiento muestra por muestra. Este marco de software ha sido utilizado por OpenAI para guiar el desarrollo de sus propios modelos, y los usuarios también pueden aplicarlo para realizar un seguimiento del rendimiento en todas las versiones del modelo y evolucionar las integraciones de productos. Por ejemplo, Stripe ha utilizado Evals para complementar sus evaluaciones humanas y medir la precisión de su herramienta de documentación impulsada por GPT.

 OpenAI Evals es de código abierto y admite la escritura de nuevas clases para implementar una lógica de evaluación personalizada. A pesar de ello, OpenAI ha incluido plantillas útiles internamente para muchos puntos de referencia, incluyendo una plantilla para «evaluaciones calificadas por modelos», que utiliza GPT-4 para verificar su propio trabajo.

 OpenAI espera que Evals se convierta en un vehículo para compartir puntos de referencia de crowdsourcing que representen un conjunto máximo de modos de falla y tareas difíciles. Para promover esto, OpenAI ha creado una evaluación de acertijos lógicos que contiene diez indicaciones en las que falla GPT-4. Además, Evals es compatible con la implementación de puntos de referencia existentes, y OpenAI ha incluido varios cuadernos que implementan puntos de referencia académicos y algunas variaciones de integración de pequeños subconjuntos de CoQA como ejemplo.

 OpenAI invita a todos a usar Evals para probar sus modelos y enviar los ejemplos más interesantes. La compañía cree que Evals será una parte integral del proceso para usar y construir sobre sus modelos y agradece las contribuciones directas, las preguntas y los comentarios.

Traducido y extractado de: GPT-4 Technical report. OpenAI (2023). Documento original en:

https://cdn.openai.com/papers/gpt-4.pdf

Creadores sobrehumanos: cómo crear creadores que crean creadores.

Creadores sobrehumanos: cómo crear creadores que crean creadores.

Un Creador Sobrehumano es un agente artificial que es capaz de crear algo que ningún ser humano ha creado o es capaz de crear. Ese “algo” podría ser casi cualquier cosa que puedas imaginar, y muchas cosas que ni siquiera puedes empezar a imaginar.

En particular, los Creadores sobrehumanos deberían poder crear versiones nuevas y mejoradas de sí mismos. Si está en el reino de lo posible, eventualmente estará en el reino de un Creador sobrehumano.

Este libro describe un enfoque para la creación de Creadores sobrehumanos que está diseñado para garantizar que siempre se comporten de una manera socialmente aceptable, haciendo de cada Creador sobrehumano una Entidad Consciente Responsable (ACE).

El libro nos introduce también a nuevas teorías de creatividad y conciencia, tanto para humanos como para entidades artificiales. Los Creadores sobrehumanos producirán la llamada “singularidad tecnológica”, más allá de la cual no podemos predecir adecuadamente el futuro.

 

Superhuman Creators: How to create Creators that create Creators

Sorprendentemente, estas teorías se inspiran en ideas que han existido durante décadas, pero que nunca han sido exploradas en su totalidad. Y lo que es aún más sorprendente, algunas de las ideas provienen del campo de la ecología – la rama de la biología que se ocupa de las relaciones entre los organismos y su entorno.

Sin embargo, otra sorpresa es que muchas de las herramientas necesarias para crear los Creadores ya están disponibles, o deberían estarlo dentro de unos años.

Lo que no es sorprendente (para cualquiera que esté familiarizado con la «Hipótesis de la Singularidad»), es que hay riesgos inherentes asociados al desarrollo de Creadores Superhumanos.

Según una interpretación estándar de esa hipótesis, debido a que los Creadores tienen la capacidad de crear nuevas y mejoradas versiones de sí mismos, se llegará a un punto (la llamada «Singularidad») más allá del cual no será posible que los humanos entiendan o controlen a los Creadores.

Si eres un optimista de esos con ojos de estrella, podrías creer que esto podría llevar a un paraíso utópico en el que los Creadores produzcan lo que necesitemos, cuando lo necesitemos, incluso antes de que sepamos que lo necesitamos.

Si por el contrario eres pesimista (o tal vez simplemente realista), es probable que temas lo que no puedes entender o controlar, y te preocupa que el mundo no esté en condiciones de hacerlo. Tal vez te preocupa que los Creadores nos arrastren a un un futuro oscuro y distópico en el que sirvamos a las necesidades de los Creadores, o peor aún, en el que los Creadores decidan que lo único que estropea su mundo perfecto somos nosotros, y decidan hacer algo al respecto. No es probable, pero tampoco imposible.

Entonces, ¿por qué deberíamos crear Creadores Superhumanos si existe incluso la remota posibilidad de que puedan llevarnos a una realidad desconocida y potencialmente peligrosa? Creo que la respuesta a esta pregunta es que no deberíamos crearlos pero, sin embargo, lo haremos, debido a las recompensas a corto plazo para las personas, empresas o países que se beneficiarán de sus creaciones. Dos de esas personas, con toda probabilidad, seremos tú y yo.

Tampoco deberíamos haber creado armas nucleares, pero lo hicimos, y ahora no tenemos más remedio que encontrar una manera de vivir con la amenaza constante impuesta por ellas.

Lo mismo ocurrirá con los Creadores Sobrehumanos. La diferencia es que las armas nucleares fueron construidas en secreto por una agencia gubernamental para terminar una guerra. Los Creadores Sobrehumanos serán construidos a la vista de todos por los fabricantes para hacer dinero. Si hay suficiente demanda para sus creaciones (y es casi seguro que la habrá), no habrá escasez de proveedores. Es una cuestión de simple economía.

Las armas nucleares evolucionaron, volviéndose más poderosas y más extendidas, debido a la feroz competencia entre adversarios. Esa feroz competencia desencadenó una carrera armamentística que sigue acelerándose. También habrá una carrera armamentística entre los fabricantes, impulsada por las fuerzas del mercado, y también se intensificará y acelerará. El resultado de esta carrera armamentística será una rápida consolidación del mercado, una creciente automatización, una integración tecnológica, y en algún momento, creadores sobrehumanos.

Puede que no sea posible para la humanidad evitar la singularidad tecnológica, pero es posible que nos preparemos para ella, para averiguar cómo construir los Creadores Superhumanos para que sean tan seguros como sea humanamente posible, o mejor aún, tan sobrehumanos como sea posible. Al menos tenemos que intentarlo.

Los Creadores Superhumanos están llegando, ya sea a través de los métodos descritos en este libro o de alguna otra manera. Están en nuestro futuro, queramos o no que estén allí o no. Nuestra única elección es cómo los dirigimos en la dirección de un futuro en el que no nos arrepentiremos de haberlos creado.

Es posible que no podamos ver más allá de la singularidad, pero podemos prepararnos para ello ahora, mientras todavía hay tiempo.

Tal como propone su autor, Al Byrd, a menos que los Creadores sobrehumanos estén debidamente limitados, podrían llevarnos a un futuro en el que lamentemos haberlos creado. Si te intriga el futuro de la humanidad, este libro es para ti.

Traducido de la introducción a Superhuman Creators: How to create Creators that create Creators. Al Byrd.

Edicion en Inglés | 2021 | ASIN: B096W9JZCJ | 159 páginas | 

Bioinnovación. La solución al reciclado del plástico.

Bioinnovación. La solución al reciclado del plástico.

Vinculando dos enzimas encontradas en un insecto que comía plástico en un vertedero japonés, científicos de la Universidad de Portsmouth (Reino Unido) han diseñado una nueva superenzima capaz de degradar las botellas de plástico seis veces más rápido que el ritmo actual.

Por si fuera poco, estos expertos en bioinnovación creen que su combinación con enzimas que descomponen el algodón podría permitir también el reciclaje de ropa de tejidos mixtos. Según la investigación, millones de toneladas de este tipo de ropa se tiran a los vertederos o se incineran.

ideonella sakaiensis 01

Derivada de bacterias con la capacidad natural de comer plástico, la robusta enzima hace realidad el reciclaje total de las botellas de plástico. En la actualidad, se crean nuevos plásticos a partir del petróleo, ya que es difícil descomponer las botellas de plástico en sus componentes químicos para crear nuevos a partir de los viejos.

ideonella sakaiensis

La nueva superenzima funciona a temperatura ambiente y, según los expertos, la combinación de diferentes enfoques podría acelerar el progreso hacia su uso comercial.

 

(Foto: Ideonella Sakaiensis)

Pin It on Pinterest