¡Feliz día del inventor!

¡Feliz día del inventor!

Hoy, 7 de noviembre, desde GO4IT felicitamos a todos los inventores e inventoras animándoles a seguir innovando para tener un mundo mejor. ¡Felíz día del Inventor!

La invención, la creatividad y la innovación estratégica pueden proporcionar un nuevo impulso al crecimiento económico y a la generación de empleo. Brindan, además, más oportunidades para todos, incluidos los jóvenes y las mujeres. Asimismo, pueden solucionar algunos de los problemas más apremiantes, como la erradicación de la pobreza y del hambre.

En Go4IT promovemos el pensamiento creativo y desarrollamos programas de innovación estratégica para ayudar a tu empresa o negocio a afrontar nuevos retos. ¡Te invitamos a incorporar la actitud creativa en tu día a día!

Lo que genero con IA ¿me pertenece?

Lo que genero con IA ¿me pertenece?

Las obras “asistidas” por IA ya pueden protegerse mediante derechos de autor.

Los materiales generados exclusivamente por la IA siguen sin poder protegerse, ya que los tribunales han dictaminado que los derechos de autor sólo pueden concederse a obras creadas por seres humanos.

 

inteligencia artificial y justicia

La Oficina de Derechos de Autor de EE.UU. ha afirmado que la mayoría de las obras generadas por inteligencia artificial no son protegibles por derechos de autor, al tiempo que aclara que el material asistido por IA puede ser objeto de protección en determinados casos.

En una declaración de principios publicada el jueves, la oficina afirma que está “bien establecido” que los derechos de autor sólo pueden concederse a obras que sean “producto de la creatividad humana” y que los autores “excluyen a los no humanos”. Aun así, una aplicación que contenga material generado por IA puede respaldar una reclamación de derechos de autor si un humano lo “seleccionó o dispuso” de una “forma lo suficientemente creativa como para que la obra resultante constituya una obra original de autoría”.

Con el auge del mercado de la IA, la oficina sigue recibiendo solicitudes que nombran a la tecnología de IA como autora o coautora de obras. Han sido rechazadas, salvo una solicitud en la que se concedieron derechos de autor al cómic Zarya of the Dawn, creado con ayuda de IA. En ese caso, las imágenes generadas por IA quedaron excluidas de la protección.

En Estados Unidos, las leyes de derechos de autor no protegen las obras creadas únicamente por máquinas. La oficina está trabajando en la protección del material en cuya creación haya contribuido un ser humano.

Varios tribunales han dictaminado que los derechos de autor sólo pueden concederse a obras creadas por seres humanos. En su principal caso sobre la autoría de los derechos de autor, el Tribunal Supremo sostuvo que “no hay duda” de que la protección puede extenderse a las fotografías siempre que “sean representativas de concepciones intelectuales originales del autor”. Los jueces se refirieron exclusivamente a tales autores como humanos, describiéndolos como una clase de “personas” y a los derechos de autor como el “derecho de un hombre a la producción de su propio genio o intelecto”.

inteligencia artificial y la ley

Los tribunales federales de apelación han llegado a conclusiones similares. En un caso relacionado con un creador no humano de una obra que buscaba la protección de los derechos de autor, el Tribunal de Apelación del 9º Circuito de EE.UU. dictaminó que un libro que contiene palabras cuyo autor es un ser no-humano sólo puede registrarse si hay una “selección y ordenación humana de los resultados”. Concluyó que debe haber “algún elemento de creatividad humana”, ya que la legislación sobre derechos de autor sólo pretende proteger las obras creadas por seres humanos.

En otro caso, el 9º Circuito sugirió que una foto captada por un mono no es susceptible de protección por derechos de autor, ya que los animales no reúnen los requisitos para ser protegidos, aunque la demanda se resolvió por otros motivos.

En opinión de la oficina, los tribunales han utilizado un lenguaje que excluye a los no humanos al interpretar el poder del Congreso para proteger las obras. La guía de registro existente, dice, “ha exigido durante mucho tiempo que las obras sean producto de la autoría humana”. Señala el compendio de prácticas de la Oficina, que establece que no se registrarán “las obras producidas por una máquina o un mero proceso mecánico que funcione de forma aleatoria o automática sin ninguna aportación creativa o intervención de un autor humano”.

“Según la interpretación de la Oficina de las tecnologías de IA generativa disponibles en la actualidad, los usuarios no ejercen un control creativo definitivo sobre la forma en que estos sistemas interpretan las instrucciones y generan el material”, reza la guía. “En su lugar, estas indicaciones funcionan más bien como instrucciones para un artista por encargo: identifican lo que el autor desea que se represente, pero la máquina determina cómo se implementan esas instrucciones en su producción”.

Según la oficina, esto no quiere decir que las obras que contengan material generado por IA no puedan ser objeto de protección. Dijo que el factor determinante es la medida en que un ser humano tuvo “el control creativo sobre la expresión de la obra y formó realmente los elementos tradicionales de la autoría”. Un artista, por ejemplo, podría modificar el material generado originalmente por la IA hasta tal punto que cumpla la norma de protección. En estos casos, sólo se concederán derechos de autor a los aspectos de autoría humana de la obra.

La abogada especializada en propiedad intelectual Jessica McDonald, de Neer McD, que tiene como cliente a Midjourney, un generador de arte basado en IA, señala que las orientaciones de la oficina se ajustan a los precedentes sobre esta cuestión.

justicia e IA

“Todavía se determina en gran medida caso por caso”, dice McDonald. “Hay una gran variedad en cuanto al grado de participación del usuario en el proceso creativo y el uso de la tecnología de IA como herramienta frente a la interpretación y generación de los materiales”.

Stephen Thaler, director ejecutivo de la empresa de redes neuronales Imagination Engines, ha liderado el impulso para la protección de las obras creadas por IA. En 2018, enumeró un sistema de IA, la Máquina de Creatividad, como el creador de una obra de arte llamada A Recent Entrance to Paradise, mientras se enumeraba a sí mismo como el propietario de los derechos de autor bajo la doctrina de trabajo por encargo. Demandó después de que la oficina denegara el registro basándose en que “el nexo entre la mente humana y la expresión creativa” es un elemento crucial de la protección.

Ryan Meyer, abogado especializado en propiedad intelectual de Dorsey & Whitney, afirma que “los solicitantes que utilicen la IA como parte de su proceso creativo deben ser conscientes de que su registro podría quedar restringido a las partes de la obra cuya autoría corresponda exclusivamente a un ser humano”.

“Para los elementos de la obra creados con ayuda de la IA, el solicitante debe explicar cómo el autor humano, y no la IA, ejerció los elementos tradicionales de la autoría, como la expresión, la selección y la disposición”, añade.

Entre abril y mayo, la oficina organizará sesiones públicas de escucha con artistas, desarrolladores de IA y abogados, entre otros. También tiene previsto publicar un anuncio de investigación en el que solicitará comentarios del público sobre una amplia gama de cuestiones derivadas del uso de la IA.

Traducido de: Winston Cho. AI-“Assisted” Works Are Now Open to Copyright Protection, Raising Questions for Hollywood. Artículo publicado en HollywoodReporter.com 16-03-2023. arhttps://www.hollywoodreporter.com/business/business-news/ai-assisted-works-open-to-copyright-protection-1235354692/

OpenAI presenta su último modelo de aprendizaje profundo: GPT-4

OpenAI presenta su último modelo de aprendizaje profundo: GPT-4

OpenAI lanza GPT4

OpenAI ha creado GPT-4, el último hito en su esfuerzo por expandir el aprendizaje profundo. GPT-4 es un modelo multimodal que acepta entradas de texto e imágenes y emite salidas de texto. Aunque es menos capaz que los humanos en muchos escenarios del mundo real, GPT-4 exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales.

OpenAI pasó seis meses alineando GPT-4 iterativamente utilizando lecciones de su programa de pruebas contradictorias y de ChatGPT, lo que resultó en sus mejores resultados hasta la fecha en factualidad, capacidad de dirección y rechazo a salirse de los límites. En los últimos dos años, OpenAI reconstruyó toda su pila de aprendizaje profundo y, junto con Azure, codiseñó una supercomputadora desde cero para su carga de trabajo. Hace un año, entrenaron GPT-3.5 como una primera “ejecución de prueba” del sistema, lo que les permitió encontrar y solucionar algunos errores y mejorar sus fundamentos teóricos.

OpenAI ha lanzado la capacidad de entrada de texto de GPT-4 a través de ChatGPT y la API, aunque actualmente existe una lista de espera. Para preparar la capacidad de entrada de imágenes para una mayor disponibilidad, OpenAI está colaborando estrechamente con un solo socio para comenzar. Además, OpenAI ha abierto OpenAI Evals, su marco para la evaluación automatizada del rendimiento del modelo de IA, para permitir que cualquier persona informe las deficiencias en sus modelos y ayudar a guiar mejoras adicionales. A medida que OpenAI continúa enfocándose en un escalamiento confiable, su objetivo es perfeccionar su metodología para ayudarlos a predecir y prepararse para capacidades futuras cada vez con mayor anticipación, algo que consideran crítico para la seguridad.

GPT4 mano androide

Capacidades

Si bien en una conversación informal puede ser difícil distinguir entre los dos modelos, la diferencia se hace más evidente cuando se trata de tareas complejas. GPT-4 se muestra más confiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5.

Para entender las diferencias entre los modelos, OpenAI ha llevado a cabo una serie de pruebas en varios puntos de referencia, incluyendo la simulación de exámenes diseñados originalmente para humanos. Las pruebas se realizaron utilizando las pruebas más recientes disponibles públicamente, así como comprando ediciones de práctica de exámenes para el año 2022-2023. No se realizó ningún entrenamiento específico para estos exámenes. Aunque el modelo solo detectó una minoría de los problemas en los exámenes durante el entrenamiento, se considera que los resultados son representativos. OpenAI ha publicado un informe técnico para obtener más detalles sobre las pruebas realizadas.

OpenAI ha evaluado el rendimiento de GPT-4 en puntos de referencia tradicionales diseñados para modelos de aprendizaje automático, y los resultados han sido destacables. GPT-4 supera significativamente a los modelos de lenguaje grandes existentes, así como a la mayoría de los modelos de última generación (SOTA) que pueden incluir protocolos de capacitación adicionales o elaboración específica de referencia.

Muchos puntos de referencia de ML existentes están escritos en inglés, por lo que para evaluar la capacidad en otros idiomas, OpenAI ha traducido el punto de referencia de MMLU, un conjunto de 14,000 problemas de opción múltiple que abarcan 57 temas, a una variedad de idiomas mediante Azure Translate. En 24 de los 26 idiomas probados, GPT-4 supera el rendimiento en inglés de GPT-3.5 y otros LLM (Chinchilla, PaLM), incluso para idiomas de bajos recursos como letón, galés y swahili.

OpenAI también ha estado utilizando internamente GPT-4 con un gran impacto en funciones como soporte, ventas, moderación de contenido y programación. Además, están usando GPT-4 para ayudar a los humanos a evaluar los resultados de la IA, comenzando la segunda fase en su estrategia de alineación.

Entradas visuales

GPT-4 puede aceptar una indicación de texto e imágenes que, en paralelo a la configuración de solo texto, permite al usuario especificar cualquier tarea de visión o idioma. En concreto, genera salidas de texto (lenguaje natural, código, etc.) dadas las entradas que consisten en texto e imágenes intercaladas. En una variedad de dominios, incluidos documentos con texto y fotografías, diagramas o capturas de pantalla, GPT-4 exhibe capacidades similares a las de las entradas de solo texto. Además, se puede aumentar con técnicas de tiempo de prueba que se desarrollaron para modelos de lenguaje de solo texto, que incluyen sugerencias de pocas tomas y de cadena de pensamientos. Cabe destacar que las entradas de imágenes siguen siendo una vista previa de la investigación y no están disponibles públicamente.

 OpenAI ha previsualizado el rendimiento de GPT-4 al evaluarlo en un conjunto limitado de puntos de referencia de visión académica estándar. Aunque estos números no representan completamente el alcance de las capacidades del modelo, ya que constantemente descubren nuevas tareas que puede abordar. OpenAI tiene planes de publicar más análisis y números de evaluación, así como una investigación exhaustiva del efecto de las técnicas de tiempo de prueba en un futuro cercano.

Maniobrabilidad

En cuanto a la maniobrabilidad de ChatGPT, OpenAI ha estado trabajando en cada aspecto del plan descrito en su publicación sobre la definición del comportamiento de las IA, incluida la capacidad de dirección. En lugar de la personalidad clásica de ChatGPT con verbosidad, tono y estilo fijos, los desarrolladores (y pronto los usuarios de ChatGPT) ahora pueden prescribir el estilo y la tarea de su IA describiendo esas instrucciones en el mensaje del “sistema”. Los mensajes del sistema permiten a los usuarios de API personalizar significativamente la experiencia de sus usuarios dentro de los límites. OpenAI continuará haciendo mejoras en esta área, en particular saben que los mensajes del sistema son la forma más fácil de “liberar” el modelo actual, es decir, la adherencia a los límites no es perfecta, pero alientan a los usuarios a probarlo y dar su opinión.

Limitaciones

Aunque GPT-4 tiene mayores capacidades que sus predecesores, todavía tiene limitaciones que deben ser consideradas. En particular, el modelo todavía no es completamente confiable y puede cometer errores de razonamiento y “alucinaciones” de hechos. Por lo tanto, es necesario tener precaución al usar los resultados del modelo, especialmente en contextos de alto riesgo, y utilizar protocolos precisos como revisión humana, puesta a tierra con contexto adicional o evitar usos de alto riesgo por completo según las necesidades de un caso de uso específico.

A pesar de las limitaciones, GPT-4 ha reducido significativamente las alucinaciones en comparación con los modelos anteriores, obteniendo un puntaje un 40% más alto que el último modelo GPT-3.5 en las evaluaciones internas de factualidad contradictoria de OpenAI. Además, la compañía ha mejorado en puntos de referencia externos como TruthfulQA, que prueba la capacidad del modelo para separar los hechos de las declaraciones incorrectas.

Sin embargo, el modelo base GPT-4 todavía tiene sesgos en sus resultados y puede cometer errores de razonamiento simples. Además, carece de conocimiento de los eventos que ocurrieron después de que la mayoría de sus datos fueron recolectados y no aprende de su experiencia. A veces también puede fallar en problemas difíciles y puede ser demasiado crédulo al aceptar declaraciones falsas obvias de un usuario.

OpenAI ha trabajado para mejorar estos problemas y su objetivo es hacer que los sistemas de IA sean razonables y reflejen una amplia franja de valores de los usuarios, permitiendo que los sistemas se personalicen dentro de límites amplios y obtener comentarios públicos sobre cuáles deberían ser esos límites.

En resumen, GPT-4 es un avance significativo en los modelos de lenguaje, pero todavía tiene limitaciones que deben ser consideradas cuidadosamente al utilizar los resultados del modelo en contextos de alto riesgo o críticos.

Riesgos y mitigaciones

OpenAI ha estado trabajando en iteraciones de GPT-4 para hacerlo más seguro y alineado desde el comienzo de la capacitación. Se han implementado una serie de esfuerzos para lograr esto, incluyendo la selección y el filtrado de los datos previos a la capacitación, las evaluaciones y la participación de expertos, las mejoras de seguridad del modelo y el monitoreo y la aplicación.

A pesar de los esfuerzos realizados, GPT-4 presenta riesgos similares a los modelos anteriores, como generar consejos dañinos, código con errores o información inexacta. Sin embargo, las capacidades adicionales de GPT-4 conducen a nuevas superficies de riesgo. Para entender mejor el alcance de estos riesgos, OpenAI ha contratado a más de 50 expertos de dominios como riesgos de alineación de IA, ciberseguridad, riesgo biológico, confianza y seguridad, y seguridad internacional para probar el modelo de manera adversaria.

Los hallazgos de estos expertos se incorporaron a las mitigaciones y mejoras del modelo, como la recopilación de datos adicionales para mejorar la capacidad de GPT-4 para rechazar solicitudes sobre cómo sintetizar sustancias químicas peligrosas. OpenAI también ha incorporado una señal de recompensa de seguridad adicional durante el entrenamiento de RLHF para reducir los resultados nocivos al entrenar al modelo para que rechace las solicitudes de dicho contenido. La recompensa es proporcionada por un clasificador de tiro cero GPT-4 que juzga los límites de seguridad y el estilo de finalización en las indicaciones relacionadas con la seguridad.

Para evitar que el modelo rechace solicitudes válidas, OpenAI ha recopilado un conjunto de datos diverso de varias fuentes y aplicado la señal de recompensa de seguridad (con un valor positivo o negativo) en ambas categorías permitidas y no permitidas. Estas medidas han mejorado significativamente muchas de las propiedades de seguridad de GPT-4 en comparación con GPT-3.5. La tendencia del modelo a responder a solicitudes de contenido no permitido se ha reducido en un 82 % en comparación con GPT-3.5, y GPT-4 responde a solicitudes confidenciales de acuerdo con las políticas de OpenAI con un 29 % más de frecuencia.

OpenAI ha implementado intervenciones a nivel de modelo para aumentar la seguridad y la alineación en GPT-4. Sin embargo, aunque estas intervenciones han mejorado la capacidad del modelo para evitar un mal comportamiento, todavía es posible provocarlo, y existen “jailbreaks” para generar contenido que viola las pautas de uso establecidas por OpenAI. A medida que aumenta el “riesgo por token” de los sistemas de IA, será fundamental lograr niveles extremadamente altos de confiabilidad en estas intervenciones. Por ahora, es importante complementar estas limitaciones con técnicas de seguridad en tiempo de implementación, como la supervisión de abusos.

OpenAI reconoce que GPT-4 y sus sucesores tienen el potencial de tener un gran impacto en la sociedad, tanto positivo como negativo. Para abordar este problema, OpenAI ha estado colaborando con investigadores externos para mejorar la comprensión y evaluación de los impactos potenciales y crear evaluaciones de capacidades peligrosas que puedan surgir en sistemas futuros. OpenAI ha anunciado que pronto compartirá más reflexiones sobre los posibles impactos sociales y económicos de GPT-4 y otros sistemas de IA.

Proceso de entrenamiento

GPT-4, que se entrenó utilizando datos disponibles públicamente y datos bajo licencia, incluyendo un corpus de datos a escala web con soluciones correctas e incorrectas a problemas matemáticos, razonamientos débiles y fuertes, afirmaciones autocontradictorias y consistentes, representando una gran variedad de ideologías e ideas. Aunque el modelo base puede responder a preguntas de diversas formas, OpenAI ha utilizado el aprendizaje de refuerzo con retroalimentación humana para ajustar su comportamiento y alinearlo con la intención del usuario dentro de las medidas de seguridad.

Escalado predecible

El proyecto GPT-4 ha tenido un gran enfoque en construir una pila de aprendizaje profundo que escala de manera predecible, con el objetivo de realizar ajustes extensos específicos del modelo en ejecuciones de entrenamiento muy grandes como GPT-4. Para verificar la escalabilidad, OpenAI ha desarrollado infraestructura y optimización que tienen un comportamiento predecible en múltiples escalas. Además, están desarrollando una metodología para predecir métricas más interpretables, como la tasa de aprobación en un subconjunto del conjunto de datos de HumanEval.

Sin embargo, algunas capacidades del modelo aún son difíciles de predecir. Por ejemplo, el Premio de escalamiento inverso fue una competencia para encontrar una métrica que empeora a medida que aumenta el cálculo del modelo, y la negligencia retrospectiva fue uno de los ganadores. OpenAI cree que predecir con precisión las futuras capacidades de aprendizaje automático es importante para la seguridad y está ampliando sus esfuerzos para desarrollar métodos que brinden a la sociedad una mejor orientación sobre qué esperar de los sistemas futuros.

Evaluaciones OpenAI

Simultáneamente, OpenAI ha lanzado su marco de software denominado OpenAI Evals, el cual permite crear y ejecutar puntos de referencia para evaluar modelos, como GPT-4, mientras se inspecciona su rendimiento muestra por muestra. Este marco de software ha sido utilizado por OpenAI para guiar el desarrollo de sus propios modelos, y los usuarios también pueden aplicarlo para realizar un seguimiento del rendimiento en todas las versiones del modelo y evolucionar las integraciones de productos. Por ejemplo, Stripe ha utilizado Evals para complementar sus evaluaciones humanas y medir la precisión de su herramienta de documentación impulsada por GPT.

 OpenAI Evals es de código abierto y admite la escritura de nuevas clases para implementar una lógica de evaluación personalizada. A pesar de ello, OpenAI ha incluido plantillas útiles internamente para muchos puntos de referencia, incluyendo una plantilla para “evaluaciones calificadas por modelos”, que utiliza GPT-4 para verificar su propio trabajo.

 OpenAI espera que Evals se convierta en un vehículo para compartir puntos de referencia de crowdsourcing que representen un conjunto máximo de modos de falla y tareas difíciles. Para promover esto, OpenAI ha creado una evaluación de acertijos lógicos que contiene diez indicaciones en las que falla GPT-4. Además, Evals es compatible con la implementación de puntos de referencia existentes, y OpenAI ha incluido varios cuadernos que implementan puntos de referencia académicos y algunas variaciones de integración de pequeños subconjuntos de CoQA como ejemplo.

 OpenAI invita a todos a usar Evals para probar sus modelos y enviar los ejemplos más interesantes. La compañía cree que Evals será una parte integral del proceso para usar y construir sobre sus modelos y agradece las contribuciones directas, las preguntas y los comentarios.

Traducido y extractado de: GPT-4 Technical report. OpenAI (2023). Documento original en:

https://cdn.openai.com/papers/gpt-4.pdf

Creadores sobrehumanos: cómo crear creadores que crean creadores.

Creadores sobrehumanos: cómo crear creadores que crean creadores.

Un Creador Sobrehumano es un agente artificial que es capaz de crear algo que ningún ser humano ha creado o es capaz de crear. Ese “algo” podría ser casi cualquier cosa que puedas imaginar, y muchas cosas que ni siquiera puedes empezar a imaginar.

En particular, los Creadores sobrehumanos deberían poder crear versiones nuevas y mejoradas de sí mismos. Si está en el reino de lo posible, eventualmente estará en el reino de un Creador sobrehumano.

Este libro describe un enfoque para la creación de Creadores sobrehumanos que está diseñado para garantizar que siempre se comporten de una manera socialmente aceptable, haciendo de cada Creador sobrehumano una Entidad Consciente Responsable (ACE).

El libro nos introduce también a nuevas teorías de creatividad y conciencia, tanto para humanos como para entidades artificiales. Los Creadores sobrehumanos producirán la llamada “singularidad tecnológica”, más allá de la cual no podemos predecir adecuadamente el futuro.

 

Superhuman Creators: How to create Creators that create Creators

Sorprendentemente, estas teorías se inspiran en ideas que han existido durante décadas, pero que nunca han sido exploradas en su totalidad. Y lo que es aún más sorprendente, algunas de las ideas provienen del campo de la ecología – la rama de la biología que se ocupa de las relaciones entre los organismos y su entorno.

Sin embargo, otra sorpresa es que muchas de las herramientas necesarias para crear los Creadores ya están disponibles, o deberían estarlo dentro de unos años.

Lo que no es sorprendente (para cualquiera que esté familiarizado con la “Hipótesis de la Singularidad”), es que hay riesgos inherentes asociados al desarrollo de Creadores Superhumanos.

Según una interpretación estándar de esa hipótesis, debido a que los Creadores tienen la capacidad de crear nuevas y mejoradas versiones de sí mismos, se llegará a un punto (la llamada “Singularidad”) más allá del cual no será posible que los humanos entiendan o controlen a los Creadores.

Si eres un optimista de esos con ojos de estrella, podrías creer que esto podría llevar a un paraíso utópico en el que los Creadores produzcan lo que necesitemos, cuando lo necesitemos, incluso antes de que sepamos que lo necesitamos.

Si por el contrario eres pesimista (o tal vez simplemente realista), es probable que temas lo que no puedes entender o controlar, y te preocupa que el mundo no esté en condiciones de hacerlo. Tal vez te preocupa que los Creadores nos arrastren a un un futuro oscuro y distópico en el que sirvamos a las necesidades de los Creadores, o peor aún, en el que los Creadores decidan que lo único que estropea su mundo perfecto somos nosotros, y decidan hacer algo al respecto. No es probable, pero tampoco imposible.

Entonces, ¿por qué deberíamos crear Creadores Superhumanos si existe incluso la remota posibilidad de que puedan llevarnos a una realidad desconocida y potencialmente peligrosa? Creo que la respuesta a esta pregunta es que no deberíamos crearlos pero, sin embargo, lo haremos, debido a las recompensas a corto plazo para las personas, empresas o países que se beneficiarán de sus creaciones. Dos de esas personas, con toda probabilidad, seremos tú y yo.

Tampoco deberíamos haber creado armas nucleares, pero lo hicimos, y ahora no tenemos más remedio que encontrar una manera de vivir con la amenaza constante impuesta por ellas.

Lo mismo ocurrirá con los Creadores Sobrehumanos. La diferencia es que las armas nucleares fueron construidas en secreto por una agencia gubernamental para terminar una guerra. Los Creadores Sobrehumanos serán construidos a la vista de todos por los fabricantes para hacer dinero. Si hay suficiente demanda para sus creaciones (y es casi seguro que la habrá), no habrá escasez de proveedores. Es una cuestión de simple economía.

Las armas nucleares evolucionaron, volviéndose más poderosas y más extendidas, debido a la feroz competencia entre adversarios. Esa feroz competencia desencadenó una carrera armamentística que sigue acelerándose. También habrá una carrera armamentística entre los fabricantes, impulsada por las fuerzas del mercado, y también se intensificará y acelerará. El resultado de esta carrera armamentística será una rápida consolidación del mercado, una creciente automatización, una integración tecnológica, y en algún momento, creadores sobrehumanos.

Puede que no sea posible para la humanidad evitar la singularidad tecnológica, pero es posible que nos preparemos para ella, para averiguar cómo construir los Creadores Superhumanos para que sean tan seguros como sea humanamente posible, o mejor aún, tan sobrehumanos como sea posible. Al menos tenemos que intentarlo.

Los Creadores Superhumanos están llegando, ya sea a través de los métodos descritos en este libro o de alguna otra manera. Están en nuestro futuro, queramos o no que estén allí o no. Nuestra única elección es cómo los dirigimos en la dirección de un futuro en el que no nos arrepentiremos de haberlos creado.

Es posible que no podamos ver más allá de la singularidad, pero podemos prepararnos para ello ahora, mientras todavía hay tiempo.

Tal como propone su autor, Al Byrd, a menos que los Creadores sobrehumanos estén debidamente limitados, podrían llevarnos a un futuro en el que lamentemos haberlos creado. Si te intriga el futuro de la humanidad, este libro es para ti.

Traducido de la introducción a Superhuman Creators: How to create Creators that create Creators. Al Byrd.

Edicion en Inglés | 2021 | ASIN: B096W9JZCJ | 159 páginas | 

Bioinnovación. La solución al reciclado del plástico.

Bioinnovación. La solución al reciclado del plástico.

Vinculando dos enzimas encontradas en un insecto que comía plástico en un vertedero japonés, científicos de la Universidad de Portsmouth (Reino Unido) han diseñado una nueva superenzima capaz de degradar las botellas de plástico seis veces más rápido que el ritmo actual.

Por si fuera poco, estos expertos en bioinnovación creen que su combinación con enzimas que descomponen el algodón podría permitir también el reciclaje de ropa de tejidos mixtos. Según la investigación, millones de toneladas de este tipo de ropa se tiran a los vertederos o se incineran.

ideonella sakaiensis 01

Derivada de bacterias con la capacidad natural de comer plástico, la robusta enzima hace realidad el reciclaje total de las botellas de plástico. En la actualidad, se crean nuevos plásticos a partir del petróleo, ya que es difícil descomponer las botellas de plástico en sus componentes químicos para crear nuevos a partir de los viejos.

ideonella sakaiensis

La nueva superenzima funciona a temperatura ambiente y, según los expertos, la combinación de diferentes enfoques podría acelerar el progreso hacia su uso comercial.

 

(Foto: Ideonella Sakaiensis)

Jugaad: Innovación Frugal

Jugaad: Innovación Frugal

La Innovación Frugal proviene del termino hindú jugaad que significa, “hacer lo mejor posible con los recursos que se tiene”, también se le conoce como innovación inversa.

Este tipo de innovación con escasez de recursos se ha desarrollado con éxito en zonas con bajos ingresos como Latinoamérica, China, India y África.

Pero al igual que las economías emergentes, las empresas pequeñas afrontan una serie de restricciones que les impiden embarcarse en procesos de innovación complejos y que no siempre generan resultados positivos.

innovación frugal

El concepto de innovación frugal es una forma útil de conceptualizar el proceso de integración de enfoques de innovación existentes en contextos extremos con procesos más familiares de innovación de productos o innovación de modelos de negocio.

A diferencia de las organizaciones involucradas en la innovación de alto perfil como la NASA, la ‘misión’ emprendida por los emprendedores sociales a menudo se centra más en ser pioneros en nuevas soluciones a los desafíos actuales que enfrentan las personas comunes: es decir, generar opciones para las personas que viven y trabajan en los menos privilegiados.

Superando problemas comunes, las opciones novedosas pueden tener un impacto profundo en la vida de muchos millones o incluso miles de millones de personas. Este es el “por qué” de la innovación frugal: un deseo ampliamente compartido de proporcionar valor al consumidor y commodities que ofrezcan una asequibilidad extrema.

A menudo, las innovaciones frugales son el resultado de los esfuerzos por abordar los problemas locales problemas de interés mundial en los ámbitos de la educación, la atención sanitaria o de la vivienda. La innovación frugal es un concepto que ayuda a capturar las fuentes y elementos plurales de innovación, más allá de la innovación social, que realmente ven como importante en su trabajo, contexto y de hecho como ocurriendo a su alrededor. Como una fuente única que trasciende los sectores público y privado, proporciona nuevos conocimientos sobre las cuestiones de crecimiento equitativo y sostenible mediante la innovación que es cada vez más importante para los mercados, la sociedad civil y gobiernos.

Tanto emprendedores sociales como empresas multinacionales, son cada vez más activos en el mercado de las innovaciones frugales: soluciones potencialmente rentables y socialmente valiosas que son asequibles, adaptables y accesibles. Las motivaciones para intentar la innovación frugal son diversas y van desde la filantropía, los problemas sociales, los desafíos y los mercados hasta la búsqueda de la eficiencia, pero rara vez se pueden reducir únicamente a los costes.

Un extraordinario ejemplo es el de Raspberry Pi Zero, un miniordenador de 5 dólares, que de hecho, se regalaba al comprar una revista. El equipo detrás de este proyecto busca facilitar el acceso a los ordenadores a todas aquellas personas en el mundo que enfrentan barreras económicas. Cuando existen recursos limitados nos vemos obligados a entregar lo máximo de nuestra creatividad. Lo fundamental es comprender que el único recurso ilimitado es el ingenio humano, con el cual se pueden generar nuevos productos y cubrir algunas necesidades sociales de manera creativa, rentable y exitosa.

Raspberry Pi Zero

Pero en el contexto de la innovación frugal, encontramos que las limitaciones más significativas son los vacíos institucionales, la falta de recursos y la necesidad de hacer que los productos sean asequibles para los clientes de bajos ingresos. Curiosamente, estas limitaciones o desafíos no son exclusivos de la innovación en los mercados emergentes o en desarrollo, sino que también existen cada vez más en los mercados desarrollados.

Cuando se trata de aterrizar el concepto a la práctica, la fuerza de las estrategias de mejora del valor social y las innovaciones frugales que son adaptables, accesibles y asequibles significa que las empresas pueden descubrir nuevas aplicaciones y para segmentos de mercado previamente pasados ​​por alto. 

Pin It on Pinterest