El generador de contenido sin fin
Crónica de la distopía #32
La irrupción de los nuevos modelos generadores de texto e imágenes marcaron en materia de tecnología el año que terminó. La masificación de nuevas aplicaciones de IA como Dall-E 2 o ChatGPT están cambiando ya la manera en que creamos y consumimos contenido.
Se ha escrito bastante acerca de esto y he comentado algunos puntos importantes sobre lo que parece ser un punto de inflexión en el desarrollo de la IA. Quizá uno de los mejores enfoques lo propone el ensayo titulado “La desagregación de la IA” (del cual hablé en septiembre pasado). La forma de crear a partir de la IA significará una gran diferencia; superar creativamente esa base de conocimiento es lo que permitirá identificar a los nuevos artistas y productores culturales.
“Los creadores relativamente indiferenciados que dependían del paquete estructural de creación y verificación de ideas se verán reducidos a competir con creadores de costo marginal cero por la atención generada, y dirigidos desde Agregadores”, dice.
“Sin embargo, agrega, los creadores altamente diferenciados que pueden entregar de manera sostenible tanto la creación como la justificación por sí mismos, serán aún más valiosos”.
El generador de contenido sin fin
¿Qué pasaría si pudieras seguir leyendo tu libro favorito o viendo tu película favorita para siempre? Es la pregunta que formulan en este ensayo, donde el autor sostiene que con el auge de los modelos de IA generativos, las historias estarán en manos de los creadores pero también de los usuarios.
Los nuevos sistemas de IA funcionan como una aplicación para generar “medios sin fin”, explica, lo que supone un transformación en la industria del contenido que es difícil establecer hoy en toda su magnitud.
“Al instante y de forma económica, es posible producir imágenes sorprendentes y escritura competente con algoritmos de IA”, escribe. “¿Qué significará esto para la producción de contenido? ¿Cómo cambiará la forma en que lo consumimos? (...) Y en una era de medios sin fin, ¿qué significarán las narrativas para nosotros?” pregunta.
Cuando el autor habla de “medios interminables”, se refiere a la forma en que se fabrican y consumen los medios (que a su vez generan contenido). “En lugar de crearse de forma esporádica, la IA permitirá que se genere bajo demanda”, plantea. De esta manera, si quieres una nueva entrega de JK Rowling no tienes que esperar que la autora lo haga. Puedes generar tu propia versión de Harry Potter.
Ahora bien, todo esto está lleno de matices, el más importante, los derechos de autor. También la calidad de la obra. Es un largo etcétera no menor que nos remite al tema de la originalidad de la creación con aspectos importantes que afectan a la industria.
El autor se detiene en el tema de los derechos de autor. ¿Quién será el propietario del contenido original generado por un sistema de IA que usó como base una imagen bajo licencia de una compañía? Dalle-2 permite a los usuarios vender imágenes, pero algunos abogados consideran que los términos son contradictorios, consigna.
En el caso de los artistas, plantea que algunos se verán impulsados por esta tecnología, usándola para mejorar su trabajo y ahorrar tiempo. Creo que será la mayoría; en ese sentido, esta nueva tecnología implica lo que ha supuesto en el pasado otras técnicas creativas, como la fotografía o el fonógrafo.
“Los humanos y las máquinas se combinarán para crear algo más grande de lo que cualquiera podría lograr solo”, escribe. Aunque también hay espacio para la incertidumbre y el escepticismo. “Una posibilidad es que a medida que la abundancia se convierte en superabundancia, valoremos más el trabajo humano”, dice.
De hecho, creo que ese punto es fundamental. El temor temprano por la irrupción de nuevas tecnologías que irrumpen en áreas humanas exclusivas (como el arte), abre nuevas ventanas para la exploración creativa, no al revés. La creación y creatividad humana no está peligro; de hecho, se ve potenciada hacia lugares que aún no imaginamos.
El valor no humano único
Nina Begus es investigadora en UC Berkeley, especializada en tecnología, escritura y arte. En esta entrevista aborda el auge reciente de los modelos generativos en el campo de la creación artística, dice que el desafío está en entender cómo va a cambiar el arte en colaboración con las máquinas, y que esto está recién partiendo.
“La poesía de la IA surge del propio texto. Es un lenguaje hecho de manera diferente, y una forma de escribir completamente no humana. Por supuesto, el espectro de calidad es amplio y muchas personas desacreditan la creatividad de la IA porque no hay una mente detrás de ella. ¿La poesía necesita conciencia o un sujeto poético? ¿La poesía surge necesariamente de la experiencia? La poesía IA no tiene todo esto y aún puede tener calidad artística”, plantea.
Para entender esto hay que mirar más allá de los estándares humanos que juzgan la creación poética. ¿Eso existe? Pues, habrá que inventarlo. Es el nuevo estándar artificial de la creación artística. “Me interesa la escritura de IA que parte de estos criterios hacia un espacio epistémico y creativo completamente nuevo”, dice. “Aquí es donde la IA agrega un valor no humano único, abriendo posibilidades que de otro modo no existirían”, agrega.
Ese es el núcleo creativo, al parecer, de lo que supone el hecho de tener a máquinas escupiendo poesía, breves novelas, cuadros oníricos y toda clase de interacción en modo humano. “La verdadera novedad cognitiva reside aquí; y no en la imitación familiar y predecible”, apunta.
Es cierto que el estándar humano es el que cuenta a la hora de evaluar el desempeño de un LLM como ChatGPT o Midjourney. Lo correcto, sin embargo, es mirar más allá y establecer un nuevo estándar, intrínsecamente digital o artificial. La poesía de IA NO es humana, es otra cosa; sin embargo, el producto poético nos abre otra posibilidad de disfrutar el hallazgo creativo o la experiencia poética.
La autora aborda también la reticencia que hay en el mundo literario a convivir con estas máquinas en modo creativo. “Los escritores han especulado durante mucho tiempo sobre lo que sucedería si las máquinas se hicieran cargo de su profesión, y la presunción común es que usurparían el mercado mediante la automatización, como se encuentra en “The Great Automatic Grammatizator” de Roald Dahl”, dice.
Pero ese es un “miedo distópico”, apunta, alimentado por la propia ficción. Sucede cuando los propios escritores se ven así mismos con la tarea de velar por la integridad del lenguaje y la creatividad humana o algo parecido. “Seguramente habrá ventajas y desventajas de la práctica de escritura de IA, como con todas las tecnologías”, dice. Lo que sí es seguro es que parece inevitable que estos programas generativos de IA no sigan mejorando.
Evitar el antropomorfismo de la IA es importante
Evitar el antropomorfismo de la IA es importante, dice el autor en este artículo titulado “Talking About Large Language Models” subido a la plataforma Arxiv a principios de diciembre. La tendencia a ver estos nuevos modelos como ChatGPT como con cualidades humanas se ve amplificado por el uso de palabras “filosóficamente cargadas”, como “sabe”, “cree” y “piensa”, pero no ayuda a entender de qué hablamos cuando hablamos de IA.
“Cuanto más expertos se vuelven los LLM en imitar el lenguaje humano, más vulnerables nos volvemos al antropomorfismo, a ver los sistemas en los que están integrados como más humanos de lo que realmente son”, dice.
El riesgo de atribuirles características humanas (antropomorfismo) a los sistemas de IA radica en que perdemos de vista la manera en que realmente funcionan estos programas, “especialmente cuando estos sistemas son tan profundamente diferentes de los humanos en su funcionamiento subyacente”.
Este suele ser un punto que se pasa por alto cuando hablamos de IA. El autor ofrece una definición que es importante tener en mente a la hora de interactuar con las máquinas. “Los LLM son modelos matemáticos generativos de la distribución estadística de tokens en el vasto corpus público de texto generado por humanos, donde los tokens en cuestión incluyen palabras, partes de palabras o caracteres individuales, incluidos los signos de puntuación”, escribe.
Cuando le preguntamos al programa quién fue la primera persona en caminar sobre la luna, el sistema responde: Neil Armstrong. ¿Qué pasó aquí, cómo fue que la máquina dio con la respuesta correcta?
El autor plantea que lo que realmente le estamos preguntando al modelo es: Dada la distribución estadística de palabras en el vasto corpus público de texto (básicamente todo internet en inglés, que ha sido producido -hasta ahora- por humanos, y que es el corpus de datos en el que el sistema ha sido entrenado), ¿qué palabras es más probable que sigan la secuencia “la primera persona que caminó sobre la luna fue”. Una buena respuesta a esta pregunta es “Neil Armstrong”.
Cuando evaluamos la utilidad del modelo, hacer la distinción de cómo el sistema logra un resultado es importante, pues evita que no perdamos de vista de que no estamos hablando de máquinas que están actuando como una persona. Si tenemos esto claro, sabemos que el sistema ni cree ni conoce ni comprende nada, tampoco tiene un yo ni conciencia del mundo exterior (o interior). No es nada de eso. Se trata de un desempeño estadístico de alto estándar.
ChatGPT, Turing y la banalidad
“Interactuar con el primer modelo de GPT-3 era como hablar con un dios loco esquizofrénico. Interactuar con ChatGPT es como hablar con un burócrata celestial”. Lo escribe el científico Erik Hoel en su blog The Intrinsic Perspective.
En su ensayo aborda dos puntos clave:
El modelo de OpenaAI pasa la prueba de Turing, pero una versión débil del test. La versión fuerte tiene estándares tan altos que ni siquiera un humano lo pasaría.
El desempeño de ChatGPT es neutral, aburrido, constreñido, autocensurado. Es la “banalidad de la IA” que crece a medida que estos sistemas mejoran.
El autor dice que el modelo de OpenAI falla la prueba de Turing sólo porque admite que es una IA. De hecho, nunca pretende ser otra cosa y a la primera que puede te lo recuerda. Y pasa porque la prueba Turing original se trata de subterfugios: la máquina debe fingir o hacerse pasar por humano, esa es la gracias del test, y la pregunta de si un observador que no sabe si está hablando o no con un computador puede notar la diferencia.
“ChatGPT falla la prueba de Turing, ¡pero sólo porque admite que es una IA! es decir, sólo porque sus respuestas son demasiado buenas, demasiado rápidas o demasiado veraces”, escribe.
Ahora bien, el desempeño del chat de OpenAI ofrece la conversación de humano promedio (salvando la rapidez de las respuestas, la precisión y el detalle, pero también los errores y el cantinfleo…muy propio de humanos), pero el autor dice que todo eso le pareció tremendamente aburrido.
Que un chat le aburra a alguien no es novedad. Pero Hoek tiene un punto. El programa “se siente como un mayordomo demasiado censor que resulta haber ingerido la totalidad del conocimiento del mundo y aún así se las arregla para parecer un tonto aburrido”.
Al programa de OpenAI le encanta agregar “descargos de responsabilidad” a sus respuestas, como una persona que permanentemente está corrigiendo, ajustando sus respuestas para parecer lo más neutral y ecuánime posible. De igual modo, el programa ama los clichés, “casi tanto como las operaciones sin contenido que sólo agregan relleno a su respuesta”, escribe.
Hoel estima que esta banalidad, como la llama, sólo irá creciendo a medida que los sistemas mejoran. “(A) medida que se vuelven más grandes, mejores y más entrenados a través de las respuestas humanas, sus estilos se vuelven más restringidos, más tipificados”. Parece ser, dice, que las empresas se han tomado muy en serio eso se desarrollar IA “segura”.
“Las IA deben tener la política adecuada y decir siempre lo menos ofensivo posible y pensar únicamente en mariposas y arcoíris”, escribe.
Tres cosas de Sam Altman sobre DALL-E 2
1. Impacto: La comunidad tecnológica estaba más sorprendida con GPT-3 que con DALL-E. Pero con la aparición de DALL-E 2 fue el resto del mundo el que se vio sorprendido. Las imágenes tienen un poder emocional. “Creo que hizo que la gente que antes no creía en AGI se lo tomara en serio”, dice.
2. Lecciones: Primero, algo interno de OpenAI. Una gran idea puede venir de un equipo de tres personas que buscan una idea y generan “un pequeño avance en los algoritmos”. Segundo, esta fue la primera IA que todos usaron. Alcance global.
3. Impacto: Están conscientes del uso de la herramienta en todos los campos. Dice que DALL-E 2 tendrá un impacto en el mercado laboral de los ilustradores, por ejemplo. Pero es difícil cuantificar. Habrá nuevas herramientas de creación y también una transición a nuevos mercados de trabajo.


