Elaborado por Materia para OpenMind Recomendado por Materia
5
Inicio GPT-3 y como pueden afectar los sistemas de escritura
16 noviembre 2022

GPT-3 y como pueden afectar los sistemas de escritura

Tiempo estimado de lectura Tiempo 5 de lectura

En un artículo anterior describí la problemática y avances que se han producido en sistemas de IA de comprensión lectora. Por otra parte, en los últimos años, los sistemas de IA de escritura también han mejorado significativamente por la aparición de una red neuronal llamada GPT-3. Apenas hace dos años que se creó GPT-3, pero la variedad de casos de uso se ha disparado: generación de narrativa, redacción de blogs y noticias, chatbots e incluso creación de juegos ‘trivial’. La lista sigue creciendo a medida que los desarrolladores se dan cuenta de su potencial. En este artículo, tras describir la evolución de los sistemas de IA de escritura y de GPT-3 en concreto, planteo la posibilidad de que Internet se vea inundado de contenidos generados por GPT-3.

Narrativa creada por IA

Experiments that use AI for story writing have been tried for many years.  For example, Sharples and Perez [1] describe automatic novel writing programs that began in the 1960s. They were mostly collaborations between human and machine. However, it was a programmer named Scott French who was the first to claim that he had created an entire AI-written novel. The novel was called “Just This Once” and it was written in such a way that it emulated the style of the 1960s author Jacqueline Susann. Scott did this by using symbolic AI explicitly written rules.  For example, his program used “If… then” rules to show how a character would react to an event. It would also use rules to show how the author would be likely to describe some action in words. This AI book writing project didn’t end well for Scott because he was later sued by the estate of Jacqueline Susann for copying her style. The problem with using rule-based AI was that it was very time-consuming – taking eight years for Scott to complete this book. Other automatic writing projects encountered similar problems. Symbolic AI lacked the learning capabilities of neural networks. This meant that time-consuming human programming was the only way that this type of project could be completed.

Just This Once is a 1993 romance novel written in the style of Jacqueline Susann by a Macintosh IIcx computer named "Hal" in collaboration with its programmer, Scott French.[
Just This Once’ es una novela romántica publicada en 1993 que imita el estilo de Jacqueline Susann. Fue creada por un ordenador Macintosh IIcx llamado ‘Hal’ en colaboración con su programador, Scott French. Crédito: Wikimedia

Sin embargo, hoy en día la IA puede escribir novelas y toda clase de documentos mediante redes neuronales de aprendizaje automático, a veces en cuestión de minutos. El GPT-3 (acrónimo de ‘Generative Pre-Trained Transformer Version 3’), desarrollado por la organización OpenAI de Elon Musk, ha revolucionado la escritura de IA, dando lugar a muchas empresas de nueva creación que cubren toda una serie de aplicaciones. Su creatividad narrativa es tan alta que los lectores a menudo no la distinguen de la ficción creada por humanos.

Como funciona el GPT-3

GPT-3 es un modelo lingüístico de aprendizaje automático: el usuario puede introducir una secuencia incompleta de palabras y generar un texto a partir de ella.  Por lo tanto, se le puede comparar a un modelo de ‘autocompletar’, algo así como cuando un usuario está escribiendo un correo electrónico y el sistema le sugiere palabras para completar la frase y reducir así el esfuerzo. GPT-3 se ha entrenado con un conjunto de datos de unos 175.000 millones de parámetros (ponderaciones de neuronas artificiales) recogidos de sitios web como Reddit, Wikipedia, Google y otros, sumando mucho más texto del que ningún humano verá durante toda su vida. El entrenamiento de los programas generativos consiste en introducir parte de una frase y pedirle a la máquina que prediga la siguiente palabra. Luego se comprueba si el resultado coincide con la palabra correcta. Como en todas las redes neuronales, las ponderaciones se ajustan en función de lo bien que coincidan con la palabra correcta, por lo que, a medida que se introducen más ejemplos, la red predice la siguiente palabra con mayor precisión. Una vez entrenada la red neuronal, el usuario puede introducir una secuencia de palabras y generar otra secuencia como resultado -una frase, un párrafo o incluso más, como un relato entero- y ver junto al resultado una puntuación de probabilidad de que se utilicen palabras concretas. Además, GPT-3 puede realizar funciones que van más allá de la simple generación de texto, como la evaluación de contenido textual, respuestas a preguntas sobre cualquier tema imaginable, resumen de textos e incluso traducción de un idioma a otro.

BBVA-OpenMind-Keith Darlington- Effects of AI Writing Systems on the Quality of Online Content
Una vez entrenada la red neuronal, el usuario puede introducir una secuencia de palabras y generar otra secuencia como resultado

Según Tingiris [2], se estima que GPT-3 ha sido entrenado en 57 veces el número de palabras que se hayan escrito, leído y hablado durante una vida humana media, lo que significa que la red neuronal es demasiado grande para descargarse a un ordenador personal. Sin embargo, OpenAI hace que GPT-3 esté disponible a través de una interfaz programable de aplicaciones (API, por sus siglas en inglés).  Sus usos son múltiples, e incluyen la escritura de novelas, blogs, poesía, informes empresariales e incluso chistes.

Limitaciones y preocupaciones sobre el GPT-3

Pese a sus ventajas, la GPT-3 tiene algunas limitaciones. Su ventana de input abarca unas 1.000 palabras, lo que es suficiente para narrativa breve, pero un relato de longitud media suele perder el rumbo al aumentar la cantidad de contenido generado. El problema puede resolverse si el usuario recibe indicaciones de seguimiento o el sistema obedece a una plantilla preestablecida. GPT-3 también es bastante lento debido a su tamaño, lo que afecta a su capacidad para explicar sus resultados. También existe la posibilidad de que se produzcan sesgos debido a los datos que se han utilizado para el entrenamiento de la red, por lo que hay preocupaciones éticas: en particular, la generación de ‘fake news’ y las posibilidades de crear contenidos sensibles en materia de raza o etnia.

Consecuencias para la calidad de los contenidos de internet

Muchos investigadores predicen que la llegada de GPT-3, que tiene un coste muy inferior al de la creatividad humana, hará que Internet se llene de contenidos mediocres. Esto, a su vez, podría conducir a una falta de confianza, ya que la calidad podría diluirse por ‘fake news’ o contenidos falsos. El hecho es que GPT-3 todavía no puede reflexionar sobre lo que escribe, porque, aunque suene bien, no lo entiende. La supervisión de los contenidos por humanos sería una forma de resolver este problema, pero esto sería imposible si, tal como se está prediciendo, GPT-3 va a generar cantidades inabarcables de contenido extra.

BBVA-OpenMind-Darlington-The consequences for the quality of Internet content
La supervisión del contenido por humanos sería una forma de resolver el problema de que GPT-3 no entiende lo que escribe

Conclusiones

Sin duda, GPT-3 ha dado paso a una nueva ola de aplicaciones lingüísticas de IA que permitirá mejorar la comunicación con los ordenadores. También es probable que desencadene un movimiento hacia la automatización de los contenidos de Internet, como las crónicas deportivas, por ejemplo. El futuro de la comunicación lingüística de la IA ha tomado un nuevo rumbo como consecuencia de GPT-3. Sin embargo, a pesar de su fenomenal capacidad de aprendizaje, todavía carece de la comprensión semántica del lenguaje, ya que, a pesar de las apariencias, todavía no ofrece capacidades de escritura de narrativa extensa a nivel humano. La arquitectura de la red neuronal de GPT-3 proporciona la capacidad de aprendizaje sin poder comprender los significados. En otras palabras, aún no se ha superado el abismo de comprensión entre los humanos y la IA, porque el sistema no tiene la capacidad de reflexionar sobre lo que ha escrito, aunque escriba con la misma soltura que un autor humano. La reflexión es una parte esencial de la escritura. Así, la versión actual funciona bien como herramienta para generar contenido, pero todavía requiere la colaboración humana. Eso sí, en un futuro, GPT-3 dará mucho que hablar.  

Keith Darlington

Referencias

[1]          Story Machines: How Computers Have Become Creative Writers por Mike Sharples y Rafael Perez Y Perez.

[2]          Exploring GPT-3 por Steve Tingiris.

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada