Digital

El programa GPT-2 es capaz de escribir texto a un nivel casi humano

Temor a las fake news: OpenAI crea un generador de textos demasiado peligroso para publicarlo

Las potenciales aplicaciones malignas del programa, como la difusión de fake news, preocupan a sus creadores, que han decidido guardarlo en el cajón.

generador-texto-openai

La organización sin ánimo de lucro OpenAI ha creado el programa GPT-2, que es capaz de escribir textos a un nivel casi humano. El usuario sólo tiene que insertar en el programa un texto que sirva de modelo. Por ejemplo, la página de una novela o las primeras líneas de un reportaje.

La inteligencia artificial se encarga de asimilar el estilo y el contenido, y de crear su propio universo ficticio, pero coherente y bien escrito. Los programadores le han dado una memoria de 8 millones de páginas web de las que extraer la información.

Sin embargo, existe un alto riesgo de que este generador de texto se utilice para crear contenidos falsos, como fake news o trabajos académicos. "Debido a nuestras preocupaciones sobre la aplicación maliciosa de la tecnología, no vamos a publicar el modelo preparado", dice la organización, financiada por varios mecenas del mundo tecnológico, entre ellos el empresario Elon Musk.

Si no visualiza correctamente el vídeo embedded, haga clic aquí.

OpenAI ha probado su eficacia generando diferentes estilos y contenidos: un estudio científico sobre el supuesto descubrimiento de los unicornios, una noticia del Brexit, un capítulo de "El Señor de los Anillos", o incluso un futuro en el que John F. Kennedy es resucitado y vuelve a ser elegido presidente de EEUU, pero en versión cíborg.

Los programadores han introducido cinco líneas, como la sinopsis de una película, y el programa se ha lanzado a confeccionar una vibrante novela política de ciencia ficción. El Kennedy imaginado por el GPT-2 da un discurso de investidura edificante, con vistas al futuro, pero aderezado con referencias a la Guerra de la Independencia.

texto-kennedy

Otro ejemplo: si hay que hacer un trabajo para el instituto sobre las causas de la Guerra Civil, basta con insertar una pregunta y el GPT-2 producirá una larga explicación, llena de fechas y detalles, citas y descripciones, que quizás solo falte editar levemente para que el profesor crea que el texto ha sido redactado por un humano. Un texto técnicamente original, aunque, en el fondo, haya sido copiado de internet.

Impostores digitales

La coherencia no siempre es total, dicen los investigadores. Naturalmente, cuanto más sencilla es la tarea que se encomienda al GPT-2, mejor la desempeña. Varias pruebas de lectura han demostrado que el sistema produce un lenguaje correcto al 93,3% en la escritura de libros infantiles. Cuanto más abundante es la información respecto a un tema, mejor es el resultado. Por el contrario, cuando se trata de "tipos de contenido esotérico o altamente técnico, el modelo puede comportarse pésimamente".

El sistema es un destacado ejemplo del llamado "aprendizaje no supervisado": un mecanismo capaz de absorber grandes cantidades de información sin gestión humana; uno de los pilares en el desarrollo de la inteligencia artificial.

OpenAI especula sobre el uso que se le puede dar al GPT-2 en tareas beneficiosas, como una traducción simultánea de mayor calidad, asistentes de escritura o métodos de reconocer patrones del lenguaje y la expresión.

Pero es el potencial uso malicioso, la creación de noticias falsas, de ríos de spam bien escrito, o la creación de impostores digitales que se comuniquen igual que usted en función de su historial comunicativo en internet, el que los ha convencido para no revelar los secretos del invento.

Este contenido espurio de alta calidad se ha ganado la etiqueta de texto "deepfake", o "profundamente falso", un término que ya se aplica a los vídeos cuya autenticidad resulta casi imposible de verificar.

Te recomendamos

Cannes

Outbrain

FOA

rakuten

Compartir