El trabajo manual (y mal pagado) que se esconde tras ChatGPT
Ínfimos salarios de apenas 2 dólares la hora: la tenebrosa trastienda de ChatGPT
El trabajo desempeñado por seres humanos de carne y hueso que hace posible el buen funcionamiento de ChatGPT no se ejecuta en Silicon Valley sino en países del tercer mundo.
Desde que OpenAI, una startup estadounidense afincada en California, levantara el telón de ChatGPT en noviembre del año pasado, el famoso y prodigioso chatbot, capaz de mantener conversaciones, escribir ensayos, código y hasta poesía, está en boca de todos (por la revolución de primerísimo orden que aloja supuestamente en sus entrañas).
Espoleada por la popularidad de ChatGPT, OpenAI se ha encaramado al Olimpo de las empresas de inteligencia artificial más valiosas del mudo. La compañía, que está también detrás del programa para generar imágenes DALL-E 2, crece como la espuma y parece tener un próspero futuro por delante.
No lo parece a bote pronto, pero el fenomenal éxito de ChatGPT no está apalancado única y exclusivamente en líneas de código y en bases de datos sino también en tedioso trabajo de naturaleza manual. Y es que como revela la revista Time, antes de que millones de usuarios comenzaran a parlotear con ChatGPT, trabajadores kenianos se encargaron de optimizar la aplicación y lo hicieron sometidos a precarias condiciones laborales. Fueron estos trabajadores quienes contribuyeron a que las respuestas puestas sobre la mesa por ChatGPT fueran «menos tóxicas».
Que la inteligencia artificial esté a merced de la asistencia de seres humanos de carne y hueso es un hecho que nada tiene de nuevo ni de sorprendente. Grandes a corporaciones como Google adoptan también un proceder similar. Sin embargo, el reportaje de Time coloca bajo los focos la tenebrosa trastienda que nadie ve (y ni siquiera se imagina que existe) tras el «hype» más rutilante del momento en la industria tecnológica.
Detrás de ChatGPT hay mucho trabajo manual muy mal pagado
El trabajo desempeñado por seres humanos de carne y hueso que hace posible el buen funcionamiento de ChatGPT no se ejecuta en Silicon Valley cobrando el salario mínimo sino en países del tercer mundo.
Para desempeñar ese trabajo manual OpenAI contrató los servicios de la empresa de «outsourcing» Sama, que rompió hace unos meses de manera prematura su relación contractual con la compañía estadounidense.
En su investigación la revista Time examinó cientos de páginas de documentos internos de Sama y OpenAI y entrevistó además a trabajadores involucrados en el proyecto en el que estuvieron involucradas ambas compañías.
Como OpenAI, Sama tiene también sus cuarteles generales en San Francisco. Sin embargo, los trabajadores de esta compañía residen mayoritariamente en países como Kenia, Uganda e India, donde etiquetan y categorizan datos (entre otras labores). Sama se ufana de haber ayudado a más de 50.000 personas a dejar atrás la pobreza.
En noviembre de 2021 Sama empleó en nombre de OpenaAI a alrededor de tres docenas de trabajadores oriundos de Kenia. Su trabajo consistía en leer y marcar fragmentos de texto en busca de contenidos de naturaleza maliciosa. Y tales fragmentos fueron después transferidos a la base de datos utilizada por OpenAI para entrenar adecuadamente a ChatGPT y revestir de mayor seguridad a este programa.
Los denominados filtros de preentrenamiento se utilizan para eliminar pasajes nocivos de los datos de los que se nutre ChatGPT (y que OpenAI compila en la profundidad de la red de redes).
En este sentido, los trabajadores subcontratados por OpenAI se sentaron, por lo tanto, durante horas frente al ordenador para evitar que contenido potencialmente malicioso llegase después a ojos de los usuarios de ChatGPT.
«Clasificar y filtrar imágenes y textos nocivos es necesario para minimizar la cantidad de contenido sexual y violento en los datos de entrenamiento y para desarrollar herramientas que puedan detectar contenido potencialmente nocivo», explica un portavoz de OpenAI en declaraciones a Time.
Los empleados subcontratados por OpenAI cobraban entre 1,32 y 2 dólares la hora
En turnos de nueve horas los empleados reclutados por Sama para OpenAI tuvieron hasta 250 pasajes de texto de hasta 1.000 palabras cada uno, de acuerdo con la investigación emprendida por Time. Y a cambio los trabajadores percibieron entre 1,32 y 2 dólares cada hora (en función de su experiencia y su rendimiento). Se trata de aproximadamente la misma cantidad que cobran los recepcionistas en los hoteles de Nairobi.
OpenAI pagó, sin embargo, a Sama un «fee» de 12,50 dólares la hora (hasta nueve veces más que el salario percibido a posteriori por los trabajadores). De acuerdo con un portavoz de Sama, el porcentaje de «fee» con el que la compañía se quedó (entre un 80 y un 90%) sirvió para cubrir los costes de la empresa.
Por los ínfimos salarios percibidos por el desempeño de su trabajo los empleados subcontratados por OpenAI tuvieron que ser confrontados en ocasiones con textos que incluían vívidas descripciones de violencia sexual, crueldad animal y suicidio. «Fue una auténtica tortura», confiesa uno de los trabajadores en declaraciones a Time.
De hecho, para digerir el traumático contenido de los textos con los que tuvieron que bregar en su trabajo algunos empleados solicitaron apoyo psicológico, un apoyo psicológico que Sama les brindó solo de manera limitada (aunque la compañía lo niega).
En febrero de 2022 OpenAI volvió a confiar en los servicios de Sama para un proyecto para la categorización de imágenes, muchas de las cuales mostraban escenas de violencia infantil, asesinato y violación.
Unas cuantas semanas de iniciar este proyecto, Sama finiquitó prematuramente su relación contractual con OpenAI (que debería haber expirado ocho meses después).
De esta forma, los trabajados subcontratados por OpenAI fueron liberados del suplicio que tener que procesar textos e imágenes tan desagradables, aunque muchos se vieron obligados a aceptar después empleos aún peor pagados o se quedaron sin fuente alguna de ingresos.
Sama, que dice haber revisado sus normas, anunció hace poco que había clausurado su división enfocada a la moderación de contenidos (para sortear así controvertidos proyectos como el desarrollado en su día para OpenAI).