Fuente: Público
Autora: Laura G. de Rivera
Google, Facebook, Open AI… todas lo hacen. Para filtrar el contenido altamente tóxico y enseñar al algoritmo a detectarlo, utilizan a miles de trabajadores en Kenia, India y Uganda por menos de dos dólares la hora.
Esta noticia no es apta para menores. Ni para ciertas sensibilidades adultas. Un hombre que tiene sexo con un perro delante de un niño pequeño, una violación anal a un menor que describe al detalle cada paso, abusos sexuales que introducen instrumentos cortantes en la vagina, la violación, tortura y asesinato de una niña, suicidios en directo, incesto, autolesiones. Estos son algunos de los contenidos que tienen que visionar, leer, describir y etiquetar los trabajadores que las grandes compañías tecnológicas, como Open AI (creadora de ChatGPT y Dalee) o Meta (dueños de Facebook, Instagram, WhatsApp) tienen contratados en países en desarrollo, para depurar los datos con los que entrenan a sus algoritmos de machine learning.
«Para hacer que la inteligencia artificial parezca inteligente, hay cientos de miles de personas que están haciendo un trabajo invisible y mal pagado en los rincones menos privilegiados del planeta», nos dice Virginia Eubanks, politóloga en la Universidad de Albany (EEUU) y divulgadora experta en justicia social y tecnología. Y es que para alimentar a los algoritmos y enseñarles a reconocer contenido de la web (imágenes, texto), es necesario que alguien los entrene primero, dándoles de comer toda esa información que necesitan para, eventualmente, poder sacar sus propias conclusiones.
«Para que se puedan cumplir las normas que establecemos respecto a la pornografía en una red social, por ejemplo, hay una madre en una chabola en India viendo miles de imágenes al día y decidiendo qué es un pene y qué es un pulgar, por unos pocos céntimos la hora», señala Eubanks, que también es autora de La automatización de la desigualdad (Capitán Swing, 2021).
Los trapos sucios, a Kenia
Aunque esta experta lleva años denunciando la situación, no fue hasta comienzos de este año que se hizo pública con todo detalle. Una investigación de la revista Time destapaba las condiciones de los empleados de Sama, una empresa californiana que emplea a trabajadores de Kenia, Uganda e India para que etiqueten contenidos de sus clientes (Google, Meta o Microsoft).
En 2021, Sama fue contratada por Open AI para clasificar decenas de miles de fragmentos de texto, con el fin de detectar lenguaje tóxico relacionado con violencia, discurso de odio y abuso sexual. Esta es una labor que deben hacer trabajadores humanos. Los modelos de lenguaje generacional (como ChatGPT) y los algoritmos de moderación de contenidos (filtros para detectar contenido inapropiado) necesitan de este «pequeño» paso previo. Precisan que se les suministre el contenido pernicioso ya etiquetado para que, así, tras ser alimentada con miles y miles de ejemplos, la inteligencia artificial (IA) pueda llegar a identificarlo «por sí sola» cuando se tope con imágenes o textos parecidos en el futuro.
Es necesario, también, para filtrar la información con la que se alimentan los modelos generacionales de lenguaje para que no tengan acceso a ella y, por tanto, no puedan reproducir esos textos e ideas comprometidas. Para entendernos, es como enseñar a hablar a una cotorra evitando decir palabrotas en su presencia. Aunque aquí los contenidos en cuestión son bastante más dañinos.
Trabajo traumático… y mal pagado
Tanto es así, que los trabajadores entrevistados por la revista Time aseguran haber tenido graves problemas para su salud mental después de haber tenido que verlos y clasificarlos. Después de un turno de nueve horas leyendo entre 150 y 200 textos pormenorizados sobre asesinatos, violaciones a menores y torturas, es comprensible. Y todo, por un salario de entre uno, dos y tres dólares la hora, dependiendo de la exactitud y velocidad con que etiqueten el contenido.
En teoría, Sama ofrecía atención psicológica a sus empleados para ayudarles a sobrellevar los efectos secundarios de su trabajo, aunque la investigación revela que, para poder cumplir con los objetivos impuestos, apenas tenían tiempo de acudir a terapia.
Al año siguiente, en 2022, el encargo de Open AI para Sama fue todavía más delicado: había que recolectar y etiquetar imágenes de contenido sexual y violento. En concreto, de acuerdo con los documentos destapados por Time, Sama cobró 787 dólares por 1.400 imágenes reales y detalladas, muchas de ellas consideradas contenido «ilegal» en Estados Unidos. Estaban ordenadas en varios grupos: abuso sexual infantil, sexo con animales, violaciones, esclavitud sexual, muerte y lesiones físicas graves. Para eso, claro, los hombres y mujeres contratados por Sama tuvieron que ver el contenido primero.
¿El fin justifica los medios?
«A pesar del rol fundamental que desempeñan estos profesionales en clasificar la información, cada vez más investigaciones revelan sus precarias condiciones de trabajo. Quizá sea debido al interés que hay de esconder lo mucho que la inteligencia artificial depende de esta gran fuerza laboral cuando se celebran los logros y la eficiencia de la tecnología», observa Partnership on IA, una coalición de empresas de IA, según recoge la revista Time.
Por su parte, Open AI se justificaba en un comunicado diciendo que «nuestra misión es asegurar que la inteligencia artificial beneficie a toda la humanidad y nos esforzamos por construir modelos que limiten los sesgos y el contenido dañino. Clasificarlo y filtrarlo es un paso necesario para minimizar la cantidad de información violenta y sexual que se incluye en los datos de entrenamiento y para crear herramientas que puedan detectarla».
Dicho así, suena razonable. ¿Pero a qué precio? Para proteger la sensibilidad de los usuarios occidentales de Google, Facebook, Microsoft o Open AI, ¿es justo que haya miles de personas explotadas en países pobres, haciendo el trabajo sucio no solo de ver el contenido traumático, sino de hacerlo con atención, durante nueve horas al día, para poder cumplir con su etiquetado?