explotación laboral IA

El lado oscuro de la IA: La explotación laboral de los entrenadores de datos

La inteligencia artificial (IA) ha transformado diversos aspectos de nuestra vida cotidiana gracias a la constante mejora de chatbots, como ChatGPT o Gemini, que cada vez responden de forma más precisa a nuestras consultas. Sin embargo, detrás de estos avances tecnológicos, existe una realidad menos visible: la explotación laboral de quienes entrenan los datos de la IA.

Los sistemas de inteligencia artificial no funcionan por arte de magia, sino por el trabajo de miles de personas que entrenan estos sistemas con datos reales. Se necesitan datos etiquetados y validados por personas reales que enseñen a los algoritmos a distinguir entre información relevante e irrelevante.

entrenamiento de datos para sistemas de IA

El trabajo invisible detrás de la IA

El trabajo de anotación de datos, implica tareas como etiquetar imágenes, categorizar contenido y, en algunos casos, interactuar con sistemas para que aprendan a responder cuestiones de mayor complejidad. La función de las personas que entrenan con datos a la IA es esencial, ya que sin su labor los modelos de IA simplemente no funcionarían.

Sin embargo, el etiquetado de los datos se realiza por trabajadores que, a menudo, están en países en desarrollo y cuentan con condiciones laborales precarias. Según un artículo de Infobae, en Filipinas miles de jóvenes trabajan diariamente en cibercafés o desde sus hogares, anotando datos que las empresas necesitan para entrenar sus modelos de IA.

Condiciones laborales precarias

Tal y como destaca el informe de DataGenero, los trabajadores que entrenan a la IA de países como Kenia, India o Filipinas suelen enfrentarse a condiciones laborales bastante precarias:

  • Bajos salarios: Mientras los gigantes tecnológicos generan miles de millones en beneficios, los trabajadores ganan en muchos casos menos de 2 dólares por hora, una cifra irrisoria frente a los más de 20 dólares que se pagaría en países como Estados Unidos.
  • Jornadas interminables: Muchos trabajadores reportan turnos de hasta 18 horas al día para conseguir un salario digno.
  • Contenido traumático: Etiquetar y moderar contenido implica exponerse a imágenes y videos extremadamente violentos, como accidentes, mutilaciones y abusos. Este tipo de trabajo tiene efectos en la salud mental de los trabajadores, quienes apenas reciben apoyo psicológico.
  • Falta de estabilidad: La mayoría trabaja bajo un modelo freelance o por tareas, lo que significa que no cuentan con contratos estables ni beneficios laborales como seguro médico o protección social.

explotación trabajadores que entrenan sistemas de IA

Una cadena de intermediarios opaca

Las grandes tecnológicas rara vez contratan directamente a estos trabajadores. Prefieren usar intermediarios porque les permite reducir costos, evitar responsabilidades laborales directas y operar con mayor opacidad, alejando la atención de las condiciones en las que estos trabajadores realizan su labor.

En su lugar, subcontratan a empresas intermediarias que gestionan las contrataciones a través de plataformas como Remotasks o Majorel. Este modelo no solo abarata costes para las empresas, sino que también invisibiliza a los trabajadores y dificulta su organización para exigir mejores condiciones.

Un ejemplo es el caso de Remotasks en Kenia, que cerró el acceso a la plataforma desde este país de un día para otro, dejando a cientos de personas sin explicaciones ni compensaciones. Este hecho fue especialmente traumático para quienes dependían del trabajo entrenando los sistemas de IA como único medio de vida.

El impacto en las comunidades más vulnerables

La mayor parte de los trabajadores que realizan estas tareas provienen de comunidades marginadas con pocas oportunidades laborales. Según investigadores, esta selección no es casual. Empresas buscan mano de obra barata en regiones donde la pobreza y el desempleo son elevados, creando una nueva forma de explotación digital.

Una frase reveladora compartida por algunos trabajadores keniatas fue: “Nos dijeron que contrataban a los desempleables”. Esta afirmación no solo refleja un desprecio hacia su situación, sino que también refuerza el estigma social de la falta de capacidad o valor de estas personas.

Para muchos, escuchar esto significa una humillación constante y una carga emocional que limita su autoestima y promueve la idea de que nunca podrán aspirar a algo mejor.

Iniciativas y regulaciones

A pesar de las barreras, el movimiento por la justicia laboral en este sector está creciendo. Por ejemplo, el sindicato de moderadores de contenido en Kenia logró llevar a los tribunales a un contratista de Meta por despidos injustificados, lo que atrajo atención internacional hacia las condiciones de trabajo en la industria.

Otro caso significativo es la organización de trabajadores de plataformas en Filipinas, donde las protestas lograron mejoras salariales y mayor transparencia en las asignaciones de tareas. Aunque el camino está lleno de obstáculos legales y burocráticos, su lucha representa un primer paso para visibilizar y dignificar este trabajo esencial.

Ante esta situación, se han propuesto regulaciones para proteger a estos trabajadores. La Unión Europea, por ejemplo, ha introducido la Ley de IA, que busca garantizar que los avances tecnológicos no perjudiquen los derechos de los trabajadores. Además, se promueve la transparencia en el uso de algoritmos y la implementación de medidas que aseguren condiciones laborales justas en la era digital.

regulación de la explotación laboral digital

Conclusión

Si queremos un futuro tecnológico ético y sostenible, se han de implementar medidas como garantizar salarios justos y competitivos para los trabajadores, ofrecer apoyo psicológico adecuado para quienes se enfrentan a contenido traumático, establecer contratos laborales estables con beneficios mínimos y garantizar la transparencia en las condiciones de trabajo.

Además, es esencial reconocer y valorar el trabajo de quienes entrenan los sistemas de IA. La innovación tecnológica no debe sostenerse en la explotación laboral.

¿Y tú, qué opinas? ¿Crees que las empresas tecnológicas deberían ser más transparentes sobre quiénes entrenan sus sistemas de IA? Comparte tu opinión en los comentarios.

Si quieres mantenerte al día en tecnología e inteligencia artificial, te invito a suscribirte a la newsletter y seguir las próximas publicaciones de DigitAIzate.com.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio