PARÍS – Para que un sistema de inteligencia artificial generativa aprenda a escribir un informe de autopsia, los trabajadores humanos deben clasificar y anotar miles de imágenes de la escena del crimen.

El precario trabajo de capacitación en IA, que generalmente paga solo unos pocos dólares, ha provocado un movimiento por mejores salarios y condiciones que se extiende desde Kenia hasta Colombia.

“Hay que pasar todo el día mirando cadáveres y escenas de crímenes… no hay ayuda para la salud mental”, dijo a la AFP el ciudadano keniano Afantas Kanyugi.

Los etiquetadores “necesitan dedicar tiempo a estas imágenes, acercándose a las heridas de los muertos” para delinearlas y poder introducirlas en la IA, añadió el hombre de 30 años.

Kanyugi, que trabaja en el etiquetado de imágenes desde 2018, es el vicepresidente de la Asociación de Etiquetadores de Datos (DLA), un grupo laboral de 800 personas con sede en Nairobi.

DLA planea presentar un código Kondakt en octubre La principal plataforma de etiquetado tiene como objetivo exigir mejores condiciones para los trabajadores.

Kenia no tiene leyes que regulen el trabajo de anotación de datos, a diferencia de muchos países del mundo donde millones de personas introducen datos digitales en modelos de IA en crecimiento.

“Somos como fantasmas. Nadie sabe que existimos, a pesar de que contribuimos al progreso tecnológico de la sociedad”, dijo Oscarina Fuentes, al otro lado del mundo.

Este venezolano de 35 años trabaja para cinco plataformas diferentes de etiquetado de datos desde su casa en la ciudad colombiana de Medellín, ganando entre 0,05 dólares y 0,25 dólares por tarea.

El trabajo de datos entre bastidores se ha disparado a medida que la IA generativa se convierte en el próximo gran avance de la tecnología.

El trabajo de los etiquetadores invisibles ha permitido que los vehículos autónomos reconozcan a peatones y árboles, que los chatbots como ChatGPT hablen con frases que suenen naturales y que los sistemas automatizados de moderación de contenidos eliminen contenidos violentos o vulgares de las redes sociales.

El sector del etiquetado de datos era un mercado de 3.800 millones de dólares en 2024 y se espera que crezca a más de 17.000 millones de dólares en cinco años, según la consultora Grand View Research.

La construcción de nuevos modelos de IA generativa requerirá datos verificados por humanos “siempre que se basen en el aprendizaje automático”, dijo el profesor Antonio Casilli, profesor de sociología del Instituto Politécnico de Francia en París, que entrevistó a los llamados “trabajadores del clic” de 30 países.

Los modelos de IA generativa requieren que los humanos den forma a las entradas y proporcionen retroalimentación sobre la relevancia y precisión de las salidas del sistema entrenado.

Los gigantes tecnológicos contratan este trabajo con una gran cantidad de empresas diferentes.

La Scale AI más grande, con sede en EE. UU., obtuvo recientemente una inversión de 14 mil millones de dólares de la empresa matriz de Facebook, Meta, que contrató al cofundador Alexander Wang para liderar sus propios esfuerzos de IA.

Los clientes de Scale incluyen OpenAI, Microsoft y el Departamento de Defensa de Washington.

En su investigación, el profesor Casilli descubrió que los etiquetadores de datos generalmente tienen entre 18 y 30 años y ganan salarios más bajos que sus niveles educativos.

La mayoría vive en países con salarios bajos, aunque el sector está avanzando en Estados Unidos y Europa, donde la norma es un salario mucho más alto.

Los modelos capaces de generar IA, como ChatGPT de OpenAI o Claude de su competidor Anthropic, requieren conocimientos más especializados en matemáticas, química o lenguajes menos comunes para responder y juzgarlos.

Outlier, filial de Scale AI, ofrece puestos de trabajo para especialistas en biología y codificación informática en malayo o español, con salarios que oscilan entre 30 y 50 dólares por hora.

Otra filial de Scale AI, RemoteTask, paga a los etiquetadores alrededor de 0,01 dólares por un trabajo que puede durar varias horas: un salario que Kaniugi compara con la “esclavitud moderna”.

“La gente tiene problemas de visión, problemas de espalda, entra en ansiedad y depresión porque trabajas 20 horas al día o seis días a la semana”, dijo.

“Entonces, a pesar de trabajar tantas horas, te pagan mal y ni siquiera te pagan”.

Se han presentado varios procesos judiciales contra Scale AI en Estados Unidos, y los trabajadores acusan a la empresa de no pagarles, de denunciarlos como contratistas en lugar de empleados o de exponerlos a material traumático sin la protección adecuada, según documentos judiciales vistos por la AFP.

Los demandantes dieron ejemplos como “¿Cómo suicidarse?”, “¿Cómo envenenar a una persona?” Necesito hablar con un chatbot de IA sobre este tipo de cosas. o “¿Cómo matar a alguien?”

Scale AI no quiso hacer comentarios sobre los procesos judiciales en curso, pero reconoció a la AFP que algunos de sus trabajos contienen contenidos sensibles.

La empresa añadió que los empleados siempre están advertidos sobre estos asuntos y pueden dejar un trabajo cuando lo deseen.

Scale AI agregó que ofrece a los empleados recursos de salud mental y una línea directa de soporte anónima.

Y dijo que deja claras sus bandas salariales, ofreciendo tarifas por hora iguales o mejores que el salario mínimo en los países donde opera.

El sector de la tecnología de IA generativa no es el primero en enfrentar acusaciones de contratistas mal pagados que publican contenido perturbador.

Los moderadores que trabajan para Meta en varios países, desde España hasta Kenia y Ghana, han entablado acciones legales contra la empresa alegando condiciones laborales y daño emocional.

La mayoría de las personas que trabajan duro para ajustar los datos para la IA tienen relaciones laborales precarias que pueden desmoronarse de un día para otro.

Fuentes dijo que uno de sus empleadores no le pagó alrededor de $900 por tres meses de trabajo después de que ella actualizó su software de nómina.

“Perdí mi tiempo, mi energía y mi sueño”, dijo.

Fuentes no pudo nombrar a su antiguo empleador debido a un acuerdo de confidencialidad que firmó, una práctica común en la industria que impide que muchos trabajadores hablen.

La DLA de Kenia está sopesando emprender acciones legales contra Remotask, que, según los etiquetadores de datos, les cortó abruptamente el acceso a la plataforma sin pagar las cuotas que vencían en marzo de 2024.

La empresa matriz de Remotasks reconoció que había reducido su huella en Kenia, pero dijo que había cancelado las cuentas de los etiquetadores por violar sus reglas internas.

A los trabajadores se les pagó por todo el trabajo realizado, insistió la empresa.

Microsoft y MetaScale declinaron hacer comentarios a la AFP sobre su relación con la IA. El Pentágono no respondió a solicitudes de comentarios.

Anthropic, que colabora con la startup de etiquetado de datos Surge AI, que en sí misma es objeto de acciones legales en los EE. UU., dijo que exige a sus subcontratistas que sigan las reglas de bienestar de los empleados que tratan con contenido confidencial.

Añadió que exige tarifas de pago para los etiquetadores de datos de 16 dólares EE.UU. por hora o más.

Mientras tanto, OpenAI dice que tiene reglas estrictas para sus propios subcontratistas en materia de seguridad en el lugar de trabajo, compensación justa, no discriminación y respeto por los derechos de los trabajadores.

El desarrollador de chatgpt añadió que se tomarán las medidas adecuadas por incumplimiento de contrato si no se cumplen estas condiciones.

Trabajando como autónomos o con contratos de corto plazo, la mayoría de los etiquetadores de datos no disfrutan de protección para los empleados, dice el sociólogo Cassilly, llamándolos una “clase baja digital”.

En Kenia, la DLA está impulsando un código de conducta que incluiría un contrato de trabajo que garantizaría un “pago justo”, la libre asociación, el derecho a tomar descansos y apoyo emocional en caso de exposición a contenidos nocivos.

Tales demandas podrían conducir a enfrentamientos entre los trabajadores y las empresas de tecnología.

En Estados Unidos, unas 250 personas fueron despedidas de sus trabajos en septiembre en GlobalLogic, un subcontratista que ayuda a entrenar la IA generativa Gemini de Google, después de que muchos se quejaran de las discrepancias salariales y pidieran mejores condiciones laborales.

“Solo quieren anotadores flexibles”, dijo Andrew Lauzon, de 31 años, que trabajó para GlobalLogic desde marzo de 2024 hasta que fue despedido el 12 de septiembre.

Lauzon, nativo de Boston, se unió al Sindicato de Trabajadores de Alphabet, llamado así en referencia a la empresa matriz de Google, para hacer campaña a favor de condiciones como licencia por enfermedad, tiempo libre remunerado y atención médica asequible.

GlobalLogic no quiso hacer comentarios cuando fue contactado por la AFP, mientras que un portavoz de Google afirmó que “como empleador, GlobalLogic es responsable de las condiciones laborales de sus empleados”.

Google todavía dice que espera que los subcontratistas traten a los trabajadores de manera justa y respetuosa, y agrega que impone un código de conducta y realiza auditorías periódicas.

Un estudio sobre la fuerza laboral oculta de la IA publicado por UNI Global Union en octubre Demostró que “las grandes tecnológicas no pueden construir un futuro con mano de obra desechable”, dijo su editora en jefe, Christy Hoffman, en un comunicado.

“Es hora de responsabilizar a los titanes de Silicon Valley por el estado de sus cadenas de suministro de IA”, añadió Hoffman.

La lucha de los trabajadores por derechos y reconocimiento se ve obstaculizada por la falta de recursos legales.

Incluso la imposición europea de nuevas regulaciones sobre la IA ha dejado “hongos”, dijo a la AFP Leila Chaibi, miembro del Parlamento Europeo por el partido francés de extrema izquierda LFI.

“No se menciona a los trabajadores que hacen clic en la regulación de la IA”, afirmó, ni en la Directiva sobre el trabajo en plataformas que Chibi ayudará a aprobar en Bruselas en octubre de 2024.

Se podría implementar una directiva europea que obligue a las empresas a monitorear el cumplimiento de los derechos humanos en toda su cadena de suministro para apoyar a los etiquetadores de datos, dijo la Sra. Chaibi.

Pero en realidad, los estados miembros de la UE están cuestionando esta regla.

Mientras los gobiernos luchan, millones de personas trabajan en este sector todos los días, lo cual es esencial para mejorar la calidad de las respuestas generativas de IA.

“Si eres carpintero o plomero, hay sindicatos y hay un salario mínimo”, dijo Nacho Barros, de 54 años, de Valencia, España, que trabajó en el etiquetado de datos durante la pandemia de Covid-19.

“Este trabajo debe ser reconocido por el gobierno de cada país”, subrayó. AFP

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here