Destaque

Moderadoras de conteúdo violento e explícito para IA sofrem dano psicológico

IA – Mulheres de comunidades rurais da Índia ocupam uma posição central, e pouco visível, no funcionamento da inteligência artificial moderna. Elas são responsáveis por moderar, classificar e rotular conteúdos violentos, abusivos e pornográficos utilizados no treinamento de algoritmos de grandes empresas de tecnologia. A atividade, descrita em uma reportagem do The Guardian, expõe essas trabalhadoras diariamente a material extremo e tem sido associada a danos psicológicos persistentes.

De acordo com a investigação, muitas dessas mulheres atuam remotamente, a partir de vilarejos em estados como Jharkhand e Uttar Pradesh. O trabalho consiste em analisar imagens, vídeos e textos previamente sinalizados por sistemas automatizados, com o objetivo de ensinar plataformas digitais a identificar violações de regras relacionadas à violência, ao abuso e à exploração. Esse processo é considerado essencial para os sistemas de aprendizado de máquina, que dependem de grandes volumes de dados rotulados por humanos para funcionar.

LEIA: Assinatura digital pelo Gov.br tem mesma validade que a manuscrita, decide STJ

Em um único dia, uma moderadora pode ser exposta a centenas de conteúdos sensíveis. Pesquisadores ouvidos pelo The Guardian afirmam que essa rotina frequentemente resulta em estresse traumático, ansiedade, distúrbios do sono e alterações emocionais prolongadas, mesmo nos casos em que algum tipo de suporte é oferecido pelas empresas contratantes.

Danos psicológicos persistentes

A reportagem cita um estudo publicado em dezembro que incluiu moderadores de conteúdo na Índia e identificou o estresse traumático como o risco psicológico mais significativo associado à atividade. Segundo a pesquisa, mesmo em ambientes onde havia intervenções no local de trabalho ou algum suporte institucional, níveis elevados de trauma secundário continuaram presentes entre os trabalhadores.

Pesquisadores também destacam que o entorpecimento emocional, seguido por efeitos psicológicos tardios, é uma característica recorrente da moderação de conteúdo. Entre os impactos documentados em estudos acadêmicos estão pensamentos intrusivos, ansiedade, mudanças comportamentais e distúrbios do sono, que podem persistir mesmo após o encerramento do vínculo profissional.

Dados da associação indiana de tecnologia Nasscom indicam que cerca de 70 mil pessoas atuavam com anotação de dados no país em 2021. O mercado foi avaliado em aproximadamente US$ 250 milhões naquele ano, com cerca de 60% da receita proveniente dos Estados Unidos e apenas 10% originada no próprio mercado indiano.

Falta de proteção legal

Outro ponto destacado pelo The Guardian é a forma como essas vagas são anunciadas. Muitas descrições são genéricas e não informam claramente o tipo de conteúdo a ser analisado. Em alguns casos, as tarefas mudam após a contratação, passando a incluir a moderação de material sexual explícito ou envolvendo abuso infantil, sem aviso prévio às trabalhadoras.

A reportagem também aponta a ausência de reconhecimento legal dos danos psicológicos nas leis trabalhistas indianas, o que dificulta o acesso a mecanismos formais de proteção. Entre as empresas ouvidas pelo jornal, apenas duas afirmaram oferecer apoio psicológico estruturado. As demais alegaram que o trabalho não exigiria esse tipo de cuidado.

Além disso, cláusulas rígidas de confidencialidade impedem que as trabalhadoras relatem suas experiências, inclusive a familiares. Segundo o The Guardian, o medo do desemprego e a falta de alternativas profissionais levam muitas dessas mulheres a permanecer na função, mesmo diante do sofrimento mental causado pela exposição contínua a conteúdos abusivos.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/The Yuri Arcurs Collection)

Julia Stoever

Publicado por
Julia Stoever
Tags: sindical

Veja Também

  • Notícias

Criminosos se passam por autoridades da Justiça do MA para aplicar golpes via WhatsApp

Tribunal de Justiça do Maranhão reforça que não pede pagamentos nem dados bancários por mensagens

16 horas atrás
  • Destaque

China testa ‘bolhas’ gigantes para reduzir impactos de obras urbanas

Estruturas infláveis em forma de bolha criam ambientes isolados e reduzem impactos no entorno das…

16 horas atrás
  • Destaque

Do pensamento à tela: os avanços da IA na leitura de mentes

Avanços recentes mostram como sistemas baseados em inteligência artificial já conseguem traduzir sinais cerebrais em…

16 horas atrás