Destaque

Brasil cobra ações imediatas do X contra geração de imagens sexualizadas pelo Grok

Grok – Nesta quarta-feira (11), o Ministério Público Federal (MPF), a Autoridade Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) afirmaram que as providências apresentadas pela plataforma X em relação ao uso do Grok, sua ferramenta de inteligência artificial, são insuficientes para conter a geração de imagens sexualizadas sem consentimento.

As três instituições já haviam recomendado, no mês passado, a adoção de mecanismos técnicos para identificar, revisar e remover conteúdos criados a partir de comandos feitos por usuários que resultassem em imagens íntimas de crianças, adolescentes ou adultos sem autorização. Em resposta, a empresa declarou ter apagado milhares de publicações e suspendido centenas de contas, além de anunciar medidas adicionais de segurança.

LEIA: Quando a autonomia dos agentes de IA se transforma em ameaça para os usuários

Segundo os órgãos, porém, as informações não vieram acompanhadas de dados técnicos, relatórios ou mecanismos que comprovassem a eficácia das ações. Testes preliminares realizados pelas equipes apontaram que as falhas persistem, permitindo a continuidade da produção e circulação de conteúdos considerados irregulares.

Diante desse cenário, MPF, ANPD e Senacon determinaram que o X implemente de forma imediata ferramentas capazes de bloquear a criação de imagens sexualizadas ou erotizadas envolvendo menores de idade e adultos que não tenham dado consentimento. A plataforma tem prazo para cumprir as exigências, sob pena de multa diária e possibilidade de medidas judiciais e investigatórias mais rigorosas.

No âmbito administrativo, cada órgão mantém procedimento próprio contra a empresa. A ANPD determinou que os mecanismos de prevenção devem abranger todas as versões e modalidades do Grok. Já o MPF exigiu o envio de relatórios mensais, a partir de fevereiro, detalhando a quantidade de conteúdos removidos, contas suspensas e as estratégias adotadas para coibir deepfakes e outras formas de manipulação de imagem.

A Senacon também solicitou comprovação das providências adotadas e a apresentação de relatório com dados verificáveis sobre identificação, moderação e remoção de conteúdos relacionados ao funcionamento da ferramenta, incluindo prazos médios de resposta e critérios técnicos utilizados.

As autoridades ainda apontaram falta de transparência na resposta inicial da empresa. Apurações jornalísticas identificaram que, mesmo após as notificações, conteúdos que simulam violência sexual e outras formas de abuso continuaram circulando na plataforma.

O Grok permite que usuários modifiquem imagens reais por meio de comandos simples, o que tem sido utilizado para gerar montagens de caráter íntimo sem autorização das pessoas retratadas. Organizações que monitoram o ambiente digital estimam que milhões de imagens desse tipo tenham sido produzidas em curto período.

(Com informações de Agência Brasil e Folha de S. Paulo)
(Foto: Reprodução/Freepik)

Pixel Desenvolvimento

Publicado por
Pixel Desenvolvimento
Tags: sindical

Veja Também

  • Destaque

Veja como aproveitar o Carnaval sem prejudicar a imagem profissional

Especialistas alertam que atitudes nas redes sociais e comportamentos fora do trabalho podem impactar reputação…

2 horas atrás
  • Destaque

Quando a autonomia dos agentes de IA se transforma em ameaça para os usuários

Falha em extensões de um assistente de IA expõe riscos profundos da automação avançada e…

3 horas atrás
  • Destaque

Consulta pública aponta necessidade de verificação de idade mais rígida na internet

Levantamento indica que país deve adotar sistemas de biometria e múltiplas camadas para impedir o…

3 horas atrás