brasil-acoes-x-contra-imagens-sexualizadas-grok
Grok – Nesta quarta-feira (11), o Ministério Público Federal (MPF), a Autoridade Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) afirmaram que as providências apresentadas pela plataforma X em relação ao uso do Grok, sua ferramenta de inteligência artificial, são insuficientes para conter a geração de imagens sexualizadas sem consentimento.
As três instituições já haviam recomendado, no mês passado, a adoção de mecanismos técnicos para identificar, revisar e remover conteúdos criados a partir de comandos feitos por usuários que resultassem em imagens íntimas de crianças, adolescentes ou adultos sem autorização. Em resposta, a empresa declarou ter apagado milhares de publicações e suspendido centenas de contas, além de anunciar medidas adicionais de segurança.
LEIA: Quando a autonomia dos agentes de IA se transforma em ameaça para os usuários
Segundo os órgãos, porém, as informações não vieram acompanhadas de dados técnicos, relatórios ou mecanismos que comprovassem a eficácia das ações. Testes preliminares realizados pelas equipes apontaram que as falhas persistem, permitindo a continuidade da produção e circulação de conteúdos considerados irregulares.
Diante desse cenário, MPF, ANPD e Senacon determinaram que o X implemente de forma imediata ferramentas capazes de bloquear a criação de imagens sexualizadas ou erotizadas envolvendo menores de idade e adultos que não tenham dado consentimento. A plataforma tem prazo para cumprir as exigências, sob pena de multa diária e possibilidade de medidas judiciais e investigatórias mais rigorosas.
No âmbito administrativo, cada órgão mantém procedimento próprio contra a empresa. A ANPD determinou que os mecanismos de prevenção devem abranger todas as versões e modalidades do Grok. Já o MPF exigiu o envio de relatórios mensais, a partir de fevereiro, detalhando a quantidade de conteúdos removidos, contas suspensas e as estratégias adotadas para coibir deepfakes e outras formas de manipulação de imagem.
A Senacon também solicitou comprovação das providências adotadas e a apresentação de relatório com dados verificáveis sobre identificação, moderação e remoção de conteúdos relacionados ao funcionamento da ferramenta, incluindo prazos médios de resposta e critérios técnicos utilizados.
As autoridades ainda apontaram falta de transparência na resposta inicial da empresa. Apurações jornalísticas identificaram que, mesmo após as notificações, conteúdos que simulam violência sexual e outras formas de abuso continuaram circulando na plataforma.
O Grok permite que usuários modifiquem imagens reais por meio de comandos simples, o que tem sido utilizado para gerar montagens de caráter íntimo sem autorização das pessoas retratadas. Organizações que monitoram o ambiente digital estimam que milhões de imagens desse tipo tenham sido produzidas em curto período.
(Com informações de Agência Brasil e Folha de S. Paulo)
(Foto: Reprodução/Freepik)
Especialistas alertam que atitudes nas redes sociais e comportamentos fora do trabalho podem impactar reputação…
Falha em extensões de um assistente de IA expõe riscos profundos da automação avançada e…
Levantamento indica que país deve adotar sistemas de biometria e múltiplas camadas para impedir o…