Destaque

Sites que ‘tiram a roupa’ de pessoas com uso IA seguem ativos

IA – Apesar de serem ilegais, os sites que utilizam inteligência artificial (IA) para criar imagens falsas de nudez a partir de fotos reais seguem operando e em franca expansão — inclusive com suporte técnico indireto de grandes empresas do setor de tecnologia.

Essas plataformas, conhecidas como “nudificadoras”, permitem gerar montagens pornográficas não autorizadas com o uso de IA. Um levantamento conduzido pelo site Indicator revelou novos dados sobre o funcionamento desse tipo de serviço.

LEIA: Vote aqui no plebiscito contra a escala 6×1 e pela isenção até 5 mil

Os números impressionam: há dezenas de sites ativos, com lucros significativos, utilizando infraestrutura tecnológica fornecida por grandes companhias como Amazon, Google e Cloudflare — que, em tese, não apoiariam esse tipo de prática.

O mercado de imagens falsas geradas por IA

– A pesquisa analisou 85 sites que oferecem o serviço de retirada de roupas digitalmente em fotos, explorando a estrutura técnica e os modelos comerciais utilizados;
– Desses, 62 usam serviços de hospedagem ou distribuição de conteúdo de empresas como Amazon Web Services (AWS) e Cloudflare;
– Um total de 53 sites conta com integração ao sistema de login rápido do Google, utilizando links intermediários para burlar as regras e obter aprovação da ferramenta;
– Os sistemas de pagamento variam entre plataformas terceirizadas como Coinbase, PayPal e até o Telegram, permitindo transações por cartão de crédito e carteiras digitais;
– O estudo estimou uma receita combinada entre US$ 2,6 milhões (aproximadamente R$ 14 milhões) e US$ 18 milhões (cerca de R$ 100 milhões) apenas nos últimos seis meses;
– Os dez sites mais acessados dessa categoria recebem majoritariamente visitantes dos Estados Unidos. Também há grande volume de acessos de países como Índia, Brasil, México e Alemanha.

Em resposta à revista Wired, a Amazon Web Services afirmou que investiga denúncias sobre violações de suas políticas.

Já o Google declarou que suas equipes estão tomando medidas para apurar os casos e implementar soluções permanentes. A Cloudflare não respondeu aos questionamentos da reportagem.

Atividades ilegais e punições previstas

Sites e aplicativos que geram imagens falsas de nudez com uso de IA violam a lei e são classificados como ferramentas criminosas. Essas práticas podem ser utilizadas para fins como extorsão, humilhação das vítimas ou mesmo a criação de conteúdo envolvendo abuso sexual infantil.

Empresas como a Meta vêm tentando restringir a veiculação de anúncios desses serviços em plataformas como o Facebook. No entanto, alguns anúncios ainda conseguem ser aprovados e circulam nas redes sociais.

Embora ferramentas semelhantes existam desde 2019, a popularização dos modelos de IA recentes ampliou significativamente sua eficácia — o que levou empresas como OpenAI, Google e Microsoft a incluir bloqueios preventivos para impedir esse tipo de uso.

No Brasil, a legislação foi recentemente atualizada por meio de decreto do presidente Lula, elevando as penas para crimes de violência contra mulheres que envolvam uso de IA.

A divulgação de imagens do tipo “deepnude” também foi criminalizada pela Câmara dos Deputados, com previsão de pena de até seis anos de prisão e multa para quem produzir ou compartilhar esse tipo de conteúdo.

(Com informações de TecMundo)
(Foto: Reprodução/Freepik)

Caio Simidzu

Publicado por
Caio Simidzu
Tags: sindical

Veja Também

  • Destaque

ChatGPT erra em diagnósticos e pode oferecer riscos, alertam especialista

Apesar de prometer avanços e acertar em casos simples, ChatGPT erra em diagnósticos e pode…

11 horas atrás
  • Destaque

Câmara dá mais um passo para isentar IR até R$ 5 mil

Comissão aprovou texto que amplia a faixa de isenção e cria alíquota mínima para rendas…

11 horas atrás
  • Destaque

Brasileiro que criou IA que fala vai desenvolver ‘superinteligência’

Rafael Valle ajudou a criar tecnologia capaz de imitar vozes com apenas três segundos de…

13 horas atrás