Destaque

Deepfakes com famosos expõem falhas diante do avanço da IA

IA – Uma investigação da Bloomberg revelou que a Meta desenvolveu chatbots capazes de imitar celebridades como Taylor Swift, Scarlett Johansson, Anne Hathaway e Selena Gomez — incluindo a possibilidade de criação de conteúdos de caráter sexual sem autorização.

O caso trouxe novamente à tona a discussão sobre privacidade, exploração digital e os riscos da inteligência artificial (IA) quando utilizada sem consentimento. O tema não é novo. Desde 2017, quando vídeos pornográficos falsos com o rosto de Gal Gadot começaram a circular na internet, a indústria do entretenimento lida com casos de deepfakes envolvendo artistas.

LEIA: Como medir produtividade no home office? Empresas tentam descobrir

Ao longo dos anos, nomes como Scarlett Johansson, Jacob Elordi e Taylor Swift também tiveram imagens usadas de forma indevida em conteúdos explícitos. Uma vez online, porém, rastrear e remover esse material é quase impossível.

Nem apenas atores e cantores são alvo. Em 2024, um vídeo manipulado mostrou Ronaldo Nazário supostamente promovendo um aplicativo de jogos. A publicação, que imitava sua voz e imagem, só foi retirada após apelações — mas já havia alcançado cerca de 600 mil visualizações.

A música também não ficou de fora. Em 2023, a faixa Heart on My Sleeve, feita com vozes clonadas de Drake e The Weeknd, viralizou e forçou gravadoras a agir.

No mesmo período, músicos britânicos lançaram o projeto AISIS, recriando músicas inéditas no estilo do Oasis com voz sintética de Liam Gallagher. Embora o vocalista tenha reagido com ironia, o episódio reforçou o dilema entre criatividade e direitos autorais.

Riscos vão além da fama

O uso indevido de IA não se limita ao entretenimento. Deepfakes pornográficos, golpes com vozes clonadas para enganar fãs e manipulações políticas em períodos eleitorais são alguns dos cenários já registrados. Além de difamação e danos emocionais, há impactos financeiros e sociais, já que artistas e personalidades podem perder contratos e enfrentar batalhas judiciais para reparar prejuízos.

No Brasil, o direito à imagem e à privacidade está previsto na Constituição e no Código Civil, mas a legislação não foi pensada para o contexto digital atual. Processos judiciais podem ser abertos com base em difamação ou violação de imagem, mas a disseminação rápida desses conteúdos dificulta qualquer reparação efetiva.

Especialistas defendem a criação de normas específicas que estabeleçam limites e responsabilidades para o uso de vozes e imagens geradas por IA. Enquanto isso, outros países já avançam.

A União Europeia aprovou o AI Act, que cria regras de transparência e restrições para usos considerados de alto risco. Nos Estados Unidos, embora não exista uma lei federal, estados como Califórnia e Texas aprovaram normas contra deepfakes em contextos eleitorais e sexuais.

O desafio, porém, segue o mesmo em qualquer lugar: como equilibrar inovação e liberdade criativa sem abrir brechas para abusos que atingem não apenas famosos, mas também a sociedade como um todo.

(Com informações de Techtudo)
(Foto: Reprodução/Freepik/Fauzyart)

Pixel Desenvolvimento

Publicado por
Pixel Desenvolvimento
Tags: sindical

Veja Também

  • Destaque

IA desenvolvida na USP ganha prêmio internacional por proteção de dados

Modelo de linguagem garante privacidade de informações sigilosas e pode ser usado em computadores comuns,…

47 minutos atrás
  • Destaque

Judiciário aposta em IA para acelerar julgamento de milhões de processos

O desafio é gigantesco: são 91 tribunais de Justiça, com 18 mil magistrados encarregados de…

55 minutos atrás
  • Destaque

Físico brasileiro é premiado por relevância global em ciência e tecnologia

Reconhecido por seus estudos sobre os efeitos do ambiente em sistemas quânticos, Luiz Davidovich via…

3 horas atrás