IA nas eleições – O crescimento acelerado da desinformação política impulsionada por inteligência artificial levou o Tribunal Superior Eleitoral (TSE) a reforçar as regras para propaganda digital nas eleições gerais de 2026. A iniciativa busca conter o uso dessas tecnologias no processo eleitoral diante do aumento significativo de conteúdos manipulados.
Ao todo, foram publicadas 14 resoluções que ampliam as normas introduzidas em 2024, quando a Corte proibiu deepfakes, determinou a rotulagem de conteúdos sintéticos e vedou a criação de “candidatos virtuais”. Agora, o tribunal avança sobre novas frentes, com restrições temporais, maior responsabilização das plataformas digitais e limitações diretas ao uso de sistemas de inteligência artificial.
LEIA: Nova proposta trabalhista prevê 8h diárias e até 40h semanais
Entre as medidas, destaca-se a chamada “lei seca da IA”. Pelas novas regras, fica proibida a publicação, republicação ou impulsionamento de conteúdos gerados ou manipulados por inteligência artificial que utilizem imagem, voz ou manifestações de candidatos, mesmo que devidamente identificados, nas 72 horas anteriores e nas 24 horas posteriores ao pleito.
As resoluções também estabelecem que sistemas de IA não poderão recomendar, ranquear ou priorizar candidatos, partidos ou campanhas, ainda que a solicitação parta do próprio usuário. A restrição se aplica a diferentes ferramentas digitais, incluindo mecanismos de busca, chatbots e assistentes virtuais.
Outro ponto central das medidas é o endurecimento da responsabilização das plataformas digitais. As empresas passam a ser obrigadas a remover conteúdos ilegais e suas replicações sem necessidade de nova ordem judicial, desde que tenham sido previamente notificadas. Além disso, foi instituído um plano de conformidade obrigatório, que exige metas, indicadores e ações concretas de prevenção durante o período eleitoral.
Apesar do avanço regulatório, especialistas apontam que os desafios são proporcionais à complexidade do cenário. A Coalizão Direitos na Rede (CDR) avalia que o Brasil entra no primeiro ciclo eleitoral nacional sob regras específicas para inteligência artificial em meio a uma rápida escalada da desinformação.
Dados do Observatório Lupa mostram que a disseminação de conteúdos falsos criados com IA cresceu 308% entre 2024 e 2025, passando de 39 para 159 casos identificados. Além do aumento no volume, houve mudança no perfil dessas práticas: se antes a tecnologia era mais utilizada em golpes financeiros, agora passou a ser aplicada principalmente à desinformação política.
O levantamento indica ainda que cerca de 45% dos conteúdos analisados tinham viés ideológico, enquanto mais de 75% exploravam imagem ou voz de figuras públicas, atingindo nomes como o presidente Luiz Inácio Lula da Silva, o ex-presidente Jair Bolsonaro e o ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes.
Para a Coalizão, o principal desafio não está apenas na criação das regras, mas na capacidade de aplicá-las em um ambiente digital marcado por grande volume de informações, alta velocidade e facilidade de replicação. A entidade alerta que a obrigação de remoção rápida pode enfrentar limitações técnicas e gerar riscos de exclusão indevida de conteúdos legítimos, como sátiras e materiais jornalísticos.
“As eleições de 2026 representarão um teste institucional decisivo: mais do que atualizar regras, será necessário demonstrar capacidade de fiscalização, resposta rápida e cooperação entre autoridades públicas, plataformas digitais e sociedade civil para proteger a integridade do debate democrático. O primeiro turno das eleições está marcado para 4 de outubro e deve consolidar o maior laboratório eleitoral já enfrentado pelo país em relação ao impacto da inteligência artificial sobre a democracia”, diz, em nota, a entidade que reúne mais de 40 organizações de direitos digitais no país.
Outro ponto de atenção envolve o uso de dados pessoais em campanhas eleitorais. A Coalizão destaca que práticas como disparos em massa por aplicativos de mensagens seguem como um risco estrutural, sobretudo quando baseadas em bancos de dados obtidos sem consentimento. Nesse contexto, a efetividade das regras dependerá da articulação com a Lei Geral de Proteção de Dados Pessoais (LGPD), especialmente no que diz respeito à transparência e à responsabilização no uso dessas informações.
Além disso, especialistas alertam para o possível deslocamento das estratégias de desinformação para ambientes menos visíveis, como grupos fechados e redes paralelas, onde o monitoramento é mais difícil e limitado.
(Com informações de Convergência Digital)
(Foto: Reprodução/Freepik/Ruangrit19)