A aprovação da Brooke’s Law, agora em efeito em todo o Estado da Flórida, sintetiza uma inflexão importante no debate público norte-americano sobre Inteligência Artificial: diante de uma tecnologia que barateou a manipulação hiper-realista de imagens, áudios e vídeos, a Flórida adotou um regime de remoção acelerada e responsabilização de plataformas para conter danos, em especial os de teor sexual. A lei, patrocinada no Capitol estadual como HB 1161, obriga sites e aplicativos a criarem um procedimento para que vítimas notifiquem deep fakes e exijam retirada; com a comprovação, a plataforma tem 48 horas para remover o material. O desenho regulatório consta em análises legislativas e notas de implementação publicadas ao longo de 2025, com vigência plena a partir do fechamento do ano, e foi reforçado por comunicados da imprensa local em 30 de setembro detalhando o pacote de normas que entrou em vigor em 1º de outubro.
Nesse sentido, a Flórida se junta a um mosaico de iniciativas estaduais e federais que, embora ainda fragmentado, já indica uma direção: rotular, coibir e remover o que é enganoso; acelerar vias de reparação; e pressionar plataformas por transparência. Em paralelo, órgãos federais avançaram por via infralegal: a FTC ampliou instrumentos para combater impersonation fraud, inclusive quando mediada por IA, e abriu processo para estender a regra a casos de imitação de indivíduos em sentido amplo; a agência sustenta que a tutela deve alcançar não só golpistas, mas também provedores que facilitem práticas de personificação enganosa. A norma de impersonação do governo e de empresas entrou em vigor em abril de 2024; a expansão para pessoas físicas está em consulta.
Do lado das plataformas, houve movimento coordenado: Meta passou a rotular conteúdos manipulados ou gerados por IA em vídeo, áudio e imagem quando detectar marcadores técnicos ou quando houver declaração do usuário; além disso, exige disclosure explícito em anúncios políticos que usem IA, uma diretriz anunciada ainda no ciclo eleitoral de 2024 e reafirmada em 2025. O YouTube e o Google seguiram trilha semelhante, tanto para anúncios eleitorais (com a obrigatoriedade de aviso) quanto para conteúdo orgânico “realista” com mídia sintética, com ferramentas de auto-declaração e rótulos visíveis ao público. A Federal Communications Comission, por sua vez, abriu uma notificação de proposta de regulamentação (NPRM) propondo rótulos obrigatórios em propaganda política no rádio e na TV. Em suma, formou-se um tripé: leis estaduais, enforcement federal e autorregulação assistida.
Por que isso importa às eleições de 2026?
O ano de 2025 demonstrou, de maneira inequívoca, que a linha entre sátira, propaganda agressiva e fraude informacional ficou tênue. A robocall que imitou a voz de Joe Biden na primária de New Hampshire, em janeiro de 2024, instruindo eleitores a não votarem, tornou-se o exemplo de como áudio sintético pode atravessar sistemas eleitorais ancorados em confiança mínima. Houve investigação no estado, alertas de procuradorias e discussões sobre rastreabilidade de chamadas. Em 2025, multiplicaram-se alertas oficiais: da ministra das Finanças da Índia, Nirmala Sitharaman, denunciando deep fakes com a sua imagem e voz, ao Election Commission advertindo partidos no estado de Bihar contra uso político de IA, sinalizando um padrão de preocupação institucional recorrente. No plano cultural, o episódio de imagens falsas de nudez de Taylor Swift circulando massivamente em 2024 impulsionou pedidos por respostas mais duras de plataformas e legisladores, reforçando a percepção de que o problema extrapola a política e reconfigura normas sociais de privacidade e assédio.
No Brasil, o TSE consolidou em 2024 um conjunto de regras inovadoras: proibição de deep fakes na propaganda, obrigatoriedade de rótulos sempre que houver uso de IA e instrumentos de takedown acelerado durante o período eleitoral. O laboratório do Atlantic Council documentou que, apesar das regras, dezenas de ocorrências surgiram em eleições locais de 2024 — desde sátiras plausíveis a peças de desinformação —, o que serviu de teste para a arquitetura normativa que deverá reger 2026. Em 2025, o debate acirrou-se no Congresso sobre os limites de atuação do TSE no combate à desinformação, indicando que o arranjo regulatório estará em disputa até a véspera do próximo pleito.
É importante destacar que “deep fake eleitoral” não é uma categoria única. Há, ao menos, três camadas que se retroalimentam. A primeira é a criação de um conteúdo sintético enganoso que imita a identidade de candidatos e autoridades (voz, rosto, gestos e fala); o segundo são simulações contextualizadas, ou seja, situações que nunca aconteceram; e, em terceiro, interferências em escala por meio de robocalls, bots e microsegmentação de anúncios que plantam versões divergentes de um mesmo evento. O ciclo de vida da peça é rápido: cria-se os deep fakes, injeta-se em canais de alta confiança (grupos fechados, lista de transmissão), replica-se e assim, o estrago reputacional acontece antes que rótulos, verificações independentes ou derrubadas surtam efeito, um caso em que a agilidade da tecnologia supera o tempo da regulação.
No plano econômico-político, a relevância para o eleitor brasileiro é concreta. O que esperar, então, para 2026? Três vetores devem orientar a próxima rodada de políticas públicas e práticas privadas:
- Arquitetura de resposta rápida. As leis estaduais como a Brooke’s Law e as resoluções do TSE caminham para prazos rígidos de remoção do conteúdo e auditoria nas plataformas. Em tese, esse desenho melhora o tempo de contenção; todavia, na prática ele dependerá da capacidade técnica de detecção e, evidentemente, da cooperação entre empresas, imprensa e autoridades eleitorais.
- Transparência algorítmica e rotulagem. A expansão de rótulos (“AI info”, “altered or synthetic”) e de painéis de contexto tende a se consolidar, inclusive com as regulamentações e guidelines. O desafio, contudo, reside justamente em equilibrar liberdade de expressão, sátira e interesse público, sem transformar o rótulo em selo de autenticidade (o que ele não é).
- Responsabilização das plataformas de deep fake. A pauta do Federal Trade Comission (FTC) antevê um deslocamento: não apenas punir o usuário mal-intencionado, mas também induzir mais cuidado em provedores e intermediários de distribuição de IA quando houver facilitação de impersonação.
Por fim, é importante destacar um ponto pedagógico para 2026: alfabetização midiática não é detalhe periférico, mas essencial. O eleitor contemporâneo precisa reconhecer sinais de deepfake (inconsistências de iluminação, latência fora de sincronia em áudio, glitches de mãos/olhos), desconfiar de conteúdos “perfeitos demais”, buscar fontes primárias e compreender o sentido de um rótulo de IA. As plataformas podem ajudar, seja com marcas d’água ou metadados, mas a responsabilidade de checagem é do próprio eleitor.
Certamente temos alguns avanços: A Flórida abriu uma frente com a Brooke’s Law; o sistema federal ensaia passos por FTC e FCC; plataformas avançam em rótulos e verificações; e o Brasil chega a 2026 com uma moldura regulatória eleitoral já testada, embora politicamente contestada. Entre o ideal e a prática, persistirá uma lacuna que só deixará de existir com coordenação interinstitucional, capacidade técnica e pressão pública por transparência. Até lá, a melhor defesa do eleitor continua sendo dupla: um ecossistema que responda rápido às mentiras da internet e um ceticismo próprio do cidadão que resista à manipulação.
Emanuel Farias é formado em Relações Internacionais e atua na área de marketing internacional e produção de conteúdo digital. Já trabalhou com tradução, atendimento internacional e branding, com foco em comunicação intercultural e posicionamento estratégico.
