Por Leticia Sangaletti
Jornalista e Dra. em Letras
No fim de dezembro e começo de janeiro, duas histórias fizeram o Brasil praticar exatamente isso: o exercício coletivo de acreditar por impulso. Duas histórias que fizeram o imaginário coletivo ferver.
Primeiro, Ofélia e Hamlet voltam ao palco em forma de música viral, “A Sina de Ofélia”, com a estética perfeita do nosso tempo: drama antigo, embalagem nova, e a sensação de que a voz “parece” ser de alguém bem conhecido. Depois, Brad Pitt desembarcou no Rio Grande do Sul, ao menos na internet, puxado pela correnteza de um caso que misturou promessa romântica, ilusão e a brutalidade cotidiana dos golpes.
Se pararmos para pensar, Ofélia é uma personagem que, na tradição, carrega um tipo de tragédia feminina muito específico: a tragédia de ser empurrada por narrativas alheias. Ela sofre porque os outros falam por ela, decidem por ela, desenham seu lugar no mundo e depois se espantam quando o mundo a engole. Ofélia vira símbolo não só da dor, mas de uma dor que é administrada por mãos externas, como se a vida dela fosse um corredor estreito onde não cabe escolha.
Quando a internet ressuscita Ofélia como tendência, ela faz algo curioso e muito contemporâneo: transforma uma tragédia em estética compartilhável. Ela pega o drama e o embala como trilha sonora, como “conteúdo”, como refrão para story. Não é necessariamente maldade. É o modo como a cultura digital metaboliza qualquer coisa: transforma em circulação.
Mas há um detalhe interessante: quando essa circulação depende de identidade simulada, quando a graça está em parecer a voz de alguém, quando a verossimilhança vira motor, a arte encosta num limite ético que não é “censura”, é cuidado: se tu precisas confundir para funcionar, talvez não esteja criando, talvez esteja falsificando.
Do outro lado, a mulher que acreditou que “casaria com Brad Pitt” também está dentro de um roteiro que não foi escrito por ela. Só que, aqui, o roteiro não é literatura. É golpe. É engenharia afetiva. É o romance pronto, embalado com promessas e com o prestígio de uma celebridade, como se a fama fosse carimbo de verdade.
E é aqui que as duas histórias se tocam com uma precisão desconfortável: Ofélia e a “noiva do Brad Pitt” são personagens atravessadas pela mesma máquina. A diferença é que, na tragédia clássica, a plateia sofre junto. No viral contemporâneo, a plateia transforma o sofrimento em entretenimento. Sem falar das empresas que usaram o tragicômico caso do Brad em suas redes sociais. Dá para usar meme em marketing, mas com um critério bem simples: se a piada depende de confundir alguém, humilhar alguém ou “se aproveitar” de uma pessoa vulnerável, o custo de reputação costuma ser maior que o alcance. No caso “Brad Pitt no RS” teve dois riscos extras: golpe/engano e identidade/voz simulada. Por isso eu não indiquei aos meus clientes, embora alguns quiseram publicar por conta.
A analogia entre Ofélia e a mulher que acreditou que casaria com Brad Pitt funciona quando se observa o ponto comum verificável: em ambos os casos, a história depende de uma narrativa pronta que captura expectativa e empurra a pessoa para uma conclusão sem lastro. No caso de Ofélia, a cultura costuma tratar a personagem como símbolo de vulnerabilidade feminina e de decisões tomadas por outros ao redor dela, o que facilita a apropriação da tragédia como estética. No caso do “Brad Pitt”, o golpe se apoia na reputação de celebridade para criar credibilidade falsa e para pressionar a vítima a manter o vínculo.
Essa comparação muda uma decisão prática quando ela desloca o foco do “como isso é ridículo” para “como isso se torna explorável”. O riso em cima do episódio reforça a exposição da vítima e normaliza o uso de simulação para enganar. Em ambiente eleitoral, a mesma lógica se aplica a deepfakes: o objetivo não precisa ser convencer todo mundo; basta manter o material circulando o suficiente para afetar uma parte do público.
Enfim, para pensarmos os limites éticos de IA sem cair em abstração, podemos seguir três critérios objetivos.
Critério 1: identidade. Se o conteúdo usa rosto, voz ou nome de uma pessoa para gerar uma fala ou ação que ela não fez, existe risco direto de dano reputacional e de fraude. Um exemplo típico é áudio “vazado” com voz semelhante a um candidato, ou vídeo com sincronia labial sugerindo uma declaração que nunca ocorreu. A decisão prática aqui é simples: não publicar nem encaminhar sem confirmação independente e sem origem verificável.
Critério 2: intenção de confundir. Se o material foi montado para ser interpretado como registro factual, ele entra no campo de manipulação, mesmo quando vem embalado como humor. Um exemplo é trecho recortado de entrevista com legenda alterada para mudar sentido, ou vídeo com marca visual de “jornal” sem ser veículo real. A implicação prática é tratar isso como desinformação até prova em contrário, o que inclui evitar “repost por indignação”.
Critério 3: previsibilidade do impacto. Se dá para prever que um conteúdo vai induzir erro em parte do público, o responsável por encaminhar participa do dano. Um exemplo recorrente é o “todo mundo está dizendo” baseado em prints sem fonte, que vira justificativa para ataque coordenado. A decisão prática é interromper a cadeia de encaminhamento e pedir fonte original antes de qualquer ação.
Claro que se tu caíste num conteúdo falso, existe reparo: apagar, corrigir, aprender. Errar é humano. Mas se tu sabes que é deep fake, que é fake news, que é manipulação, que é inadequado, que pode ferir alguém, confundir o debate público, bagunçar uma eleição, humilhar uma pessoa real, e mesmo assim compartilha, então a discussão saiu do campo da tecnologia faz tempo. Não é “só uma brincadeira”, é caráter. E, nesse caso, a palavra não precisa de filtro, legenda nem trilha: se tu sabes que é falso e compartilha mesmo assim, tu és mau caráter.
