
José Estêvão de Melo
Engenheiro Informático
Já se tornou banal dizer que vivemos numa era de Inteligência Artificial, mas raramente se fala do facto de estarmos também a habitar uma realidade sintética. Deepfakes, vozes clonadas e vídeos fabricados deixaram de ser curiosidades laboratoriais para passar a redefinir aquilo que consideramos evidência. Nas redes sociais, e fora delas, a máxima de “ver para crer” começa a perder significado. Não porque deixámos de ver, mas porque deixámos de saber o que significa realmente ver.
A série Missão Impossível celebrizou o uso de máscaras e sintetizadores de voz para enganar adversários e obter informação crítica. Na ficção, era tecnologia de ponta, acessível apenas a equipas de elite com recursos quase ilimitados. Hoje, um adolescente consegue um efeito semelhante a partir do quarto, usando aplicações gratuitas num telemóvel. Aquilo que antes era ficção com orçamentos milionários tornou-se funcionalidade banal e, como acontece frequentemente com a tecnologia, o verdadeiro impacto não está na novidade, mas na sua banalização.
Durante décadas, a nossa confiança em imagens e sons não resultava de uma certeza absoluta, mas de uma barreira prática: falsificar com qualidade exigia tanto esforço, tempo e conhecimento que a maioria das pessoas nem tentava. Essa barreira desapareceu. A evolução recente da IA não tornou a manipulação apenas possível; tornou-a trivial. Quando o custo de criar algo plausível se aproxima de zero, a autenticidade deixa de ser o padrão dominante e passa a ser apenas uma hipótese entre muitas.
O perigo mais imediato está na exploração dos nossos mecanismos emocionais. Já existem casos reais de esquemas de extorsão que utilizam vozes clonadas de filhos ou familiares em situações de emergência. Ao contrário das fraudes tradicionais, facilmente identificáveis por erros ou inconsistências, estas novas abordagens são eficazes porque exploram aquilo que o cérebro humano faz melhor: reconhecer padrões familiares. Reagimos primeiro e avaliamos depois. A tecnologia não inventou a engenharia social; apenas lhe deu uma máscara mais convincente e reduziu o tempo necessário entre o engano e a decisão.
Tal como nas missões de Ethan Hunt, o objetivo não é criar uma cópia perfeita para sempre, mas uma simulação suficientemente convincente durante o tempo necessário para provocar uma decisão. A perfeição nunca foi necessária; basta ser plausível. Na ficção, o espectador sabe que existe um truque. Na realidade, a simples possibilidade do truque começa a dissolver a confiança no sistema, porque deixa de existir uma forma simples de distinguir entre erro e manipulação.
Este é talvez o impacto mais profundo da realidade sintética: não apenas a proliferação de conteúdos falsos, mas a erosão do valor probatório dos conteúdos verdadeiros. Quando qualquer vídeo pode ser fabricado, deixa de ser necessário provar que algo é falso; basta levantar a dúvida. A verificação torna-se lenta e dispendiosa, enquanto a criação é instantânea. A assimetria não está apenas na tecnologia, está no facto de a dúvida exigir menos esforço do que a prova.
O efeito psicológico é um ceticismo crescente. O risco não é apenas passarmos a acreditar em mentiras; é deixarmos de acreditar em qualquer coisa. E quando nada parece fiável, cada pessoa tende a escolher a versão da realidade que melhor confirma aquilo em que já acredita. Paradoxalmente, quanto mais evidência temos disponível, mais fácil se torna ignorá-la.
Talvez seja essa a verdadeira ironia do nosso admirável mundo novo: não estamos a perder a capacidade de criar realidade, estamos a perder a confiança naquilo que antes considerávamos real. Quando a plausibilidade substitui a autenticidade, o perigo deixa de ser a mentira em si. O verdadeiro perigo é deixar de importar se algo é, de facto, verdadeiro.
Comentários
Muito boa reflexão. Obrigado.