Laboratórios acadêmicos no Brasil têm desenvolvido tecnologias capazes de identificar vídeos, imagens e textos manipulados, diante do crescimento acelerado de conteúdos falsos impulsionados por inteligência artificial.
Em março, um vídeo que supostamente mostrava a explosão de uma bomba no porto de Haifa, em Israel, chegou ao Laboratório de Inteligência Artificial da Universidade Estadual de Campinas (Unicamp), o Recod.ai. O material foi enviado por jornalistas da Agence France-Presse (AFP), que buscavam apoio para verificar se as imagens eram autênticas. O pedido foi intermediado pela Witness, entidade internacional que atua na produção e validação de conteúdos audiovisuais voltados à defesa de direitos humanos.
A análise ficou a cargo do cientista da computação Mateus de Padua Vicente, doutorando da Unicamp, que utilizou diferentes ferramentas para examinar o vídeo. O resultado indicou que o conteúdo provavelmente era falso. Segundo o pesquisador, alguns quadros apresentavam sinais típicos de manipulação, como fumaça excessivamente uniforme, falta de textura, prédios desfocados ao fundo e inconsistências na iluminação em relação à posição do sol. Além disso, o momento da explosão aparecia borrado de forma incomum. Atualmente, a ferramenta utilizada permite apenas a análise de imagens estáticas, o que exige a verificação quadro a quadro. Vicente destaca que situações reais como essa funcionam como um “laboratório vivo”, revelando limitações que não aparecem em bases de dados tradicionais e contribuindo para aprimorar as tecnologias.
O Recod.ai integra um conjunto de laboratórios brasileiros dedicados ao desenvolvimento de soluções para detectar conteúdos falsos em diferentes áreas, como política e saúde. De acordo com o coordenador do grupo, o cientista da computação Anderson Rocha, apenas nos primeiros meses do ano cerca de 10 vídeos foram analisados em parceria com a Witness. Em todo o ano anterior, o número havia sido de 20 casos. O aumento acompanha uma tendência observada por relatórios da Agência Lupa, que apontam crescimento expressivo na produção de conteúdos falsos gerados por inteligência artificial, passando a representar uma parcela significativa das verificações no país.
Entre os projetos desenvolvidos pela equipe da Unicamp está o Horus, apoiado pela Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), que busca criar métodos para identificar imagens sintéticas. Uma das ferramentas é o FakeScope, desenvolvido em parceria com pesquisadores chineses, capaz não apenas de classificar imagens como falsas, mas também de indicar os elementos visuais que denunciam a manipulação, como falhas em luz, textura e bordas.
Outro modelo, chamado Pixel-Inconsistency, analisa irregularidades nos pixels de imagens e vídeos. Foi essa ferramenta que detectou inconsistências na fumaça do vídeo relacionado a Israel. Já o Deepfake Detection System utiliza biometria facial para identificar alterações em vídeos de figuras públicas. Em um dos casos analisados, um vídeo atribuía ao presidente do Líbano, Joseph Aoun, declarações sobre criminalizar o grupo Hezbollah. A análise mostrou que o material era falso, apontando falhas como movimentos faciais artificiais, mudanças em objetos e distorções no cenário.
Além do enfrentamento à desinformação política, o laboratório também atua no campo da saúde. No projeto Aletheia, financiado pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e pelo Ministério da Saúde, pesquisadores mapearam 119 grupos públicos no aplicativo Telegram que disseminavam conteúdos antivacina entre 2020 e 2025. O levantamento reuniu cerca de 4 milhões de publicações e identificou uma migração de usuários de plataformas mais monitoradas, como o WhatsApp, para ambientes com menor controle.
Os dados coletados foram organizados em um banco público disponível para pesquisadores interessados em estudar a circulação de desinformação. A equipe também desenvolveu uma classificação com 17 categorias de discursos enganosos em saúde, com o objetivo de treinar sistemas de inteligência artificial em português capazes de identificar automaticamente esse tipo de conteúdo.
Outras iniciativas acadêmicas também têm buscado soluções práticas. Na Universidade de São Paulo (USP), em São Carlos, estudantes criaram um sistema para o WhatsApp que permite verificar mensagens suspeitas de forma automatizada. O usuário encaminha o conteúdo para um número específico, e o sistema analisa textos, áudios, vídeos ou links com base em fontes confiáveis. A ferramenta utiliza modelos de linguagem como o Gemini e o GPT, priorizando informações de agências de checagem.
O projeto surgiu durante uma maratona de programação na USP e foi selecionado por um programa internacional promovido pelo Massachusetts Institute of Technology (MIT) e pela Harvard University. Após a análise, as mensagens são anonimizadas e incorporadas a uma base de dados pública para uso em pesquisas futuras.
Na Universidade Federal de São Carlos (UFSCar), pesquisadores desenvolveram um modelo que identifica fake news a partir apenas de exemplos de conteúdos falsos. Diferente dos métodos tradicionais, que dependem de grandes volumes de dados rotulados, o sistema aprende a reconhecer padrões característicos da desinformação com menos informação disponível. O modelo transforma textos em representações gráficas para detectar relações e estruturas típicas de notícias falsas.
Embora ainda não tenha sido lançado como software completo, o projeto está disponível na plataforma GitHub e pode ser utilizado por profissionais com conhecimento básico em programação. Segundo os pesquisadores, a tecnologia também pode ser aplicada em outras áreas com escassez de dados, ajudando a identificar padrões e conexões relevantes.
Com o avanço dessas iniciativas, universidades brasileiras têm se consolidado como centros estratégicos no desenvolvimento de soluções para enfrentar a desinformação, um problema que cresce em escala e complexidade com o uso cada vez mais sofisticado da inteligência artificial.
