Fazer pesquisa própria, analisar pormenores da imagem e recorrer a verificadores de factos especializados ajuda a perceber se pode ter sido gerada por IA.
No décimo Dia Internacional da Verificação de Factos, é uma boa altura para rever como identificar desinformação gerada por IA.
Este tipo de conteúdos está a surgir por todo o lado, desde a guerra entre os Estados Unidos e o Irão ao período que antecede as eleições na Hungria, passando até pelos feeds pessoais nas redes sociais.
Um estudo recente, publicado na revista científica PNAS Nexus, pediu a 27 mil pessoas de 27 países da UE que classificassem oito títulos noticiosos, alguns escritos por humanos e outros gerados por IA, consoante o grau de verosimilhança.
Quase metade das manchetes geradas por IA foi considerada “na maioria” ou “totalmente real”, face aos 44 por cento das escritas por humanos. Os inquiridos também se mostraram mais propensos a partilhar e a confiar numa notícia gerada por IA do que numa escrita por humanos, se soubessem que dizia respeito a um acontecimento real.
Ainda assim, disseram ser menos prováveis de partilhar uma notícia, fosse ela escrita por humanos ou por IA, se soubessem que era falsa.
As conclusões indicam que as pessoas não conseguem distinguir conteúdos produzidos por humanos de conteúdos gerados por IA, afirmam os investigadores.
Seguem-se algumas pistas para o conseguir fazer.
Procurar pistas visuais
Os primeiros vídeos produzidos com recurso a IA e divulgados online tinham sinais evidentes: pessoas com dedos a mais, vozes desalinhadas com o som ou objetos distorcidos.
Hoje esses sinais são menos frequentes, porque a tecnologia evoluiu, mas continua a valer a pena procurá-los.
Os utilizadores podem estar atentos a incoerências, como um carro que aparece num momento do vídeo e desaparece no seguinte.
Algumas imagens geradas por IA podem também parecer excessivamente polidas ou ter um brilho artificial, segundo a Global Investigative Journalism Network (GIJN).
A GIJN recomenda que, perante uma imagem potencialmente gerada por IA, as pessoas se questionem se a pessoa retratada não estará demasiado produzida, sobretudo tendo em conta o contexto (por exemplo, se parece pronta para uma sessão de revista apesar de estar numa zona de conflito). Sugere ainda analisar a qualidade da pele, para perceber se falta textura.
Investigar o conteúdo
Se uma imagem ou um vídeo parecer suspeito, existem formas de verificar se é autêntico.
Uma das formas é fazer uma pesquisa inversa de imagens: o utilizador tira uma captura de ecrã do vídeo, carrega-a na barra de pesquisa da Google e clica no ícone de câmara com a indicação "search for image".
Depois de carregar a imagem, a Google apresenta correspondências visuais para a mesma fotografia, o que permite identificar rapidamente quando foi publicada pela primeira vez.
O mesmo pode ser feito noutros motores de busca ou com ferramentas especializadas como o TinEye.
Os utilizadores podem também recorrer a soluções técnicas para rastrear as marcas de água ou os metadados de um conteúdo e perceber se a informação é fiável ou não, segundo a Comissão Europeia (fonte em inglês).
Por exemplo, as imagens geradas com a Gemini, a IA da Google, incluem uma ferramenta invisível de marcação digital chamada SynthID, que a própria aplicação consegue detetar.
Ouvir os especialistas
Os utilizadores podem ainda verificar se meios de comunicação, declarações de figuras públicas ou publicações nas redes sociais de especialistas em desinformação já desmentiram a imagem ou o vídeo que está a circular.
Na Europa existem organizações de verificação de factos, como a European Fact-Checking Standards Network (EFCSN), o European Digital Media Observatory (EDMO) e o EUvsDisinfo, gerido pelo Serviço Europeu para a Ação Externa (SEAE), que publicam tendências, estudos e desmentidos sobre várias formas de desinformação gerada por IA.
Estas fontes podem dispor de técnicas mais avançadas para identificar conteúdos gerados por IA ou de acesso a informação sobre a imagem que não está disponível para o público em geral.
Os utilizadores podem também verificar se a informação que estão a ver faz parte da Database of Known Fakes, uma base de dados (fonte em inglês) de verificações feitas por jornalistas, investigadores e verificadores profissionais de factos.
Recorrer à tecnologia
Existem algumas ferramentas de deteção de IA que podem ser usadas, mas a sua eficácia na identificação de conteúdos gerados por IA continua a ser discutida.
Entre estas ferramentas contam-se, por exemplo, o Winston AI, que deteta imagens geradas por IA, o TruthScan, que faz uma primeira avaliação sobre se uma imagem foi criada por IA, e o Originality AI, que verifica se um texto foi gerado por IA.
Outras ferramentas de criação com IA passaram a acrescentar marcas de água visíveis aos conteúdos que produzem.
Muitas vezes, porém, essas marcas são fáceis de remover ou de cortar, o que significa que a ausência de marca de água não prova que uma imagem é genuína.
Abrandar
Parar, respirar fundo e evitar partilhar de imediato algo que não é real.
Os intervenientes mal-intencionados contam muitas vezes com o facto de as pessoas deixarem que as emoções e convicções pré-existentes orientem a forma como reagem ao que veem.
Ler os comentários pode dar pistas sobre se a imagem que o utilizador está a ver é real ou não, porque outras pessoas podem ter reparado noutros detalhes que apontam para a utilização de IA.
Nem sempre é possível determinar se uma imagem foi gerada por IA, por isso importa manter a atenção à possibilidade de que possa não ser verdadeira.