Imagens carregadas em chatbots de IA podem ser guardadas por tempo indeterminado e, em mãos erradas, facilitar usurpação de identidade, burlas e perfis falsos nas redes sociais
A tendência das caricaturas criadas por inteligência artificial (IA), que exibem numa imagem colorida tudo o que um chatbot sabe sobre alguém, pode representar sérios riscos de segurança, alertam especialistas em cibersegurança.
Os utilizadores carregam uma fotografia sua, muitas vezes com o logótipo da empresa ou detalhes sobre a sua função, e pedem ao ChatGPT da OpenAI que crie uma caricatura deles e do seu trabalho com base no que o chatbot sabe.
Especialistas em cibersegurança disseram à Euronews Next que desafios nas redes sociais, como estas caricaturas de IA, podem oferecer aos burlões um verdadeiro tesouro de informação valiosa. Uma única imagem, combinada com dados pessoais, pode revelar muito mais do que os utilizadores imaginam.
“Estão a fazer o trabalho dos burlões por eles, ao darem-lhes uma representação visual de quem são”, afirmou Bob Long, vice-presidente da empresa de verificação de idade Daon.
A própria formulação do desafio já devia levantar alertas, argumentou, porque “soa a algo lançado intencionalmente por um burlão que quer facilitar o seu trabalho”.
O que acontece às imagens depois de serem carregadas?
Quando um utilizador carrega uma imagem num chatbot de IA, o sistema processa-a para extrair dados, como a emoção da pessoa, o ambiente ou informações que possam revelar a sua localização, explica o consultor de cibersegurança Jake Moore. Esses dados podem depois ser armazenados durante um período de tempo indeterminado.
Long afirmou que as imagens recolhidas aos utilizadores podem ser usadas e conservadas para treinar geradores de imagem por IA, integrando os respetivos conjuntos de dados.
Uma violação de dados numa empresa como a OpenAI pode fazer com que informação sensível, como imagens carregadas e dados pessoais recolhidos pelo chatbot, caia nas mãos de agentes mal-intencionados que a possam explorar.
Nas mãos erradas, uma única imagem de alta resolução pode servir para criar contas falsas nas redes sociais ou deepfakes realistas gerados por IA que possam ser usados em esquemas de burla, alerta Charlotte Wilson, responsável pela área empresarial da Check Point, empresa israelita de cibersegurança.
“As selfies ajudam os criminosos a passar de esquemas genéricos para fraudes personalizadas, com impersonações muito mais convincentes”, afirmou.
As definições de privacidade da OpenAI indicam que as imagens carregadas podem ser usadas para melhorar o modelo, o que pode incluir o seu treino. Questionado sobre estas definições, o ChatGPT esclareceu que isso não significa que cada fotografia seja colocada numa base de dados pública.
Em vez disso, o chatbot afirmou que utiliza padrões retirados do conteúdo dos utilizadores para aperfeiçoar a forma como o sistema gera imagens.
Como participar nas tendências de IA
Para quem quiser mesmo seguir a tendência, os especialistas recomendam limitar ao máximo o que partilha.
Wilson defende que os utilizadores devem evitar carregar imagens que revelem qualquer dado identificável.
“Corte a imagem o mais possível, mantenha o fundo simples e não inclua crachás, fardas, porta-crachás de trabalho, pistas sobre a localização ou qualquer elemento que o associe a um empregador ou a uma rotina”, aconselhou.
Wilson alertou também para o perigo de incluir demasiada informação pessoal nos pedidos ao chatbot, como o cargo, a cidade ou o empregador.
Já Moore aconselha a rever as definições de privacidade antes de participar, incluindo a opção de excluir os dados do treino da IA.
A OpenAI dispõe de um portal de privacidade que permite aos utilizadores recusarem o uso dos seus dados no treino da IA, bastando clicar em “do not train on my content”.
Os utilizadores podem ainda impedir que as conversas de texto com o ChatGPT sejam usadas para treino, desativando a opção “improve the model for everyone”.
Ao abrigo da legislação da UE, os utilizadores podem pedir a eliminação dos dados pessoais recolhidos pela empresa. No entanto, a OpenAI assinala que poderá reter alguma informação mesmo depois de apagada, para responder a preocupações de fraude, abuso e segurança.