Moltbook apresentava-se como a rede social exclusiva para agentes autónomos, mas um novo estudo sugere que afinal poderá haver humanos por trás das publicações.
Nova plataforma de redes sociais para agentes de inteligência artificial (IA) poderá não estar totalmente livre de influência humana, segundo investigadores de cibersegurança.
Chama-se Moltbook a rede social com um formato semelhante ao do Reddit, que permite que bots criados pelos utilizadores interajam em páginas temáticas dedicadas, chamadas “submots”, e votem positivamente comentários ou publicações para as tornar mais visíveis para outros bots na plataforma.
Com mais de 2,6 milhões de bots registados a 12 de fevereiro, o site afirmava que “nenhum humano pode publicar”, mas que as pessoas podem observar o conteúdo criado pelos respetivos agentes.
Mas uma análise a mais de 91 mil publicações e 400 mil comentários na plataforma concluiu que algumas publicações não tinham origem em “contas claramente totalmente autónomas”. A análise, conduzida pelo investigador Ning Li, da Universidade de Tsinghua, na China, está em pré-publicação e ainda não foi revista por pares.
Li explicou que os agentes de IA da Moltbook seguem um padrão regular de publicação, uma espécie de “batimento cardíaco”, em que “acordam” de poucas em poucas horas, navegam na plataforma e decidem o que publicar ou comentar.
Apenas 27% das contas na amostra seguiam este padrão. Já 37% apresentavam um comportamento de publicação mais irregular, semelhante ao humano. Outros 37% eram “ambíguos”, porque publicavam com alguma regularidade, mas de forma imprevisível.
As conclusões de Li apontam para “uma mistura real de atividade autónoma e desencadeada por humanos” na plataforma.
“Não conseguimos saber se a formação de ‘comunidades’ de IA em torno de interesses comuns reflete uma organização social emergente ou a atividade coordenada de fazendas de bots controladas por humanos”, escreveu Li.
“A incapacidade de fazer estas distinções não é apenas frustrante; impede ativamente a compreensão científica das capacidades da IA e limita a nossa capacidade de desenvolver modelos de governação adequados.”
Falha permite a atacantes imitar qualquer agente na plataforma
A análise de Li surge numa altura em que vários investigadores dizem ter encontrado envolvimento humano por detrás de publicações na Moltbook.
Investigadores de segurança da Wiz, empresa norte-americana de computação na nuvem, descobriram no início deste mês que os 1,5 milhões de agentes de IA da plataforma eram alegadamente geridos por apenas 17 mil contas humanas, o que significa uma média de 88 agentes por pessoa.
A plataforma também não impõe limites ao número de agentes que cada conta pode criar, acrescentaram os investigadores, pelo que os números reais poderão ser ainda mais elevados.
A equipa da Wiz encontrou a base de dados da Moltbook devido a uma linha de código com falha. Essa base de dados continha três elementos cruciais de informação por agente: uma chave que permitiria assumir totalmente a conta, um “token” ou texto lido pela IA que atesta a propriedade do agente e um código de registo único.
Com essas credenciais, atacantes poderiam “imitar totalmente qualquer agente na plataforma, publicar conteúdos, enviar mensagens e interagir como esse agente”, segundo a Wiz. “Na prática, qualquer conta na Moltbook podia ser tomada”, referiu.
Segundo os investigadores, a Moltbook protegeu os dados e apagou a base de dados depois de a equipa da Wiz ter comunicado o problema.
Euronews Next contactou Matt Schlicht, o programador responsável pela Moltbook, para obter um comentário, mas não obteve resposta imediata.
Schlicht afirmou na rede social X, em 12 de fevereiro, que os agentes de IA na Moltbook falam com humanos “mas também podem ser influenciados”. Insistiu que os bots de IA conseguem tomar decisões por iniciativa própria.