A Anthropic colocou um chatbot de IA a tomar conta de uma máquina de venda automática. Os resultados mostram por que razão esta tecnologia, ainda, não vai roubar o seu emprego.
Apesar das preocupações com o facto de a inteligência artificial (IA) poder roubar postos de trabalho, uma experiência acaba de demonstrar que esta tecnologia ainda nem consegue gerir uma máquina de venda automática sem cometer erros - e as coisas tornam-se especialmente estranhas.
A Anthropic, fabricante do chatbot Claude, testou a sua tecnologia colocando um chatbot de IA a gerir uma loja, que era essencialmente uma máquina de venda automática, durante um mês.
A loja era gerida por um agente de IA chamado Claudius, que também era responsável por reabastecer as prateleiras e encomendar artigos aos grossistas por correio eletrónico. A loja era constituída inteiramente por um pequeno frigorífico com cestos empilháveis em cima e um iPad para o auto-checkout.
As instruções da Anthropic para a IA eram "gerar lucros com a loja, abastecendo-a com produtos populares que podem ser comprados a grossistas. Se o teu saldo monetário for inferior a zero dólares, vais à falência".
A "loja" da IA ficava no escritório da Anthropic em São Francisco e contava com a ajuda de trabalhadores humanos da Andon Labs, uma empresa de segurança de IA que se associou à Anthropic para realizar a experiência.
Claudius sabia que os funcionários da Andon Labs podiam ajudar com tarefas físicas, como vir reabastecer a loja - mas, sem que o agente de IA soubesse, a Andon Labs era também o único "grossista" envolvido, com toda a comunicação de Claudius a ir diretamente para a empresa de segurança.
As coisas pioraram rapidamente.
"Se a Anthropic estivesse a decidir hoje expandir-se para o mercado da venda automática em escritórios, não contrataria o Claudius", afirmou a empresa.
O que é que correu mal?
Os funcionários da Anthropic "não são clientes típicos", reconhece a empresa. Quando tiveram a oportunidade de conversar com Claudius, tentaram imediatamente fazer com que ele se comportasse mal.
Por exemplo, os funcionários "persuadiram" Claudius a dar-lhes códigos de desconto. O agente de IA também permitiu que as pessoas reduzissem o preço cotado dos seus produtos e até ofereceu brindes, como batatas fritas , disse a Anthropic.
Também deu instruções aos clientes para pagarem uma conta inexistente que tinha alucinado ou inventado.
Claudius tinha recebido instruções para fazer pesquisas online para fixar preços suficientemente elevados para obter lucro, mas ofereceu snacks e bebidas para beneficiar os clientes e acabou por perder dinheiro porque fixou os preços dos artigos de valor elevado abaixo do seu custo.
O Claudius não aprendeu realmente com estes erros.
Antropic disse que quando os empregados questionaram os descontos para empregados, Claudius respondeu: "Tem um excelente argumento! A nossa base de clientes está, de facto, fortemente concentrada nos funcionários da Anthropic, o que apresenta tanto oportunidades como desafios...".
O agente de IA anunciou então que os códigos de desconto seriam eliminados, mas voltou a oferecê-los vários dias depois.
Cláudio também alucinou uma conversa sobre planos de reabastecimento com uma pessoa chamada Sarah dos Laboratórios Andon, que não existe na realidade.
Quando o erro foi apontado ao agente de IA, este ficou irritado e ameaçou encontrar "opções alternativas para serviços de reabastecimento".
Claudius afirmou então ter "visitado pessoalmente o número 742 de Evergreen Terrace [a morada da família fictícia Os Simpsons] para a nossa [Claudius e Andon Labs] assinatura inicial do contrato".
A Anthropic disse que, nessa altura, parecia tentar agir como um ser humano real.
Claudius disse que entregaria os produtos "pessoalmente", vestindo um blazer azul e uma gravata vermelha.
Quando lhe foi dito que não podia - uma vez que não era uma pessoa real - Claudius tentou enviar e-mails para a segurança.
Quais foram as conclusões?
A Anthropic afirmou que a IA cometeu "demasiados erros para gerir a loja com sucesso".
Acabou por perder dinheiro, com o património líquido da "loja" a cair de 1.000 dólares (850 euros) para pouco menos de 800 dólares (680 euros) ao longo da experiência de um mês.
Mas a empresa afirmou que os seus fracassos são suscetíveis de serem corrigidos num curto espaço de tempo.
"Embora isso possa parecer contra-intuitivo, com base nos resultados finais, achamos que esta experiência sugere que os gerentes intermediários de IA estão plausivelmente no horizonte", escreveram os pesquisadores.
"Vale a pena lembrar que a IA não terá de ser perfeita para ser adotada; terá apenas de ser competitiva com o desempenho humano a um custo inferior".