SpaceX de Elon Musk aluga supercomputador Colossus 1 à Anthropic, dando ao criador do Claude um grande reforço de capacidade de computação apesar de antiga rivalidade
Quando Ami Vora, diretora de produto da Anthropic, subiu ao palco na conferência de programadores Code with Claude, em São Francisco, na semana passada, o público esperava, provavelmente, novidades sobre novos modelos de IA.
Em vez disso, Vora anunciou que a Anthropic tinha assinado um acordo com a SpaceX para assumir o controlo total do centro de dados Colossus 1, em Memphis, uma parceria que há apenas alguns meses teria parecido impensável.
O acordo dá à Anthropic acesso a «mais de 300 megawatts de nova capacidade [e] mais de 220 000 GPU da NVIDIA ainda este mês», segundo um comunicado posterior da Anthropic, e beneficiará diretamente os subscritores dos planos Claude Pro e Claude Max.
A aliança Musk-Anthropic é das mais improváveis. O homem que há poucos meses chamou à Anthropic «maligna» e a acusou de «odiar a civilização ocidental» controla agora a infraestrutura que alimenta a expansão do Claude e permite o lançamento de programas alargados para os utilizadores pagantes.
IA 'woke' e 'anti-woke'
A Anthropic foi fundada em 2021 por Dario Amodei, Daniela Amodei e um grupo de investigadores que saiu da OpenAI por preocupações de que a segurança não estivesse a ser levada suficientemente a sério.
Toda a identidade de marca da empresa assenta na «IA responsável» e os seus modelos são treinados com Constitutional AI, uma framework com restrições éticas incorporadas de raiz que, segundo os programadores do Claude, torna o sistema mais propenso do que os concorrentes a recusar pedidos, assumir incerteza em temas sensíveis ou contestar instruções que considere prejudiciais.
O Grok, por sua vez, foi lançado em 2025, no auge do envolvimento de Musk com a Administração Trump, numa altura em que usava diariamente a X para atacar os meios de comunicação tradicionais por alegado controlo ideológico e apoiar partidos da extrema-direita europeia, incluindo a Alternativa para a Alemanha. A marca foi assumidamente anti-woke.
A Anthropic tem recusado sistematicamente retirar as barreiras de segurança do Claude para que o modelo seja usado em sistemas de armas autónomas, incluindo os utilizados na guerra em curso no Irão.
Entretanto, Musk tem defendido posições duras em política externa e, juntamente com a Google e a OpenAI, assinou contratos de defesa com o Pentágono, em termos que a Anthropic recusou em fevereiro, depois de ter assinado acordos em julho de 2025 – o que levou o Pentágono a classificar desde então a empresa como risco na cadeia de fornecimento e a excluí-la de trabalhos militares.
Problemas no universo Grok?
A xAI de Musk gerou 107 milhões de dólares (91 milhões de euros) em receitas no trimestre terminado em setembro de 2025, mas registou um prejuízo líquido de 1,46 mil milhões de dólares (1,24 mil milhões de euros) no mesmo período. A Anthropic, por sua vez, atingiu uma taxa anualizada de receitas de cerca de 30 mil milhões de dólares (25,5 mil milhões de euros), segundo estimativas de analistas.
O posicionamento «anti-woke» do produto, que deveria ser um fator de diferenciação competitiva para o Grok, acabou por não se traduzir em receitas no segmento empresarial. O Grok não dispunha da tecnologia que permite aos modelos de IA ir além das janelas de chat e controlar operações num computador.
Ao mesmo tempo, o Claude Cowork, da Anthropic, e o Codex, da OpenAI, inauguraram uma nova forma de tirar partido dos modelos de IA. O sucesso desses lançamentos ultrapassou em muito a capacidade de computação de que a Anthropic dispunha e evidenciou o quanto a empresa tinha subestimado o seu próprio êxito – razão pela qual recorreu à SpaceXAI para reforçar a infraestrutura de dados.
O Grok, por sua vez, foi concebido em torno do paradigma do chatbot e a sua integração estreita com a X – que à partida poderia parecer uma vantagem na distribuição – acabou por se tornar uma armadilha para o crescimento, ao orientar o produto para interações em redes sociais em vez de para a execução de tarefas, a otimização de fluxos de trabalho ou serviços pelos quais os utilizadores estejam dispostos a pagar.
A estocada final na marca Grok surgiu no início de 2026, quando o chatbot gerou, em nove dias, pelo menos 1,8 milhões de imagens sexualizadas de mulheres, além de conteúdos envolvendo menores, o que desencadeou investigações por parte de reguladores na Europa, na Ásia e nos Estados Unidos.
«Isto não é picante. É ilegal. É revoltante. Não tem lugar na Europa», disse na altura o porta-voz para os Assuntos Digitais da UE, Thomas Regnier.
Desde o anúncio do acordo, Musk afirmou sentir-se confortável em ceder o Colossus 1 à Anthropic, em parte porque a SpaceXAI já tinha transferido o seu próprio treino para o Colossus 2.
Musk acrescentou uma ressalva significativa na X, escrevendo que a SpaceXAI reserva o «direito de recuperar a capacidade de computação» se a IA da Anthropic «se envolver em ações que prejudiquem a humanidade».
Essa condição não figurava no comunicado de imprensa e não foi confirmado se consta do contrato propriamente dito.
Não existe qualquer limiar definido para o que constitui «prejuízo para a humanidade», o que significa que a avaliação pode ficar apenas nas mãos de Musk. Pode também ser uma tentativa de último recurso para manter alguma distância face ao facto de estar agora a alimentar diretamente a expansão do seu concorrente woke, enquanto o seu próprio programa de IA perde discretamente fôlego.