O que mudou em quase uma década da missão da OpenAI? Eis o novo documento com os princípios orientadores da empresa.
A OpenAI mostra-se hoje menos preocupada com a inteligência artificial geral (AGI) do que há quase uma década e está, em vez disso, a privilegiar uma expansão mais ampla da sua tecnologia, de acordo com uma nova declaração de missão da empresa.
No domingo, OpenAI publicou uma atualização do documento "Os nossos princípios", que define como a empresa tenciona gerir a sua tecnologia no futuro.
O novo conjunto de princípios apresenta diferenças importantes face às prioridades de há quase dez anos, quando a empresa era ainda uma nascente organização sem fins lucrativos dedicada à investigação em inteligência artificial (IA).
Menos ênfase na inteligência artificial geral
Em 2018, a OpenAI estava firmemente centrada na superinteligência artificial geral (AGI) — a ideia de que a sua tecnologia viria a superar a inteligência humana —, mas esse objetivo é hoje apenas um elemento da estratégia mais ampla de difusão da IA da empresa.
Ambas as versões dos princípios da empresa afirmam que a missão da OpenAI é garantir que esta tecnologia "beneficia toda a humanidade", mas o texto de 2018 menciona explicitamente a necessidade de a desenvolver de forma segura e benéfica.
"O nosso principal dever fiduciário é para com a humanidade", lê-se no documento. "Prevemos ter de mobilizar recursos substanciais para cumprir a nossa missão, mas agiremos sempre com diligência para minimizar conflitos de interesse entre os nossos colaboradores e partes interessadas que possam comprometer o benefício alargado."
Já a versão de 2026 defende a necessidade de continuar a criar sistemas seguros, mas sublinha que cabe à sociedade lidar com "cada nível sucessivo de capacidade da IA, compreendê-lo, integrá-lo e encontrar em conjunto o melhor caminho a seguir".
Para Sam Altman, presidente-executivo e cofundador, o caminho passa em 2026 por democratizar a IA em todas as frentes, dando acesso generalizado à tecnologia e contrariando a ideia de que possa "consolidar o poder nas mãos de poucos".
O documento de princípios de 2026 antecipa ainda que a OpenAI trabalhe com governos, agências internacionais e outras iniciativas de AGI para "resolver de forma suficiente problemas graves de alinhamento, segurança ou impacto social antes de avançar" com o desenvolvimento.
Entre os exemplos apontados estão o uso do ChatGPT para combater modelos capazes de criar novos agentes patogénicos ou a integração de modelos ciber-resilientes em infraestruturas críticas.
Altman já havia dado algumas pistas para esta mudança de foco em relação à AGI no seu blogue pessoal, no início do mês.
A AGI tem uma "aura de poder" que "leva as pessoas a fazer coisas loucas", escreveu. Para contrariar essa tendência, defende que a única solução é "orientar-se para partilhar amplamente a tecnologia com as pessoas, e para que ninguém detenha esse anel".
OpenAI já não cede lugar a concorrentes em nome da segurança
Em 2018, a empresa dizia-se preocupada com o facto de o desenvolvimento da AGI se estar a transformar "numa corrida competitiva sem tempo para precauções de segurança adequadas".
Comprometia-se, por isso, a travar os seus próprios modelos para apoiar qualquer projeto "alinhado em termos de valores e com forte preocupação pela segurança" que estivesse mais próximo de concretizar a AGI.
"Definiremos os pormenores (…) mas uma condição típica para acionar essa decisão poderá ser uma 'probabilidade superior a 50 % de sucesso nos próximos dois anos'", lê-se no documento de 2018.
Em 2026, já não há referência a afastar-se em nome de uma causa maior. O documento reconhece antes que a OpenAI "é hoje uma força muito maior no mundo do que há alguns anos" e compromete-se a ser transparente quanto ao momento e à forma como os seus princípios de atuação podem mudar.
A empresa enfrenta uma concorrência intensa de vários rivais, entre os quais a Anthropic.
Em fevereiro, a Anthropic recusou conceder à administração do presidente dos EUA, Donald Trump, acesso irrestrito à sua IA para fins militares, o que levou a empresa a ser classificada como risco para a cadeia de abastecimento e motivou, em março, uma ordem para que os agentes federais deixassem de usar o assistente de IA Claude da Anthropic.
Em 28 de fevereiro, a OpenAI avançou para ocupar esse espaço, assinando um acordo com o Departamento de Guerra, o que levou alguns utilizadores a boicotar o ChatGPT em favor do Claude.
A Anthropic foi também avaliada este mês em 800 mil milhões de dólares (696 mil milhões de euros), valor equiparável ao da OpenAI.
Apelos genéricos à sociedade
No documento de 2026, a OpenAI pede várias mudanças sociais para que o mundo se adapte melhor à IA.
"Imaginamos um mundo com prosperidade generalizada, a um nível que atualmente é difícil conceber", lê-se. "Muitas das coisas que só nos permitimos sonhar na ficção científica poderão tornar-se realidade e a maioria das pessoas poderá viver vidas mais significativas do que a maioria consegue hoje."
Esse futuro não está garantido, uma vez que a IA tanto pode ser "detida por um pequeno grupo de empresas que utilizam e controlam a superinteligência" como "estar distribuída de forma descentralizada pelas pessoas", explica o texto.
O documento de princípios retoma também algumas das propostas de política recentes da OpenAI, como o apelo aos governos para que considerem "novos modelos económicos" e desenvolvam nova tecnologia que reduza os custos da infraestrutura de IA.
"Muitas das coisas que fazemos e que parecem estranhas — como comprar enormes quantidades de capacidade de computação quando as nossas receitas ainda são relativamente reduzidas — resultam da nossa convicção fundamental num futuro de prosperidade universal", conclui o documento.