Microsoft afirma que os rivais dos EUA estão a começar a utilizar a IA generativa em operações cibernéticas ofensivas

A Microsoft alerta para o facto de os países utilizarem a IA em operações cibernéticas ofensivas.
A Microsoft alerta para o facto de os países utilizarem a IA em operações cibernéticas ofensivas. Direitos de autor Canva
Direitos de autor Canva
De  Associated Press
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Artigo publicado originalmente em inglês

Os críticos do lançamento público do ChatGPT em novembro de 2022, e dos lançamentos subsequentes pelos concorrentes, afirmam que foi irresponsavelmente precipitado, considerando que a segurança foi em grande parte uma reflexão tardia no seu desenvolvimento.

PUBLICIDADE

A Microsoft afirmou na quarta-feira que os adversários dos EUA, principalmente o Irão e a Coreia do Norte e, em menor escala, a Rússia e a China, estão a começar a utilizar a inteligência artificial (IA) generativa para montar ou organizar operações cibernéticas ofensivas.

O gigante da tecnologia disse que detetou e interrompeu, em colaboração com o parceiro de negócios OpenAI, ameaças que utilizavam ou tentavam explorar a tecnologia de IA que tinham desenvolvido.

Numa publicação no seu blogue, a empresa de Redmond, Washington, afirmou que as técnicas estavam "numa fase inicial" e não eram "particularmente novas ou únicas", mas que era importante expô-las publicamente, uma vez que os rivais dos EUA utilizam modelos de grande linguagem para expandir a sua capacidade de violar redes e conduzir operações de influência.

As empresas de cibersegurança há muito que utilizam a aprendizagem automática na defesa, principalmente para detetar comportamentos anómalos nas redes. Mas os criminosos e os hackers ofensivos também a utilizam, e a introdução de modelos de grande dimensão linguística, liderados pelo ChatGPT da OpenAI, veio aumentar o jogo do gato e do rato.

A Microsoft investiu milhares de milhões de dólares na OpenAI e o anúncio de quarta-feira coincidiu com o lançamento de um relatório que refere que a IA generativa deverá melhorar a engenharia social maliciosa, conduzindo a deepfakes mais sofisticados e à clonagem de voz, uma ameaça à democracia num ano em que mais de 50 países vão realizar eleições, ampliando a desinformação.

Eis alguns exemplos fornecidos pela Microsoft. Em cada caso, a Microsoft afirmou que todas as contas e ativos de IA generativa dos grupos nomeados foram desativados:

  • O grupo de ciberespionagem norte-coreano conhecido como Kimsuky utilizou os modelos para pesquisar grupos de reflexão estrangeiros que estudam o país e para gerar conteúdos susceptíveis de serem utilizados em campanhas de hacking de spear-phishing.
  • A Guarda Revolucionária do Irão utilizou modelos em grande escala para ajudar na engenharia social, na resolução de erros de software e até para estudar a forma como os intrusos podem evitar a deteção numa rede comprometida. Isso inclui a geração de e-mails de phishing "incluindo um que finge vir de uma agência de desenvolvimento internacional e outro que tenta atrair feministas proeminentes para um site sobre feminismo criado por um atacante". A IA ajuda a acelerar e a impulsionar a produção de correio eletrónico.
  • A unidade de inteligência militar russa GRU, conhecida como Fancy Bear, utilizou os modelos para pesquisar tecnologias de satélite e radar que possam estar relacionadas com a guerra na Ucrânia.
  • O grupo chinês de ciberespionagem conhecido como Aquatic Panda - que tem como alvo uma vasta gama de indústrias, ensino superior e governos, de França à Malásia - interagiu com os modelos "de formas que sugerem uma exploração limitada da forma como os LLM podem aumentar as suas operações técnicas".
  • O grupo chinês Maverick Panda, que há mais de uma década tem como alvo, entre outros setores, os empreiteiros de defesa dos EUA, interagiu com modelos de grande dimensão linguística, sugerindo que estava a avaliar a sua eficácia como fonte de informação "sobre tópicos potencialmente sensíveis, indivíduos de alto perfil, geopolítica regional, influência dos EUA e assuntos internos".

Abriu-se a "caixa de Pandora

Num blogue separado publicado na quarta-feira, a OpenAI afirmou que o seu atual modelo de chatbot GPT-4 oferece "apenas capacidades limitadas e incrementais para tarefas maliciosas de cibersegurança, para além do que já é possível alcançar com ferramentas publicamente disponíveis, não alimentadas por IA".

Os investigadores de cibersegurança esperam que isso mude.

Em abril passado, a directora da Agência de Cibersegurança e Segurança de Infra-estruturas dos EUA, Jen Easterly, disse ao Congresso que "há duas ameaças e desafios que definem uma época. Uma é a China e a outra é a inteligência artificial".

Na altura, Jen Easterly afirmou que os EUA têm de garantir que a IA é construída tendo em conta a segurança.

Os críticos do lançamento público do ChatGPT em novembro de 2022 - e os lançamentos subsequentes de concorrentes, incluindo Google e Meta - afirmam que foi irresponsavelmente precipitado, considerando que a segurança foi em grande parte uma reflexão tardia em seu desenvolvimento.

"É claro que os maus atores estão usando modelos de linguagem grande - essa decisão foi tomada quando a Caixa de Pandora foi aberta", disse Amit Yoran, CEO da empresa de segurança cibernética Tenable.

Alguns profissionais de cibersegurança queixam-se do facto de a Microsoft ter criado e comercializado ferramentas para resolver as vulnerabilidades dos modelos de linguagem grande, quando poderia, de forma mais responsável, concentrar-se em torná-los mais seguros.

"Porque não criar modelos de base LLM de caixa negra mais seguros em vez de vender ferramentas defensivas para um problema que estão a ajudar a criar?", perguntou Gary McGraw, um veterano da segurança informática e cofundador do Berryville Institute of Machine Learning.

Edward Amoroso, professor da Universidade de Nova Iorque e antigo diretor de segurança da AT&T, afirmou que, embora a utilização de IA e de modelos de linguagem de grande dimensão possa não representar uma ameaça imediatamente óbvia, "acabará por se tornar uma das armas mais poderosas no ataque militar de qualquer Estado-nação".

Partilhe esta notíciaComentários

Notícias relacionadas

TikTok suspende recompensas na aplicação Lite na sequência da investigação da UE

Senado dos EUA aprova legislação para forçar venda do TikTok sob ameaça de proibição

2023 foi o pior ano em termos de conteúdos sobre abuso sexual de crianças