Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Especialistas alertam que dados biológicos abertos podem ajudar IA a criar patogénios perigosos

ARQUIVO: Técnico de laboratório observa ecrã de computador durante investigação sobre o coronavírus, COVID-19, na Bélgica
ARQUIVO: Técnico de laboratório observa o ecrã de um computador durante investigação sobre o coronavírus, COVID-19, na Bélgica Direitos de autor  Copyright 2020 The Associated Press. All rights reserved
Direitos de autor  Copyright 2020 The Associated Press. All rights reserved
De Marta Iraola Iribarren
Publicado a
Partilhar Comentários
Partilhar Close Button

Mais de 100 investigadores defendem regras para proteger dados biológicos de alto risco e travar usos indevidos de IA capazes de gerar agentes letais

Modelos de inteligência artificial (IA) aplicados à biologia dependem fortemente de grandes volumes de dados biológicos, incluindo sequências genéticas e características de agentes patogénicos. Mas esta informação deve estar acessível a todos e como garantir que é usada de forma legítima?

PUBLICIDADE
PUBLICIDADE

Mais de uma centena de investigadores alertam que o acesso irrestrito a certos conjuntos de dados biológicos pode permitir que sistemas de IA ajudem a conceber ou a potenciar vírus perigosos, e defendem salvaguardas mais robustas para evitar abusos.

Numa carta aberta (fonte em inglês), investigadores de instituições de referência, incluindo a Universidade Johns Hopkins, a Universidade de Oxford, a Universidade Fordham e a Universidade de Stanford, defendem que, embora o acesso aberto a dados científicos tenha acelerado a descoberta, um pequeno conjunto de novos dados biológicos representa riscos para a biossegurança se for mal utilizado.

“Está muito em jogo na governação dos dados biológicos, já que modelos de IA podem ajudar a criar ameaças biológicas graves”, escreveram os autores.

Modelos de IA usados em biologia conseguem prever mutações, identificar padrões e gerar variantes mais transmissíveis de agentes patogénicos com potencial pandémico.

Os autores descrevem esta função como uma “capacidade preocupante”, que pode acelerar e simplificar a criação de agentes biológicos transmissíveis capazes de desencadear pandemias em humanos ou fenómenos semelhantes em animais, plantas ou no ambiente.

Os investigadores salientam que, em geral, os dados biológicos devem ser de acesso aberto, mas os “dados preocupantes sobre agentes patogénicos” exigem controlos de segurança reforçados.

“O nosso objetivo passa por definir e regular os conjuntos de dados mais problemáticos antes de ficarem amplamente disponíveis para os desenvolvedores de IA”, escreveram no artigo, propondo um novo quadro para regular o acesso.

“Numa altura em que modelos de IA biológica com pesos abertos são desenvolvidos em todo o mundo, limitar o acesso a dados sensíveis sobre agentes patogénicos a investigadores legítimos poderá ser uma das vias mais promissoras para reduzir os riscos”, afirmou Moritz Hanke, coautor da carta, da Universidade Johns Hopkins.

Medidas adotadas pelos desenvolvedores

Atualmente, não existe um quadro universal que regule estes conjuntos de dados. Embora alguns desenvolvedores excluam voluntariamente informação de alto risco, os investigadores defendem que regras claras e consistentes devem aplicar-se a todos.

Os responsáveis por modelos de IA biológica de referência, como o Evo, desenvolvido por investigadores do Arc Institute, da Universidade de Stanford e da TogetherAI, e o ESM3, da EvolutionaryScale, retiraram determinadas sequências virais dos dados usados no treino dos sistemas.

Em fevereiro de 2025, a equipa do EVO 2 anunciou ter excluído dos seus conjuntos de dados agentes patogénicos que infetam humanos e outros organismos complexos, devido a riscos éticos e de segurança e para “prevenir a utilização do Evo no desenvolvimento de armas biológicas”.

O EVO 2 é um modelo de IA de código aberto aplicado à biologia, capaz de prever os efeitos de mutações no ADN, conceber novos genomas e identificar padrões no código genético.

“Neste momento, não existe orientação validada por especialistas sobre que dados representam riscos significativos, o que leva alguns desenvolvedores na linha da frente a fazerem o melhor juízo possível e a excluírem voluntariamente dados virais do treino”, escreveu no LinkedIn Jassi Panu, autor do estudo e coautor da carta.

Tipos de dados de risco

Os autores sublinham que o quadro proposto se aplica apenas a uma pequena fração dos conjuntos de dados biológicos.

Prevê uma escala de cinco níveis, designada Nível de Dados de Biossegurança (BDL, na sigla em inglês), para classificar os dados sobre agentes patogénicos em função do grau de “risco”, com base no potencial de permitir que sistemas de IA aprendam padrões virais gerais e ameaças biológicas para animais e humanos. A classificação inclui:

BDL-0: Dados biológicos do dia a dia. Não devem ter restrições e podem ser partilhados livremente.

BDL-1: Blocos básicos de construção de vírus, como sequências genéticas. Não exige controlos de segurança apertados, mas o início de sessão e o acesso devem ser monitorizados.

BDL-2: Dados sobre características de vírus animais, como a capacidade de saltar entre espécies ou de sobreviver fora do hospedeiro.

BDL-3: Dados sobre características de vírus humanos, como transmissibilidade, sintomas e resistência a vacinas.

BDL-4: Versões potenciadas de vírus humanos, como mutações do vírus da COVID-19 que o tornem mais contagioso. Esta categoria ficaria sujeita às restrições mais rigorosas.

Garantir acesso seguro

Para garantir um acesso seguro, a carta defende o recurso a ferramentas técnicas específicas que permitam aos fornecedores de dados verificar utilizadores legítimos e rastrear eventuais abusos.

Entre as ferramentas propostas estão marcações digitais, que inserem identificadores ocultos e únicos nos conjuntos de dados para facilitar o rastreio de fugas, mecanismos de rastreabilidade da origem dos dados, registos de auditoria que documentam acessos e alterações com assinaturas invioláveis e biometria comportamental capaz de seguir padrões únicos de interação dos utilizadores.

Os investigadores defendem que encontrar o equilíbrio certo entre abertura e restrições de segurança necessárias para dados de alto risco será essencial à medida que os sistemas de IA se tornam mais poderosos e amplamente acessíveis.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Poluição do ar aumenta risco de Alzheimer, indica estudo

Dose única de composto da ayahuasca pode aliviar depressão, indica estudo

Descobertas bactérias de 5.000 anos resistentes a antibióticos modernos