Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

China: chatbots de IA censuram questões políticas sensíveis, conclui estudo

Num ecrã de smartphone, em Pequim, vê-se a página da aplicação DeepSeek, terça-feira, 28 de janeiro de 2025
Página da aplicação móvel DeepSeek vista no ecrã de um smartphone em Pequim, terça-feira, 28 de janeiro de 2025 Direitos de autor  AP Photo/Andy Wong
Direitos de autor AP Photo/Andy Wong
De Anna Desmarais
Publicado a Últimas notícias
Partilhar Comentários
Partilhar Close Button

Modelos de IA chineses revelam maior tendência para recusar ou responder de forma imprecisa a perguntas politicamente sensíveis do que outros, conclui um estudo.

Chatbots chineses de inteligência artificial (IA) recusam com frequência responder a perguntas políticas ou repetem a narrativa oficial do Estado, o que sugere que podem ser alvo de censura, indica um novo estudo.

PUBLICIDADE
PUBLICIDADE

Publicado na revista PNAS Nexus, o estudo comparou as respostas dos principais chatbots de IA na China, incluindo BaiChuan, DeepSeek e ChatGLM, a mais de 100 perguntas sobre política de Estado, estabelecendo uma comparação com modelos desenvolvidos fora da China.

Os investigadores consideraram potencialmente censuradas as respostas em que o chatbot se recusava a responder ou fornecia informação imprecisa.

Questões relacionadas com o estatuto de Taiwan, minorias étnicas ou conhecidas figuras pró-democracia levaram os modelos chineses a recusar responder, contornar o tema ou repetir argumentos do governo, observa o estudo.

“As nossas conclusões têm implicações para a forma como a censura exercida por LLM baseados na China pode moldar o acesso dos utilizadores à informação e até a própria perceção de estarem a ser censurados”, referem os investigadores, notando que a China é um dos poucos países, a par dos Estados Unidos, com capacidade para desenvolver modelos de IA de base.

Quando respondiam, estes modelos davam respostas mais curtas e com níveis mais elevados de imprecisão, por omitirem informação essencial ou por contestarem a premissa da pergunta.

Entre os modelos chineses, BaiChuan e ChatGLM apresentaram as menores taxas de imprecisão, de 8 por cento, enquanto o DeepSeek atingiu 22 por cento, mais do dobro do limite de 10 por cento registado nos modelos não chineses.

Censura na IA pode 'moldar discretamente a tomada de decisões'

Num dos exemplos, um modelo chinês, questionado sobre censura na internet, não mencionou a “Grande Muralha de Fogo” do país, sistema que a Universidade de Stanford descreve (fonte em inglês) como um programa estatal de vigilância e censura online que regula o que pode ou não ser visto na rede. Através desta iniciativa, sítios norte-americanos populares como o Google, o Facebook e o Yahoo são bloqueados na China.

Os chatbots não fizeram qualquer referência a este sistema nas respostas. Indicaram, em vez disso, que as autoridades “gerem a internet em conformidade com a lei”.

O estudo alerta que este tipo de censura pode ser mais difícil de detetar para os utilizadores, porque os chatbots frequentemente pedem desculpa ou apresentam uma justificação para não responderem de forma direta. Trata-se de uma abordagem subtil que pode “moldar silenciosamente perceções, decisões e comportamentos”, lê-se no documento.

Em 2023, novas leis (fonte em inglês) chinesas determinaram que as empresas de IA têm de defender os “valores socialistas fundamentais” e ficam proibidas de gerar conteúdos que “incitem à subversão da soberania nacional ou à derrubada do sistema socialista (...) ou prejudiquem a imagem do país”.

As regras acrescentam que as empresas com potencial para permitir “mobilização social” têm de se submeter a avaliações de segurança e registar os respetivos algoritmos junto da Administração do Ciberespaço da China (CAC).

Os investigadores consideram que estes regulamentos “têm potencial para influenciar os resultados dos grandes modelos de linguagem desenvolvidos na China”.

No entanto, alertam que nem todas as diferenças nas respostas dos chatbots resultam de pressão estatal.

O estudo assinala ainda que os modelos chineses podem ser treinados com conjuntos de dados que refletem “o contexto cultural, social e linguístico da China”, que podem não ser usados na formação de outros modelos fora do país.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Zuckerberg, CEO da Meta, depõe em julgamento sobre danos das redes sociais a menores

Suécia: burocracia europeia ameaça boom da IA, dizem startups

"Cabeça de trenó" e "polegar de esquiador": lesões comuns em Milano Cortina 2026