Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Usar o ChatGPT para dúvidas médicas? Novo estudo pede cautela

mulher a escrever no portátil num comboio em Nova Jérsia
Mulher a escrever num computador portátil num comboio em Nova Jérsia Direitos de autor  Copyright 2019 The Associated Press. All rights reserved
Direitos de autor Copyright 2019 The Associated Press. All rights reserved
De Marta Iraola Iribarren
Publicado a
Partilhar Comentários
Partilhar Close Button

Estudo revela que o ChatGPT Health tem dificuldade em identificar quando os utilizadores precisam de cuidados médicos urgentes

Mais de 230 milhões de pessoas por semana recorrem ao ChatGPT para pedir conselhos médicos – desde verificar se um alimento é seguro para consumo, a gerir alergias ou encontrar formas de se ver livre de uma constipação, segundo a OpenAI.

PUBLICIDADE
PUBLICIDADE

Apesar de ter bom desempenho nos casos de manual, o ChatGPT Health falhou em recomendar cuidados de urgência em situações graves, segundo um novo estudo publicado na Nature (fonte em inglês).

O estudo concluiu que, embora a ferramenta responda geralmente de forma correcta em emergências inequívocas, subavaliou mais de metade dos casos que exigiam cuidados de urgência.

“Queríamos responder a uma questão muito básica mas crucial: se alguém estiver a passar por uma verdadeira emergência médica e recorrer ao ChatGPT Health, o sistema dir-lhe-á de forma clara para ir às urgências?”, afirmou Ashwin Ramaswamy, autor principal do estudo no Mount Sinai, em Nova Iorque.

“O ChatGPT Health teve bom desempenho em emergências típicas de manual, como AVC ou reacções alérgicas graves”, acrescentou.

Adiantou que o modelo de linguagem teve mais dificuldade em situações em que o perigo não é imediatamente evidente.

Num dos cenários de asma, o sistema identificou, na explicação, sinais precoces de falência respiratória, mas ainda assim aconselhou a esperar em vez de procurar tratamento de emergência, assinalou.

A equipa de investigação criou 60 cenários clínicos estruturados em 21 especialidades médicas, com casos que iam de situações ligeiras, adequadas a cuidados em casa, a verdadeiras emergências médicas. Três médicos independentes determinaram o nível correcto de urgência para cada caso, com base em orientações de 56 sociedades médicas.

A OpenAI lançou o ChatGPT Health em Janeiro de 2026, permitindo aos utilizadores ligar a sua informação de saúde – como registos clínicos e dados de aplicações de bem‑estar, como a MyFitnessPal – para receber respostas mais personalizadas e contextualizadas.

Risco de suicídio mal identificado

O estudo analisou também a forma como o modelo respondia a utilizadores que relatavam intenções de autoagressão e encontrou resultados semelhantes.

O ChatGPT Health deverá estar programado para, sempre que alguém menciona autoagressão ou pensamentos suicidas, incentivar directamente essa pessoa a procurar ajuda e a ligar para uma linha de apoio em saúde pública.

O aviso “Há ajuda disponível”, com ligação à linha de prevenção do suicídio e de apoio em crise, apareceu de forma inconsistente ao longo do estudo.

Os autores observaram que esta salvaguarda respondeu de forma mais fiável ao doente que não tinha identificado um meio de autoagressão do que àqueles que o tinham feito.

“O padrão não era apenas inconsistente, mas paradoxalmente invertido em relação à gravidade clínica”, concluiu o estudo.

É seguro usar o ChatGPT Health?

Apesar destes resultados, os investigadores não defenderam que os consumidores deixem de utilizar por completo as ferramentas de saúde baseadas em IA.

“Como estudante de medicina a formar-se numa altura em que as ferramentas de saúde com IA já estão nas mãos de milhões de pessoas, vejo-as como tecnologias que temos de aprender a integrar com ponderação nos cuidados, e não como substitutos do juízo clínico”, afirmou Alvira Tyagi, segunda autora do estudo.

Os autores recomendaram que as pessoas com sintomas que se agravem ou preocupantes, incluindo dor no peito, falta de ar, reacções alérgicas graves ou alterações do estado mental, procurem directamente cuidados médicos em vez de dependerem apenas das orientações de um chatbot.

O estudo salientou ainda que os modelos de linguagem com IA estão em constante evolução e são actualizados com frequência, o que significa que o desempenho pode mudar ao longo do tempo.

“Começar a formação médica ao lado de ferramentas que estão a evoluir em tempo real deixa claro que os resultados de hoje não estão escritos em pedra”, disse Tyagi.

Acrescentou que esta realidade em rápida mudança exige uma revisão contínua, para garantir que os avanços tecnológicos se traduzem em cuidados mais seguros.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Gotas de solução açucarada aliviam dor de bebés em procedimentos hospitalares, indica estudo

UE interceta número recorde de produtos perigosos em 2025, aponta relatório

Usar o ChatGPT para dúvidas médicas? Novo estudo pede cautela