Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Chatbot para conselhos de saúde? Saiba o essencial primeiro

Mulher doente deitada na cama
Mulher doente deitada na cama Direitos de autor  Pexels
Direitos de autor Pexels
De Indrabati Lahiri & AP
Publicado a Últimas notícias
Partilhar Comentários
Partilhar Close Button

Na sequência do lançamento do ChatGPT Health pela OpenAI, saiba que fatores deve ponderar antes de recorrer a chatbots de IA para aconselhamento médico.

Com centenas de milhões de pessoas a recorrerem a chatbots em busca de conselhos, era apenas uma questão de tempo até as empresas tecnológicas começarem a oferecer programas especificamente concebidos para responder a perguntas sobre saúde.

PUBLICIDADE
PUBLICIDADE

Em janeiro, a OpenAI lançou o ChatGPT Health, uma nova versão do seu chatbot que, segundo a empresa, consegue analisar os registos médicos dos utilizadores, dados de aplicações de bem-estar e de dispositivos vestíveis para responder a questões de saúde e de medicina.

Atualmente, existe uma lista de espera para o programa. A Anthropic, empresa rival na área da IA, oferece funcionalidades semelhantes a alguns utilizadores do seu chatbot Claude.

Ambas as empresas afirmam que estes programas, conhecidos como modelos de linguagem de grande dimensão, não substituem os cuidados prestados por profissionais de saúde e não devem ser usados para diagnosticar doenças. Em vez disso, defendem que os chatbots podem resumir e explicar resultados de exames complexos, ajudar a preparar consultas médicas ou analisar tendências relevantes escondidas em registos clínicos e métricas de aplicações de saúde.

Mas quão seguros e fiáveis são estes chatbots para analisar dados de saúde e doenças? E até que ponto se pode confiar neles?

Eis alguns aspetos a ter em conta antes de falar com um chatbot sobre a sua saúde:

Chatbots dão informações mais personalizadas do que uma pesquisa no Google

Alguns médicos e investigadores que já trabalharam com o ChatGPT Health e programas semelhantes consideram-nos um avanço face ao que existe atualmente.

As plataformas de IA estão longe de ser perfeitas: por vezes podem “alucinar” ou dar maus conselhos, mas a informação que produzem tende a ser mais personalizada e específica do que aquela que os doentes encontram numa pesquisa no Google.

“A alternativa, muitas vezes, é não haver nada, ou o doente improvisar”, disse o médico Robert Wachter, especialista em tecnologia médica na Universidade da Califórnia, em São Francisco. “Por isso, se estes instrumentos forem usados com responsabilidade, podem fornecer informação útil”.

Em países como o Reino Unido ou os Estados Unidos, onde marcar uma consulta pode demorar semanas e as urgências implicam frequentemente horas de espera, os chatbots podem, em muitos casos, ajudar a reduzir alarmismos desnecessários e a poupar tempo.

Mas também podem sinalizar quando os sintomas são perigosos e precisam de ser avaliados por profissionais de saúde.

Uma das vantagens dos chatbots mais recentes é responderem às perguntas dos utilizadores com base no contexto da respetiva história clínica, incluindo medicação, idade e notas dos médicos.

Mesmo que não tenha dado à IA acesso à sua informação médica, Wachter e outros especialistas recomendam que forneça aos chatbots o máximo de detalhes possível para melhorar a qualidade das respostas.

Com sintomas preocupantes, evite recorrer à IA

Wachter e outros sublinham que há situações em que as pessoas devem prescindir do chatbot e procurar imediatamente assistência médica. Sintomas como falta de ar, dor no peito ou dor de cabeça muito intensa podem indicar uma emergência médica.

Mesmo em situações menos urgentes, doentes e médicos devem encarar os programas de IA com “um grau de ceticismo saudável”, afirmou o médico Lloyd Minor, da Universidade de Stanford.

“Se estiver perante uma decisão médica importante, ou mesmo uma decisão aparentemente menor sobre a sua saúde, nunca deve basear-se apenas no que obtém de um modelo de linguagem de grande dimensão”, disse Minor, que é diretor da escola de medicina de Stanford.

Mesmo em casos relativamente comuns, como a síndrome dos ovários poliquísticos (SOP), pode ser preferível consultar um profissional de saúde, já que a doença pode manifestar-se de forma muito diferente de pessoa para pessoa, o que influencia os planos de tratamento.

Pondere a privacidade antes de carregar dados de saúde

Muitas das vantagens oferecidas pelos bots de IA dependem de os utilizadores partilharem informação médica pessoal. Mas é importante perceber que tudo o que é partilhado com uma empresa de IA não está protegido pela legislação federal norte-americana de privacidade que normalmente rege dados clínicos sensíveis.

Conhecida pela sigla HIPAA, a lei prevê coimas e até penas de prisão para médicos, hospitais, seguradoras ou outros prestadores de cuidados de saúde que revelem registos clínicos. Mas não se aplica às empresas que desenvolvem chatbots.

“Quando alguém carrega o seu processo clínico num modelo de linguagem de grande dimensão, isso é muito diferente de o entregar a um novo médico”, disse Minor. “Os consumidores têm de perceber que as regras de privacidade são completamente diferentes.”

A OpenAI e a Anthropic afirmam que a informação de saúde dos utilizadores é mantida separada de outros tipos de dados e sujeita a salvaguardas adicionais de privacidade. As empresas dizem não usar dados de saúde para treinar os modelos. Os utilizadores têm de autorizar expressamente a partilha dos seus dados e podem cancelar essa ligação em qualquer momento.

Testes mostram limitações dos chatbots

Apesar do entusiasmo em torno da IA, os testes independentes à tecnologia ainda estão numa fase inicial. Estudos preliminares sugerem que programas como o ChatGPT conseguem obter classificações elevadas em exames médicos avançados, mas tropeçam frequentemente quando interagem com pessoas.

Um estudo com 1300 participantes, conduzido pela Universidade de Oxford, concluiu recentemente que as pessoas que usaram chatbots de IA para pesquisar doenças hipotéticas não tomaram decisões melhores do que aquelas que recorreram a pesquisas na internet ou ao próprio juízo.

Quando confrontados com cenários clínicos descritos de forma completa por escrito, os chatbots de IA identificaram corretamente a doença subjacente em 95% dos casos.

“Esse não foi o problema”, afirmou o autor principal, Adam Mahdi, do Oxford Internet Institute. “O ponto em que tudo começou a falhar foi na interação com os participantes reais.”

Mahdi e a sua equipa identificaram vários problemas de comunicação. Muitas vezes, as pessoas não forneciam aos chatbots a informação necessária para identificar corretamente o problema de saúde. Por outro lado, os sistemas de IA respondiam frequentemente com uma mistura de dados corretos e incorretos, e os utilizadores tinham dificuldade em distinguir uns dos outros.

O estudo, realizado em 2024, não utilizou as versões mais recentes dos chatbots, incluindo novas ferramentas como o ChatGPT Health.

Segunda opinião de IA pode ser útil

A capacidade de os chatbots fazerem perguntas de seguimento e obterem detalhes essenciais dos utilizadores é uma das áreas onde Wachter vê margem para melhorias.

“É aí que isto pode ficar realmente bom, quando as ferramentas se tornarem um pouco mais ‘médicas’ na forma como dialogam com os doentes”, afirmou Wachter.

Para já, uma forma de ganhar confiança na informação obtida passa por consultar vários chatbots, à semelhança do que acontece quando se pede uma segunda opinião a outro médico.

“Por vezes introduzo a mesma informação no ChatGPT e no Gemini”, disse Wachter, referindo-se à ferramenta de IA da Google. “Quando ambos concordam, sinto-me um pouco mais seguro de que essa é a resposta certa.”

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Usar o ChatGPT para dúvidas médicas? Novo estudo pede cautela

Gronelândia: sistema de saúde é tão mau como Donald Trump diz?

Estudo mostra esperma masculino mais rápido no verão do que no inverno