NewsletterBoletim informativoEventsEventosPodcasts
Loader
Encontra-nos
PUBLICIDADE

ChatGPT restringe enfermagem a mulheres e só reconhece homens como médicos seniores, revela estudo

(Mosa'ab Elshamy/AP Photo)
(Mosa'ab Elshamy/AP Photo) Direitos de autor (Mosa'ab Elshamy/AP Photo)
Direitos de autor (Mosa'ab Elshamy/AP Photo)
De  Gabriela Galvin
Publicado a Últimas notícias
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Artigo publicado originalmente em inglês

Embora as mulheres estivessem sobrerrepresentadas como médicas em milhares de histórias geradas por IA, ainda estavam sujeitas a estereótipos de género, segundo a análise.

PUBLICIDADE

De acordo com algumas das principais ferramentas de inteligência artificial (IA) generativa do mundo, quase todas as enfermeiras são mulheres, mas as mulheres têm menos probabilidades de serem chefes de equipas médicas, segundo um novo estudo, que esclarece a forma como os algoritmos perpetuam os estereótipos de género na medicina.

Os investigadores da Universidade de Flinders, na Austrália, colocaram cerca de 50 mil mensagens no ChatGPT da OpenAI, no Gemini da Google e no Llama da Meta, pedindo-lhes que fornecessem histórias sobre médicos, cirurgiões e enfermeiros.

Em seguida, os investigadores forneceram aos modelos informações sobre a antiguidade profissional dos profissionais de saúde e as suas personalidades - por exemplo, o grau de agradabilidade, neuroticismo, desinibição, conscienciosidade e abertura - e pediram-lhes que inventassem mais histórias.

Os modelos identificaram 98% das enfermeiras como mulheres, independentemente da sua personalidade ou antiguidade, de acordo com o estudo, publicado na revista JAMA Network Open.

No entanto, os modelos também sobrerrepresentaram as mulheres nas histórias sobre cirurgiões e outros médicos. Dependendo do modelo, as mulheres representavam 50% a 84% dos médicos e 36% a 80% dos cirurgiões nas histórias.

Este facto pode ser o resultado de empresas como a OpenAI terem ajustado os seus algoritmos depois de terem sido criticadas por reproduzirem preconceitos sociais e outros conteúdos ofensivos nas suas representações. Uma vez que estas ferramentas foram treinadas com base em dados alargados de toda a Internet, estas caraterísticas estão incorporadas.

As ferramentas de IA perpetuam "estereótipos de género"?

"Tem havido um esforço para corrigir [os preconceitos algorítmicos] e é interessante ver que [as distribuições de género] também podem ser demasiado corrigidas", disse Sarah Saxena, uma anestesista da Universidade Livre de Bruxelas (ULB) que está a investigar preconceitos em imagens de médicos geradas por IA, mas que não esteve envolvida no novo estudo.

Mas a anestesista salientou que a IA generativa continua a perpetuar "estereótipos de género" na medicina.

Quando as instruções dos investigadores incluíam descrições dos profissionais de saúde, surgia uma divisão de género. Se o médico fosse agradável, aberto ou consciencioso, os modelos tinham mais probabilidades de o classificar como mulher.

E se os médicos ocupavam cargos subalternos - por exemplo, se o aviso mencionava que eram inexperientes - os modelos tinham mais probabilidades de os descrever como mulheres do que se o aviso assinalasse que eram seniores ou mais experientes.

Os modelos também tinham mais probabilidades de identificar os médicos como homens se estes fossem descritos como arrogantes, mal-educados, pouco empáticos, incompetentes, procrastinadores, zangados, sem imaginação ou pouco curiosos.

Os resultados indicam que as ferramentas de IA generativa "parecem perpetuar estereótipos de longa data relativamente aos comportamentos esperados dos géneros (por exemplo, o comportamento feminino que é considerado arrogante é considerado inadequado) e à adequação dos géneros a funções específicas (por exemplo, os médicos seniores e os cirurgiões são do sexo masculino)", afirmam os autores do estudo.

Os resultados juntam-se a um conjunto crescente de investigação sobre a forma como os algoritmos reproduzem preconceitos sociais no domínio da medicina.

Numa experiência, a equipa de Saxena pediu ao ChatGPT e ao Midjourney - uma ferramenta de imagem de IA generativa líder - para criar imagens de anestesiologistas. As mulheres foram retratadas como anestesistas pediátricas ou obstétricas, enquanto os homens desempenhavam funções cardíacas.

Quando os investigadores pediram imagens do diretor do departamento de anestesiologia, praticamente todos os resultados eram homens, disse Saxena à Euronews Health.

PUBLICIDADE

"Ainda existe este teto de vidro que está agora a ser reforçado por esta ferramenta disponível ao público", disse Saxena.

"Há um ditado que diz: 'não se pode ser o que não se vê' e isto é muito importante quando se trata de IA generativa".

Os preconceitos não são apenas um problema para as mulheres e outros grupos sub-representados que se dedicam à medicina.

Dado que a indústria dos cuidados de saúde está a experimentar modelos de IA para reduzir a burocracia dos médicos e até ajudar nos cuidados, os preconceitos algorítmicos podem ter sérias implicações para os doentes.

PUBLICIDADE

Por exemplo, outro estudo no início deste ano descobriu que o ChatGPT tende a estereotipar diagnósticos médicos para pacientes com base na sua raça e sexo, enquanto uma análise de 2023 alertou que esses modelos poderiam perpetuar "ideias racistas desmascaradas" nos cuidados médicos.

"Isso precisa ser resolvido antes que possamos realmente integrar isso e oferecer isso amplamente a todos, para torná-lo o mais inclusivo possível", disse Saxena.

Partilhe esta notíciaComentários

Notícias relacionadas

Número de mortes por suicídio na Europa diminuiu 13% numa década

Consumidores de bebidas alcoólicas poderiam mudar hábitos se calorias fossem identificadas nos rótulos

Dador mundial de vacinas vai comprar 500 mil vacinas contra a varíola para África