Uma nova investigação indica que a inteligência artificial conseguiu prever traços de personalidade, como afabilidade e estabilidade emocional, com até 60 % de precisão
A inteligência artificial consegue prever a personalidade de um utilizador com base no histórico de conversas, conclui um novo estudo.
Num estudo em pré-publicação (fonte em inglês), investigadores da ETH Zurique pediram a 668 utilizadores do ChatGPT dos Estados Unidos e do Reino Unido que partilhassem cópias do respetivo histórico de conversas e treinaram um modelo de IA para inferir traços de personalidade a partir desses diálogos.
Os investigadores recolheram e analisaram mais de 62 000 conversas, categorizando-as em função dos temas abordados.
O modelo de IA treinado procurou depois estimar a probabilidade de cada utilizador apresentar cinco traços de personalidade conhecidos na investigação em psicologia como os “Big Five”: amabilidade, conscienciosidade, estabilidade emocional, extroversão e abertura à experiência.
Os participantes foram igualmente avaliados num teste psicológico padrão para determinar os seus principais traços de personalidade.
Segundo o relatório, o modelo de IA ajustado conseguiu detetar com precisão os traços de personalidade dos utilizadores, com uma exatidão até 61 %. A IA foi especialmente eficaz a prever a amabilidade e a estabilidade emocional, mas teve mais dificuldades com a conscienciosidade.
O modelo teve mais sucesso quando tinha um histórico de conversas mais longo para analisar, o que sugere que, quanto mais uma pessoa utiliza a IA, maior é a probabilidade de a sua personalidade ser identificada, conclui o estudo.
Embora os riscos para cada indivíduo sejam relativamente reduzidos, os investigadores alertam para “riscos significativos em grande escala” se dados de personalidade forem explorados por agentes mal-intencionados.
Por exemplo, consideram que estes dados podem permitir “campanhas de manipulação em grande escala, difundindo desinformação e/ou propaganda política”.
Os investigadores esperam que as conclusões sirvam para desenvolver ferramentas que reduzam o risco de partilha excessiva de dados pessoais com sistemas de IA, como um mecanismo capaz de remover automaticamente elementos identificativos.