Modelos de linguagem de grande porte, como o ChatGPT, têm potencial para identificar sinais de depressão e risco de suicídio em pacientes que já estão em tratamento psiquiátrico. A conclusão é de um estudo conduzido por uma equipe de pesquisadores da Coreia do Sul, publicado na revista científica JAMA Network Open.
Segundo os autores, apesar do potencial desses modelos, ainda é necessário aprimorar o desempenho e a segurança das ferramentas antes que possam ser usadas em contextos clínicos reais.
A pesquisa avaliou a capacidade dos chamados large language models (LLMs, na sigla em inglês) — sistemas de inteligência artificial treinados com enormes volumes de dados — de interpretar e gerar linguagem natural de forma eficaz. Também foram analisadas técnicas conhecidas como embeddings, que transformam a linguagem humana em vetores matemáticos e são amplamente utilizadas no processamento de linguagem natural.
O estudo envolveu 1.064 pacientes psiquiátricos, com idades entre 18 e 39 anos, que responderam a testes de autoavaliação e atividades com frases incompletas — um método em que a pessoa deve completar frases com a primeira coisa que vem à mente, revelando aspectos subjetivos como autoestima e relações interpessoais.
Os dados foram processados por modelos como GPT-4, Gemini 1.0 Pro, Google Deepmind e text-embedding-3-large, da OpenAI. Os resultados mostraram que os sistemas de IA foram capazes de identificar sinais de estresse, depressão e ideação suicida a partir das narrativas fornecidas pelos pacientes.
O nefrologista espanhol Alberto Ortiz, do Hospital Universitário La Paz, em Madri, comentou o estudo ao Science Media Centre. Embora não tenha participado da pesquisa, ele destacou a importância da abordagem, mas fez uma ressalva: os participantes já estavam em tratamento psiquiátrico, o que limita a aplicação dos resultados para a população em geral.
Ortiz também afirmou que o uso da IA na saúde mental deve se concentrar nas narrativas subjetivas das pessoas, como foi feito neste estudo. No entanto, ele reforçou que há uma diferença entre identificar riscos e oferecer tratamento. “Tratar alguém que sofre mentalmente vai muito além da tecnologia — envolve vínculo, escuta e sensibilidade profissional, elementos que uma máquina ainda não consegue oferecer”, concluiu.
Leia Também: Estudo aponta que atmosfera ‘misteriosa’ de Titã oscila com as estações
Postagens relacionadas
Deixe um comentário Cancelar resposta
Dicas TechBlog
Como usar Air Fryer da maneira correta.
Categorias
- Air Fryer (2)
- Avaliações (14)
- Celulares (16)
- Celulares Realme (3)
- Celulares Samsung (7)
- Celulares Xiaomi (6)
- Cozinhar (1)
- Dicas e Tutoriais (3)
- Economia (53)
- Eletrodomésticos (1)
- Galaxy A (1)
- Galaxy M (1)
- Galaxy S (1)
- Galaxy Z (2)
- iPhone (1)
- Moto E (1)
- Moto G (1)
- Motorola (6)
- Motorola Edge (1)
- Motorola Razr (1)
- Mundo (60)
- Notícias (180)
- POCO (1)
- Pós & Contras (13)
- Realme 14 (1)
- Redmi (3)
- Redmi Note (2)
- Tecnologia (188)
- Últimas Notícias (157)
- Xiaomi Mi (1)
Fique conectado