Generic filters
Somente termos exatos
Buscar no título
Buscar no conteúdo
Search in excerpt
19/08/2025

FCMSCSP avança em pesquisas e debates que unem IA e saúde mental

Projetos pioneiros utilizam chatbot e análise da voz para apoiar diagnósticos e ampliar o acesso a cuidado

IA e saúde mental

A integração da Inteligência Artificial (IA) na saúde mental abriu novas possibilidades para diagnóstico, acompanhamento e personalização do cuidado. Compreendendo este avanço, a Faculdade de Ciências Médicas da Santa Casa de São Paulo (FCMSCSP) se destacou, neste semestre, com projetos que unem ciência e tecnologia para enfrentar um dos maiores desafios da atualidade. Os principais desafios que devem ser superados são: a ampliação do acesso a serviços de saúde mental e necessidade de diagnósticos mais precisos.

Uma das pesquisas em destaque é a “Avaliação acústica da voz e ansiedade de estudantes universitários em período de provas”, coordenada pelo Prof. Dr. Ricardo Riyoti Uchida. O estudo do professor utiliza algoritmos de IA para identificar sinais de sofrimento psíquico a partir da análise da voz. Outro destaque é o Projeto APOENA, coordenado pelo Prof. Dr. Lucas Murrins Marques, que emprega chatbots para mapear sentimentos como ecoansiedade e solastalgia em diferentes públicos.

Segundo o Prof. Dr. Victor Otani, do Departamento de Saúde Mental, o uso da IA pode transformar a área ao permitir diagnósticos mais ágeis e acessíveis. “A IA abre espaço para identificar precocemente sinais de ansiedade e sofrimento psíquico, além de apoiar decisões personalizadas. Mas esse avanço precisa ser acompanhado de princípios éticos sólidos, supervisão humana constante e respeito à privacidade de dados sensíveis”, destaca.

Desafios e responsabilidade ética na Inteligência Artificial (IA)

Apesar do potencial transformador, especialistas alertam para desafios importantes. São eles: privacidade de dados, risco de vieses algorítmicos e necessidade de maior transparência nos processos de decisão. Entre os principais referenciais para utilizar a IA na saúde estão: 

– O Artificial Intelligence Act, da União Europeia: estabelece uma abordagem baseada em risco e exige uma avaliação contínua de impacto sobre direitos fundamentais. Ela também tem supervisão humana obrigatória e requisitos formais de transparência, documentação e rastreamento. Também há proibição explícita para sistemas que infiram emoções ou classifiquem pacientes com base em traços sociais ou comportamentais quando isso representar risco discriminatório;  

FDA Guidance on AI-Enabled Devices, dos Estados Unidos: estabelece diretrizes específicas para softwares de decisão clínica baseados em IA. As orientações incluem a Adoção de “Boas Práticas de Aprendizado de Máquina” e a avaliação contínua do desempenho do algoritmo, especialmente após atualizações. Além disso, este referencial exige garantias de transparência sobre os riscos algorítmicos, validações clínicas contextualizadas e relatórios acessíveis a pacientes e profissionais.  

“Essas práticas refletem um compromisso internacional com sistemas que sejam eficazes, éticos e integrados de forma responsável aos cuidados em saúde”, reforça o professor Victor Otani.