TÍTULO: Influência da Interpretabilidade no desempenho de Modelos de Redes Neurais Convolucionais para classificação de depressão.
RESUMO:
A depressão é um problema de saúde mental muito comum e debilitante, impactando negativamente a vida de milhões de pessoas em todo o mundo. O aprendizado de máquina apresenta grande potencial para auxiliar no diagnóstico precoce e tratamento da depressão, mas a característica “caixa-preta” de alguns modelos de aprendizado de máquina limita sua confiabilidade e adoção como um recurso na área de saúde. Geralmente, os modelos com melhor desempenho, como os de aprendizagem profunda, apresentam características de caixa-preta, dificultando a compreensão humana de como os algoritmos chegaram a suas predições. Para enfrentar esse desafio, a pesquisa em Inteligência Artificial Explicável (XAI) visa aprimorar a interpretabilidade desses modelos. Este estudo propõe investigar como a interpretabilidade dos modelos de redes neurais convolucionais (CNNs – Convolutional Neural Network), que utilizam imagens faciais no treinamento, influencia o seu desempenho na classificação entre indivíduos deprimidos e não deprimidos. Em vez de focar apenas em critérios como acurácia e F1 score, dos modelos, o objetivo é analisar o equilíbrio entre desempenho na classificação e explicabilidade em modelos de CNNs com foco na classificação da depressão. Para explicar as decisões dos modelos, serão exploradas técnicas de explicabilidade específicas para imagens, como Grad-CAM (Class Activation Mapping) e Saliency Maps. Essas técnicas permitem visualizar quais regiões da imagem foram mais importantes para a classificação do modelo, fornecendo percepções sobre como o modelo está tomando suas decisões. A metodologia de pesquisa deste trabalho propõe resolver o problema através da proposta de um método de explicação próprio, para isso seguirá uma forma sistemática com os seguintes passos: revisão de literatura; implementação de um modelo de CNN com imagens faciais para classificação de depressão; comparação do resultado da implementação com outros estudos; aplicar técnicas de explicabilidade ao modelo; uso da coletividade para verificar a intersecção da explicação do modelo com a coletividade, com isso realizar a validação externa e validação cruzada do modelo; verificar a credibilidade e entendimento da explicação e por fim analisar a solução proposta. É importante também que ao final, verificar se este método de explicação proposto é aplicável em outros domínios e propor maneira que automatize a solução do problema com o método proposto. As contribuições pretendidas são: desenvolvimento de um novo método de interpretabilidade para modelos CNNs de imagens faciais; apresentação de uma análise da influência da explicação no desempenho da classificação da depressão por meio de experimentos controlados; e contribuir para o avanço da pesquisa em explicabilidade em inteligência artificial aplicada à saúde mental e especificamente no diagnóstico precoce de depressão.
PALAVRAS CHAVES: Aprendizado de Máquina, Explicabilidade, Depressão, Saúde Mental, Redes Neurais Convolucionais.
Banca Examinadora:
Profa. Dra. Ana Cristina Bicharra Garcia (orientadora)
Prof. Dr. José Manuel Molina Lopes – Universidad Carlos III de Madrid (coorientador)
Profa. Dra. Adriana Santarosa Vivacqua – UFRJ
Profa. Dra. Flavia Cristina Bernardini – UFF
Prof. Dr. Henrique Prado de Sá Sousa – Unirio
Profa. Dra. Laura de Oliveira Fernandes Moraes – Unirio
DATA/HORA DE DEFESA:
dia 27/05/2024 às 14 horas.