Defesa de Qualificação ao Doutorado- Jean Gabriel Nguema Ngomo
Título do Trabalho: Você confia no que a IA diz? Personalização de explicações em sistemas de IA para detecção de fake news e seu impacto na confiança do usuário
Resumo: Contexto: A proliferação de fake news tem se tornado um problema significativo, com impactos nefastos na sociedade em áreas como saúde, política, enfrentamento a desastre natural. Sistemas de Inteligência Artificial (IA) têm sido desenvolvidos para detectar fake news, mas muitos desses modelos são de caixa preta, ou seja, não explicam suas decisões, o que limita a confiança do usuário e sua efetividade. Abordagens com explicações em IA, embora promissoras, geralmente são voltadas a especialistas, negligenciando o público leigo. Existe uma lacuna na literatura sobre como explicações personalizadas, sensíveis ao contexto do usuário (como suas crenças), podem melhorar a confiança e compreensão dos usuários em sistemas de detecção de fake news. Motivação: Apesar dos avanços recentes da Inteligência Artificial, a confiança dos usuários em suas decisões ainda é limitada, mesmo quando há explicações envolvidas. Esse desafio é ainda maior em áreas sensíveis, como a detecção de fake news, onde a aceitação depende não apenas da precisão técnica, mas também da forma como as decisões são compreendidas. Explicações genéricas e muito técnicas nem sempre atendem às necessidades de públicos diversos. Nosso estudo preliminar sugere que fatores individuais, como crenças pessoais, podem influenciar essa percepção. Com base nisso, buscamos investigar se explicações adaptadas ao perfil do usuário podem melhorar a confiança e a compreensão em relação à IA nesse contexto. Objetivo: O objetivo deste estudo é investigar como explicações personalizadas, sensíveis ao contexto dos usuários, influenciam a compreensão e a confiança em sistemas de IA para detecção de fake news, comparando esses efeitos com abordagens tradicionais de explicabilidade na detecção de fake news. Método: A pesquisa adota uma abordagem mista, com métodos quantitativos e qualitativos, além da revisão da literatura. Um estudo preliminar com 258 participantes foi realizado, no qual os usuários julgaram a veracidade de notícias com o apoio de uma IA sem explicações. Em seguida, foi aplicado um survey sobre preferências de explicações, e os comentários abertos foram analisados qualitativamente por meio de análise temática, identificando expectativas dos usuários. A etapa quantitativa testará a hipótese de que explicações personalizadas aumentam a confiança na IA, especialmente em tarefas de detecção de fake news. Para isso, será desenvolvido um modelo de explicação personalizável e agnóstico, baseado em crenças e características dos usuários. A eficácia desse modelo será avaliada por meio de experimentos controlados com usuários. Resultados Preliminares: Os dados do estudo preliminar revelaram que a maioria dos participantes manteve suas crenças pessoais ao avaliar as notícias, demonstrando baixa influência das decisões da IA quando apresentadas sem explicações — apenas 18% mudaram de opinião em favor da IA. Além disso, observou-se que diferentes grupos, definidos por crenças em temas políticos polarizados, apresentaram preferências distintas quanto ao tipo de explicação de IA considerada mais adequada. Esses achados sugerem que a personalização das explicações pode desempenhar um papel importante para melhorar a confiança dos usuários no sistema de IA. Contribuições e Impactos Esperados: A pesquisa espera contribuir para o desenvolvimento de modelos de explicação de IA personalizado para a detecção de fake news. A pesquisa contribuirá com a compreensão de como a explicabilidade sensível ao contexto pode melhorar a confiança e compreensão do usuário em sistemas de IA, especialmente em contextos de desinformação. Espera-se que os resultados tenham impactos tanto na teoria, ao expandir a literatura sobre IA explicável, quanto na prática, oferecendo recomendações para o design de explicações de sistemas de IA mais acessíveis e eficazes para público em geral.
Banca Examinadora:
Ana Cristina Bicharra Garcia – Orientadora (UNIRIO)
Juliana Baptista dos Santos França – (UFRJ)
Laura de Oliveira Fernandes Moraes (Unirio)
Jefferson Elbert Simões (Unirio)
Suplentes:
Adriana Santarosa Vivacqua (UFRJ)
Sean Wolfgand Matsui Siqueira (Unirio)
Data e Hora da Defesa: 24/09/2025 às 10:00
Local da Defesa: Auditório do PPGI