Defesa de dissertação de Mestrado – Fábio Daudt Morais
Defesa de Mestrado
Título: Pesquisa sobre as técnicas de Inteligência Artificial Explicável: Uma perspectiva do usuário
Aluno: Fábio Daudt Morais
Orientadora: Ana Cristina Bicharra Garcia
Resumo: A inteligência artificial (IA) se tornou parte de nossas vidas diárias, sendo comumente usadas em uma ampla gama de setores. A máquina aprende e depreende de dados e da interação conosco e com o ambiente. Os esforços de pesquisa têm sido em produzir sistemas precisos, confiáveis que gerem resultados robusto. No entanto, a maioria de nós tem pouco ou mesmo nenhum entendimento e conhecimento sobre como esses sistemas inteligentes funcionam e geram resultados e ações que podem impactar nossas vidas. A maioria dos algoritmos usados para o aprendizado de máquina não podem ser examinados e interpretados por humanos, funcionando como caixas pretas,levando a um comportamento de “pegar ou largar o resultado”. A aceitação e inserção da tecnologia em nossas vidas também leva a questionamentos de não se aceitar sem entender. A área de inteligência artificial explicável (XAI- Explainable Artificial Intelligence) é nova e tem por objetivo trabalhar essas questões relacionadas à abertura da caixa preta do raciocínio no agente inteligente, seja para aumentar a confiança nos resultados, para auditar o processo prevenindo vieses e preconceitos, para responsabilizar pelas consequências dos resulta dos e mesmo para deixar transparente o processo de raciocínio. Tudo isso passa pelo entendimento e aceitação do processo computacional pelos clientes e donos desses sistemas.Este trabalho avalia a compreensibilidade das explicações de diferentes técnicas de XAI, na perspectiva dos especialistas do domínio, com o objetivo de medir o entendimento dos resultados, a confiança no sistema e a aceitação da explicação produzida. Para tanto, desenvolvemos um sistema diagnóstico de câncer, com alta acurácia, usando redes neurais a partir de uma base de dados pública. Rodamos alguns casos e aplicamos 3 técnicas de XAI para gerar explicações. Esses casos e suas explicações foram apresentados a 12 oncologistas. Entrevistas semi estruturadas foram utilizadas para avaliar a compreensibilidade das explicações geradas pelas 3 técnicas XAI. Usamos método de pesquisa qualitativo de Teoria Fundamentada em Dados. Encontramos evidências importantes de que as técnicas atuais de XAI são informativas, mas não explicativas. Nossas observações geraram um conjunto de diretrizes e sugestões para guiar o desenvolvimento de sistemas XAI.
Quando sex. 31 jul. 2020 13:30
Horário Padrão de Brasília – São Paulo
Informações de participação
Entrar com o Google Meet
https://stream.meet.google.com/stream/673c76cd-b266-4002-b35e-fd147a3bc0dc