Título: Ataque Adversarial em Modelo de Linguagem de Grande Escala para a Língua Portuguesa.
Resumo: Os modelos de linguagem de grande escala têm ganho muita visibilidade atualmente, eles são amplamente utilizados e revolucionam a área de inteligência artificial permitindo que máquinas processem e reproduzam textos parecidos como os humanos de uma forma sem precedentes. Da mesma forma que essa tecnologia promove a criação de aplicações inovativas, desde chatbots e assistentes virtuais até ferramentas de produção de conteúdo e sistemas de recomendação personalizado, ela também se depara com grandes desafios e riscos como os ataques adversarial. Os ataques adversarial tem como propósito revelar a vulnerabilidade de modelos de redes neurais profundas, base dos modelos de linguagem de grande escala e assim tornar os modelos mais robustos, viabilizando o desenvolvimento de métodos de defesa contra estes ataques. Este trabalho pretende investigar a eficácia de ataques adversarial em modelo de linguagem de grande escala para a Língua Portuguesa nos domínios da PLN de análise de sentimentos e implicação textual, utilizando-se de uma ferramenta da academia para este propósito.
Palavras-Chave: LLM, NLP, PLN, Ataque adversarial, Sabiá, BERTimbau, PTT5, Deep Learning, OpenAttack, TextAttack, Rede neural.
Banca examinadora :
Profa. Dra. Adriana Cesário de Faria Alvim (Orientadora) – UNIRIO
Prof. Dr. Pedro Nuno de Souza Moura – UNIRIO
Prof. Dr. Carlos Eduardo Ribeiro de Mello – UNIRIO
Prof. Dr. Julio Cesar Duarte – IME
Data e local da defesa:
Auditório do PPGI
27/08/2024 de 13:00 às 15:30