Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
Full metadata record
DC FieldValueLanguage
dc.creator.IDNÓBREGA, C. S. B.pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/8188640293164060pt_BR
dc.contributor.advisor1MARINHO, Leandro Balby.-
dc.contributor.advisor1IDMARINHO, L. B.pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3728312501032061pt_BR
dc.contributor.referee1CAMPELO, Cláudio Elízio Calazans.-
dc.contributor.referee2ANDRADE, Nazareno Ferreira de.-
dc.contributor.referee3MOURA, Edleno Silva de.-
dc.contributor.referee4MANZATO, Marcelo Garcia.-
dc.description.resumoO aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentCentro de Engenharia Elétrica e Informática - CEEIpt_BR
dc.publisher.programPÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃOpt_BR
dc.publisher.initialsUFCGpt_BR
dc.subject.cnpqCiência da Computaçãopt_BR
dc.titleGeração de explicações para sistemas de recomendação via modelos locais interpretáveis.pt_BR
dc.date.issued2021-02-05-
dc.description.abstractThe increase in sophistication and complexity of Machine Learning (ML) models has turned them into black boxes where the reasoning behind their predictions is hard to understand by humans. Even for low-risk tasks such as movie recommendation, show why a recommendation was made has become a key requirement since it can potentially improve users’ trust and help them to make better decisions. In this sense, there is a growing need to equip such models with interpretability in order to make them clear or easy to understand. A popular approach to achieve this goal is known as post-hoc interpretability, which consists of separating the process of generating explanations from the complex model, i.e, adding a layer of interpretability on top of it. In this thesis, we propose to investigate post-hoc interpretability methods for complex recommender systems. In particular, we propose an adaptation of LIME (Local Interpretable Model-agnostic Explanations), a popular post-hoc interpretability method, whose objective is to learn an interpretable model, under a space of interpretable features in the neighborhood of the instance being predicted. In addition, we investigate how different neighborhood generation strategies can impact the quality of the explanations. We conduct offline experiments and show that our proposed adaptation is a promising alternative since it is comparable in terms of fidelity, i.e., can locally mimic the behavior of a complex recommender, and has the additional advantage of enabling different styles of explanations. Finally, we show that the user’s consumption history is the neighborhood strategy that best suits our approach.pt_BR
dc.identifier.urihttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525-
dc.date.accessioned2021-06-21T20:52:29Z-
dc.date.available2021-06-21-
dc.date.available2021-06-21T20:52:29Z-
dc.typeTesept_BR
dc.subjectSistemas de Recomendaçãopt_BR
dc.subjectExplicações de Recomendaçõespt_BR
dc.subjectInterpretabilidadept_BR
dc.subjectFatoração de Matrizespt_BR
dc.subjectApredizabem Profundapt_BR
dc.subjectRecommender Systemspt_BR
dc.subjectRecommendation Explanationspt_BR
dc.subjectInterpretabilitypt_BR
dc.subjectMatrix Factorizationpt_BR
dc.subjectDeep Learningpt_BR
dc.rightsAcesso Abertopt_BR
dc.creatorNÓBREGA, Caio Santos Bezerra.-
dc.publisherUniversidade Federal de Campina Grandept_BR
dc.languageporpt_BR
dc.title.alternativeGeneration of explanations for recommendation systems via interpretable local models.pt_BR
dc.identifier.citationNÓBREGA, C. S. B. Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. 2021. 123 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2021. disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525pt_BR
Appears in Collections:Doutorado em Ciência da Computação.

Files in This Item:
File Description SizeFormat 
CAIO SANTOS BEZERRA NÓBREGA - TESE (PPGCC) 2021.pdfCaio Santos Bezerra Nóbrega - Tese (PPGCC) 2021.2.39 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.