Skip navigation
Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufpe.br/handle/123456789/45794

Comparte esta pagina

Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorVASCONCELOS, Germano Crispim-
dc.contributor.authorGAMA NETO, Milton Vasconcelos da-
dc.date.accessioned2022-08-18T12:31:50Z-
dc.date.available2022-08-18T12:31:50Z-
dc.date.issued2022-03-10-
dc.identifier.citationGAMA NETO, Milton Vasconcelos da. Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais. 2022. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2022.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/45794-
dc.description.abstractAs soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e surgimento de novos métodos cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a confiança e o controle das soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, propondo um mapa conceitual para organizar as taxonomias e abordagens. E realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio no qual a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar estratégias. Diante das lacunas encontradas, um novo método é proposto nesta pesquisa, o Textual SHAP. O método busca endereçar necessidades da área como, por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos e apresenta em uma ferramenta com interface gráfica interativa. Foi realizada uma avaliação através de questionários com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.pt_BR
dc.language.isoporpt_BR
dc.publisherUniversidade Federal de Pernambucopt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectInteligência computacionalpt_BR
dc.subjectAprendizagem de máquinapt_BR
dc.subjectMineração de dadospt_BR
dc.titleAnálise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuaispt_BR
dc.typemasterThesispt_BR
dc.contributor.advisor-coZANCHETTIN, Cleber-
dc.contributor.authorLatteshttp://lattes.cnpq.br/6121156469215500pt_BR
dc.publisher.initialsUFPEpt_BR
dc.publisher.countryBrasilpt_BR
dc.degree.levelmestrado profissionalpt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/5943634209341438pt_BR
dc.publisher.programPrograma de Pos Graduacao em Ciencia da Computacaopt_BR
dc.description.abstractxThe Artificial Intelligence (AI) applications, more specifically Machine Learning (ML), have reached increasing levels of performance due to computational capacity, data availability and emergence of new and increasingly complex methods. This complexity has been increas-ing the difficulty of interpreting the internal mechanism which leads the ML model in decision recommendation. Aiming to improve the interpretability and maintain the accuracy of these complex models, Explainable AI has emerged, with an important role in boosting trust and control of AI solutions. This work presents an analysis of the state of the art in the area, proposing a conceptual map to organize taxonomies and approaches. And performs a comparison between the main techniques in literature through experiments on a real data set to interpret a trained model to classify school performance, a domain in which the interpretation of model results is fundamental. The results point out the advantages and disadvantages of the approaches, discussions about the outputs provided, as well as a way to combine strate-gies. Given the gaps found, a new method is proposed in this research, the Textual SHAP. The method seeks to address the needs of the area, for example, considering the lay user’s perspective as the focus of explainability. The method extracts the main information from the chart from the global interpretation of SHAP, a state-of-the-art XAI technique, and converts it to a simpler format through texts and presents a tool with an interactive graphical inter-face. An evaluation was carried out with people with knowledge in the field of education and unfamiliar with AI. The results showed that the proposed approach is less complex to interpret and provides a higher level of understanding of what is exposed to users. With the textual explanation approach, the proposed method has the potential to achieve comprehensive and effective explanations, contributing to the advances of human-centered approaches.pt_BR
dc.contributor.advisor-coLatteshttp://lattes.cnpq.br/1244195230407619pt_BR
Aparece en las colecciones: Dissertações de Mestrado Profissional - Ciência da Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
DISSERTAÇÃO Milton Vasconcelos da Gama Neto.pdf3,2 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está protegido por copyright original



Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons