Skip navigation
Please use this identifier to cite or link to this item: https://repositorio.ufpe.br/handle/123456789/67767

Share on

Full metadata record
DC FieldValueLanguage
dc.contributor.advisorREN, Tsang Ing-
dc.contributor.authorALCÂNTARA, Lucas Augusto Mota de-
dc.date.accessioned2026-01-21T14:43:28Z-
dc.date.available2026-01-21T14:43:28Z-
dc.date.issued2024-03-26-
dc.identifier.citationALCANTARA, Lucas Augusto Mota de. Aprendizagem Contínua para Classificação de Imagens. 2024. Dissertação (Mestrado em Ciências da Computação) - Universidade Federal de Pernambuco, Recife, 2024.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/67767-
dc.description.abstractA habilidade de realizar Aprendizado Contínuo (Continual Learning) é crucial para o desenvolvimento de modelos de Inteligência Artificial capazes de adquirir e manter conheci mento ao longo do tempo sem esquecer informações anteriores. Isso representa um grande desafio técnico, dado que redes neurais são suscetíveis ao fenômeno de esquecimento catas trófico durante o processo de aprendizado de novas tarefas. Métodos basados na abordagem de pseudo-replay utilizam redes gerativas para criar amostras sintéticas de tarefas anteriores, que são então apresentadas ao modelo durante o aprendizado de novas tarefas com o intuito de reduzir o esquecimento. Nesta dissertação, exploramos melhorias no então método estado da arte baseado na abordagem de pseudo-replay, Invariant Representation for Continual Le arning (IRCL). Utilizamos como modelo gerativo uma cVAE-GAN (Conditional Variational Autoencoder Generative Adversarial Network) e desacoplamos o seu treinamnto do restante da arquitetura, de forma a otimizar as diferentes partes da rede de forma independente. Além disso, utilizamos camadas convolucionais ao invés de camadas lineares. Os resultados experi mentais alcançados demonstram melhorias de até 10 pontos percentuais na Acurácia Média e de até 8 pontos na média do Backward Transfer, superando o estado da arte nos conjuntos de dados Split MNIST e Split FashionMNIST.pt_BR
dc.language.isoporpt_BR
dc.publisherUniversidade Federal de Pernambucopt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/pt_BR
dc.subjectAprendizado Contínuopt_BR
dc.subjectEsquecimento Catastróficopt_BR
dc.subjectPseudo Replaypt_BR
dc.titleAprendizagem Contínua para Classificação de Imagenspt_BR
dc.typemasterThesispt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/2281206626592067pt_BR
dc.publisher.initialsUFPEpt_BR
dc.publisher.countryBrasilpt_BR
dc.degree.levelmestradopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/3084134533707587pt_BR
dc.publisher.programPrograma de Pos Graduacao em Ciencia da Computacaopt_BR
dc.description.abstractxContinual Learning is the concept of having a model able to sequentially learn to solve new tasks without losing the ability to solve previous tasks. Achieving this is challenging because neural networks usually suffer from catastrophic forgetting of the preceding tasks when they are learning new ones. To handle this issue, pseudo-replay approaches leverages the performance of generative networks using them to generate samples related to past data to serve as input to the model when it is learning new tasks. In this work, we propose an improved architecture and training strategy based on the state-of-the-art pseudo-replay IRCL method. We use a cVAE-GAN as the generative model and train it decoupled from the other components of the architecture. Also, we make use of convolutional layers for the architecture components instead of linear ones. Our experimental results show that the proposed method outperforms the state-of-the-art IRCL method by up to 10% in Average Accuracy and up to 8.3% in Average Backward Transfer on both Split MNIST and Split FashionMNIST datasetspt_BR
dc.contributor.advisorORCIDhttps://orcid.org/0000-0002-3677-0264pt_BR
Appears in Collections:Dissertações de Mestrado - Ciência da Computação

Files in This Item:
File Description SizeFormat 
DISSERTAÇÃO Lucas Augusto Mota de Alcantara.pdf2.28 MBAdobe PDFThumbnail
View/Open


This item is protected by original copyright



This item is licensed under a Creative Commons License Creative Commons