Skip navigation
Use este identificador para citar ou linkar para este item: https://repositorio.ufpe.br/handle/123456789/34407

Compartilhe esta página

Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorRAMOS, Francisco de Sousa-
dc.contributor.authorANDRADE, Adryenne Cristinni de Oliveira-
dc.date.accessioned2019-10-10T16:49:30Z-
dc.date.available2019-10-10T16:49:30Z-
dc.date.issued2019-04-12-
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/34407-
dc.description.abstractA partir da modelagem baseada em agentes, contextos em diferentes níveis de complexidade podem ser simulados. Esta técnica de análise que é principalmente desenvolvida levando em consideração a heterogeneidade dos indivíduos, quando utilizada em conjunto com algoritmos de aprendizagem por reforço, possibilita resultados precisos e mais próximos dos encontrados em contextos reais. Isso ocorre pois o comportamento estratégico é introduzido ao modelo de simulação por meio dos algoritmos de aprendizagem, possibilitando que o agente atue de forma a maximizar sua utilidade e satisfação. Ao aplicar estas abordagens ao estudo de problemas-padrão da teoria dos jogos, que apresentam equilíbrios pautados em racionalidade ilimitada, verificar-se-á a influência dos processos de aprendizagem tanto no comportamento individual do agente, quanto no resultado do jogo como um todo. Os algoritmos de aprendizagem por reforço, Roth-Erev RL (RE), Modified Roth-Erev RL (MRE) e Variant Roth-Erev - RL (VRE) foram incorporados ao comportamento de apenas um dos agentes que compõem a situação de conflito, com o objetivo de avaliar a capacidade de mapeamento de resposta, proporcionada por tais algoritmos, uma vez que o agente que não aprende apresenta dois diferentes comportamentos: fixo ou aleatório. Os parâmetros de experimentação e esquecimento, vieses psicológicos presentes nos algoritmos, sofreram variações buscando identificar possíveis influências nos processos de aprendizagem. Com isso, o objetivo do presente estudo é identificar possíveis alterações nos resultados canônicos conhecidos para os jogos do Dilema dos Prisioneiros, Batalha dos Sexos e Chicken Game, diante dos processos de aprendizagem incorporados ao modelo de simulação bem como da suposição de racionalidade limitada. Os três algoritmos foram capazes de proporcionar comportamento estratégico, ao agente que aprende, nos cenários em que os parâmetros de experimentação e esquecimento não foram considerados. Ao atribuir valores positivos a ambos os parâmetros, variações nos comportamentos puderam ser observadas. De um modo geral, o algoritmo Roth-Erev RL demonstrou maior robustez, quando incorporado a este tipo de estudo, ao confirmar os resultados canônicos determinados para cada um dos jogos clássicos testados, mesmo em resposta às variações de ambos os parâmetros. Já os algoritmos MRE e VRE demonstraram-se sensíveis às variações feitas no parâmetro de experimentação, resultando em comportamentos não correspondentes com o melhor cenário que poderia ser alcançado na situação de conflito, impossibilitando que o agente dotado de aprendizado realizasse o mapeamento das ações do agente oponente. Constatou-se que há uma escassez de trabalhos, na literatura, utilizando em conjunto, a Modelagem Baseada em Agentes, os algoritmos de aprendizagem e a teoria dos jogos, para estudar, sob diferentes perspectivas, o comportamento estratégico em ambiente de simulação, demonstrando dessa forma a contribuição deste estudo e uma área com alto potencial de exploração.pt_BR
dc.description.sponsorshipCAPESpt_BR
dc.language.isoporpt_BR
dc.publisherUniversidade Federal de Pernambucopt_BR
dc.rightsopenAccesspt_BR
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectEngenharia de Produçãopt_BR
dc.subjectModelagem baseada em agentespt_BR
dc.subjectAlgoritmos de aprendizagempt_BR
dc.subjectTeoria dos jogospt_BR
dc.subjectComportamento estratégicopt_BR
dc.titleProcessos de aprendizagem em modelos agent-based : os algoritmos Reinforcement Learning aplicados a teoria dos jogospt_BR
dc.typemasterThesispt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/0150702098677969pt_BR
dc.publisher.initialsUFPEpt_BR
dc.publisher.countryBrasilpt_BR
dc.degree.levelmestradopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/1190610699976105pt_BR
dc.publisher.programPrograma de Pos Graduacao em Engenharia de Producaopt_BR
dc.description.abstractxFrom agent-based modeling, contexts at different levels of complexity can be simulated. This technique of analysis that is mainly developed taking into account the heterogeneity of the individuals, when used in conjunction with reinforcement learning algorithms, allows accurate results and closer to those found in real contexts. This is because strategic behavior is introduced to the simulation model through the learning algorithms, enabling the agent to act in a way to maximize its utility and satisfaction. In applying these approaches to the study of problems of game theory, which present equilibria based on unlimited rationality, the influence of learning processes will be verified both on the individual behavior of the agent and on the outcome of the game as a whole. The reinforcement learning algorithms, Roth-Erev RL (RE), Modified Roth- Erev RL (MRE) and Variant Roth-Erev RL (VRE) were incorporated into the behavior of only one of the agents that compose the conflict situation, with the objective of evaluating the response mapping capability provided by such algorithms, since the non-learning agent presents two different behaviors: fixed or random. The experimentation and recency parameters, psychological bias present in the algorithms, suffered variations in order to identify possible influences in the learning processes. The objective of the present study is to identify possible changes in the canonical results known for the games of Prisoners’ Dilemma, Battle of the Sexes and Chicken Game, in view of the learning processes incorporated into the simulation model as well as the assumption of limited rationality. The three algorithms were able to provide strategic behavior, to the learning agent, in the scenarios in which the parameters of experimentation and recency were not considered. By assigning positive values to both parameters, variations in behaviors could be observed. In general, the Roth-Erev RL algorithm demonstrated greater robustness, when incorporated to this type of study, in confirming the canonical results determined for each of the classic games tested, even in response to the variations of both parameters. However, the MRE and VRE algorithms proved to be sensitive to the variations made in the experimentation parameter, resulting in non-corresponding behaviors with the best scenario that could be reached in the conflict situation, making it impossible for the agent with learning to map agent actions opponent. It was found that there is a shortage of works, in the literature, using together, Agent- Based Modeling, learning algorithms and game theory, to study, from different perspectives, the strategic behavior in a simulation environment, demonstrating this the contribution of this study and an area with high exploration potential.pt_BR
Aparece nas coleções:Dissertações de Mestrado - Engenharia de Produção

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DISSERTAÇÃO Adryenne Cristinni de Oliveira Andrade.pdf2,39 MBAdobe PDFThumbnail
Visualizar/Abrir


Este arquivo é protegido por direitos autorais



Este item está licenciada sob uma Licença Creative Commons Creative Commons