Estudo comparativo de modelos de otimização de agentes autônomos baseados em aprendizado por reforço

dc.contributor.advisorAyres, Fábio Josépt_BR
dc.contributor.authorRocha, João Gabriel Valentim
dc.coverage.cidadeSão Paulopt_BR
dc.coverage.paisBrasilpt_BR
dc.creatorRocha, João Gabriel Valentim
dc.date.accessioned2023-03-18T23:26:36Z
dc.date.available2023-03-18T23:26:36Z
dc.date.issued2022
dc.description.abstractO estudo comparativo de modelos de optimização de agente autônomos tem influência direta nas circunstâncias tecnológicas atuais. O crescimento exponencial do número de aplicações da área de Reinforcement Learning tem trazido a necessidade de estudos comparativos, haja vista a importância de selecionar e utilizar algoritmos cada vez mais atuais, mais rápidos e mais eficientes para aquela tarefa. Logo, nosso objetivo é trazer um estudo detalhado a respeito do desempenho, sob as métricas adequadas, que os principais algoritmos de optimização de agentes autônomos têm e compará-los. Nesse sentido, utilizamos um ambiente de simulação para entender cada algoritmo na essência enquanto fazemos cada estudo comparativo. Sob essa perspectiva, é de suma importância tomar como base os estudos mais recentes de algoritmos de optimização que são utilizados hoje. A utilização das métricas para avaliar um algoritmo vai variar de algoritmo para algoritmo, caberá a nós escolher e utilizar as mais adequadas para aquele tipo de processo de aprendizagem do agente. Além disso, alguns métodos podem ser inseridos junto ao algoritmo, com o intuito de melhorar a performance da aprendizagem do agente. Nesse sentido, utilizamos os métodos de Curriculum Learning e Transfer Learning, que consiste na ideia de transferência de aprendizado por meio de um curriculum. Em outras palavras, é possível que um agente possa aprender a realizar uma tarefa complexa pela secção dessa tarefa em tarefas menores que podem transferir o aprendizado de uma tarefa (menos complexa) para a próxima (mais complexa). Dessa forma, é possível que a curva de aprendizagem (ou a de recompensa acumulativa) venha a convergir em um tempo menor e com menos esforço. O processo de estabelecer um comparativo entre modelos de algoritmos de optimização de agente autônomos é, portanto, crucial para o embasamento necessário que permite que o número de aplicações e solução de problemas cresçam cada vez mais, sobretudo, aquelas que envolvem as técnicas de Reinforcement Learning.pt_BR
dc.format.extent56 p.pt_BR
dc.format.mediumDigitalpt_BR
dc.identifier.urihttps://repositorio.insper.edu.br/handle/11224/5403
dc.language.isoPortuguêspt_BR
dc.rights.licenseTODOS OS DOCUMENTOS DESTA COLEÇÃO PODEM SER ACESSADOS, MANTENDO-SE OS DIREITOS DOS AUTORES PELA CITAÇÃO DA ORIGEM.pt_BR
dc.subject.keywordsReinforcement Learningpt_BR
dc.subject.keywordsGenetic Algorithmspt_BR
dc.subject.keywordsNeural networks policiespt_BR
dc.subject.keywordsSteering Behaviorspt_BR
dc.subject.keywordsPolicy gradientspt_BR
dc.subject.keywordsREINFORCEpt_BR
dc.subject.keywordsProximal Policy Optimizationpt_BR
dc.subject.keywordsCurriculum Learningpt_BR
dc.titleEstudo comparativo de modelos de otimização de agentes autônomos baseados em aprendizado por reforçopt_BR
dc.typereport
dspace.entity.typePublication
local.subject.cnpqCiências Sociais Aplicadaspt_BR
local.typeRelatório de Iniciação Científicapt_BR
Arquivos
Pacote Original
Agora exibindo 1 - 2 de 2
Carregando...
Imagem de Miniatura
Nome:
João Gabriel Valentim Rocha - Trabalho.pdf
Tamanho:
2.13 MB
Formato:
Adobe Portable Document Format
Descrição:
João Gabriel Valentim Rocha - Trabalho
N/D
Nome:
João Gabriel Valentim Rocha - Termo de autorização.pdf
Tamanho:
105.24 KB
Formato:
Adobe Portable Document Format
Descrição:
João Gabriel Valentim Rocha - Termo de autorização
Licença do Pacote
Agora exibindo 1 - 1 de 1
N/D
Nome:
license.txt
Tamanho:
282 B
Formato:
Item-specific license agreed upon to submission
Descrição: