Estudo comparativo de modelos de otimização de agentes autônomos baseados em aprendizado por reforço
dc.contributor.advisor | Ayres, Fábio José | pt_BR |
dc.contributor.author | Rocha, João Gabriel Valentim | |
dc.coverage.cidade | São Paulo | pt_BR |
dc.coverage.pais | Brasil | pt_BR |
dc.creator | Rocha, João Gabriel Valentim | |
dc.date.accessioned | 2023-03-18T23:26:36Z | |
dc.date.available | 2023-03-18T23:26:36Z | |
dc.date.issued | 2022 | |
dc.description.abstract | O estudo comparativo de modelos de optimização de agente autônomos tem influência direta nas circunstâncias tecnológicas atuais. O crescimento exponencial do número de aplicações da área de Reinforcement Learning tem trazido a necessidade de estudos comparativos, haja vista a importância de selecionar e utilizar algoritmos cada vez mais atuais, mais rápidos e mais eficientes para aquela tarefa. Logo, nosso objetivo é trazer um estudo detalhado a respeito do desempenho, sob as métricas adequadas, que os principais algoritmos de optimização de agentes autônomos têm e compará-los. Nesse sentido, utilizamos um ambiente de simulação para entender cada algoritmo na essência enquanto fazemos cada estudo comparativo. Sob essa perspectiva, é de suma importância tomar como base os estudos mais recentes de algoritmos de optimização que são utilizados hoje. A utilização das métricas para avaliar um algoritmo vai variar de algoritmo para algoritmo, caberá a nós escolher e utilizar as mais adequadas para aquele tipo de processo de aprendizagem do agente. Além disso, alguns métodos podem ser inseridos junto ao algoritmo, com o intuito de melhorar a performance da aprendizagem do agente. Nesse sentido, utilizamos os métodos de Curriculum Learning e Transfer Learning, que consiste na ideia de transferência de aprendizado por meio de um curriculum. Em outras palavras, é possível que um agente possa aprender a realizar uma tarefa complexa pela secção dessa tarefa em tarefas menores que podem transferir o aprendizado de uma tarefa (menos complexa) para a próxima (mais complexa). Dessa forma, é possível que a curva de aprendizagem (ou a de recompensa acumulativa) venha a convergir em um tempo menor e com menos esforço. O processo de estabelecer um comparativo entre modelos de algoritmos de optimização de agente autônomos é, portanto, crucial para o embasamento necessário que permite que o número de aplicações e solução de problemas cresçam cada vez mais, sobretudo, aquelas que envolvem as técnicas de Reinforcement Learning. | pt_BR |
dc.format.extent | 56 p. | pt_BR |
dc.format.medium | Digital | pt_BR |
dc.identifier.uri | https://repositorio.insper.edu.br/handle/11224/5403 | |
dc.language.iso | Português | pt_BR |
dc.rights.license | TODOS OS DOCUMENTOS DESTA COLEÇÃO PODEM SER ACESSADOS, MANTENDO-SE OS DIREITOS DOS AUTORES PELA CITAÇÃO DA ORIGEM. | pt_BR |
dc.subject.keywords | Reinforcement Learning | pt_BR |
dc.subject.keywords | Genetic Algorithms | pt_BR |
dc.subject.keywords | Neural networks policies | pt_BR |
dc.subject.keywords | Steering Behaviors | pt_BR |
dc.subject.keywords | Policy gradients | pt_BR |
dc.subject.keywords | REINFORCE | pt_BR |
dc.subject.keywords | Proximal Policy Optimization | pt_BR |
dc.subject.keywords | Curriculum Learning | pt_BR |
dc.title | Estudo comparativo de modelos de otimização de agentes autônomos baseados em aprendizado por reforço | pt_BR |
dc.type | report | |
dspace.entity.type | Publication | |
local.subject.cnpq | Ciências Sociais Aplicadas | pt_BR |
local.type | Relatório de Iniciação Científica | pt_BR |
Arquivos
Pacote Original
1 - 2 de 2
Carregando...
- Nome:
- João Gabriel Valentim Rocha - Trabalho.pdf
- Tamanho:
- 2.13 MB
- Formato:
- Adobe Portable Document Format
- Descrição:
- João Gabriel Valentim Rocha - Trabalho
N/D
- Nome:
- João Gabriel Valentim Rocha - Termo de autorização.pdf
- Tamanho:
- 105.24 KB
- Formato:
- Adobe Portable Document Format
- Descrição:
- João Gabriel Valentim Rocha - Termo de autorização
Licença do Pacote
1 - 1 de 1
N/D
- Nome:
- license.txt
- Tamanho:
- 282 B
- Formato:
- Item-specific license agreed upon to submission
- Descrição: