Estudo comparativo de modelos de sistemas de recomendação baseados em aprendizado por esforço

dc.contributor.advisorFABRÍCIO JAILSON BARTH
dc.contributor.authorCavalcanti, Samuel Jabes Costa
dc.date.accessioned2025-05-16T20:03:55Z
dc.date.issued2024
dc.description.abstractOs Sistemas de Recomendação são essenciais para o crescimento de plataformas como Netflix e Amazon Prime Video, facilitando a descoberta de conteúdo personalizado e relevante para os usuários. Entre as técnicas utilizadas no desenvolvimento desses sistemas, o aprendizado profundo é uma das mais comuns, por sua capacidade de identificar relações complexas entre usuários e produtos. No entanto, essa abordagem enfrenta desafios, como a adaptação a mudanças nas preferências dos usuários e o foco excessivo em recompensas imediatas, que podem resultar em fadiga e abandono da plataforma. O aprendizado por reforço surge como uma solução promissora para esses desafios, pois permite que o sistema aprenda continuamente com as interações dos usuários e adapte suas políticas de recomendação em tempo real, com foco no desempenho a longo prazo. Este trabalho realiza uma análise comparativa de diversas abordagens de sistemas de recomendação, incluindo as propostas de (LIU et al., 2018), (BACKGOM2357, 2024), e (XUE et al., 2017), além de propor um novo algoritmo baseado em aprendizado por reforço. A implementação utiliza modelos de embeddings da OpenAI para vetorizar descrições textuais do dataset MovieLens (1M), visando alcançar resultados comparáveis aos da literatura. No entanto, os resultados obtidos não comprovam a superioridade dos algoritmos de recomendação baseados em aprendizado por reforço em relação aos que utilizam apenas aprendizado profundo. Um dos desafios encontrados foi a dificuldade de replicar a proposta de (LIU et al., 2018), cuja metodologia apresenta valores de precisão e NDCG superiores aos das abordagens de aprendizado profundo, evidenciando a sensibilidade desses sistemas à formulação do problema e à configuração dos embeddings.pt
dc.formatDigital
dc.format.extent59 p.
dc.identifier.urihttps://repositorio.insper.edu.br/handle/11224/7689
dc.language.isoPortuguês
dc.subjectReinforcement Learningpt
dc.subjectRecommender Systemspt
dc.subjectNeural networks policiespt
dc.subjectCollaborative Filteringpt
dc.subjectContent-Based Filteringpt
dc.subjectPolicy gradientspt
dc.subjectDeep Deterministicpt
dc.subjectPolicy Gradientpt
dc.titleEstudo comparativo de modelos de sistemas de recomendação baseados em aprendizado por esforço
dc.typereport
dspace.entity.typePublication
local.subject.cnpqCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
local.subject.cnpqCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::ENGENHARIA DE SOFTWARE
local.subject.cnpqCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::SISTEMAS DE INFORMACAO
local.subject.cnpqCIENCIAS EXATAS E DA TERRA::MATEMATICA::MATEMATICA APLICADA
local.subject.cnpqCIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICA
local.typeRelatório de Iniciação Tecnológica
relation.isAdvisorOfPublication23da5ea9-5ae9-4cff-8368-5e035e5b89a5
relation.isAdvisorOfPublication.latestForDiscovery23da5ea9-5ae9-4cff-8368-5e035e5b89a5

Arquivos

Pacote original

Agora exibindo 1 - 2 de 2
Imagem de Miniatura
Nome:
Samuel Jabes Costa Cavalcanti_Trabalho.pdf
Tamanho:
1.03 MB
Formato:
Adobe Portable Document Format
N/D
Nome:
Samuel Jabes Costa Cavalcanti_Termo de autorização.pdf
Tamanho:
607.96 KB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
N/D
Nome:
license.txt
Tamanho:
236 B
Formato:
Item-specific license agreed upon to submission
Descrição: