Relatório de Iniciação Tecnológica e Inovação

URI permanente para esta coleçãohttps://repositorio.insper.edu.br/handle/11224/3253

Navegar

Resultados da Pesquisa

Agora exibindo 1 - 4 de 4
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    Estudo comparativo de modelos de sistemas de recomendação baseados em aprendizado por esforço
    (2024) Cavalcanti, Samuel Jabes Costa
    Os Sistemas de Recomendação são essenciais para o crescimento de plataformas como Netflix e Amazon Prime Video, facilitando a descoberta de conteúdo personalizado e relevante para os usuários. Entre as técnicas utilizadas no desenvolvimento desses sistemas, o aprendizado profundo é uma das mais comuns, por sua capacidade de identificar relações complexas entre usuários e produtos. No entanto, essa abordagem enfrenta desafios, como a adaptação a mudanças nas preferências dos usuários e o foco excessivo em recompensas imediatas, que podem resultar em fadiga e abandono da plataforma. O aprendizado por reforço surge como uma solução promissora para esses desafios, pois permite que o sistema aprenda continuamente com as interações dos usuários e adapte suas políticas de recomendação em tempo real, com foco no desempenho a longo prazo. Este trabalho realiza uma análise comparativa de diversas abordagens de sistemas de recomendação, incluindo as propostas de (LIU et al., 2018), (BACKGOM2357, 2024), e (XUE et al., 2017), além de propor um novo algoritmo baseado em aprendizado por reforço. A implementação utiliza modelos de embeddings da OpenAI para vetorizar descrições textuais do dataset MovieLens (1M), visando alcançar resultados comparáveis aos da literatura. No entanto, os resultados obtidos não comprovam a superioridade dos algoritmos de recomendação baseados em aprendizado por reforço em relação aos que utilizam apenas aprendizado profundo. Um dos desafios encontrados foi a dificuldade de replicar a proposta de (LIU et al., 2018), cuja metodologia apresenta valores de precisão e NDCG superiores aos das abordagens de aprendizado profundo, evidenciando a sensibilidade desses sistemas à formulação do problema e à configuração dos embeddings.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    Classificação de imagens médicas de alzheimer utilizando Redes neurais convolucionais para a identificação da doença
    (2024) Rodrigues Filho, Ricardo Mourão
    A pesquisa aborda o uso de redes neurais convolucionais (CNNs) para identificar e classificar diferentes estágios da Doença de Alzheimer (DA) a partir de imagens médicas, especificamente ressonâncias magnéticas (MRI). O estudo utiliza duas bases de dados principais: OASIS-1 e um conjunto de dados do Kaggle. O objetivo central do estudo foi desenvolver modelos de predição para detectar diferentes estágios da Doença de Alzheimer. Para isso, foram implementados dois modelos principais de CNN, além de uma abordagem com a arquitetura Inception V3 utilizando técnicas de transfer learning. O estudo também incluiu a criação de uma aplicação web escalável para facilitar o uso dos modelos em um ambiente de produção, permitindo que as previsões fossem realizadas em tempo real através da integração com a Google Cloud Platform (GCP). O pré-processamento dos dados foi uma etapa crucial, especialmente para as imagens do OASIS-1, que necessitavam de maior tratamento comparado ao conjunto de dados do Kaggle. As imagens tridimensionais de ressonância magnética foram fatiadas em imagens bidimensionais, focando em fatias que melhor representavam regiões cerebrais relevantes para o diagnóstico de Alzheimer. Esse processo gerou um conjunto ampliado de dados, essencial para treinar os modelos de CNN. Além disso, a pesquisa destaca a importância de métodos interpretáveis para a aplicação de CNNs na área médica, utilizando SHAP values para identificar as regiões das imagens que mais contribuíram para as previsões dos modelos. Essa abordagem ajuda na confiabilidade dos diagnósticos e oferece insights para os profissionais de saúde. Por fim, o projeto foi solidificado em uma implementação de uma aplicação web escalável baseada em microsserviços, utilizando a GCP. Ferramentas como Google Cloud Run, Google Cloud Functions e Google Vertex AI foram integradas para permitir a automação e escalabilidade do processo de predição a partir de imagens fornecidas ao modelo. O código-fonte foi disponibilizado no GitHub, com pipelines CI/CD configuradas para facilitar contribuições de outros pesquisadores.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    Construção de métricas físicas no futebol: uma abordagem por visão computacional e ciência de dados
    (2024) Assunção, João Vitor Oliveira
    Desde a sua chegada ao Brasil em 1894, o futebol assumiu um papel protagonista no cenário esportivo nacional. A adesão ao esporte inglês foi tamanha que atualmente o Brasil é denominado como o país do futebol, sendo o maior campeão da principal competição de seleções: a Copa do Mundo. Entretanto, devido aos baixos investimentos, o futebol no Brasil se mostrou cada vez mais ultrapassado e decadente em relação às nações europeias. A Delta Goal surge como uma iniciativa para utilizar a tecnologia na ampliar as análises táticas de uma partida de futebol. Através da elaboração de uma solução computacional que seja capaz de, a partir da transmissão de uma partida de futebol, extrair dados táticos dos jogadores em campo, aplicando métricas previamente estabelecidas entre o time de pesquisa e as equipes parceiras. Para isso, utiliza-se a visão computacional para a extração de dados brutos de uma partida de futebol e o aprendizado de máquina para acessar um modelo cada vez mais fiel à realidade tática observada em uma partida. Dessa forma, os dados dos jogadores extraídos de uma partida de futebol somados com a ciência de dados, responsável por filtrar e analisar os dados brutos obtidos, são uma ótima rede de apoio para o modelo, servindo como dados de entrada, viabilizando um bom treinamento da Inteligência Artificial e maximizando os acertos. Assim, pode-se ter um comparativo entre os dados obtidos pelo programa e dados reais de uma mesma partida, possibilitando a análise da confiabilidade do código gerado. Nesse sentido, pode-se aprofundar nas métricas que exercem maior influência no desempenho dos jogadores e dos clubes, tornando o futebol mais racional.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    CO-DESIGN E IMPLEMENTAÇÃO DE MÉTRICAS TÁTICAS E TÉCNICAS DO FUTEBOL: UMA ABORDAGEM POR VISÃO COMPUTACIONAL
    (2024) Meinberg, Bruna Lima
    O futebol representa um fenômeno de destaque no cenário esportivo, exercendo uma significativa influência no Brasil. Nesse contexto, há amplas oportunidades para a exploração de inovações durante sua prática e análise. O desenvolvimento de novas abordagens para avaliar o futebol tem conquistado espaço no mercado, impulsionando a tecnologia a desempenhar um papel crucial na forma como o jogo é estudado e jogado. Entre as tecnologias preponderantes nesse domínio, destacam-se a Visão Computacional e a Ciência de Dados, ambas voltadas para a captação, extração e análise de informações durante as partidas. Esse enfoque permite às equipes analisar e estudar diversos aspectos do jogo, como jogadas específicas e comportamentos individuais de jogadores, de acordo com as necessidades particulares de cada equipe. Assim, emergem diversas inteligências, contribuindo para a evolução e aprimoramento do futebol, um esporte amplamente popular e admirado. A utilização dessas tecnologias permite a construção de algoritmos próprios visando a análise de métricas que constituem uma partida de futebol. Dessa forma, a visão computacional extrai as informações brutas, como o posicionamento dos jogadores em campo, e a ciência de dados transforma essas informações em material de aplicação para os times. Ao longo dessa pesquisa foram desenvolvidos algoritmos responsáveis por analisar duas métricas relacionadas ao futebol: compactação e ruptura. A construção desses códigos teve como objetivo detectar jogadores específicos em instantes importantes dentro de uma partida. Eles foram desenvolvidos utilizando métodos de Co-Design e ágeis, com a realização de sprints semanais garantindo a evolução constante dos códigos. Para a análise de desempenho desse código, foi necessário alinhar a opinião de especialistas em conjunto com testes visuais que fizeram uso de imagens geradas de acordo com as coordenadas dos jogadores. O algoritmo de compactação apresentou resultados satisfatórios, no melhor caso acertando 64% dos casos e o algoritmo de ruptura teve um índice de acerto, no melhor caso, de 82,9%. Esses resultados traduzem um bom funcionamento dos algoritmo, mas englobam também a ideia de que não se constrói tecnologia sem uma análise manual mais aprofundada.