Iniciação Científica e Tecnológica
URI permanente desta comunidadehttps://repositorio.insper.edu.br/handle/11224/3250
Navegar
11 resultados
Resultados da Pesquisa
Relatório de Iniciação Tecnológica Construção e projeto de controle de um monociclo autoequilibrado(2025) Souza, Victoria Leal Garcia deNeste trabalho é apresentado um sistema de um monociclo autônomo autoequilibrado usando roda de inércia o qual é replicado, mostrando desde a construção até o projeto e teste dos controladores usando um monociclo já existente como referência para a modelagem matemática. Primeiro é feito o projeto de controladores usando o modelo matemático da referência, e em seguida, é feito o projeto mecânico por meio de um desenho assistido por computador tridimensional (3D CAD). É feito um projeto de controle linear para estabilização da planta usando duas técnicas que são validadas via simulações do sistema não-linear. Naturalmente, os ângulos de pitch e roll têm dinâmicas acopladas. Neste trabalho, controles lineares são projetados seguindo a linearização pelo Jacobiano que foi feita no trabalho de referência (NEVES, 2017), assumindo pequenas variações em torno do ponto de equilíbrio, permitindo desacoplar as equações das dinâmicas dos ângulos. O protótipo é construído fixando os componentes eletrônicos, a bateria, as rodas e os motores a um corpo, de forma a ser totalmente autônomo. O posicionamento das peças precisa ser equilibrado, de forma a manter a posição do centro de massa ao longo dos eixos de simetria vertical e horizontal. Depois, as técnicas de controle são testadas no protótipo construído. A primeira técnica de controle testada consiste do controle ótimo LQR. A segunda técnica de controle consiste do controle PID em cascata que, apesar de ter funcionado, teve um desempenho pior que o LQR implementado.Relatório de Iniciação Tecnológica Estudo comparativo de modelos de sistemas de recomendação baseados em aprendizado por esforço(2024) Cavalcanti, Samuel Jabes CostaOs Sistemas de Recomendação são essenciais para o crescimento de plataformas como Netflix e Amazon Prime Video, facilitando a descoberta de conteúdo personalizado e relevante para os usuários. Entre as técnicas utilizadas no desenvolvimento desses sistemas, o aprendizado profundo é uma das mais comuns, por sua capacidade de identificar relações complexas entre usuários e produtos. No entanto, essa abordagem enfrenta desafios, como a adaptação a mudanças nas preferências dos usuários e o foco excessivo em recompensas imediatas, que podem resultar em fadiga e abandono da plataforma. O aprendizado por reforço surge como uma solução promissora para esses desafios, pois permite que o sistema aprenda continuamente com as interações dos usuários e adapte suas políticas de recomendação em tempo real, com foco no desempenho a longo prazo. Este trabalho realiza uma análise comparativa de diversas abordagens de sistemas de recomendação, incluindo as propostas de (LIU et al., 2018), (BACKGOM2357, 2024), e (XUE et al., 2017), além de propor um novo algoritmo baseado em aprendizado por reforço. A implementação utiliza modelos de embeddings da OpenAI para vetorizar descrições textuais do dataset MovieLens (1M), visando alcançar resultados comparáveis aos da literatura. No entanto, os resultados obtidos não comprovam a superioridade dos algoritmos de recomendação baseados em aprendizado por reforço em relação aos que utilizam apenas aprendizado profundo. Um dos desafios encontrados foi a dificuldade de replicar a proposta de (LIU et al., 2018), cuja metodologia apresenta valores de precisão e NDCG superiores aos das abordagens de aprendizado profundo, evidenciando a sensibilidade desses sistemas à formulação do problema e à configuração dos embeddings.Relatório de Iniciação Tecnológica Classificação de imagens médicas de alzheimer utilizando Redes neurais convolucionais para a identificação da doença(2024) Rodrigues Filho, Ricardo MourãoA pesquisa aborda o uso de redes neurais convolucionais (CNNs) para identificar e classificar diferentes estágios da Doença de Alzheimer (DA) a partir de imagens médicas, especificamente ressonâncias magnéticas (MRI). O estudo utiliza duas bases de dados principais: OASIS-1 e um conjunto de dados do Kaggle. O objetivo central do estudo foi desenvolver modelos de predição para detectar diferentes estágios da Doença de Alzheimer. Para isso, foram implementados dois modelos principais de CNN, além de uma abordagem com a arquitetura Inception V3 utilizando técnicas de transfer learning. O estudo também incluiu a criação de uma aplicação web escalável para facilitar o uso dos modelos em um ambiente de produção, permitindo que as previsões fossem realizadas em tempo real através da integração com a Google Cloud Platform (GCP). O pré-processamento dos dados foi uma etapa crucial, especialmente para as imagens do OASIS-1, que necessitavam de maior tratamento comparado ao conjunto de dados do Kaggle. As imagens tridimensionais de ressonância magnética foram fatiadas em imagens bidimensionais, focando em fatias que melhor representavam regiões cerebrais relevantes para o diagnóstico de Alzheimer. Esse processo gerou um conjunto ampliado de dados, essencial para treinar os modelos de CNN. Além disso, a pesquisa destaca a importância de métodos interpretáveis para a aplicação de CNNs na área médica, utilizando SHAP values para identificar as regiões das imagens que mais contribuíram para as previsões dos modelos. Essa abordagem ajuda na confiabilidade dos diagnósticos e oferece insights para os profissionais de saúde. Por fim, o projeto foi solidificado em uma implementação de uma aplicação web escalável baseada em microsserviços, utilizando a GCP. Ferramentas como Google Cloud Run, Google Cloud Functions e Google Vertex AI foram integradas para permitir a automação e escalabilidade do processo de predição a partir de imagens fornecidas ao modelo. O código-fonte foi disponibilizado no GitHub, com pipelines CI/CD configuradas para facilitar contribuições de outros pesquisadores.Relatório de Iniciação Tecnológica Representação de cenas 3D usando Deep Learning(2024) Rocha, Joao Gabriel ValentimO trabalho presente aborda avanços na computação gráfica, com foco em técnicas de renderização 3D baseadas em Machine Learning, como Neural Radiance Fields (NeRF), Instant NGP, BakedSDF e Gaussian Splatting. A introdução destaca a importância da visão computacional e a evolução da renderização de imagens, desde problemas diretos até problemas inversos, onde se busca reconstruir cenas tridimensionais a partir de imagens. O Gaussian Splatting é detalhado como uma técnica que utiliza gaussianas 3D para modelar cenas de forma eficiente, permitindo otimizações precisas e renderizações rápidas. O documento também explora a visualização de malhas e volumétrica, além de sistemas para renderização volumétrica inversa, como NerfStudio e SDFStudio. Experimentos são realizados para ajustar hiper-parâmetros do Gaussian Splatting, analisando seu impacto em métricas como PSNR, FPS e tempo de convergência. A adição de uma loss extra, como o filtro de Sobel, é testada para melhorar a qualidade das bordas nas imagens geradas. Conclui-se que o Gaussian Splatting oferece avanços significativos em eficiência e qualidade visual, com potencial para aplicações em realidade virtual e aumentada. Trabalhos futuros incluem ajustes finos de hiper-parâmetros e novas adaptações na função de perda para otimizar ainda mais o desempenho do algoritmo.Relatório de Iniciação Tecnológica CO-DESIGN E IMPLEMENTAÇÃO DE MÉTRICAS TÁTICAS E TÉCNICAS DO FUTEBOL: UMA ABORDAGEM POR VISÃO COMPUTACIONAL(2024) Meinberg, Bruna LimaO futebol representa um fenômeno de destaque no cenário esportivo, exercendo uma significativa influência no Brasil. Nesse contexto, há amplas oportunidades para a exploração de inovações durante sua prática e análise. O desenvolvimento de novas abordagens para avaliar o futebol tem conquistado espaço no mercado, impulsionando a tecnologia a desempenhar um papel crucial na forma como o jogo é estudado e jogado. Entre as tecnologias preponderantes nesse domínio, destacam-se a Visão Computacional e a Ciência de Dados, ambas voltadas para a captação, extração e análise de informações durante as partidas. Esse enfoque permite às equipes analisar e estudar diversos aspectos do jogo, como jogadas específicas e comportamentos individuais de jogadores, de acordo com as necessidades particulares de cada equipe. Assim, emergem diversas inteligências, contribuindo para a evolução e aprimoramento do futebol, um esporte amplamente popular e admirado. A utilização dessas tecnologias permite a construção de algoritmos próprios visando a análise de métricas que constituem uma partida de futebol. Dessa forma, a visão computacional extrai as informações brutas, como o posicionamento dos jogadores em campo, e a ciência de dados transforma essas informações em material de aplicação para os times. Ao longo dessa pesquisa foram desenvolvidos algoritmos responsáveis por analisar duas métricas relacionadas ao futebol: compactação e ruptura. A construção desses códigos teve como objetivo detectar jogadores específicos em instantes importantes dentro de uma partida. Eles foram desenvolvidos utilizando métodos de Co-Design e ágeis, com a realização de sprints semanais garantindo a evolução constante dos códigos. Para a análise de desempenho desse código, foi necessário alinhar a opinião de especialistas em conjunto com testes visuais que fizeram uso de imagens geradas de acordo com as coordenadas dos jogadores. O algoritmo de compactação apresentou resultados satisfatórios, no melhor caso acertando 64% dos casos e o algoritmo de ruptura teve um índice de acerto, no melhor caso, de 82,9%. Esses resultados traduzem um bom funcionamento dos algoritmo, mas englobam também a ideia de que não se constrói tecnologia sem uma análise manual mais aprofundada.Relatório de Iniciação Tecnológica NERFS, SDFS E GAUSSIAN SPLATTING(2024) Santos, André CorrêaEste relatório explora técnicas avançadas de visualização e reconstrução tridimensional, destacando especialmente os Campos de Radiância Neural (NeRF) e o Gaussian Splatting. Após discutir as limitações dos NeRFs, aprofunda-se na técnica de Gaussian Splatting, uma abordagem eficiente para representação 3D utilizando lobos gaussianos. O funcionamento de um rasterizador de gaussian splats é explorado, detalhando os parâmetros que podem ser otimizados, como posição, amplitude, escala, rotação e opacidade, projetando estas características em uma imagem 2D. A análise também se estende à implementação de rasterizadores gaussianos usando Compute Shaders, discutindo diferentes métodos e suas respectivas vantagens e desafios. A importância da renderização não fotorrealista (NPR) é destacada, apresentando uma implementação que utiliza Signed Distance Fields (SDFs) para aplicar efeitos visuais em áreas específicas de uma cena. As SDFs são integradas no Compute Shader, permitindo manipulação diferenciada das gaussianas para aplicar efeitos visuais personalizados, como deslocamento e reflexão. A conclusão apresenta resultados visuais dessa abordagem, sublinhando a flexibilidade e o potencial estético dessas técnicas inovadoras para a criação de cenas tridimensionais visualmente únicas. Adicionalmente, os resultados da técnica de reiluminação das gaussianas que foi desenvolvida são abordados. Essa inovação permite ajustes dinâmicos de brilho ao modificar a "iluminação"das gaussianas em tempo real com base na distância à superfície da esfera. Esta técnica proporciona maior controle visual, melhorando a qualidade estética das cenas renderizadas.Relatório de Iniciação Científica Revisão Sistemática da Literatura para a identificação de ações mundiais com foco em redução de desigualdade de gênero: um recorte para a área de Engenharia de Software(2024) Oliveira, Rafaela Afférri deAs mulheres representando aproximadamente metade da população global, persistem como uma minoria em diversos ambientes, incluindo a esfera da computação. Este estudo, integrante de uma pesquisa internacional liderada pela professora Dra. Carolyn Seaman, da Universidade de Maryland Baltimore County (UMBC), com pesquisadores da Universidade Federal de Pernambuco (UFPE), Universidade Católica de Pernambuco (UNICAP), Universidade Federal de Paraíba (UFPB), propõe uma revisão sistemática da literatura com o objetivo de analisar e compreender as iniciativas destinadas a ampliar a participação feminina na Engenharia de Software. Dentre os objetivos do estudo estão a identificação de lacunas nas pesquisas existentes, a compreensão das iniciativas globais para atrair, reter e encorajar mulheres na área, bem como a promoção da igualdade de gênero por meio do entendimento das dificuldades enfrentadas por elas. Realizado por uma equipe internacional de pesquisadores, o estudo segue um protocolo detalhado que estipula todas as etapas e procedimentos para garantir a confiabilidade da pesquisa, incluindo a metodologia de extração de dados dos artigos. Os dados coletados visam fornecer direcionamento tanto para Instituições de Ensino, incluindo o Insper, quanto para empresas, permitindo a criação de iniciativas próprias para tornar seus ambientes mais equitativos. O trabalho ainda não está finalizado uma vez que segue sendo desenvolvido no âmbito mundial, apesar disto já é possível analisar alguns dos dados encontrados.Relatório de Iniciação Científica Sistema de Gerenciamento de Baterias de Lítio(2024) Carvalho, Maria Luiza Sevilha Seraphico de AssisEsse relatório documenta a pesquisa realizada no tema do gerenciamento de baterias de lítio. Com uma breve introdução às baterias e seus diversos tipos, o principal objetivo do trabalho é produzir um modelo capaz de estimar o estado de carga da bateria de lítio, isto é, estimar o quanto ela está ou não carregada. Para atingirmos esse objetivo, utilizaremos como base o livro “Battery management systems: battery modeling” de Gregory Plett (PLETT, 2015). Nesse, o autor descreve o processo de modelagem utilizado, junto com várias características fundamentais da bateria que possibilitaram os avanços feitos e descritos durante a modelagem. Com o levantamento dos principais parâmetros que envolvem, sobretudo, o processo de descarga da bateria de lítio, foram realizados alguns testes com o uso de um osciloscópio, a fim de haver uma primeira aproximação de seus valores e grandezas. Após o processo de modelagem, montou-se um circuito que representasse o processo modelado. Ao fim, utiliza-se um estimador de Estados (Filtro de Kalman) para que os erros entre as medições sejam considerados e influenciem nas futuras predições do modelo criado.Relatório de Iniciação Científica Estudo de Reinforcement Learning para o Mercado Financeiro(2024) Claro, Lucca OliveiraO mercado ações é um ambiente complexo e volátil, por isso, encontrar uma estratégia favorável para analisá-lo é um desafio. Neste artigo serão utilizadas estratégias de fusão entre algoritmos de Reinforcement Learning para uma melhor análise desse mercado, visando maximizar o desempenho. Os algoritmos actor-critic, que serão treinados para a estratégia de fusão, são Advantage Actor Critic, Proximal Policy Optimization e Deep Deterministic Policy Gradient. A partir de um treinamento prévio, as fusões buscam priorizar o algoritmo com melhor estabilidade de acordo com as condições do mercado, com o objetivo de deixar o modelo robusto. As fusões são feitas para alcançar um melhor resultado do que os algoritmos individuais. A comparação entre os modelos é feita pelo Índice de Sharpe. O treinamento do modelo será feito pelas ações do Dow Jones e os indicadores técnicos utilizados são: Moving Average Convergence Divergence, Relative Strength Index, Commodity Channel Index e Average Directional Index.Relatório de Iniciação Científica A Comparison of Supercomputing Techniques Applied to the Detection of Exoplanets(2024) Barreto, Arthur Martins de SouzaEste trabalho aborda a implementação paralela do algoritmo de fitting de trânsitos planetários, o BLS. Esse algoritmo é fundamental para a análise de dados de satélites em missões espaciais, como as missões KEPLER e K2, discutidas neste projeto. O estudo foca na otimização do algoritmo utilizando frameworks de paralelismo, como OpenMP, MPI, GPUs por meio do PyTorch, e o STAPL, uma biblioteca que abstrai o uso de OpenMP e MPI. Como sugestão de melhoria para este projeto, destaca-se a importância da otimização do algoritmo de geração de candidatos para o BLS, pois é essencial que o período do trânsito e outros parâmetros estejam corretamente incluídos em uma lista abrangente de candidatos a serem testados.