Iniciação Científica e Tecnológica
URI permanente desta comunidadehttps://repositorio.insper.edu.br/handle/11224/3250
Navegar
107 resultados
Resultados da Pesquisa
Relatório de Iniciação Tecnológica Construção e projeto de controle de um monociclo autoequilibrado(2025) Souza, Victoria Leal Garcia deNeste trabalho é apresentado um sistema de um monociclo autônomo autoequilibrado usando roda de inércia o qual é replicado, mostrando desde a construção até o projeto e teste dos controladores usando um monociclo já existente como referência para a modelagem matemática. Primeiro é feito o projeto de controladores usando o modelo matemático da referência, e em seguida, é feito o projeto mecânico por meio de um desenho assistido por computador tridimensional (3D CAD). É feito um projeto de controle linear para estabilização da planta usando duas técnicas que são validadas via simulações do sistema não-linear. Naturalmente, os ângulos de pitch e roll têm dinâmicas acopladas. Neste trabalho, controles lineares são projetados seguindo a linearização pelo Jacobiano que foi feita no trabalho de referência (NEVES, 2017), assumindo pequenas variações em torno do ponto de equilíbrio, permitindo desacoplar as equações das dinâmicas dos ângulos. O protótipo é construído fixando os componentes eletrônicos, a bateria, as rodas e os motores a um corpo, de forma a ser totalmente autônomo. O posicionamento das peças precisa ser equilibrado, de forma a manter a posição do centro de massa ao longo dos eixos de simetria vertical e horizontal. Depois, as técnicas de controle são testadas no protótipo construído. A primeira técnica de controle testada consiste do controle ótimo LQR. A segunda técnica de controle consiste do controle PID em cascata que, apesar de ter funcionado, teve um desempenho pior que o LQR implementado.Relatório de Iniciação Tecnológica Estudo comparativo de modelos de sistemas de recomendação baseados em aprendizado por esforço(2024) Cavalcanti, Samuel Jabes CostaOs Sistemas de Recomendação são essenciais para o crescimento de plataformas como Netflix e Amazon Prime Video, facilitando a descoberta de conteúdo personalizado e relevante para os usuários. Entre as técnicas utilizadas no desenvolvimento desses sistemas, o aprendizado profundo é uma das mais comuns, por sua capacidade de identificar relações complexas entre usuários e produtos. No entanto, essa abordagem enfrenta desafios, como a adaptação a mudanças nas preferências dos usuários e o foco excessivo em recompensas imediatas, que podem resultar em fadiga e abandono da plataforma. O aprendizado por reforço surge como uma solução promissora para esses desafios, pois permite que o sistema aprenda continuamente com as interações dos usuários e adapte suas políticas de recomendação em tempo real, com foco no desempenho a longo prazo. Este trabalho realiza uma análise comparativa de diversas abordagens de sistemas de recomendação, incluindo as propostas de (LIU et al., 2018), (BACKGOM2357, 2024), e (XUE et al., 2017), além de propor um novo algoritmo baseado em aprendizado por reforço. A implementação utiliza modelos de embeddings da OpenAI para vetorizar descrições textuais do dataset MovieLens (1M), visando alcançar resultados comparáveis aos da literatura. No entanto, os resultados obtidos não comprovam a superioridade dos algoritmos de recomendação baseados em aprendizado por reforço em relação aos que utilizam apenas aprendizado profundo. Um dos desafios encontrados foi a dificuldade de replicar a proposta de (LIU et al., 2018), cuja metodologia apresenta valores de precisão e NDCG superiores aos das abordagens de aprendizado profundo, evidenciando a sensibilidade desses sistemas à formulação do problema e à configuração dos embeddings.Relatório de Iniciação Tecnológica Classificação de imagens médicas de alzheimer utilizando Redes neurais convolucionais para a identificação da doença(2024) Rodrigues Filho, Ricardo MourãoA pesquisa aborda o uso de redes neurais convolucionais (CNNs) para identificar e classificar diferentes estágios da Doença de Alzheimer (DA) a partir de imagens médicas, especificamente ressonâncias magnéticas (MRI). O estudo utiliza duas bases de dados principais: OASIS-1 e um conjunto de dados do Kaggle. O objetivo central do estudo foi desenvolver modelos de predição para detectar diferentes estágios da Doença de Alzheimer. Para isso, foram implementados dois modelos principais de CNN, além de uma abordagem com a arquitetura Inception V3 utilizando técnicas de transfer learning. O estudo também incluiu a criação de uma aplicação web escalável para facilitar o uso dos modelos em um ambiente de produção, permitindo que as previsões fossem realizadas em tempo real através da integração com a Google Cloud Platform (GCP). O pré-processamento dos dados foi uma etapa crucial, especialmente para as imagens do OASIS-1, que necessitavam de maior tratamento comparado ao conjunto de dados do Kaggle. As imagens tridimensionais de ressonância magnética foram fatiadas em imagens bidimensionais, focando em fatias que melhor representavam regiões cerebrais relevantes para o diagnóstico de Alzheimer. Esse processo gerou um conjunto ampliado de dados, essencial para treinar os modelos de CNN. Além disso, a pesquisa destaca a importância de métodos interpretáveis para a aplicação de CNNs na área médica, utilizando SHAP values para identificar as regiões das imagens que mais contribuíram para as previsões dos modelos. Essa abordagem ajuda na confiabilidade dos diagnósticos e oferece insights para os profissionais de saúde. Por fim, o projeto foi solidificado em uma implementação de uma aplicação web escalável baseada em microsserviços, utilizando a GCP. Ferramentas como Google Cloud Run, Google Cloud Functions e Google Vertex AI foram integradas para permitir a automação e escalabilidade do processo de predição a partir de imagens fornecidas ao modelo. O código-fonte foi disponibilizado no GitHub, com pipelines CI/CD configuradas para facilitar contribuições de outros pesquisadores.Relatório de Iniciação Tecnológica Freio regenerativo: Aplicação e efeito de métodos de controle para aumentar a eficiência de energia em carros elétricos.(2024) Oliveira, Luís Antônio Bordignon deA frenagem regenerativa é uma tecnologia é um método que permite recuperar parte da energia cinética de um veículo durante a frenagem, ao contrário dos sistemas tradicionais. Essa energia é convertida em eletricidade e armazenada, melhorando o desempenho energético do veículo. Com isso, há o desafio de carregar a bateria, que tem tensão maior à gerada pelo motor durante a frenagem. Assim, será abordado duas técnicas. A primeira, um circuito buck-boost chopper e um regime especial de capacitores que cria pulsos de tensões elevadas. A pesquisa combina modelagens analíticas e simulações computacionais no software Matlab/Simulink. Os resultados iniciais mostraram necessidade de buscar uma abordagem alternativa, visto que não foi atingido a recuperação de energia esperada durante a simulação. Também, é importante destacar a importância da otimização dos parâmetros para o desempenho do sistema. Foi identificado a importância do impacto da frequência do PWM e velocidade final na eficiência da recuperação de energia. Assim, sabe-se o primeiro atua em papel fundamental no resultado final da simulação, e o segundo se mantém indiferente. Também, é inerente o apoio do tempo de frenagem, velocidade inicial e corrente de frenagem no desempenho da simulação. Assim, é concluído que é possível a recuperação de energia na frenagem de veículos elétricos, por meio de circuitos elevadores de tensão, além de fatores externos, como intensidade da frenagem, terem forte influência na performance do sistema. Para justa comparação, recomenda-se simular condições específicas, baseadas na competição de eficiência energética Shell Eco-Marathon, que ocorre no Rio de Janeiro anualmente.Relatório de Iniciação Tecnológica Desenvolvimento de sensores de deformação usando Manufatura Aditiva por Filamento Fundido (FFF)(2024) Terra, Katty GurgelEste projeto de pesquisa visa fabricar sensores de deformidade utilizando filamento condutivo. Ao final do projeto, procura-se produzir uma célula de carga capaz de medir massa. Durante os meses que se seguiram, houve uma busca por um fornecedor do material no mercado de filamentos condutivos e, fortuitamente, a empresa 3DX irá prover material e realizar a impressão das peças e sensores. Além disso, houve um aprofundado estudo das características materiais do filamento, cujo qual será o PA, e sobre a atual situação que se encontra a pesquisa em relação aos sensores impressos e embutidos. Procura-se, nos meses que se seguem: a impressão de peças norteadoras do comportamento do material diante os parâmetros de impressão; ensaios sobre corpos de prova, de maneira que se descreva o comportamento do sensor impresso; uma análise de desempenho do sensor, utilizando-se de uma célula de carga para avaliar sua sensibilidade e erro em relação ao sensor comercial; e pôr fim a impressão e calibração de uma balança completamente impressa.Relatório de Iniciação Tecnológica Representação de cenas 3D usando Deep Learning(2024) Rocha, Joao Gabriel ValentimO trabalho presente aborda avanços na computação gráfica, com foco em técnicas de renderização 3D baseadas em Machine Learning, como Neural Radiance Fields (NeRF), Instant NGP, BakedSDF e Gaussian Splatting. A introdução destaca a importância da visão computacional e a evolução da renderização de imagens, desde problemas diretos até problemas inversos, onde se busca reconstruir cenas tridimensionais a partir de imagens. O Gaussian Splatting é detalhado como uma técnica que utiliza gaussianas 3D para modelar cenas de forma eficiente, permitindo otimizações precisas e renderizações rápidas. O documento também explora a visualização de malhas e volumétrica, além de sistemas para renderização volumétrica inversa, como NerfStudio e SDFStudio. Experimentos são realizados para ajustar hiper-parâmetros do Gaussian Splatting, analisando seu impacto em métricas como PSNR, FPS e tempo de convergência. A adição de uma loss extra, como o filtro de Sobel, é testada para melhorar a qualidade das bordas nas imagens geradas. Conclui-se que o Gaussian Splatting oferece avanços significativos em eficiência e qualidade visual, com potencial para aplicações em realidade virtual e aumentada. Trabalhos futuros incluem ajustes finos de hiper-parâmetros e novas adaptações na função de perda para otimizar ainda mais o desempenho do algoritmo.Relatório de Iniciação Tecnológica Construção de métricas físicas no futebol: uma abordagem por visão computacional e ciência de dados(2024) Assunção, João Vitor OliveiraDesde a sua chegada ao Brasil em 1894, o futebol assumiu um papel protagonista no cenário esportivo nacional. A adesão ao esporte inglês foi tamanha que atualmente o Brasil é denominado como o país do futebol, sendo o maior campeão da principal competição de seleções: a Copa do Mundo. Entretanto, devido aos baixos investimentos, o futebol no Brasil se mostrou cada vez mais ultrapassado e decadente em relação às nações europeias. A Delta Goal surge como uma iniciativa para utilizar a tecnologia na ampliar as análises táticas de uma partida de futebol. Através da elaboração de uma solução computacional que seja capaz de, a partir da transmissão de uma partida de futebol, extrair dados táticos dos jogadores em campo, aplicando métricas previamente estabelecidas entre o time de pesquisa e as equipes parceiras. Para isso, utiliza-se a visão computacional para a extração de dados brutos de uma partida de futebol e o aprendizado de máquina para acessar um modelo cada vez mais fiel à realidade tática observada em uma partida. Dessa forma, os dados dos jogadores extraídos de uma partida de futebol somados com a ciência de dados, responsável por filtrar e analisar os dados brutos obtidos, são uma ótima rede de apoio para o modelo, servindo como dados de entrada, viabilizando um bom treinamento da Inteligência Artificial e maximizando os acertos. Assim, pode-se ter um comparativo entre os dados obtidos pelo programa e dados reais de uma mesma partida, possibilitando a análise da confiabilidade do código gerado. Nesse sentido, pode-se aprofundar nas métricas que exercem maior influência no desempenho dos jogadores e dos clubes, tornando o futebol mais racional.Relatório de Iniciação Tecnológica Controle e acionamento de múltiplos motores de passo com barramento CAN(2024) Drummond, Felipe Martins da CostaO presente trabalho aborda o desenvolvimento e a implementação de motores inteligentes utilizando o barramento CAN (Controller Area Network). O tema central consiste na integração de tecnologias de comunicação e controle para aprimorar o desempenho e a eficiência de motores de passo. O objetivo primordial é explorar as capacidades do barramento CAN para promover uma comunicação eficaz entre os diversos componentes do sistema, incluindo sensores, atuadores e controladores, visando otimizar o funcionamento dos motores. A metodologia adotada compreendeu a pesquisa bibliográfica para embasar teoricamente o estudo, seguida da análise e seleção dos componentes adequados para a implementação prática. Foram realizados testes e simulações para avaliar o desempenho do sistema, levando em consideração critérios como confiabilidade da comunicação. Como resultado, constatou-se que a utilização do barramento CAN proporciona uma integração robusta e eficiente entre os dispositivos, permitindo o monitoramento em tempo real e a implementação de estratégias avançadas de controle. Conclui-se, portanto, que os motores inteligentes com barramento CAN representam uma solução tecnológica promissora para aplicações industriais, que demandam alta precisão e confiabilidade, contribuindo para a otimização dos processos produtivos e o aumento da competitividade das empresas no mercado atual. Este trabalho oferece insights valiosos para profissionais e pesquisadores interessados em tecnologias de automação e controle, destacando o potencial do barramento CAN como uma ferramenta versátil e eficaz no contexto de sistemas mecatrônicos e industriais.Relatório de Iniciação Tecnológica Estudo da tecnologia de Deposição por Energia Direcionada (DED) por meio da avaliação da reprodutibilidade e da influência da geometria da peça(2024) Sanchez, Bruno OlivaresA Deposição por Energia Direcionada (DED) vem sendo implementada em diversos mercados devido à flexibilidade de produção e liberdade de criação se utilizando de material metálico. Devido às suas particularidades, o uso do DED é mais utilizado para a fabricação de peças de maior porte. Contudo, visto a complexidade do processo e pelo fato de ser uma tecnologia relativamente recente, é inevitável que estudos sejam necessários para melhor compreensão e otimização do processo. Foram fabricadas amostras sob barras de 1 metro de comprimento se utilizando do método DED, sendo posteriormente cortadas em 20 segmentos menores para análise. Medidas de largura e altura do depositado foram obtidas a partir de imagens em lupa estereoscópica. Além disso, um ataque metalográfico com o reagente Marble foi realizado, seguido de um teste de micro dureza na escala Vickers em 5 pontos distintos em cada segmento, aplicando-se 0.5 kgf de carga. Com os dados em mãos, foram observadas nuances no âmbito macro e micro: no macro, maiores desvios de altura foram encontrados na 3ª barra, enquanto maiores médias e desvios de largura foram identificados na 2ª barra, sendo relacionados aos fenômenos de tempo de incidência de calor e aquecimento do cabeçote de deposição, respectivamente. Referente a dureza, houve muitos desvios de medição dentro de um mesmo segmento, além de uma diferença de medição entre os pontos iniciais e finais em comparação aos segmentos intermediários de uma mesma barra e valores gerais de barra completamente distintos entre amostras, consequências essas causadas pelo método de análise, variação de morfologia de grão dentro de um mesmo cordão, particularidades dos pontos iniciais e finais e às condições de criação de cada barra.Relatório de Iniciação Tecnológica CO-DESIGN E IMPLEMENTAÇÃO DE MÉTRICAS TÁTICAS E TÉCNICAS DO FUTEBOL: UMA ABORDAGEM POR VISÃO COMPUTACIONAL(2024) Meinberg, Bruna LimaO futebol representa um fenômeno de destaque no cenário esportivo, exercendo uma significativa influência no Brasil. Nesse contexto, há amplas oportunidades para a exploração de inovações durante sua prática e análise. O desenvolvimento de novas abordagens para avaliar o futebol tem conquistado espaço no mercado, impulsionando a tecnologia a desempenhar um papel crucial na forma como o jogo é estudado e jogado. Entre as tecnologias preponderantes nesse domínio, destacam-se a Visão Computacional e a Ciência de Dados, ambas voltadas para a captação, extração e análise de informações durante as partidas. Esse enfoque permite às equipes analisar e estudar diversos aspectos do jogo, como jogadas específicas e comportamentos individuais de jogadores, de acordo com as necessidades particulares de cada equipe. Assim, emergem diversas inteligências, contribuindo para a evolução e aprimoramento do futebol, um esporte amplamente popular e admirado. A utilização dessas tecnologias permite a construção de algoritmos próprios visando a análise de métricas que constituem uma partida de futebol. Dessa forma, a visão computacional extrai as informações brutas, como o posicionamento dos jogadores em campo, e a ciência de dados transforma essas informações em material de aplicação para os times. Ao longo dessa pesquisa foram desenvolvidos algoritmos responsáveis por analisar duas métricas relacionadas ao futebol: compactação e ruptura. A construção desses códigos teve como objetivo detectar jogadores específicos em instantes importantes dentro de uma partida. Eles foram desenvolvidos utilizando métodos de Co-Design e ágeis, com a realização de sprints semanais garantindo a evolução constante dos códigos. Para a análise de desempenho desse código, foi necessário alinhar a opinião de especialistas em conjunto com testes visuais que fizeram uso de imagens geradas de acordo com as coordenadas dos jogadores. O algoritmo de compactação apresentou resultados satisfatórios, no melhor caso acertando 64% dos casos e o algoritmo de ruptura teve um índice de acerto, no melhor caso, de 82,9%. Esses resultados traduzem um bom funcionamento dos algoritmo, mas englobam também a ideia de que não se constrói tecnologia sem uma análise manual mais aprofundada.