Iniciação Científica e Tecnológica

URI permanente desta comunidadehttps://repositorio.insper.edu.br/handle/11224/3250

Navegar

Resultados da Pesquisa

Agora exibindo 1 - 10 de 17
  • Imagem de Miniatura
    Relatório de Iniciação Científica
    Análise Exploratória de Problemas de Qualidade de Código em CS1
    (2025) Rodrigues, Isabela Vieira
    Este estudo analisa o impacto do uso de uma ferramenta de qualidade de código em um curso introdutório de programação (CS1) com metodologia intensiva (bootcamp). O objetivo é verificar se problemas de qualidade de código estão relacionados a dificuldades na compreensão de programação. A pesquisa busca responder duas questões principais: (i) quais erros os alunos cometem ao programar? e (ii) existe uma relação entre erros específicos e o desempenho acadêmico? Para isso utilizamos uma ferramenta de análise de qualidade de código em todas as atividades avaliativas de um curso de CS1. O estudo considerou 65 alunos, divididos em três grupos com base no desempenho: Fraco, Básico e Proficiente. Os erros foram classificados em quatro categorias: Erros, Avisos, Refatoração e Convenção. Também elaboramos modelos de regressão linear, separados por grupo de proficiência e por nível de dificuldade das avaliações, com base na proporção de erros por linha e no número de linhas de código. Os resultados mostraram que 88% dos problemas encontrados está relacionado à formatação e ao uso incorreto da linguagem Python, enquanto problemas de Refatoração são apenas 0,48%. Apesar dos alunos proficientes apresentarem menos problemas de refatoração, não houve diferença clara entre os grupos nos erros e avisos. A análise de correlação mostrou que erros de sintaxe e formatação tiveram maior relação com as notas dos alunos.
  • Imagem de Miniatura
    Relatório de Iniciação Científica
    Modelos de Gestão de Dívida Técnica
    (2025) Yaginuma, Eduardo Takei
    Nos últimos anos, o impacto da dívida técnica tem se tornado cada vez mais evidente no desenvolvimento de software, afetando diretamente a qualidade dos produtos, a produtividade das equipes e os custos de manutenção. Empresas de diferentes setores estão reconhecendo que a dívida técnica não é apenas um problema técnico, mas também um fator estratégico que pode comprometer a inovação e a competitividade. Diante desse cenário, este estudo tem como objetivo realizar uma revisão sistemática da literatura para identificar e analisar modelos de gerenciamento de dívida técnica em projetos de desenvolvimento de software. Partindo do modelo técnico de gestão de dívida proposto por Graziela Simone Tonin, a pesquisa busca explorar abordagens complementares adotadas por equipes ágeis, investigando diferentes metodologias, estratégias e ferramentas utilizadas no processo de gerenciamento da dívida técnica. O foco está em modelos que abrangem aspectos essenciais desse gerenciamento, incluindo identificação, classificação, monitoramento, priorização e pagamento da dívida técnica. A partir dos estudos desenvolvidos na tese de Tonin G.S., a pesquisa pretende identificar outros modelos de gestão de dívida técnica, compará-los e prover novos insights a partir da análise de estudos recentes sobre essas abordagens. O estudo visa fornecer uma visão aprofundada sobre as melhores práticas no gerenciamento da dívida técnica no contexto do desenvolvimento ágil de software. A pesquisa também objetiva identificar tendências emergentes, como o uso de inteligência artificial e automação para otimizar a gestão da dívida técnica. Um dos propósitos é que essa revisão sistemática possa ser publicada em plataformas internacionais, contribuindo para a evolução das práticas de gerenciamento da dívida técnica na indústria de software.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    Desenvolvimento de Ferramentas de Visualização das Etapas de Pesquisas Clínicas.
    (2025) Jesus, Matheus Aguiar de
    Pesquisas clínicas são fundamentais para a avaliação de novos medicamentos e tratamentos, mas seu início é frequentemente retardado por um complexo processo de aprovação que envolve múltiplas etapas contratuais, financeiras e regulatórias. A morosidade nessas fases preliminares, que incluem desde a aprovação por comitês de ética até a viabilização financeira e jurídica, representa um desafio significativo para os centros de pesquisa, impactando sua competitividade e a agilidade para iniciar os estudos. A gestão eficiente desses prazos é um critério decisivo para que uma instituição seja selecionada como parceira, e a otimização desse fluxo de trabalho pode acelerar o acesso de pacientes a novos tratamentos. Atualmente, as soluções existentes, como planilhas de Excel ou sistemas de mercado como o PoloTrial, mostram-se insuficientes por não oferecerem a granularidade necessária para um acompanhamento detalhado e a identificação precisa de gargalos. Neste projeto de iniciação tecnológica foi desenvolvido um sistema de visualização de dados projetado para mapear, monitorar e otimizar o fluxo de aprovação de pesquisas clínicas. O objetivo foi criar uma ferramenta que ofereça uma visão clara e integrada de todas as etapas, permitindo a identificação de pontos críticos, a redução de atrasos e, consequentemente, o aumento da eficiência e credibilidade do centro de pesquisa, melhorando a qualidade da documentação e da gestão do processo como um todo. O desenvolvimento do sistema foi realizado de forma iterativa, com ciclos de desenvolvimento e validação com usuários reais.
  • Imagem de Miniatura
    Relatório de Iniciação Científica
    Desenvolvendo um manual de eye tracking para investigar como as músicas influenciam a atenção na publicidade
    (2025) Franco Júnior, Anderson Soares
    Este trabalho oferecer um guia sobre a aplicação do eye tracking na análise das trilhas sonoras em anúncios, investigando relações entre estímulos auditivos e os comportamentos dos espectadores. A pesquisa contextualiza o rastreamento ocular como uma ferramenta para compreender padrões de atenção visual. Apesar da tecnologia ser amplamente utilizada na psicologia, design e marketing, ainda há poucos relatos sobre sua aplicação na publicidade devido ao caráter interno das organizações. Assim, para testar o sistema um experimento foi conduzido com 10 voluntários que assistiram a uma série de anúncios com trilhas sonoras variadas. Durante a exibição, foi utilizado o eye tracking da Tobii para registrar os padrões de atenção visual dos participantes. Após a visualização, foi aplicado um questionário para coletar informações sobre a percepção dos anúncios e a influência da trilha sonora. Após a análise dos resultados concluiu-se que as músicas mais antigas, como de 1984, mostraram um forte efeito de nostalgia, fazendo a taxa de recordação da marca subir para 75% no público acima de 25 anos. Por outro lado, as músicas muito atuais, como de 2024, pareceram distrair os mais jovens, que tiveram a menor taxa de recordação, de apenas 40%. Isso sugere que uma música muito familiar pode ofuscar a mensagem da marca. Além disso, em alguns anúncios, como o da Nike, as músicas de 1984 fizeram os olhos se moverem de forma mais rápida e frenética, intensificando a sensação de velocidade. Já em outros anúncios, como o da Apple, músicas mais calmas de 1964 levaram a um tempo de observação maior. Dessa forma, a escolha de uma trilha sonora vai muito além da estética, é uma decisão estratégica.
  • Imagem de Miniatura
    Relatório de Iniciação Científica
    LanGaze: Digitação por Olhar Potencializada por Modelos de Linguagem Generativos
    (2025) Souza, Gustavo Victor Valente Braga e
    A digitação por olhar (eye typing) é uma tecnologia que permite o usuário digitar num teclado virtual usando apenas os olhos por meio de rastreio ocular (eye tracking). Para tornar essa interação mais fluida, sistemas baseados em decodificar trajetórias do olhar em palavras foram propostos. Neste trabalho, introduzimos o LanGaze, um método de decodificação de trajetórias oculares que integra um componente linguístico baseado em um modelo de linguagem à decodificação por tries invertidas, com o intuito de melhorar a usabilidade de sistemas de digitação com o olhar. O sistema introduz duas inovações principais. A primeira é o uso de uma trie invertida, que indexa palavras a partir de seus sufixos. Essa estratégia está alinhada ao processo natural da interação: em gestos oculares, o término é explicitamente indicado pelo usuário, enquanto o início tende a conter ruído ou movimentos não intencionais. Assim, iniciar a busca pelo final do traçado, a parte mais confiável do gesto, reduz erros. O alinhamento entre a trajetória observada e as sequências de letras é realizado incrementalmente via Dynamic Time Warping (DTW). A segunda inovação é a incorporação de um modelo de linguagem (GPT-2) como componente de modelagem linguística. Durante a decodificação, o conjunto de palavras candidatas gerado pela trie é filtrado pelo LLM, que utiliza o contexto das palavras já confirmadas para calcular as probabilidades condicionais de cada candidato. Em experimentos com um vocabulário de 60 mil palavras e 100 sessões de testes reais, o LanGaze alcançou acurácia Top-5 de até 96%. A importância do componente de linguagem foi validada por um estudo de ablação, que quantificou o impacto do LLM na decodificação e revelou um ganho de 6 pontos percentuais na precisão do sistema. Ao nosso conhecimento, esse é o primeiro sistema a combinar a decodificação por trajetórias de olhar com probabilidades de LLMs.
  • Imagem de Miniatura
    Relatório de Iniciação Científica
    Computação Quântica Topológica: Conceitos e Implementações Práticas
    (2025) Souza, Felipe Schiavinato Borges
    A computação quântica tem avançado significativamente nos últimos anos, porém, o ruído e a decoerência continuam sendo desafios fundamentais para a construção de processadores quânticos escaláveis e confiáveis. Este trabalho explora a computação quântica topológica como uma abordagem promissora para mitigar essas limitações, utilizando anyons não abelianos e qubits topológicos, que apresentam resistência inerente a erros locais devido à sua codificação global. Além disso, este estudo revisa a publicação da Microsoft Azure Quantum sobre o Majorana 1, que promete ser um marco na escalabilidade da computação quântica ao empregar modos de zero Majorana para permitir a expansão de qubits de maneira análoga à evolução dos transistores na computação clássica. A revisão dessa pesquisa é conduzida de forma didática, visando facilitar o entendimento dos conceitos envolvidos e sua relevância para o avanço dos processadores quânticos. Por fim, são apresentadas demonstrações práticas em Q#, ilustrando aplicações da computação quântica em tarefas que evidenciam sua vantagem computacional. Essas demonstrações reforçam a aplicabilidade dos computadores quânticos, destacando seu potencial para solucionar problemas complexos de forma eficiente.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    Construção e projeto de controle de um monociclo autoequilibrado
    (2025) Souza, Victoria Leal Garcia de
    Neste trabalho é apresentado um sistema de um monociclo autônomo autoequilibrado usando roda de inércia o qual é replicado, mostrando desde a construção até o projeto e teste dos controladores usando um monociclo já existente como referência para a modelagem matemática. Primeiro é feito o projeto de controladores usando o modelo matemático da referência, e em seguida, é feito o projeto mecânico por meio de um desenho assistido por computador tridimensional (3D CAD). É feito um projeto de controle linear para estabilização da planta usando duas técnicas que são validadas via simulações do sistema não-linear. Naturalmente, os ângulos de pitch e roll têm dinâmicas acopladas. Neste trabalho, controles lineares são projetados seguindo a linearização pelo Jacobiano que foi feita no trabalho de referência (NEVES, 2017), assumindo pequenas variações em torno do ponto de equilíbrio, permitindo desacoplar as equações das dinâmicas dos ângulos. O protótipo é construído fixando os componentes eletrônicos, a bateria, as rodas e os motores a um corpo, de forma a ser totalmente autônomo. O posicionamento das peças precisa ser equilibrado, de forma a manter a posição do centro de massa ao longo dos eixos de simetria vertical e horizontal. Depois, as técnicas de controle são testadas no protótipo construído. A primeira técnica de controle testada consiste do controle ótimo LQR. A segunda técnica de controle consiste do controle PID em cascata que, apesar de ter funcionado, teve um desempenho pior que o LQR implementado.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    Estudo comparativo de modelos de sistemas de recomendação baseados em aprendizado por esforço
    (2024) Cavalcanti, Samuel Jabes Costa
    Os Sistemas de Recomendação são essenciais para o crescimento de plataformas como Netflix e Amazon Prime Video, facilitando a descoberta de conteúdo personalizado e relevante para os usuários. Entre as técnicas utilizadas no desenvolvimento desses sistemas, o aprendizado profundo é uma das mais comuns, por sua capacidade de identificar relações complexas entre usuários e produtos. No entanto, essa abordagem enfrenta desafios, como a adaptação a mudanças nas preferências dos usuários e o foco excessivo em recompensas imediatas, que podem resultar em fadiga e abandono da plataforma. O aprendizado por reforço surge como uma solução promissora para esses desafios, pois permite que o sistema aprenda continuamente com as interações dos usuários e adapte suas políticas de recomendação em tempo real, com foco no desempenho a longo prazo. Este trabalho realiza uma análise comparativa de diversas abordagens de sistemas de recomendação, incluindo as propostas de (LIU et al., 2018), (BACKGOM2357, 2024), e (XUE et al., 2017), além de propor um novo algoritmo baseado em aprendizado por reforço. A implementação utiliza modelos de embeddings da OpenAI para vetorizar descrições textuais do dataset MovieLens (1M), visando alcançar resultados comparáveis aos da literatura. No entanto, os resultados obtidos não comprovam a superioridade dos algoritmos de recomendação baseados em aprendizado por reforço em relação aos que utilizam apenas aprendizado profundo. Um dos desafios encontrados foi a dificuldade de replicar a proposta de (LIU et al., 2018), cuja metodologia apresenta valores de precisão e NDCG superiores aos das abordagens de aprendizado profundo, evidenciando a sensibilidade desses sistemas à formulação do problema e à configuração dos embeddings.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    Classificação de imagens médicas de alzheimer utilizando Redes neurais convolucionais para a identificação da doença
    (2024) Rodrigues Filho, Ricardo Mourão
    A pesquisa aborda o uso de redes neurais convolucionais (CNNs) para identificar e classificar diferentes estágios da Doença de Alzheimer (DA) a partir de imagens médicas, especificamente ressonâncias magnéticas (MRI). O estudo utiliza duas bases de dados principais: OASIS-1 e um conjunto de dados do Kaggle. O objetivo central do estudo foi desenvolver modelos de predição para detectar diferentes estágios da Doença de Alzheimer. Para isso, foram implementados dois modelos principais de CNN, além de uma abordagem com a arquitetura Inception V3 utilizando técnicas de transfer learning. O estudo também incluiu a criação de uma aplicação web escalável para facilitar o uso dos modelos em um ambiente de produção, permitindo que as previsões fossem realizadas em tempo real através da integração com a Google Cloud Platform (GCP). O pré-processamento dos dados foi uma etapa crucial, especialmente para as imagens do OASIS-1, que necessitavam de maior tratamento comparado ao conjunto de dados do Kaggle. As imagens tridimensionais de ressonância magnética foram fatiadas em imagens bidimensionais, focando em fatias que melhor representavam regiões cerebrais relevantes para o diagnóstico de Alzheimer. Esse processo gerou um conjunto ampliado de dados, essencial para treinar os modelos de CNN. Além disso, a pesquisa destaca a importância de métodos interpretáveis para a aplicação de CNNs na área médica, utilizando SHAP values para identificar as regiões das imagens que mais contribuíram para as previsões dos modelos. Essa abordagem ajuda na confiabilidade dos diagnósticos e oferece insights para os profissionais de saúde. Por fim, o projeto foi solidificado em uma implementação de uma aplicação web escalável baseada em microsserviços, utilizando a GCP. Ferramentas como Google Cloud Run, Google Cloud Functions e Google Vertex AI foram integradas para permitir a automação e escalabilidade do processo de predição a partir de imagens fornecidas ao modelo. O código-fonte foi disponibilizado no GitHub, com pipelines CI/CD configuradas para facilitar contribuições de outros pesquisadores.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    Representação de cenas 3D usando Deep Learning
    (2024) Rocha, Joao Gabriel Valentim
    O trabalho presente aborda avanços na computação gráfica, com foco em técnicas de renderização 3D baseadas em Machine Learning, como Neural Radiance Fields (NeRF), Instant NGP, BakedSDF e Gaussian Splatting. A introdução destaca a importância da visão computacional e a evolução da renderização de imagens, desde problemas diretos até problemas inversos, onde se busca reconstruir cenas tridimensionais a partir de imagens. O Gaussian Splatting é detalhado como uma técnica que utiliza gaussianas 3D para modelar cenas de forma eficiente, permitindo otimizações precisas e renderizações rápidas. O documento também explora a visualização de malhas e volumétrica, além de sistemas para renderização volumétrica inversa, como NerfStudio e SDFStudio. Experimentos são realizados para ajustar hiper-parâmetros do Gaussian Splatting, analisando seu impacto em métricas como PSNR, FPS e tempo de convergência. A adição de uma loss extra, como o filtro de Sobel, é testada para melhorar a qualidade das bordas nas imagens geradas. Conclui-se que o Gaussian Splatting oferece avanços significativos em eficiência e qualidade visual, com potencial para aplicações em realidade virtual e aumentada. Trabalhos futuros incluem ajustes finos de hiper-parâmetros e novas adaptações na função de perda para otimizar ainda mais o desempenho do algoritmo.