IGOR DOS SANTOS MONTAGNERRodrigues, Isabela Vieira2025-10-152025https://repositorio.insper.edu.br/handle/11224/8098Este estudo analisa o impacto do uso de uma ferramenta de qualidade de código em um curso introdutório de programação (CS1) com metodologia intensiva (bootcamp). O objetivo é verificar se problemas de qualidade de código estão relacionados a dificuldades na compreensão de programação. A pesquisa busca responder duas questões principais: (i) quais erros os alunos cometem ao programar? e (ii) existe uma relação entre erros específicos e o desempenho acadêmico? Para isso utilizamos uma ferramenta de análise de qualidade de código em todas as atividades avaliativas de um curso de CS1. O estudo considerou 65 alunos, divididos em três grupos com base no desempenho: Fraco, Básico e Proficiente. Os erros foram classificados em quatro categorias: Erros, Avisos, Refatoração e Convenção. Também elaboramos modelos de regressão linear, separados por grupo de proficiência e por nível de dificuldade das avaliações, com base na proporção de erros por linha e no número de linhas de código. Os resultados mostraram que 88% dos problemas encontrados está relacionado à formatação e ao uso incorreto da linguagem Python, enquanto problemas de Refatoração são apenas 0,48%. Apesar dos alunos proficientes apresentarem menos problemas de refatoração, não houve diferença clara entre os grupos nos erros e avisos. A análise de correlação mostrou que erros de sintaxe e formatação tiveram maior relação com as notas dos alunos.This study analyzes the impact of using a code quality tool in an introductory programming course (CS1) with an intensive methodology (bootcamp). The objective is to verify whether code quality issues are related to difficulties in understanding programming. The research seeks to answer two main questions: (i) what errors do students make when programming? and (ii) is there a relationship between specific errors and academic performance? For this purpose, we used a code quality analysis tool in all graded activities of a CS1 course. The study considered 65 students, divided into three groups based on their performance: Weak, Basic, and Proficient. Errors were classified into four categories: Errors, Warnings, Refactoring, and Convention. We also developed linear regression models, separated by proficiency group and by the difficulty level of the assessments, based on the proportion of errors per line of code and the total number of lines. The results showed that 88% of the identified issues were related to formatting and incorrect use of the Python language, while Refactoring issues accounted for only 0.48%. Although proficient students presented fewer refactoring problems, there was no clear difference among the groups in terms of errors and warnings. The correlation analysis indicated that syntax and formatting errors had a stronger relationship with students’ grades.Digital22 p.Portuguêsqualidade de códigoerros de programaçãofeedback automáticocode qualityprogramming errorsautomatic feedbackAnálise Exploratória de Problemas de Qualidade de Código em CS1report