FABIO JOSE AYRES

Unidades Organizacionais

Resumo profissional

person.page.researcharea

Nome para créditos

Resultados da Pesquisa

Agora exibindo 1 - 10 de 28
  • Imagem de Miniatura
    Artigo Científico
    Well-Connected Communities in Real-World and Synthetic Networks
    (2023) Park, Minhyuk; Tabatabaee, Yasamin; Ramavarapu, Vikram; Liu, Baqiao; Pailodi, Vidya Kamath; Ramachandran, Rajiv; Korobskiy, Dmitriy; FABIO JOSE AYRES; Chacko, George; Warnow, Tandy
    Integral to the problem of detecting communities through graph clustering is the expectation that they are "well connected". In this respect, we examine five different community detection approaches optimizing different criteria: the Leiden algorithm optimizing the Constant Potts Model, the Leiden algorithm optimizing modularity, Iterative K-Core Clustering (IKC), Infomap, and Markov Clustering (MCL). Surprisingly, all these methods produce, to varying extents, communities that fail even a mild requirement for well connectedness. To remediate clusters that are not well connected, we have developed the "Connectivity Modifier" (CM), which, at the cost of coverage, iteratively removes small edge cuts and re-clusters until all communities produced are well connected. Results from real-world and synthetic networks illustrate a tradeoff users make between well connected clusters and coverage, and raise questions about the "clusterability" of networks and models of community structure.
  • Imagem de Miniatura
    Trabalho de Conclusão de Curso
    Identification of Flooding Incident Impacts Using Neural Networks
    (2024) Santos, Alexandre Magno Maciel dos; Vaz, Eduardo Mendes; Cadorniga, João Lucas de Moraes Barros; Pertusi, Pedro Vaz de Moraes
    In a world where flooding impacts are becoming increasingly common, such as the disaster in the Brazilian state of Rio Grande do Sul in 2024, the goal of this project is to develop an open-source flooding impact assessment pipeline. Preliminary technical evaluation by NVIDIA indicates that this tool could be integrated with technologies such as a flood simulation system, allowing for predictions in susceptible regions. The pipeline utilizes Convolutional Neural Networks (CNN), public population, and geographic data to process images extracted from the Sentinel-1 and Sentinel-2 satellites and generate metrics. This project classifies flooded regions prior to and after a crisis, providing, for example, estimations of the affected population by area to showcase the impact to assist urban planning professionals. The developed tool integrates a satellite data collection system from these satellites, as they are also open-source and include periodical data, and the CNNs in an intuitive and easily utilizable pipeline, inspired by UNOSAT’s Emergency Mapping which analyzed the impact of floodings in Nepal in 2021. Keywords:
  • Imagem de Miniatura
    Relatório de Iniciação Científica
    A Comparison of Supercomputing Techniques Applied to the Detection of Exoplanets
    (2024) Barreto, Arthur Martins de Souza
    Este trabalho aborda a implementação paralela do algoritmo de fitting de trânsitos planetários, o BLS. Esse algoritmo é fundamental para a análise de dados de satélites em missões espaciais, como as missões KEPLER e K2, discutidas neste projeto. O estudo foca na otimização do algoritmo utilizando frameworks de paralelismo, como OpenMP, MPI, GPUs por meio do PyTorch, e o STAPL, uma biblioteca que abstrai o uso de OpenMP e MPI. Como sugestão de melhoria para este projeto, destaca-se a importância da otimização do algoritmo de geração de candidatos para o BLS, pois é essencial que o período do trânsito e outros parâmetros estejam corretamente incluídos em uma lista abrangente de candidatos a serem testados.
  • Imagem de Miniatura
    Trabalho de Conclusão de Curso
    Modelagem financeira de alta frequência com Big Data e Machine Learning
    (2024) Dias, Felipe Maluli de Carvalho; Martins, Guilherme dos Santos; Pereira, Marlon Silva
    O objetivo deste projeto é desenvolver uma arquitetura robusta e escalável que atenda às necessidades específicas do fluxo de dados de cotação intradiária de ativos, para sustentar modelagem de alta frequência nas estratégias de compra e venda de ações de uma gestora de investimentos, e então desenvolver um modelo de compra e venda de ações que utilize esses dados. Para alcançar esses objetivos, o projeto propõe uma infraestrutura composta por processos de extração, limpeza, e armazenamento de dados, com ênfase na eficiência do tratamento de grandes volumes de informações. A infraestrutura proposta é baseada em uma pipeline de dados construída em Python, que inclui etapas de extração e carregamento (EL). Para o armazenamento dos dados, foi utilizado de início o banco de dados PostgreSQL, que foi substituído pelo QuestDB, uma escolha motivada pela sua otimização voltada a grandes volumes de dados de série temporal. A arquitetura, desenvolvida com uma aplicação de extração e limpeza em Python e integrada a um banco de dados QuestDB, mostrou-se eficaz para lidar com o volume de dados esperado através de testes de estresse realizados usando protótipos iniciais do sistema e simulando a fonte de dados, destacando-se pela sua capacidade de fácil integração com outras ferramentas. Além disso, o projeto contempla o estudo e a aplicação de diferentes sinais financeiros, utilizando técnicas e métricas quantitativas, além de modelos de Machine Learning, com o objetivo de avaliar as melhores variáveis para o desenvolvimento de um modelo de Factor Investing para os dados intradiários.
  • Imagem de Miniatura
    Trabalho de Conclusão de Curso
    Prova de conceito de um chatbot em WhatsApp para atendimento ao cliente
    (2024) Paula, Caio Ribeiro de; Campos, Enzo Quental Vieira de; Leventhal, Rafael Coca
    O objetivo deste projeto é desenvolver uma prova de conceito para um chatbot (chat robot) de atendimento ao cliente no WhatsApp, aplicando metodologias ágeis. Durante o processo, utilizaram-se princípios de design thinking para identificar e ter uma visão mais refinada das necessidades da empresa, com um foco especial em melhorar a experiência do usuário. Foi empregada a metodologia 5W2H para garantir um planejamento detalhado e estruturado das atividades, complementando as práticas ágeis e proporcionando clareza em cada etapa do projeto. O alinhamento entre requisitos técnicos e objetivos empresariais foi alcançado através de contato frequente com a Syngenta. Com base nesse entendimento, foi implementado um sistema que oferece uma interface alternativa de chat para os clientes da empresa, funcionando como um CRM, para sanar dúvidas frequentes sobre os programas de relacionamento oferecidos pela empresa. Para isso, foi utilizado um modelo de linguagem grande (LLM) para melhorar a precisão e a eficiência no atendimento automático.
  • Imagem de Miniatura
    Trabalho de Conclusão de Curso
    Exploração de dados textuais abertos usando IBM Watson
    (2021) Moço, Emanuelle Silva; Klabin, Gabriel Magalhães Duarte; Bicalho, Maria Eduarda Peppes; Pina, Roger Ribeiro Fava
    Este projeto teve como objetivo criar um showcase de aplicação do Watson, ferramenta de inteligência artificial da IBM, para possíveis clientes da empresa. Para isso, quatro diferentes soluções da suíte IBM Watson foram utilizadas para criar um chatbot que ajuda um usuário a explorar notícias e também descobrir tendências de assuntos na mídia brasileira. O Watson Assistant foi utilizado na estruturação do chatbot; o Watson Natural Language Understanding para enriquecer os dados, fazer reconhecimento de temas e criação de um modelo por aprendizado de máquina que reconhece a polaridade política de um texto; o Cloudant para armazenamento dos dados. Uma interface web foi criada usando o framework ReactJS, para a interação com o usuário, e um servidor em Node.js, cujo deploy foi realizado com a ferramenta Cloud Foundry, para demonstrar o produto. Por fim, um tutorial de construção deste showcase também foi produzido para atrair clientes que busquem desenvolver suas próprias aplicações Watson in-house.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    Representação de cenas 3D usando Deep Learning
    (2024) Rocha, Joao Gabriel Valentim
    O trabalho presente aborda avanços na computação gráfica, com foco em técnicas de renderização 3D baseadas em Machine Learning, como Neural Radiance Fields (NeRF), Instant NGP, BakedSDF e Gaussian Splatting. A introdução destaca a importância da visão computacional e a evolução da renderização de imagens, desde problemas diretos até problemas inversos, onde se busca reconstruir cenas tridimensionais a partir de imagens. O Gaussian Splatting é detalhado como uma técnica que utiliza gaussianas 3D para modelar cenas de forma eficiente, permitindo otimizações precisas e renderizações rápidas. O documento também explora a visualização de malhas e volumétrica, além de sistemas para renderização volumétrica inversa, como NerfStudio e SDFStudio. Experimentos são realizados para ajustar hiper-parâmetros do Gaussian Splatting, analisando seu impacto em métricas como PSNR, FPS e tempo de convergência. A adição de uma loss extra, como o filtro de Sobel, é testada para melhorar a qualidade das bordas nas imagens geradas. Conclui-se que o Gaussian Splatting oferece avanços significativos em eficiência e qualidade visual, com potencial para aplicações em realidade virtual e aumentada. Trabalhos futuros incluem ajustes finos de hiper-parâmetros e novas adaptações na função de perda para otimizar ainda mais o desempenho do algoritmo.
  • Imagem de Miniatura
    Relatório de Iniciação Tecnológica
    NERFS, SDFS E GAUSSIAN SPLATTING
    (2024) Santos, André Corrêa
    Este relatório explora técnicas avançadas de visualização e reconstrução tridimensional, destacando especialmente os Campos de Radiância Neural (NeRF) e o Gaussian Splatting. Após discutir as limitações dos NeRFs, aprofunda-se na técnica de Gaussian Splatting, uma abordagem eficiente para representação 3D utilizando lobos gaussianos. O funcionamento de um rasterizador de gaussian splats é explorado, detalhando os parâmetros que podem ser otimizados, como posição, amplitude, escala, rotação e opacidade, projetando estas características em uma imagem 2D. A análise também se estende à implementação de rasterizadores gaussianos usando Compute Shaders, discutindo diferentes métodos e suas respectivas vantagens e desafios. A importância da renderização não fotorrealista (NPR) é destacada, apresentando uma implementação que utiliza Signed Distance Fields (SDFs) para aplicar efeitos visuais em áreas específicas de uma cena. As SDFs são integradas no Compute Shader, permitindo manipulação diferenciada das gaussianas para aplicar efeitos visuais personalizados, como deslocamento e reflexão. A conclusão apresenta resultados visuais dessa abordagem, sublinhando a flexibilidade e o potencial estético dessas técnicas inovadoras para a criação de cenas tridimensionais visualmente únicas. Adicionalmente, os resultados da técnica de reiluminação das gaussianas que foi desenvolvida são abordados. Essa inovação permite ajustes dinâmicos de brilho ao modificar a "iluminação"das gaussianas em tempo real com base na distância à superfície da esfera. Esta técnica proporciona maior controle visual, melhorando a qualidade estética das cenas renderizadas.
  • Imagem de Miniatura
    Artigo Científico
    Effect of Pixel Resolution on Texture Features of Breast Masses in Mammograms
    (2010) Rangayyan, Rangaraj M.; Nguyen, Thanh M.; FABIO JOSE AYRES; Nandi, Asoke K.
    The effect of pixel resolution on texture features computed using the gray-level co-occurrence matrix (GLCM) was analyzed in the task of discriminating mammographic breast lesions as benign masses or malignant tumors. Regions in mammograms related to 111 breast masses, including 65 benign masses and 46 malignant tumors, were analyzed at pixel sizes of 50, 100, 200, 400, 600, 800, and 1,000 μm. Classification experiments using each texture feature individually provided accuracy, in terms of the area under the receiver operating characteristics curve (AUC), of up to 0.72. Using the Bayesian classifier and the leave-one-out method, the AUC obtained was in the range 0.73 to 0.75 for the pixel resolutions of 200 to 800 μm, with 14 GLCM-based texture features using adaptive ribbons of pixels around the boundaries of the masses. Texture features computed using the ribbons resulted in higher classification accuracy than the same features computed using the corresponding regions within the mass boundaries. The t test was applied to AUC values obtained using 100 repetitions of random splitting of the texture features from the ribbons of masses into the training and testing sets. The texture features computed with the pixel size of 200 μm provided the highest average AUC with statistically highly significant differences as compared to all of the other pixel sizes tested, except 100 μm.
  • Imagem de Miniatura
    Trabalho de Conclusão de Curso
    Extração e classificação de licitações do Diário Oficial do Estado de SP
    (2021) Satyro, Vitor; Liu, Vitor; Delchiaro, Lucca; Schoueri, Guilherme
    Este projeto tem como objetivo o desenvolvimento de uma ferramenta modularizada de extração dos documentos do Diário Oficial do estado de São Paulo e identificação de licitações. Essa ferramenta é a base para um desenvolvimento de um produto capaz de categorizar e resumir informações de grande quantidade de documentos, sendo também um produto customizável às necessidades específicas da DELL. De acordo com o cliente, a aplicação precisa de módulos de coleta de dados (scraper), identificação de textos dos documentos, separação de seções de documentos, identificador de licitações e mecanismo de busca entre licitações, sendo todos esses módulos adaptáveis à demanda. Para isso, foi necessário estudar tecnologias como: scrapper, tratamento de imagens, reconhecimento óptico de caracteres, modelos de classificação, mecanismos de buscas e utilização de um banco de dados não relacional. Dado que a principal demanda do cliente é o tratamento dos textos do diário oficial e identificação de licitações, todos os módulos da ferramenta apresentaram-se eficazes no que diz respeito ao tempo esperado e da saída obtida, incluindo a extração de textos de arquivos pdf e classificação com random forest.