Autor: Rafaelli Coutinho

Defesa de dissertação (15/05/2026): Edson Landim de Almeida

Discente: Edson Landim de Almeida

Título: Estimativa do Carbono Orgânico do Solo por Abordagens Quantílicas e Inteligência Artificial Explicável

Orientadores: Diego Brandão (orientador) e Jorge Soares (coorientador)

Banca: Diego Brandão (Cefet/RJ), Jorge Soares (Cefet/RJ), Kele Belloze (Cefet/RJ) e Marcos Ceddia (UFRRJ)

Dia/hora: 15 de maio de 2026, às 9h.

Sala: https://teams.microsoft.com/meet/272684253086940?p=V1Gq8L6jg3r6sPZIuq

Resumo: O carbono orgânico do solo (COS) desempenha um papel central nos ciclos biogeoquímicos, na fertilidade dos solos e na mitigação das mudanças climáticas, constituindo um dos maiores reservatórios de carbono do sistema terrestre. A quantificação direta do COS por métodos laboratoriais, embora precisa, é onerosa, demorada e limita a densidade amostral em levantamentos de grande escala. Nesse contexto, técnicas estatísticas e de aprendizado de máquina têm sido utilizadas para estimar o teor de carbono a partir de atributos edáficos e ambientais mais facilmente obtidos. Este trabalho investiga a estimativa do carbono orgânico do solo a partir de dados pedológicos disponibilizados pela Empresa Brasileira de Pesquisa Agropecuária (Embrapa), integrando regressão linear múltipla, Random Forest, Quantile Regression Forests (QRF) e técnicas de Inteligência Artificial Explicável baseadas em SHAP. A regressão linear múltipla foi utilizada como linha de base interpretável, enquanto o Random Forest foi empregado para capturar relações não lineares e interações entre atributos do solo. A abordagem quantílica baseada em florestas aleatórias permitiu analisar diferentes regiões da distribuição condicional do COS, considerando os quantis 0,1, 0,5 e 0,9. Os resultados evidenciaram que a estimativa do COS é marcada por elevada variabilidade, assimetria e heterocedasticidade, com diferenças relevantes entre os usos da terra avaliados. O modelo Random Forest convencional foi capaz de representar tendências gerais dos dados, mas apresentou maior dispersão dos erros nas faixas de carbono mais altas. O modelo QRF ampliou a análise ao permitir a representação de limites inferiores, medianas e limites superiores da resposta, oferecendo uma leitura mais informativa da incerteza associada às predições. A análise com SHAP indicou a relevância de atributos relacionados à cor do solo, profundidade e textura, em coerência com o conhecimento pedológico. Em conjunto, os resultados indicam que a integração entre modelos baseados em árvores, abordagem quantílica e técnicas de explicabilidade constitui uma estratégia promissora para a estimativa e interpretação do carbono orgânico do solo, contribuindo para o avanço de metodologias aplicadas ao mapeamento digital do solo e ao monitoramento ambiental.

Defesa de dissertação (13/05/2026): Ana Gabriela Viana de Araújo

Discente: Ana Gabriela Viana de Araújo

Título: Aplicação de métodos baseados em concept drift para previsão de gols no futebol profissional

Orientador: Jorge de Abreu Soares

Banca: Jorge  de Abreu Soares (Cefet/RJ), Glauco Fiorott Amorim (Cefet/RJ), Pedro Henrique González Silva (UFRJ), Carlos Eduardo Ribeiro de Mello (Unirio)

Dia/Hora: 13/05/2026 às 9h

Sala: https://teams.microsoft.com/meet/235075217075845?p=ezgpJ8dNRKnMa8dTfM

Resumo:  Este trabalho investiga a aplicação de técnicas de detecção de concept drift para a identificação antecipada de gols em partidas de futebol, com base em dados de eventos intra-partida. A abordagem trata o problema como monitoramento de mudanças na
distribuição de passes intra-partida, utilizando drift virtual operacionalmente, isto é, detecção baseada exclusivamente em P(X) sem rótulos em tempo real, com a premissa de que essas mudanças precedem alterações na probabilidade de gol. A robustez dos resultados é verificada por divisão temporal com 190 partidas de treino e 190 de teste. Foram utilizados dados da temporada 2015/2016 da La Liga: 380 partidas, agregadas em intervalos de um minuto, com análise tanto do comportamento ofensivo quanto defensivo. Três detectores de drift foram avaliados (Page-Hinkley, KSWIN e ADWIN) em comparação com baselines determinístico e estocástico, utilizando como sinal de entrada médias móveis da frequência de passes. A avaliação adota uma variante assimétrica do SoftED evaluation, que penaliza alarmes tardios por meio de uma função de pontuação linear decrescente na janela [t-K,t], com K=10 minutos. Os resultados indicam que o Page-Hinkley obteve o maior MCC entre os detectores avaliados, superando ambos os baselines; Page-Hinkley e KSWIN apresentaram F1 equivalentes, com vantagem marginal do KSWIN. A comparação com abordagem supervisionada da literatura evidencia que o método proposto, embora mais simples e sem necessidade de dados rotulados, atinge desempenho competitivo a partir da primeira partida. Discutem-se limitações da abordagem, incluindo o uso de passes como único sinal proxy e a restrição a uma única temporada, além de perspectivas para trabalhos futuros com variáveis multivariadas e análise longitudinal.

Defesa de dissertação (11/05/2026): Daiane de Ascenção Cardoso

Discente: Daiane de Ascenção Cardoso

Título:  Método para Avaliação da Acessibilidade em Visualizações de Ontologias Biomédicas

Orientadores: Kele Teixeira Belloze (orientadora) e Felipe da Rocha Henriques (coorientador)

Banca: Kele Teixeira Belloze (Cefet/RJ), Felipe da Rocha Henriques (Cefet/RJ), Ingrid Monteiro (UFC), Glauco Amorim (Cefet/RJ) e Luis Carlos dos Santos Coutinho Retondaro (Cefet/RJ)

Dia/Hora: 11/05/2026 / 13:30

Sala: https://teams.microsoft.com/meet/218701639098481?p=ZeSHhNfSekBnHMS8F8

Resumo: Ontologias biomédicas são fundamentais para estruturar e comunicar conhecimento científico, mas representá-las de forma acessível permanece um desafio. Esta dissertação propõe um método sistemático e automatizável para avaliar a acessibilidade de visualizações de ontologias. Uma análise qualitativa por triangulação metodológica (usabilidade, comunicabilidade e acessibilidade) evidenciou a ausência de critérios objetivos nas ferramentas existentes. Em seguida, geraram-se 3.048 visualizações parametrizadas da classe Hemoglobin da Sickle Cell Disease Ontology (SCDO) em três configurações de contraste. Uma amostra foi rotulada manualmente pelo modelo PCHRD (Perceptível, Compreensível, Hierarquicamente claro, Rotulado efetivamente e Diferenciado), adaptado do framework Chartability, revelando assimetria combinatória relevante: há mais formas de uma visualização ser inacessível do que acessível. Um Random Forest foi aplicado em duas iterações — sondagem da prevalência (confirmando a rotulagem) e prova de conceito com curadoria dirigida pelo PCHRD —, indicando que atributos visuais carregam sinal discriminativo. Para verificar a aplicabilidade real, construiu-se um corpus de imagens de artigos do Journal of Biomedical Semantics, classificadas por modelos multimodais (Claude Haiku 4.5 e GPT-4o-mini) e avaliadas manualmente. Por fim, empregou-se Chain-of-Thought para inspecionar o raciocínio dos modelos na aplicação dos critérios PCHRD, comparando classificações automáticas e julgamentos humanos. Os resultados indicam que o método prevê níveis de acessibilidade a partir de características gráficas e que o raciocínio explícito torna os modelos mais restritivos na identificação de barreiras perceptivas, podendo subsidiar design inclusivo na visualização de ontologias biomédicas. O trabalho oferece um protocolo replicável, formaliza o PCHRD como instrumento de avaliação e busca, e preenche uma lacuna na mensuração quantitativa da acessibilidade em visualização da informação.

Defesa de dissertação (06/05/2026): Jorge Nelson de Souza Pavão

Discente: Jorge Nelson de Souza Pavão

Título: Modelos de linguagem de grande porte para a identificação de conluio em licitações

Orientadores: Kele Teixeira Belloze (orientadora) e Diego Nunes Brandão (coorientador)

Banca: Kele Teixeira Belloze (CEFET/RJ), Diego Nunes Brandão (CEFET/RJ), Raissa dos Santos Barcellos (UERJ), Eduardo Bezerra da Silva (CEFET/RJ)

Data/Hora: 06 de maio de 2026, às 16h30

Local: Sala E-520 (Bloco E, 5º andar, Cefet/Maracanã)

Resumo:  A prática de conluio em licitações públicas, caracterizada por acordos ilícitos entre empresas concorrentes, gera prejuízos econômicos relevantes, reduz a eficiência das contratações e compromete a confiança nas instituições. Diversos trabalhos têm empregado algoritmos de aprendizado de máquina e variáveis estatísticas para identificar indícios desse tipo de fraude, porém ainda persistem desafios como escassez de dados rotulados, dificuldade de generalização e desempenho inconsistente entre diferentes bases de dados. Neste contexto, esta dissertação investiga o potencial de Modelos de Linguagem de Grande Porte (Large Language Models – LLMs) na detecção de indícios de conluio a partir de dados numéricos de processos licitatórios. Foram avaliados modelos de diferentes fornecedores por meio de duas estratégias: engenharia de prompt e fine-tuning supervisionado. Os experimentos foram conduzidos com três conjuntos de dados reais — Brasil, Estados Unidos e Suíça — e os resultados foram comparados com os de algoritmos tradicionais reportados na literatura. Os resultados mostram que a engenharia de prompt não produziu desempenho satisfatório. Com fine-tuning, por sua vez, os LLMs superaram os algoritmos tradicionais em apenas um dos três cenários avaliados. Considerando conjuntamente desempenho, custo e complexidade de implementação, conclui-se que, no momento atual, os algoritmos tradicionais apresentam melhor relação custo-benefício na tarefa avaliada, sendo que os LLMs podem atuar como alternativa complementar em cenários específicos nos quais os métodos clássicos não alcancem resultados satisfatórios ou situações que envolvam dados textuais.

Defesa de dissertação (04/05/2026): Balthazar da Silva Cunha Paixão

Discente: Balthazar da Silva Cunha Paixão

Título: Analisando a Robustez de Redes de Passes em Futebol usando Redes Complexas

Orientador: Glauco Fiorott Amorim

Banca:  Glauco Fiorott Amorim (PPCIC-Cefet/RJ),  Pedro Henrique Gonzalez Silva (PPCIC-Cefet/RJ) e  Claudio Miceli de Farias (COPPE/UFRJ)

Dia/Hora: 04/05/2026, às 07h

Sala: https://teams.microsoft.com/meet/258717362035218?p=8XGFKontHejSUpL3Ou

Link alternativo: https://meet.google.com/icf-miyw-pzi

Resumo: Este trabalho investiga a relação entre a estrutura das redes de passe no futebol e o sucesso competitivo das equipes ao longo de uma temporada. Partindo da hipótese de que propriedades estruturais dessas redes estão associadas ao sucesso competitivo, operacionalizado pela posição final na classificação, o futebol é modelado como um sistema complexo de interações coletivas. As redes de passe são representadas como grafos direcionados e ponderados, nos quais os vértices correspondem aos jogadores e as arestas aos passes realizados entre eles. Propõe-se a IHG, uma métrica fundamentada no intervalo interquartil da distribuição de medidas de importância estrutural, desenhada para mensurar a heterogeneidade na participação dos atletas na rede de passes. A análise empírica considera cinco das principais ligas europeias — La Liga, Premier League, Ligue 1, Serie A e Bundesliga — na temporada 2015/16. Para cada equipe e partida, são construídas redes em estado integral, a partir das quais são calculadas métricas estruturais clássicas e aplicadas perturbações progressivas por meio da remoção de nós e arestas até um limite mínimo estrutural. Os dados sugerem que a IHG constitui um indicador estável para associar a organização da rede ao sucesso competitivo. Os resultados indicam que múltiplas propriedades topológicas apresentam associação com a posição final das equipes, embora com padrões distintos entre as ligas analisadas. Em particular, métricas associadas à conectividade global, coesão estrutural e reciprocidade mostram associações mais fortes em ligas como a Serie A e a Bundesliga. Por outro lado, a Premier League apresenta menor sensibilidade às métricas globais tradicionais, sendo a IHG a medida mais consistentemente associada ao desempenho, resultado interpretado à luz das especificidades da temporada atípica de 2015/16. A análise sob perturbação revela que a robustez estrutural não se distribui de maneira uniforme entre as métricas, sendo que apenas um subconjunto — sobretudo aqueles associados à coesão estrutural e, em menor grau, à eficiência de transporte — preserva capacidade discriminativa após a degradação da rede. Os achados corroboram a hipótese de pesquisa, indicando que não existe uma única propriedade estrutural determinante do sucesso competitivo, mas sim um conjunto de características topológicas cuja relevância depende do contexto competitivo. Por fim, o trabalho estabelece uma abordagem integrada para a análise estrutural e de robustez em redes de passe, permitindo avaliar não apenas a organização coletiva das equipes, mas também sua capacidade de preservar propriedades funcionais sob perturbações.

Defesa de dissertação (11/05/2026): Vanessa Santos Soares

Discente: Vanessa Santos Soares

Título: Avaliação de modelos de aprendizado de máquina para a correção automática de redações segundo as competências do ENEM

Orientadores: Eduardo Bezerra da Silva (orientador) e Gustavo Paiva Guedes e Silva (coorientador)

Banca: Eduardo Bezerra da Silva (Cefet/RJ), Gustavo Paiva Guedes e Silva (Cefet/RJ), Geraldo Bonorino Xexéo (UFRJ) e Diego Moreira de Araújo Carvalho (Cefet/RJ)

Dia/Hora: 11 de maio de 2026 / 9h

Sala: https://teams.microsoft.com/meet/23323520592245?p=fnhxrL9byDTK3YLLbi

Resumo: Com o crescimento do ensino remoto e a aplicação de exames de larga escala como o ENEM, a automatização da correção de textos discursivos tornou-se uma necessidade crescente. Este trabalho investiga diferentes estratégias de aprendizado de máquina para avaliação automática de redações em língua portuguesa, tomando como referência as cinco competências avaliativas do ENEM. Para isso, foram analisadas 9.599 redações coletadas do portal Vestibular Brasil Escola, abrangendo 102 temas publicados entre 2009 e 2024. São comparadas duas linhas de abordagem: (i) métodos tradicionais baseados em TF-IDF e features linguísticas extraídas dos textos, e (ii) modelos de linguagem pré-treinados com fine-tuning (XLM-RoBERTa com LoRA). O desempenho dos modelos é avaliado por meio da métrica Quadratic Weighted Kappa (QWK), que mede a concordância com corretores humanos. Espera-se demonstrar que modelos pré-treinados oferecem ganhos expressivos em robustez e confiabilidade, superando abordagens baseadas em engenharia de atributos. O estudo contribui para o avanço da área de Automatic Essay Scoring (AES) em português, oferecendo um benchmark e análise comparativa que podem apoiar futuras pesquisas e aplicações educacionais.

Defesa de dissertação (12/05/2026): Gustavo Melo

Discente: Gustavo Melo

Título: Reconhecimento de Entidades Nomeadas em Relatos Criminais Informais com Apoio de Metadados Estruturados

Orientadores: Eduardo Bezerra da Silva (orientador) e Karla Figueiredo (coorientadora)

Banca: Eduardo Bezerra da Silva (Cefet/RJ), Karla Figueiredo (UERJ), Gustavo Paiva Guedes (Cefet/RJ), Kele Teixeira Belloze (Cefet/RJ) e Ronaldo Ribeiro Goldschmidt (IME/RJ)

Dia/Hora: 12 de maio de 2026 / 09:00h

Sala: https://teams.microsoft.com/l/meetup-join/19%3ameeting_OWQ3ZTg5YzEtZjRmZC00NjkwLTg0MWUtYTBhODdkYTQwYTA0%40thread.v2/0?context=%7b%22Tid%22%3a%228eeca404-a47d-4555-a2d4-0f3619041c9c%22%2c%22Oid%22%3a%22049f2b6a-7ad4-4096-a3ed-db846537c488%22%7d

Resumo: O presente trabalho investiga o problema do reconhecimento de entidades nomeadas em relatos criminais informais registrados no serviço Disque Denúncia. Esses relatos, frequentemente marcados por linguagem coloquial, erros ortográficos e estrutura textual livre, impõem desafios significativos ao uso de modelos tradicionais de Processamento de Linguagem Natural. Além do texto livre, os relatos são acompanhados de metadados estruturados, como tipo de ocorrência, localização e data que podem fornecer contexto adicional relevante para a tarefa. Neste estudo, propõe-se uma abordagem baseada em fine-tuning de modelos de linguagem de grande porte, utilizando um corpus manualmente anotado com entidades do tipo Pessoa, Local e Organização. Para contornar a escassez de dados rotulados, a metodologia inclui a aplicação de pseudo-rotulagem em um segundo corpus, significativamente maior, expandindo assim a base de treinamento de forma semissupervisionada. Adicionalmente, os metadados dos relatos são incorporados como fonte de contexto tanto no pré-processamento quanto no processo de avaliação e refinamento dos modelos. Os experimentos foram conduzidos com o modelo GliNER e avalia que a utilização de metadados e pseudo-rotulação pode contribuir para melhorar a performance dos modelos em corpora informais, com impactos positivos para a extração automatizada de informações em contextos de segurança pública. Os resultados reforçam o potencial de abordagens híbridas e sensíveis ao domínio para aplicações reais de Processamento de Linguagem Natural em ambientes com escassez de rótulos anotados.

Defesa de Proposta de Dissertação (26/03/2026): André Igor Pereira

Discente: André Igor Pereira

Título: AranduFlow: Rumo ao uso de metadados de desempenho e domínio para prever e otimizar a execução de dataflows em ambientes de HPC

Orientadores: Rafaelli Coutinho (Orientadora) e Daniel de Oliveira (Co-orientador)

Banca: Rafaelli Coutinho (Cefet/RJ), Daniel de Oliveira (IC/UFF) , Diego Carvalho (Cefet/RJ) e Eduardo Ogasawara (Cefet/RJ)

Dia/hora:  26 de março de 2026, às 15h

Sala: https://teams.microsoft.com/meet/21171543786516?p=S3i661e69vhpMv2BPL

Resumo: A predição do tempo de execução é um desafio central para aplicações baseadas em dataflows executadas em ambientes de Computação de Alto Desempenho (HPC). A variabilidade nos dados de entrada, nos parâmetros de execução e nas configurações da infraestrutura faz com que o espaço de busca cresça exponencialmente, embora tais estimativas sejam fundamentais para decisões de seleção de recursos. Este trabalho apresenta o AranduFlow, um gateway agnóstico a dataflows que oferece suporte à submissão de dataflows e fornece predições de tempo de execução com base em dados históricos de execução e modelos de aprendizado de máquina. O AranduFlow complementa os escalonadores HPC existentes ao oferecer suporte preditivo à tomada de decisão sem interferir nas políticas de escalonamento ou na semântica de execução. A abordagem é avaliada utilizando um dataflow real de bioinformática executado em múltiplos clusters de HPC sob diferentes condições. Os resultados experimentais demonstram que o AranduFlow alcança predições precisas de tempo de execução, com modelos baseados em árvores de decisão oferecendo um equilíbrio favorável entre desempenho preditivo e interpretabilidade.

Defesa de dissertação (18/03/2026): Nathália Carvalho Tito

Discente: Nathália Carvalho Tito

Título: Análise de Desempenho e Características de Corredores para Predição de Resultados e Geração de Feedbacks Personalizados

Orientadores: Glauco Fiorott Amorim (Orientador) e Eduardo Bezerra da Silva (Co-orientador)

Banca:  Glauco Fiorott Amorim (Cefet/RJ), Eduardo Bezerra da Silva (Cefet/RJ),  Diego Nunes Brandão (Cefet/RJ) e Cláudio Miceli de Farias (COPPE/UFRJ).

Dia/Hora: 18 de março de 2026 / 8h

Sala: https://teams.microsoft.com/meet/22404162370488?p=2x3lfHhn8JsNjYtQEL

Resumo: O aumento do número de praticantes de corrida de rua tem intensificado a demanda por soluções capazes de oferecer suporte individualizado ao treinamento, especialmente entre corredores amadores que carecem de acompanhamento profissional contínuo. Nesse contexto, este estudo propõe um modelo integrado de análise de desempenho baseado em técnicas de aprendizado de máquina, com o objetivo de compreender padrões de treino, prever o desempenho de corredores e gerar recomendações personalizadas a partir de variáveis controláveis. Foram utilizados dados provenientes de um questionário e de registros de atividades exportados de um aplicativo de corrida, envolvendo 26 atletas com diferentes níveis de experiência, permitindo uma visão multidimensional dos hábitos de treino e da experiência esportiva. A metodologia foi estruturada em três fases principais. Na primeira, realizou-se uma análise de clusterização utilizando algoritmos clássicos K-means, DBSCAN e Agglomerative Clustering aplicados a componentes principais responsáveis por 80\% da variabilidade dos dados. O modelo final selecionado identificou três perfis distintos: “Experientes Jovens”, “Pouco Experientes” e “Experientes Veteranos”, diferenciados por idade, maturidade esportiva e padrões de treino. Na segunda fase, desenvolveu-se um modelo preditivo baseado em \textit{gradient boosting}, utilizando o algoritmo XGBoost, tanto em uma configuração geral quanto em versões específicas para cada cluster. Modelos de Regressão Linear também foram testados como abordagem de referência; entretanto, o XGBoost apresentou desempenho superior em todos os cenários avaliados, evidenciando maior capacidade de capturar relações não lineares e interações complexas entre as variáveis. Os resultados indicaram ainda que cada grupo respondeu de maneira particular às variáveis de treino, reforçando que a segmentação aprimora substancialmente a capacidade preditiva e a adequação das recomendações. A interpretação dos modelos foi conduzida por meio da análise dos SHAP values, que permitiu identificar as variáveis de maior influência nas previsões. De forma geral, destacaram-se fatores diretamente relacionados ao desempenho e à estrutura do treino, como velocidades mínima e máxima, distância percorrida, variabilidade do ritmo e histórico recente de velocidade, além de variáveis contextuais como temperatura. A análise segmentada revelou padrões distintos entre os grupos, indicando que diferentes perfis de corredores apresentam sensibilidades específicas a aspectos como intensidade, regularidade e consistência do treinamento, o que reforça a importância da personalização das recomendações. Na terceira fase, aplicou-se um algoritmo de otimização para identificar combinações de variáveis controláveis capazes de maximizar o desempenho previsto em cada perfil. A avaliação dos resultados foi fundamentada na comparação com cenários baseline, nos quais não havia ajuste das variáveis de decisão, permitindo quantificar de forma objetiva os ganhos obtidos com a otimização. As recomendações derivadas mostraram coerência interna e alinhamento com características dos clusters: maior ênfase em intensidade e variedade para corredores jovens experientes; foco em regularidade, consistência e fortalecimento muscular para pouco experientes; e estratégias de manutenção, equilíbrio e controle de carga para veteranos. Os achados demonstram que a integração entre clusterização, modelagem preditiva e otimização forma uma abordagem consistente e promissora para o desenvolvimento de sistemas inteligentes de recomendação esportiva baseados em dados. Apesar das limitações relacionadas ao tamanho da amostra e à ausência de indicadores fisiológicos de maior granularidade, o estudo apresenta evidências iniciais de que modelos computacionais podem apoiar a personalização do treinamento de forma eficiente, acessível e escalável. Futuras pesquisas podem ampliar a base de dados, incorporar novas dimensões informacionais, validar o modelo em populações maiores e explorar sua aplicação em plataformas digitais. Conclui-se que a combinação de técnicas de ciência de dados e métodos de otimização contribui significativamente para a compreensão do desempenho em corrida e para o desenvolvimento de recomendações individualizadas que favorecem evolução, aderência e segurança na prática esportiva.

Processo Seletivo 2026.1

Estão abertas, no período de 02 de março de 2026 a 01 de abril de 2026, as inscrições para o processo seletivo do Programa de Pós-Graduação em Ciência da Computação (PPCIC), visando ao ingresso no segundo trimestre de 2026 no curso de mestrado em Ciência da Computação.

O curso será oferecido no campus do Maracanã. O processo seletivo será regido pelo Edital nº 01/2026, disponível abaixo. O presente edital possui vigência anual e prevê a oferta de até 40 vagas ao longo de 2026, distribuídas em chamadas realizadas em regime de fluxo contínuo. Nesta chamada específica, estão sendo ofertadas 19 vagas, conforme quantitativo divulgado.

Documentos e Informações Importantes

 

Inscrição

 

Primeira Etapa

 

Segunda Etapa

 

Vídeos dos docentes do Programa

A seguir são apresentados os vídeos de docentes do Programa com os seus principais temas de pesquisa.

 

Diego Brandão

Diogo Mendonça

Eduardo Bezerra

Eduardo Ogasawara

Felipe Henriques

Gustavo Guedes

João Quadros

Joel Santos

Jorge Soares

Kele Belloze

Laura Assis

Rafaelli Coutinho

 

Eventuais dúvidas deverão ser encaminhadas exclusivamente para o e-mail institucional do Programa, conforme indicado no edital. Não serão prestadas informações adicionais por canais informais.

Defesa de dissertação (18/02/2026): Matheus dos Santos Moura

Discente: Matheus dos Santos Moura

Título: Detecção Híbrida de Anomalias e Pontos de Mudança para Esquemas de Pump-and-Dump em Corretoras Centralizadas de Criptomoedas

Orientador: Diogo Silveira Mendonça

Banca: Diogo Silveira Mendonça (Cefet/RJ), Eduardo Soares Ogasawara (Cefet/RJ) e Igor Machado Coelho (UFF)

Dia/Hora: 18 de fevereiro de 2026 / 15:00

Sala: https://teams.microsoft.com/l/meetup-join/19%3ameeting_ZGFkNGM1MzMtOGMzNi00OWU5LTkzYjUtY2JhNGQxZmQzZjBl%40thread.v2/0?context=%7b%22Tid%22%3a%228eeca404-a47d-4555-a2d4-0f3619041c9c%22%2c%22Oid%22%3a%226821740b-ed93-4582-b3a3-b3bfbff6624e%22%7d

Resumo: O rápido crescimento dos mercados de criptomoedas intensificou as preocupações relacionadas a práticas de manipulação de mercado, e particularmente aos esquemas de pump-and-dump. A detecção desses esquemas permanece desafiadora devido à alta volatilidade das criptomoedas e a disponibilidade limitada de dados confiáveis. Trabalhos relacionados baseiam-se predominantemente em técnicas de detecção de anomalias, as quais frequentemente apresentam dificuldades com precisão e adaptabilidade. Neste trabalho, propomos dois métodos de detecção offline que exploram um arcabouço híbrido combinando detecção de anomalias e de pontos de mudança para a identificação de esquemas de pump-and-dump. O primeiro método, HD Pump, integra a detecção de anomalias de volatilidade em séries temporais de preços com a detecção de pontos de mudança aplicada ao volume negociado. O segundo método, HD Pump Plus, estende essa abordagem ao substituir a série temporal de preços por uma série temporal baseada em rush orders. A avaliação experimental em um conjunto de dados contendo 178 eventos confirmados de pump-and-dump da exchange Binance mostra que o HD Pump Plus supera abordagens estatísticas anteriores, alcançando precisão de 96,4%, recall de 89,3% e F1-score de 92,7%. Esses resultados demonstram a efetividade da estratégia híbrida de detecção em avançar o estado da arte, mantendo simplicidade metodológica.

Chamadas Públicas – Bolsas do Projeto Lumen (CAPES InovaEDUCAÇÃO nº 03/2025)

O projeto Lumen – Plataforma de Avaliação Automatizada de Textos Dissertativos com Base nas Competências do ENEM, desenvolvido no Cefet/RJ e aprovado no âmbito do Edital CAPES InovaEDUCAÇÃO nº 03/2025, torna públicas as chamadas para seleção de bolsistas nas modalidades Iniciação Científica, Mestrado e Doutorado.A plataforma Lumen utiliza modelos de linguagem natural para apoiar a avaliação formativa de redações, oferecendo devolutivas pedagógicas alinhadas à matriz de competências do ENEM. O projeto encontra-se em sua fase de disseminação da solução tecnológica, envolvendo validação em ambiente real, capacitação de professores e análise de usabilidade em contextos educacionais.As bolsas são concedidas pela CAPES e terão vigência de 6 (seis) meses, conforme regras do edital.

Bolsas de Iniciação Científica (IC)

  • Quantidade: 6 bolsas
  • Público-alvo: Estudantes de graduação do CEFET/RJ
  • Atividades: Apoio à disseminação da plataforma, oficinas, produção de materiais, suporte técnico aos usuários e manutenção corretiva limitada durante a fase de uso público.

📄 Acesse a chamada completa (PDF)


Bolsas de Mestrado

  • Quantidade: 3 bolsas
  • Público-alvo: Estudantes regularmente matriculados em cursos de mestrado do CEFET/RJ
  • Atividades: Apoio técnico e metodológico à disseminação da plataforma, acompanhamento de oficinas, análise de dados educacionais e avaliação de impacto da solução.

📄 Acesse a chamada completa (PDF)


Bolsa de Doutorado

  • Quantidade: 1 bolsa
  • Público-alvo: Estudante regularmente matriculado em curso de doutorado
  • Atividades: Apoio avançado à avaliação pedagógica da solução, análise de desempenho do sistema em escala, consolidação de relatórios técnicos e científicos associados à disseminação da ferramenta.

📄 Acesse a chamada completa (PDF)


📅 Inscrições

Os períodos de inscrição, critérios de seleção, documentação exigida e demais informações específicas estão detalhados nos respectivos editais de cada modalidade.


📌 Resultado

📄 Resultado Preliminar


📧 Contato

Dúvidas podem ser encaminhadas para:
Prof. Eduardo Bezerra
Coordenador do Projeto Lumen – CEFET/RJ
E-mail: ebezerra@cefet-rj.br

PPCIC recebe Nota 4 na Avaliação da Quadrienal (2021-2024) da CAPES

🎉 Conquista histórica do PPCIC – Nota 4 na CAPES! 🎉

É com enorme orgulho que compartilhamos que o Programa de Pós-Graduação em Ciência da Computação (PPCIC) do Cefet/RJ alcançou nota 4 na avaliação Quadrienal (2021-2024) da CAPES!

O PPCIC é o programa mais novo do Estado do Rio de Janeiro na área de Computação, em um cenário altamente competitivo, que conta com programas consolidados. Alcançar esse patamar em tão pouco tempo é um marco que evidencia a maturidade acadêmica, a qualidade da produção científica e o impacto das nossas ações de ensino, pesquisa e extensão.

Esse resultado é fruto direto da dedicação incansável dos docentes, do empenho dos nossos discentes, do trabalho fundamental dos técnicos administrativos e da direção do Cefet/RJ. É uma conquista verdadeiramente coletiva, construída dia após dia, com compromisso, colaboração e visão de futuro.

Seguimos motivados a avançar ainda mais, fortalecendo nossas pesquisas, ampliando parcerias e formando profissionais e pesquisadores cada vez mais qualificados para a ciência e para a sociedade. 🚀

Parabéns a todos que fazem o PPCIC acontecer!

Defesa de dissertação (21/01/2026): Edson Paulo da Silva Pinto Sobrinho

Discente: Edson Paulo da Silva Pinto Sobrinho

Título: Ajuste fino de critérios de detecção para aprimorar a identificação de anomalias em séries temporais

Orientadores: Eduardo Soares Ogasawara e Kele Teixeira Belloze

Banca: Eduardo Soares Ogasawara (CEFET/RJ), Kele Teixeira Belloze (CEFET/RJ), Rafaelli de Carvalho Coutinho (CEFET/RJ) e Esther Pacitti (INRIA / University of Montpellier)

Dia/Hora: 21/01/2026 às 10h30min

Sala: https://teams.microsoft.com/meet/24688731415374?p=YVHyDYwIW66rCysKq0

Resumo: A Detecção de Anomalias (DA) é o problema de identificar observações que não correspondem às típicas em uma série temporal. Os métodos de DA definem implicitamente critérios de detecção, tais como medidas de desvio, limiares de filtragem e estratégias de seleção de candidatos a anomalia. A escolha inadequada desses critérios resulta em saídas imprecisas, gerando alertas espúrios ou deixando de identificar eventos. O ajuste desses critérios é essencial para sistemas de monitoramento. Para enfrentar esse desafio, este estudo explora o ajuste fino de medidas de desvio, limiares de filtragem e estratégias de seleção de candidatos. Os resultados experimentais mostram que a escolha adequada dos critérios melhora significativamente o desempenho da DA, muitas vezes com impacto maior que a mudança dos próprios métodos de detecção.

Defesa de dissertação (08/01/2026): Luiz Cláudio Lemos de Oliveira

Discente: Luiz Cláudio Lemos de Oliveira

Título: Detecção de Motifs em Séries Temporais Usando Autoencoders: Uma Análise do Uso em Dados de ECG

Orientador: Eduardo Soares Ogasawara

Banca: Eduardo Soares Ogasawara (CEFET/RJ), Laura Silva de Assis (CEFET/RJ), Helga Dolorico Balbi (CEFET/RJ) e Rebecca Pontes Salles (INRIA/FRA)

Dia/Hora: 08/01/2026 às 10h

Sala: https://teams.microsoft.com/meet/2899124353229?p=ykqgR5NeTJfPfXOhSF

Resumo: A descoberta de motifs em séries temporais biomédicas, como o eletrocardiograma (ECG), consiste na identificação de padrões recorrentes que podem conter informações diagnósticas relevantes. Métodos tradicionais, como o SAX, apresentam limitações por dependerem de pressupostos estatísticos rígidos, especialmente inadequados para sinais fisiológicos complexos. Paralelamente, autoencoders demonstram capacidade superior de aprendizado de representações não lineares, mas sua aplicação específica na descoberta de motifs em ECG ainda não foi explorada, o que configura uma lacuna metodológica relevante. Este trabalho propõe um framework que substitui a discretização SAX por uma codificação neural, preservando o pipeline de descoberta baseado na entropia de Shannon e na frequência de ocorrência. A metodologia desenvolveu-se em três etapas: (i) validação da capacidade de reconstrução do autoencoder, (ii) treinamento de modelos com dados da MIT-BIH Arrhythmia Database e (iii) comparação sistemática com o método SAX por meio de experimentos de detecção, análise de sensibilidade paramétrica e avaliação da capacidade de generalização. Conclui-se que a substituição da discretização tradicional por uma codificação neural adaptativa é viável e proporciona ganhos quantitativos e qualitativos na descoberta de motifs em sinais de ECG, constituindo base metodológica para o desenvolvimento de ferramentas de análise automatizada de sinais biomédicos.

Defesa de Proposta de Dissertação (18/12/2025): Nathália Carvalho Tito

Discente: Nathália Carvalho Tito

Título: Análise de Desempenho e Características de Corredores para Predição de Resultados e Geração de Feedbacks Personalizados

Orientadores: Glauco Fiorott Amorim (Orientador) e Eduardo Bezerra da Silva (Co-orientador),

Banca: Glauco Fiorott Amorim (Cefet/RJ), Eduardo Bezerra da Silva (Cefet/RJ), Diego Nunes Brandão (Cefet/RJ) e Pedro Henrique Gonzalez Silva (COPPE/UFRJ)

Dia/Hora: 18/12/2025 às 10h

Sala: https://teams.microsoft.com/meet/24128131576769?p=qdsGZarKO5PLG30baQ

Resumo: O aumento do número de praticantes de corrida de rua tem intensificado a demanda por soluções capazes de oferecer suporte individualizado ao treinamento, especialmente entre corredores amadores que carecem de acompanhamento profissional contínuo. Nesse contexto, este estudo propõe um modelo integrado de análise de desempenho baseado em técnicas de aprendizado de máquina, com o objetivo de compreender padrões de treino, prever o desempenho de corredores e gerar recomendações personalizadas a partir de variáveis controláveis. Foram utilizados dados provenientes de um questionário e de registros de atividades exportados de um aplicativo de corrida, envolvendo 26 atletas com diferentes níveis de experiência, permitindo uma visão multidimensional dos hábitos de treino e da experiência esportiva.
A metodologia foi estruturada em três fases principais. Na primeira, realizou-se uma análise de clusterização utilizando algoritmos clássicos (K-means, DBSCAN e Agglomerative Clustering) aplicados a componentes principais responsáveis por 80% da variabilidade dos dados. O modelo final selecionado identificou três perfis distintos: “Experientes Jovens”, “Pouco Experientes” e “Experientes Veteranos”, diferenciados por idade, maturidade esportiva e padrões de treino. Na segunda fase, desenvolveu-se um modelo preditivo de Regressão Linear, tanto em configuração geral quanto específica por cluster, considerando variáveis previamente selecionadas com base na literatura e análises preliminares. Os resultados indicaram que cada grupo respondeu de maneira particular às variáveis de treino, reforçando que a segmentação aprimora substancialmente a capacidade preditiva e a adequação das recomendações cada vez mais personalizadas.
Na terceira fase, aplicou-se um algoritmo de otimização para identificar combinações ótimas de variáveis controláveis capazes de maximizar o desempenho previsto em cada perfil. As recomendações derivadas mostraram coerência interna e alinhamento com características dos clusters: maior ênfase em intensidade e variedade para corredores jovens experientes; foco em regularidade, consistência e musculação para pouco experientes; e estratégias de manutenção e equilíbrio para veteranos. Os achados demonstram que a integração entre clusterização, modelagem preditiva e otimização forma uma abordagem consistente e promissora para o desenvolvimento de sistemas inteligentes de recomendação esportiva baseados em dados.
Apesar das limitações relacionadas ao tamanho da amostra e à ausência de indicadores fisiológicos de maior granularidade, o estudo apresenta evidências iniciais de que modelos computacionais podem apoiar a personalização do treinamento de forma eficiente, acessível e escalável. Futuras pesquisas podem ampliar a base de dados, incorporar novas dimensões informacionais, validar o modelo em populações maiores e explorar sua aplicação em plataformas digitais. Conclui-se que a combinação de técnicas de ciência de dados e métodos de otimização contribui significativamente para a compreensão do desempenho em corrida e para o desenvolvimento de recomendações individualizadas que favorecem evolução, aderência e segurança na prática esportiva.

Defesa de Proposta de Dissertação (19/12/2025): Ramon De La Vega Garcia

Discente: Ramon De La Vega Garcia

Título: Modelagem Preditiva de Casos de Dengue Usando Dados Climáticos, Epidemiológicos e de Infraestrutura de Saúde

Orientador: Eduardo Bezerra

Banca: Eduardo Bezerra (Cefet/RJ), Jorge de Abreu Soares (Cefet/RJ) e Rejane Sobrino Pinheiro (IESC/UFRJ)

Dia/Hora: 19/12/2025 às 10h

Sala: https://teams.microsoft.com/meet/25415553085073?p=fXyK6eE9cYlU4xW5hs

Resumo: A dengue é um importante problema de saúde pública no Brasil, com transmissão endêmica persistente apesar de décadas de esforços de controle vetorial. Fatores climáticos como temperatura, precipitação e umidade, aliados a condições socioambientais, desempenham papel central na proliferação do Aedes aegypti e na dinâmica de disseminação viral. Este estudo propõe um framework de modelagem preditiva para estimar casos diários e semanais de dengue em níveis regionais e por unidade de saúde, integrando dados epidemiológicos (SINAN), registros de infraestrutura de saúde (CNES) e reanálises meteorológicas (ERA5). A metodologia inclui pré-processamento de dados, engenharia de variáveis baseada no conhecimento biológico do vetor e treinamento de modelos de aprendizado de máquina, a saber: Random Forest, XGBoost com função de perda Poisson e um modelo híbrido Zero-Inflated Poisson (ZIP), para lidar com os desafios de dados de contagem caracterizados por sobredispersão e excesso de zeros. A otimização de hiperparâmetros foi realizada por busca Bayesiana utilizando o Optuna, e o desempenho dos modelos foi avaliado por meio de múltiplas execuções com divisões temporais rígidas para duas cidades brasileiras: Natal (RN) e Rio de Janeiro (RJ). Os resultados indicam que a inclusão de variáveis inspiradas em conhecimento biológico melhora a acurácia preditiva e que o modelo ZIP fornece previsões mais realistas durante períodos de baixa incidência. A abordagem proposta contribui para o desenvolvimento de sistemas operacionais de alerta precoce, permitindo intervenções oportunas em saúde pública e alocação mais eficiente de recursos em regiões endêmicas de dengue.