Autor: Rafaelli Coutinho

Defesa de dissertação (23/09/2020): Adalberto Andrade

Discente:  Adalberto Andrade

Título: Um estudo comparativo para Predição de Consumo de Fertilizantes em cenário de small data 

Orientadores: Pedro Henrique González (orientador) Silva, Eduardo Soares Ogasawara (coorientador)

Banca: Pedro Henrique González Silva (Presidente), Eduardo Soares Ogasawara (CEFET/RJ), Eduardo Bezerra da Silva (CEFET/RJ), Cristina Gomes de Souza (CEFET/RJ), Igor Machado Coelho (UFF)

Dia/Hora: 23 de setembro de 2020, às 10h

Sala remota: meet.google.com/utc-ucgk-nxu

Resumo:

Os fertilizantes têm recebido crescente atenção do agronegócio, indústria, empresários, governos e entidades de pesquisa em todo o mundo. Como insumo crítico para a cadeia produtiva de alimentos e insumos orgânicos para outros setores, é importante prever o consumo de fertilizantes, para que o aumento de sua produção possa ser feito adequadamente planejado, sem comprometer o meio ambiente. Esta previsão apoia a tomada de decisões e o planejamento, particularmente para atividades agrícolas, fortemente dependentes do uso de fertilizantes. Tendo em vista os elementos citados, esta pesquisa tem como foco comparar abordagens analíticas de dados para melhorar as previsões do consumo de fertilizantes sob diferentes horizontes de passos à frente. Para tanto, exploramos maneiras de otimizar a construção de modelo considerando diferentes abordagens (ou seja, combinações de pares entre pré-processamento de dados e métodos de aprendizado de máquina). Avaliamos essas abordagens em um conjunto reduzido de observações, correspondentes aos quatro principais fertilizantes usados nos dez principais países que os consomem. Os resultados obtidos mostraram que o uso das ferramentas analíticas propostas pode ser uma maneira promissora de
obtermos previsões para planejar demandas futuras.

Dissertação

Defesa de dissertação (14/08/2020): Thiago da Silva Pereira

Discente: Thiago da Silva Pereira

Título: Imputação de dados Hot-Deck: uma comparação entre comitês de regressão

Orientadores:  Jorge de Abreu Soares (orientador), Eduardo Bezerra da Silva (CEFET/RJ) (coorientador).

Banca: Jorge de Abreu Soares (presidente), Eduardo Bezerra da Silva (CEFET/RJ), Diego Nunes Brandão (CEFET/RJ), Ronaldo Ribeiro Goldschmidt (IME)

Dia/hora: 14 de agosto de 2020, às 15h.

Sala remota: meet.google.com/mtr-vmkq-wrw

Resumo:

O pré-processamento de dados enfrenta uma questão importante relacionada ao tratamento de dados ausentes. Uma solução possível para resolver esse problema é a imputação hot-deck. Essa técnica possui duas etapas: agrupar registros semelhantes e executar a imputação propriamente dita. Selecionar o melhor algoritmo para imputação é um desafio, diversos algoritmos de aprendizado de máquina são estudados para isso, porém poucos estudos comparam métodos comitês para a etapa de imputação. Este estudo propõe uma solução baseada na imputação hot-deck comparando quatro comitês regressores: Bagging, Adaboost, Gradientboost e Stacked Generalization. Para verificar
sua eficácia, usamos três conjuntos de dados, variando as taxas de ausências de 10% a 30%. Os resultados indicam que o Gradientboost apresenta melhor precisão em um tempo de processamento razoável.

Dissertação

Professor do PPCIC participa de corpo de consultores científicos para documentário da NETFLIX

O professor Eduardo Bezerra (PPCIC) participou como consultor científico para um dos episódios da série de documentários intitulada “Mundo Mistério” da NETFLIX (https://www.netflix.com/br/title/81020977). Essa série, que estreou no dia 04/agosto/2020, foi criada pelo youtuber brasileiro Felipe Castanhari. A primeira temporada da série é composta por oito episódios que exploram mistérios e maravilhas da ciência e da história. O professor Eduardo Bezerra forneceu consultoria científica para o episódio sete, cujo título é “O caminho para a Superinteligência Artificial”.

Defesa de dissertação (12/08/2020): Aíquis Rodrigues Gomes

Discente: Aíquis Rodrigues Gomes

Título: Rumo à Publicação de Dados Abertos Governamentais como Dados Abertos Ligados utilizando uma Abordagem baseada em Ontologias

Orientadora: Kele Teixeira Belloze

Banca: Kele Teixeira Belloze (presidente), Laura Silva de Assis (CEFET/RJ) e Maria Claudia Reis Cavalcanti (IME)

Dia/hora: 12 de agosto de 2020, às 14h.

Sala remota: meet.google.com/vmx-bzig-jbt

Resumo:

Governos sao grandes produtores e publicadores de dados e têm buscado utilizá-los como forma de aumentar a transparencia e gerar mais valor para a sociedade. No entanto, o nível de maturidade na publicação de dados governamentais ainda é baixo, o que resulta na publicação utilizando formatos que dificultam a conexão com outros conjuntos de dados e a leitura por parte de maquinas, além de publicações que não
são realmente em formatos abertos. Dados Abertos Ligados constituem um conjunto de tecnologias e padrões da web semântica que permitem a ligação entre diferentes conjuntos de dados abertos publicados na web. Por intermédio dos Dados Abertos Ligados, governos podem atingir alto grau de maturidade na publicação de dados utilizando um formato realmente aberto, que permite a leitura por máquinas e que pode potencializar o valor gerado para a sociedade com iniciativas de dados. No entanto, existem algumas barreiras para a publicação dos dados utilizando essas tecnologias e padrões. Uma dessas barreiras refere-se a falta de um guia para sua implementação que possa direcionar, de maneira estruturada, os passos a serem seguidos para a publicação de um conjunto de dados como Dados Abertos Ligados. Nesse trabalho é apresentada uma metodologia baseada no uso de ontologia para que conjuntos de dados publicados em formatos tradicionais possam ser publicados como
Dados Abertos Ligados. A metodologia é composta por quatro etapas: (i) identificação, análise e integração dos dados; (ii) desenvolvimento da ontologia; (iii) publicação dos dados como Dados Abertos Ligados; e (iv) publicação de endpoint SPARQL. Dois experimentos utilizando conjuntos de dados governamentais reais dos domínios eleitoral e da saúde foram realizados seguindo a metodologia proposta. Como resultados houve a produção de duas ontologias, sobre as eleições brasileiras e sobre as Unidades Básicas de Saúde em funcionamento no Brasil, e a disponibilização dos dois conjuntos de dados referentes a essas ontologias em arquivos RDF com alguns dos recursos ligados a outros conjuntos de dados. Com os experimentos foi possível comprovar que por meio de um processo estruturado e possível evoluir na publicação de dados abertos e que os passos propostos podem ser aplicados independente do domínio dos dados.

Dissertação

Defesa de dissertação (22/07/2020): Alan Rodrigues Fontoura

Discente: Alan Rodrigues Fontoura

Título: A Deep Reinforcement Learning Approach to Asset-Liability Management

Orientadores: Eduardo Bezerra da Silva (orientador) e Diego Barreto Haddad (CEFET/RJ) (co-orientador).

Banca: Eduardo Bezerra da Silva (presidente), Diego Barreto Haddad (CEFET/RJ), Laura Silva de Assis (CEFET/RJ) e Aline Marins Paes Carvalho (UFF)

Dia/hora: 22 de julho de 2020, às 14h.

Sala remota: meet.google.com/jox-chim-syy

Resumo:

Asset-Liability Management (ALM) is a technique to optimize investment portfolios, considering a future flow of liabilities. Its stochastic nature and multi-period decision structure favors its modeling as a Markov Decision Process (MDP). Reinforcement Learning is a state-of-the-art group of algorithms for MDP solving, and with its recent performance boost provided by deep neural networks, problems with long time horizons can be handled in just a few hours. In this work, an ALM problem is addressed with an algorithm known as Deep Deterministic Policy Gradient. Opposed to most of the other literature approaches, this model does not use scenario discretization, which is a significant contribution to ALM study.
Experimental results show that the Reinforcement Learning framework is well fitted to solve this kind of problem, and has the additional benefit of using continuous state spaces.

Dissertação

Defesa de dissertação (20/07/2020): Rafaela de Castro do Nascimento

Discente: Rafaela de Castro do Nascimento

Título: STConvS2S: rede convolucional espaço-temporal para tarefa de sequência a sequência aplicada à previsão do tempo

Orientador: Eduardo Bezerra (orientador), Fábio Porto (co-orientador)

Banca: Eduardo Bezerra (presidente), Fábio Porto (LNCC), Eduardo Ogasawara (CEFET/RJ),  José Antônio Fernandes de Macêdo (UFC), Yania Molina Souto (LNCC)

Dia/Hora: 20 de julho de 2020/ 14h

Sala Remota: https://meet.google.com/znj-ppnh-yyg

Resumo:

Aplicar modelos de aprendizagem de máquina em dados meteorológicos proporcionam muitas oportunidades na área da Geociência, como prever a condição do tempo de forma mais precisa. Recentemente, a modelagem dos dados meteorológicos com redes neurais profundas tem se tornado uma área de investigação relevante. Alguns trabalhos aplicam redes neurais recorrentes (RNN) ou uma abordagem híbrida usando RNN e redes neurais convolucionais (CNN). Neste trabalho, propusemos STConvS2S (rede convolucional espaço-temporal para tarefa de sequência a sequência), uma arquitetura de aprendizagem profunda construída para aprender as dependências espaciais e temporais dos dados usando somente camadas convolucionais. A arquitetura proposta resolve duas limitações das redes convolucionais ao prever sequências usando dados históricos, sendo: (1) elas violam a ordem temporal durante o processo de aprendizagem, e (2) precisam que o tamanho das sequências de entrada e saída sejam iguais. Experimentos computacionais usando dados de temperatura do ar e de chuva da América do Sul mostram que nossa arquitetura captura o contexto espaço-temporal e que ela é capaz de superar ou ter resultados comparáveis em relação às arquiteturas consideradas estado da arte na tarefa de previsão. Em particular, uma das variações da nossa arquitetura proposta melhora em 23% a previsão das sequências futuras, sendo quase cinco vezes mais rápida no treinamento do que os modelos baseados em RNN comparados nos experimentos.

Dissertação

Iniciativas de combate ao Coronavírus (COVID-19)

Acompanhe aqui as iniciativas do PPCIC no combate ao Coronavírus (COVID-19):

Docente do PPCIC coordena Iniciativa contra COVID-19

A iniciativa coordenada pelo professor João Quadros do PPCIC/DEELT/COINF consiste em desenhar e imprimir viseiras para confecção de shields de proteção para médicos e enfermeiros que estejam na frente de combate contra o COVID-19.

A primeira entrega já foi realizada e destinou-se ao Hospital Público do Andaraí. A equipe envolvida na iniciativa está em contato com o pessoal da PUC-Rio que recolhe, monta o restante e distribui aos hospitais públicos do Rio. 

Esse projeto é voluntário e está sendo executado com fomento próprio (compra dos filamentos) e com fomento da FAPERJ (compra da impressora 3D). Ele conta ajuda de estudantes e professores do Técnico (Informática, Mecânica e Eletrônica),  Graduação (Engenharia Eletrônica) e Pós-graduação (PPCIC), todos integrantes do Projeto Grupo Robótica do Maracanã, e do apoio de um egresso do PPCIC, Roberto Castro.
Divulguem!

As 11 primeiras viseiras

Um exemplo do shield montado

Impressora que está momentaneamente (devido ao isolamento) na casa do professor João Quadros, sendo utilizada para a impressão.

Caixa com as viseiras a serem entregues

Docentes do PPCIC intregram iniciativa para monitoramento da disseminação do COVID-19 nos estados brasileiros

Os docentes do curso de Engenharia de Computação do CEFET/RJ, campus Petrópolis, criaram um site monitorcovid.com.br que atualiza diariamente informações sobre a disseminação do COVID-19 nos estados brasileiros. Nesse site, é possível verificar graficamente a tendência de piora, manutenção ou melhora da situação da COVID-19 em cada estado brasileiro.

Essa iniciativa tem como objetivo informar a população e os tomadores de decisão no Brasil acerca dos últimos dados de disseminação do Corona Vírus na comunidade brasileira. Eles esperam poder contribuir para uma tomada de decisões apropriada, bem como conscientizar da população acerca da importância dos cuidados que devem ser tomados em uma situação tão delicada quanto a atual.

A equipe responsável pelo projeto conta com a participação dos docentes Diego Haddad e Laura Assis do PPCIC.

 

Defesa de dissertação (31/01/2020): Ivair Nobrega Luques

Discente: Ivair Nobrega Luques

Título: Inteligência Computacional Aplicada à Detecção Intrínseca de Plágio em Documentos Textuais

Orientadores: Eduardo Bezerra (orientador), Pedro Henrique González Silva (co-orientador)

Banca: Eduardo Bezerra (presidente), Pedro Henrique González Silva (CEFET/RJ), Jorge de Abreu Soares (CEFET/RJ),  Igor Machado Coelho (UFF)

Dia/Hora: 31 de janeiro de 2020/ 10h

Sala: Auditório V – Bloco E

Resumo:

O acesso à produção acadêmica na forma de documentos relacionados ao ensino e à pesquisa científica tem sido fomentado por movimentos de divulgação de documentos digitais. No entanto, o uso indevido desses documentos está contribuindo para o crescimento de casos de plágio. Redes neurais artificiais têm obtido resultados surpreendentes na solução de vários problemas de na área de Processamento de Linguagem Natural. Inspirados por isso, neste trabalho, aplicamos uma combinação simples, porém eficaz, de técnicas de Aprendizagem Profunda à tarefa de detecção intrínseca de plágio. Em particular, usamos Skip-Thoughts, um modelo de incorporação para representar cada frase de um documento como um vetor multidimensional. Depois disso, treinamos uma rede neural siamesa usando como conjunto de treinamento uma coleção de pares de frases (cada frase representada como um vetor Skip-Thoughts) extraída de documentos no corpus PAN11. Em seguida, modelamos cada documento como um grafo ponderado e não-dirigido para viabilizar a aplicação do algoritmo de correlação de clusters, que possibilita identificar passagens potencialmente plagiadas. Nossos experimentos computacionais mostram que o modelo neural de rede siamesa resultante é capaz de reconhecer diferenças estilísticas entre frases em um documento. Além disso, a identificação de passagens potencialmente plagiadas por meio da abordagem de correlação de clusters produz resultados comparáveis aos da literatura.

Dissertação

Defesa de dissertação (31/01/2020): Wellington Souza Amaral

Discente: Wellington Souza Amaral

Título: Análise de grafos para apoio em auditoria de licitações públicas

Orientador: Leonardo Lima (orientador), Eduardo Bezerra (co-orientador)

Banca: Leonardo Lima (presidente), Eduardo Bezerra (CEFET/RJ), Eduardo Ogasawara (CEFET/RJ),  Claudia Justel (IME)

Dia/Hora: 31 de janeiro de 2020/ 14h

Sala: a definir

Resumo:

O presente trabalho apresenta proposta de pesquisa para identificação de inconformidades nos processos licitatórios realizadas por órgãos do Estado do Rio de Janeiro. Esse interesse é motivado pela necessidade de se selecionar os gastos públicos com maiores  suspeitas de conter irregularidades, já que é inviável investigar em detalhe todas as despesas e contratos públicos do estado. Métodos correlatos às áreas de mineração de dados, teoria de grafos e a teoria da informação são utilizados. O método proposto consiste em modelar o problema em dois tipos de redes: uma rede bipartida de empresas e órgãos públicos e, outra rede formada somente de empresas. A entropia de cada vértice e algoritmos de identificação de comunidades são utilizados para identificar possíveis conluios de empresas nas licitações públicas. Os experimentos  computacionais foram realizados com mais de 140 redes a partir de um conjunto  de dados reais e em cada rede subconjuntos de licitações com possíveis conluios foram indicados pelos algoritmos desenvolvidos.

Dissertação

Defesa de dissertação (30/01/2020): Francimary Procopio Garcia de Oliveira

Discente: Francimary Procopio Garcia de Oliveira

Título: Integração de Dados na Detecção de Alvos para Fármacos de Schistosoma mansoni.

Orientadora: Kele Teixeira Belloze

Banca: Kele Teixeira Belloze (presidente), Rafaelli de Carvalho Coutinho (CEFET/RJ), Ana Carolina Ramos Guimaraes (FIOCRUZ)

Dia/Hora: 30 de janeiro de 2020/ 11:00h

Sala: a ser definida

Resumo:

A esquistossomose causada pelo organismo Schistosoma mansoni é uma doença negligenciada importante por sua ocorrência no mundo. Contudo, existe um único medicamento recomendado pela Organização Mundial de Saúde para o seu tratamento. Logo, pesquisas por alvos para fármacos alternativos no combate à doença são importantes. Este trabalho tem como objetivo identificar possíveis novos alvos para fármacos de S. mansoni. A metodologia adota uma abordagem baseada na integração de dados biológicos que se encontram dispersos por diversos bancos de dados públicos e na utilização dos conceitos de ortologia e homologia para identificação dos atributos de essencialidade e drogabilidade das proteínas. Também foi abordado o método de aprendizado de maquina para identificação do atributo de essencialidade das proteínas do S. mansoni, a partir das bases de proteínas essenciais e não-essenciais dos organismos modelo.
Considerando as etapas da metodologia que utilizaram abordagem baseada em homologia, para as quais as características de essencialidade e drogabilidade foram pretendidas, os resultados apresentam uma lista de 15 proteínas candidatas a alvos para fármaco do S. mansoni. Em relação ao método de aprendizado de máquina, o classificador Random Forest foi indicado como o de melhor desempenho, apresentando um percentual de 79% de acurácia nas atividades de aprendizado. A partir do classificador, 1.412 proteínas foram indicadas como essenciais na atividade de predição das proteínas do S. mansoni. A análise comparativa entre os dois métodos, baseado em homologia e baseado em aprendizado de máquina, foi realizada e uma lista das seis proteínas melhor ranqueadas foi apresentada.

Dissertação

Defesa de dissertação (17/01/2020): Ribamar Santos Ferreira Matias

Discente: Ribamar Santos Ferreira Matias

Título: Integração de Dados como Apoio a Modelagem de Célula Inteira da Bactéria Pseudomonas aeruginosa CCBH4851

Orientadora: Kele Teixeira Belloze

Banca: Kele Teixeira Belloze (presidente), Eduardo Bezerra da Silva (CEFET/RJ), Fabrício Alves Barbosa da Silva (FIOCRUZ)

Dia/Hora: 17 de janeiro de 2020/ 10:00h

Sala: Auditório V – 5º andar

Resumo:

A análise comparativa de genomas por meio de processos computacionais é uma abordagem de baixo custo e com potencial promissor para apoiar pesquisadores. Tal análise é favorecida ao considerar os diversos dados oriundos de estudos sobre organismos modelo, disponíveis em bancos de dados públicos. Esta abordagem foi utilizada no presente trabalho, para analisar o genoma da cepa Pseudomonas aeruginosa CCBH4851. Esta cepa, identificada no Brasil em 2008, está sendo pesquisada pela FIOCRUZ e parceiros, em função de sua associação a infecções hospitalares, e do seu alto grau de resistência, detectado após testes com diversos antibióticos. Neste sentido, o levantamento de proteínas essenciais, que possam auxiliar no desenvolvimento de novos antibióticos no combate à bactéria, torna-se relevante. Deste modo, o objetivo deste trabalho é construir uma base de dados para ampliar o conhecimento disponível sobre a P. aeruginosa CCBH4851, a partir de dados provenientes de estudos aprofundados com outros organismos. Esta base de dados reúne informações como anotações por ontologia das proteínas da bactéria, dados sobre homologia e ortologia, e indicadores de similaridade semântica funcional, entre suas proteínas e as de organismos de referência no estudo da espécie P. aeruginosa. Como complemento, foi elaborado um processo de aprendizado de máquina, com intuito de inferir quais proteínas da bactéria têm características essenciais, que são o alvo preferencial para ação dos antibióticos. Para reunir este conjunto de informações, foram empregados métodos estritamente computacionais, com o apoio de ferramentas para análise de sequências genômicas, como Blast2GO, InterProScan, GOGO, Blastp e Orthofinder, referenciando conjuntos de proteínas provenientes de bancos de dados genômicos públicos, como Uniprot, OGEE, Interpro e KEGG. O processo de aprendizagem de máquina consistiu na execução de uma rede neural LSTM, cujas predições seriam posteriormente confrontadas com os resultados de anotação, semelhança e similaridade semântica. Embora sejam menos precisos que as análises por curadoria manual, os métodos computacionais evoluem continuamente, e novas tecnologias e ferramentas para bioinformática são frequentemente disponibilizadas. Estes recursos têm potencial promissor para auxiliar os pesquisadores nas tarefas de conhecimento dos genomas e tomada de decisão. Na base de dados criada, estão disponíveis as anotações pela ontologia Gene Ontology, de aproximadamente 60% do total de proteínas, indicadores de similaridade semântica, assim como o conjunto de proteínas ortólogas da cepa P. aeruginosa CCBH4851, obtidos através de processos comparativos com proteomas de referência. Por fim, o projeto sugere um fluxo de atividades que pode ser aplicado como abordagem inicial genérica nos estudos de novos genomas, que pode ser aprimorado e estendido por trabalhos futuros.

Dissertação

Defesa de dissertação (23/12/2019): Carlos Alberto Martins de Sousa Teles

Discente: Carlos Alberto Martins de Sousa Teles

Título: Um Arcabouço de Caixa-Preta para a Detecção de Tráfego Malicioso em Ambientes de TIC

Orientadores: Felipe da Rocha Henriques (orientador), Raphael Carlos Santos Machado (co-orientador)

Banca: Felipe da Rocha Henriques (presidente), Raphael Carlos Santos Machado (UFF), Pedro Henrique González Silva

 (CEFET/RJ),  Michel Pompeu Tcheou (UERJ)

Dia/Hora: 23 de dezembro de 2019/ 15:30h

Sala: Auditório V – 5º andar

Resumo:

A segurança da informação está se tornando gradualmente uma área que desempenha um papel importante em nossas vidas cotidianas, em função do crescimento dos ativos de Tecnologia da informação e de comunicações (TIC) e os ambientes cada vez mais conectados. Como resultado, os problemas de segurança da informação agora devem ser considerados relevantes a nossa sociedade. Cada vez mais temos informações de Governos, empresas e pessoas tendo seus dados vazados em função de falhas de segurança da informação, tanto em Hardware e Software dos ativos de TIC. Para a inspeção dos ativos de TIC existem oo processos de avaliação de segurança, que são procedimentos para verificar o atendimento a requisitos por meio da execução de testes sistemáticos denominados ensaios, os chamados de Programas de Avaliação da Conformidade (PACs). No intuito de identificar as falhas dos ativos de TIC, através da detecção de tráfego malicioso, este trabalho propõe uma estrutura baseada em caixa preta em ambientes de TIC. O método de caixa preta permite monitorar a rede sem acessar o código do software, que pode ser inviável nas empresas,para seus funcionários. Em nossa proposta, unimos a segurança da informação e do uso de recursos de rede para executar uma detecção confiável de tráfego malicioso. Primeiramente, coletamos informações de tráfego de rede, gerando um conjunto de dados a partir de ferramentas comerciais de rede. Nosso esquema de detecção proposto foi validado verificando a correlação entre alertas de segurança de rede e uso de recursos de rede, como taxa de transferência e número de conexões TCP. Os resultados mostram que o esquema proposto pode detectar com segurança o tráfego malicioso em um ambiente real de rede de TIC.

Dissertação

Defesa de dissertação (23/12/2019): Carlos Roberto Gonçalves Viana Filho

Discente: Carlos Roberto Gonçalves Viana Filho

Título: Uma Proposta de Padronização Brasileira para a Avaliação de Risco em Ambientes Computacionais

Orientadores: Felipe da Rocha Henriques (orientador), Raphael Carlos Santos Machado (co-orientador)

Banca: Felipe da Rocha Henriques (presidente), Raphael Carlos Santos Machado (UFF), Diego Nunes Brandão

 (CEFET/RJ),  Michel Pompeu Tcheou (UERJ)

Dia/Hora: 23 de dezembro de 2019/ 13h

Sala: Auditório V – 5º andar

Resumo:

As sociedades modernas encontram-se cada vez mais dependentes de sistemas computacionais, serviços e de toda sua infraestrutura. Portanto, erros, instabilidades e indisponibilidades destes, podem trazer grandes prejuízos materiais e financeiros para empresas, indústrias  e governos em seus diversos níveis. Com o objetivo de garantir a segurança para os seus sistemas computacionais e minimizar os riscos inerentes a sua crescente utilização as organizações têm trabalhado e investido na implantação de programas de avaliação da conformidade para ativos computacionais.

No Brasil, atualmente não existe uma legislação própria (ou padronização) que exija que os sistemas tenham um mínimo de requisitos de segurança e consequentemente que sua avaliação seja realizada e devidamente comprovada. Em muitos casos, padrões internacionais são usados por empresas Brasileiras para avaliação de conformidade. Porém, nem sempre esses padrões estão adequados ao cenário nacional. Nota-se, seja pela falta de padronização e pela sua pouca maturidade em relação os quesitos de segurança, que o país sofre com vários desafios para assegurar que seus ativos computacionais estejam devidamente protegidos contra os mais diversos tipos de ataques existentes. Entretanto embora o estabelecimento de Programas de Avaliação de Conformidade para Tecnologia da Informação e Ativos de Comunicação seja considerado um grande desafio, podemos afirmar que a avaliação de alguns programas através de uma abordagem orientada para o risco tem contribuído concretamente para a solução do problema supracitado. A adoção de tal abordagem pressupõe a definição de um conjunto de requisitos que devem ser atendidos por um  determinado produto e de uma série de ensaios que deverão ser executados sobre o mesmo, de modo a atestar o atendimento àqueles requisitos.

Neste trabalho, propomos uma padronização para o cenário brasileiro para avaliação de riscos em ambientes computacionais. Uma metanálise é considerada para avaliar a proposta e, com base nos resultados obtidos, verificamos que a adaptação de padrões internacionais para o cenário brasileiro é uma boa alternativa para implantação em larga escala, o que pode levar à redução de custo e tempo para empresas.

Dissertação

Aluno do Grupo de Robótica coordenado por docente do PPCIC é premiado na OBI

O aluno do médio/técnico Erick Gaiote integrante do Grupo de Robótica Maracanã coordenado pelo docente João Quadros do PPCIC recebeu a premiação de Honra ao Mérito na modalidade Programação Nível 2 da Olimpíada Brasileira de Informática (OBI) de 2019. Essa é mais uma  conquista do trabalho do professor João Quadros articulado pela verticalização da educação no CEFET/RJ, e virou notícia no site da instituição (confira a notícia na íntegra aqui).

Aluno do PPCIC desenvolve Pesquisa sobre Análise de Dados em Evasão na UFF

O aluno Gustavo Alexandre do PPCIC, orientado pelo professor Diego Brandão e responsável pela área de Gestão e Governança de Dados na TI da Universidade Federal Fluminense (UFF), está desenvolvendo no seu trabalho de mestrado um modelo de predição capaz de identificar alunos com risco de evasão. A pesquisa foi publicada no Simpósio Brasileiro de Banco de Dados (SBBD) deste ano e ganhou destaque com a divulgação do trabalho no site da UFF.

Também são colaboradores da pesquisa os docentes Diego Haddad (CEFET/RJ), Kele Belloze (CEFET/RJ)  e Luiz Tarracata (CEFET/RJ).

Confira a notícia completa em Produção de conhecimento: estudo sobre evasão no ensino superior.

Defesa de dissertação (16/12/2019): Alexandre Cunha

Discente: Alexandre Cunha

Título: Detecção de Sinais de eventos Adversos de Medicamentos em Textos Informais

Orientador: Gustavo Paiva Guedes e Silva (orientador)

Banca: Gustavo Paiva Guedes e Silva (presidente), Eduardo Ogasawara (CEFET/RJ), Kele Belloze (CEFET/RJ), Fellipe Duarte (UFRRJ)

Dia/Hora: 16 de dezembro de 2019 / 14h

Sala: Auditório 5 (Bloco E, 5o andar)

Resumo:

A vigilância em saúde, conhecida como farmacovigilância, se define como: “a ciência e as atividades relativas à identificação, avaliação, compreensão e prevenção dos efeitos adversos ou qualquer outro problema relacionado com medicamentos” WHO [2002].  Eventos adversos a medicamentos são responsáveis por aproximadamente 25% dos pacientes internados no atendimento primário, sendo considerados graves em 13% dos casos Meyboom et al. [1999]. A farmacovigilância atua no período de pós-aprovação do medicamento, podendo evitar e atenuar certos eventos adversos. O acesso às várias categorias de dados de saúde no período atual, expande a capacidade de análise para pesquisa relacionada a farmacovigilância. Com o advento das técnicas de mineração de texto (MT), processamento de linguagem natural (PLN), aprendizagem de máquina (AM) e extração da informação (EI), houve a possibilidade de extração de conhecimento de textos não estruturados e informais, obtidos de mídias sociais. O objetivo desta dissertação é, ao utilizar a extração da informação, criar um modelo a partir da MT e PLN e detectar sinais de eventos adversos em medicamentos nos textos da mídia social (Twitter) escritos em português do Brasil. A dissertação apresenta extensa revisão bibliográfica sobre os conceitos citados. Guiando o processo, foi desenvolvida uma abordagem baseada na metodologia de MT para identificar possíveis sinais de eventos adversos. Esse processo foi implementado com auxílio do CoreNLP. Para essa dissertação, foi escolhido o idioma português brasileiro, para o qual não existe suporte nativo do CoreNLP, dessa forma,foram implementados o analisador sintático (Pos-Tagger) e o parse de dependência (DEP-PARSER) em português brasileiro, bem como, treinado um modelo de detecção de entidades nomeadas no domínio da farmacovigilância em português Brasileiro, utilizando AM em uma abordagem híbrida. Foi proposto um algoritmo para efetiva detecção de sinal de eventos adversos em medicamentos. Complementa-se a metodologia com a experimentação dos modelos criados e do algoritmo desenvolvido. Os resultados representem um esforço inicial na tentativa de atuar sobre o idioma português brasileiro no campo da farmacovigilância. Os experimentos abriram caminho para fomentar o tema e fornecer um instrumental para caminhar em direção ao estado da arte, especificamente para a língua portuguesa.

Dissertação

 [:en]Discente: Alexandre Cunha

Título: Detecção de Sinais de eventos Adversos de Medicamentos em Textos Informais

Orientador: Gustavo Paiva Guedes e Silva (orientador)

Banca: Gustavo Paiva Guedes e Silva (presidente), Eduardo Ogasawara (CEFET/RJ), Kele Belloze (CEFET/RJ), Fellipe Duarte (UFRRJ)

Dia/Hora: 16 de dezembro de 2019 / 14h

Sala: Auditório 5 (Bloco E, 5o andar)

Resumo:

A vigilância em saúde, conhecida como farmacovigilância, se define como: “a ciência e as atividades relativas à identificação, avaliação, compreensão e prevenção dos efeitos adversos ou qualquer outro problema relacionado com medicamentos” WHO [2002].  Eventos adversos a medicamentos são responsáveis por aproximadamente 25% dos pacientes internados no atendimento primário, sendo considerados graves em 13% dos casos Meyboom et al. [1999]. A farmacovigilância atua no período de pós-aprovação do medicamento, podendo evitar e atenuar certos eventos adversos. O acesso às várias categorias de dados de saúde no período atual, expande a capacidade de análise para pesquisa relacionada a farmacovigilância. Com o advento das técnicas de mineração de texto (MT), processamento de linguagem natural (PLN), aprendizagem de máquina (AM) e extração da informação (EI), houve a possibilidade de extração de conhecimento de textos não estruturados e informais, obtidos de mídias sociais. O objetivo desta dissertação é, ao utilizar a extração da informação, criar um modelo a partir da MT e PLN e detectar sinais de eventos adversos em medicamentos nos textos da mídia social (Twitter) escritos em português do Brasil. A dissertação apresenta extensa revisão bibliográfica sobre os conceitos citados. Guiando o processo, foi desenvolvida uma abordagem baseada na metodologia de MT para identificar possíveis sinais de eventos adversos. Esse processo foi implementado com auxílio do CoreNLP. Para essa dissertação, foi escolhido o idioma português brasileiro, para o qual não existe suporte nativo do CoreNLP, dessa forma,foram implementados o analisador sintático (Pos-Tagger) e o parse de dependência (DEP-PARSER) em português brasileiro, bem como, treinado um modelo de detecção de entidades nomeadas no domínio da farmacovigilância em português Brasileiro, utilizando AM em uma abordagem híbrida. Foi proposto um algoritmo para efetiva detecção de sinal de eventos adversos em medicamentos. Complementa-se a metodologia com a experimentação dos modelos criados e do algoritmo desenvolvido. Os resultados representem um esforço inicial na tentativa de atuar sobre o idioma português brasileiro no campo da farmacovigilância. Os experimentos abriram caminho para fomentar o tema e fornecer um instrumental para caminhar em direção ao estado da arte, especificamente para a língua portuguesa.

Dissertation

 

Manual de Manutenção e Suporte a Drones

O Projeto Grupo Robótica Maracanã, coordenado pelo prof. João Quadros do PPCIC, produziu o Manual de Manutenção e Suporte de Drones F450 em 2017, que recebeu atualizações em 2018 e 2019. O manual contém informações úteis a quem deseja construir, configurar e pilotar um drone F450 e pode ser acessado através deste link.