Vagas para alunos ouvintes
Já está disponível o quantitativo de vagas e critérios para seleção de alunos ouvintes para o terceiro trimestre de 2019. Mais informações na página de alunos ouvintes.
Já está disponível o quantitativo de vagas e critérios para seleção de alunos ouvintes para o terceiro trimestre de 2019. Mais informações na página de alunos ouvintes.
Os professores Eduardo Bezerra e Leonardo Lima, juntamente com o discente do PPCIC Wellington Souza Amaral e pesquisador externo tiveram projeto sob título “Classificação automatizada de produtos da nota fiscal eletrônica de compras públicas” aprovado no Programa de pesquisa da Escola de Contas e Gestão do Tribunal de Contas do Estado do Rio de Janeiro (ECG/TCE-RJ) para Edital nº 01/2019. O programa de pesquisa da ECG/TCE-RJ tem como principal finalidade a promoção de estudos e pesquisas na área da administração pública. Os projetos selecionados visam gerar contribuições para o aprimoramento da gestão pública, bem como dos procedimentos de trabalho do TCE-RJ.
O projeto aprovado objetiva desenvolver um modelo computacional para classificar bens e produtos adquiridos em compras públicas.
Tal solução consiste no desenvolvimento de um modelo computacional que, a partir de bases de dados disponíveis, como os das notas fiscais eletrônicas, seja capaz de reunir em uma mesma categoria ou grupo, ocorrências de aquisições de bens, produtos e serviços de mesma natureza a ponto de viabilizar procedimentos analíticos confiáveis que resultem, por exemplo:
Com o uso da Mineração de dados pretende-se desenvolver uma metodologia para agrupar e classificar os bens e produtos adquiridos por órgãos da administração pública a fim de aumentar a capacidade analítica dos órgãos de Controle.
O Programa de Pós-graduação em Ciência da Computação (PPCIC) do Cefet/RJ realiza a aula inaugural intitulada “Tratamento de dados: uma perspectiva evolutiva e multidisciplinar”, no dia 12 de agosto de 2019, às 10h, no Auditório 5 do campus Maracanã. A palestra será ministrada pela professora convidada Esther Pacitti, do curso de Ciência da Computação da Universidade de Montpellier, na França.
A aula inaugural irá abordar o contexto do crescimento da quantidade e da variedade de dados (imagens, áudio, pontos, matrizes, texto etc.), produzidos em diversas áreas (redes sociais, agronomia, botânica, medicina e outros), que fez aumentar também os desafios tecnológicos e de pesquisa no tratamento desse grande volume de dados, denominado pelo termo Big Data.
Na palestra, a professora Esther Pacitti irá apresentar uma visão da evolução dos métodos de tratamento de dados a partir do modelo relacional, de banco de dados distribuídos, de Big Data até a ciência de dados. Irá expor também algumas aplicações específicas da Agronomia, da Botânica e da Sismologia, e compartilhar experiências de pesquisa na França e no Brasil.

Esther Pacitti é professora de Ciência da Computação na Universidade de Montpellier, na França, e líder associada da equipe Zenith no Inria e no CNRS, desenvolvendo pesquisas em gerenciamento de dados científicos, incluindo Big Data, sistemas distribuídos e paralelos, sistemas de recomendação e recuperação de informações. Publicou mais de 100 artigos técnicos e é coautora dos livros P2P Techniques for Decentralized Applications e Data-Intensive Workflow Management For Clouds and Data-Intensive and Scalable Computing Environments, publicados pela Morgan & Claypool em 2012 e 2019, respectivamente. Ela é membro do comitê de programa de grandes conferências internacionais, como SIGMOD, VLDB, ICDE, CIKM, ICDCS e EDBT. Esther também é responsável pelas relações internacionais do Departamento de Informática e Gestão da Polytech Montpellier.
Maiores informações:
O XIII Brazilian e-Science Workshop (BreSci) tem como objetivo colaborar com os esforços de e-Ciência propondo um fórum amplo de discussão sobre os temas envolvidos no desenvolvimento de infraestrutura de software em apoio às ciências como uma nova plataforma de pesquisa e experimentação científica.
O BreSci 2019, em sua décima terceira edição, sendo a décima edição no Congresso da Sociedade Brasileira de Computação (CSBC) acontecerá dos dias 17 e 18 de julho e será coordenado pelos professores Eduardo Ogasawara do PPCIC e Daniel de Oliveira (UFF).
Site do evento:
Promovido anualmente pela Sociedade Brasileira de Computação (SBC), o Simpósio Brasileiro de Sistemas Multimídia e Web (WebMedia) é o principal evento do tema no Brasil e uma excelente oportunidade de intercâmbio científico e técnico entre alunos, pesquisadores e profissionais das áreas de Multimídia, Hipermídia e Web. O WebMedia 2019 será realizado de 29 de outubro a 01 de novembro no CEFET/RJ, campus Maracanã, e os seguintes docentes do PPCIC estarão na organização:
Site do evento:
O Prof. Leonardo de Lima está no comitê de organização da XXII Conference of the International Linear Algebra Society (ILAS 2019) que acontecerá entre os dias 8 e 12 de julho no Rio de Janeiro.
Site do evento:
Discente: Gabriel Nascimento dos Santos
Título: Tratamento de palavras fora do vocabulário em tarefas de análise de sentimentos com léxicos
Orientador: Gustavo Paiva Guedes e Silva (orientador)
Banca: Gustavo Paiva Guedes e Silva (presidente), Eduardo Bezerra da Silva (CEFET/RJ) Fellipe Ribeiro Duarte (UFRRJ/RJ), Ronaldo Ribeiro Goldschmidt (IME-RJ)
Dia/Hora: 12 de julho de /2019 / 13h
Sala: Auditório 5
Resumo:
O número de usuários da internet que utilizam número de redes sociais, microblogs e sites de avaliação vem aumentando significantemente nos últimos anos. Com isso, usuários tendem a expor suas opiniões e transmitir o que sentem sobre determinado serviço, produto, e os mais diversos assuntos. Isto tem despertado o interesse de pesquisadores de processamento de linguagem natural, especialmente os de Análise de Sentimentos, que se interessam em explorar técnicas de extrair e entender as opiniões fornecidas pelos usuários que utilizam serviços orientados a opiniões. A Análise de Sentimentos possui três abordagens: a abordagem baseada em aprendizado de máquina, a abordagem baseada em léxicos e a abordagem híbrida. A abordagem baseada em léxicos e a abordagem híbrida sofrem com o problema de palavras fora do vocabulário ao lidar com a natureza dos textos de redes sociais. Lidar com textos provenientes de redes sociais é um grande desafio, pois eles variam de textos bem escritos a sentenças completamente sem sentido. Isso ocorre por diversos motivos, como a limitação do número de caracteres (como no Twitter) e até mesmo por erros ortográficos intencionais. Este trabalho propõe um algoritmo que utiliza word embeddings para tratar palavras fora do vocabulário em tarefas de Análise de Sentimentos com abordagens baseadas em léxico ou abordagens híbridas. A estratégia do algoritmo proposto é baseada na hipótese que palavras que tenham contextos parecidos, possuem significados semelhantes. O algoritmo consiste em eleger as palavras mais similares semanticamente e utilizar as categorias da mais próxima que esteja contida no léxico utilizado. Os experimentos foram conduzidos em três conjuntos de dados em Português do Brasil. Foram utilizados três classificadores e foram observadas melhorias de até 3,3% no F1 score após o uso do algoritmo proposto.

A V Escola Regional de Alto Desempenho do Rio de Janeiro (ERAD-RJ 2019) tem o objetivo de estimular o estudo e a pesquisa nas áreas de Arquitetura de Computadores, Processamento de Alto Desempenho, Sistemas Distribuídos e Aplicações, qualificar profissionais do Estado nas áreas que compõe o Processamento de Alto Desempenho e prover um fórum regular onde possam ser apresentados avanços recentes nesta área e discutidas as formas de ensino de alto desempenho nas universidades e institutos de pesquisa do estado do Rio de Janeiro.
A edição de 2019 acontecerá entre os dias 04 e 06 de setembro no CEFET/RJ, campus Maracanã, e será organizada pelos docentes do PPCIC:
Para mais informações sobre o evento: http://www.sbc.org.br/eradrj2019
Discente: Roberto de Castro Souza Pinto
Título: Ferramenta Robótica para Trabalho com Fotografia Avançada – TilBOT
Orientador: João Roberto de Toledo Quadros (orientador)
Banca: João Roberto de Toledo Quadros (presidente), Aline Gesualdi Manhães (CEFET/RJ) Eduardo Soares Ogasawaa (CEFET/RJ), Joel André Ferreira dos Santos (CEFET/RJ), Paulo Fernando Ferreira Rosa (IME-RJ)
Dia/Hora: 8 de maio / 14h
Sala: Sala E 515
Resumo: Pesquisas científicas em diversas áreas do conhecimento têm feito uso da técnica cinematográfica de vídeos time-lapse para melhor observar diversos fenômenos da natureza. Essa técnica consiste na criação de vídeos por meio da captura de imagens com uma frequência menor do que quando são reproduzidos, criando uma sensação em que o tempo parece passar mais rápido que o normal. Eventos da natureza, tais como, crescimento de plantas, movimentos de marés, rochas e geleiras, que levam até meses para ocorrer, podem ser vistos em poucos segundos. Pântanos, desertos e até locais submersos, são os lugares de difícil acesso e onde normalmente esses fenômenos ocorrem e precisam ser observados. Câmeras configuradas em modo de disparo contínuo e/ou acopladas a equipamentos especiais que controlam o disparo da câmera, são utilizados para esse fim e estão sujeitos aos efeitos das intempéries desses lugares. Além disso, há um alto custo envolvido com esses equipamentos, sua manutenção e operação. Nesse trabalho é apresentado o TilBOT, uma ferramenta robótica equipada que com uma câmera fotográfica embarcada que vem a atender aos requisitos operacionais associados a configuração, aplicação e custo para obtenção de dados não convencionais do tipo fotografias e vídeos time-lapse e, além de possuir características diferenciais das ferramentas hoje utilizadas para obtenção de dados científicos dessa natureza. Dentre essas novas características se cita a capacidade de utilizar-se do tempo ocioso no processo de captura de imagens para esse tipo de mídia e as novas implementações de mobilidade da ferramenta, com seus vários motores confeccionados para multiposicionamento e de operação da câmera. O TilBOT executa as instruções contidas em um projeto fotográfico que o instrui a movimentar a sua câmera, sendo capaz, com isso, de capturar imagens para a geração de múltiplos vídeos time-lapse a partir de uma mesma coordenada, utilizando-se de um só equipamento, diminuindo a complexidade do processo e reduzindo custos operacionais de obtenção dos dados. Desta feita, o TilBOT é uma ferramenta que facilita a construção de projetos científicos e educacionais que fizerem uso desse tipo de dados não-convencional, no caso, as imagens e os vídeos time-lapse. O TilBOT também pode ser utilizado para a captura de imagens de fotografias digitais avançada para uso em sistemas educacionais, de modo que se possa construir projetos fotográficos com panorâmica horizontal, vertical e 360o imersiva e empilhamento de imagens nas áreas de biologia, geografia e astronomia.
Discente: Flavio Matias Damasceno de Carvalho
Título: Desenvolvimento do Dicionário LIWC 2015 em Português do Brasil
Orientadores: Gustavo Paiva Guedes e Silva (orientador)
Banca: Gustavo Paiva Guedes e Silva (CEFET/RJ) (presidente), Eduardo Soares Ogasawara (CEFET/RJ), Joel André Ferreira dos Santos (CEFET/RJ), Lilian Vieira Ferrari (UFRJ)
Dia/Hora: 28 de março / 10h
Sala: Auditório V
Resumo
Uma grande variedade e quantidade de textos são escritos e armazenados em formato digital devido ao desenvolvimento e disseminação de dispositivos computacionais. Dessa grande quantidade de dados textuais, informações úteis podem ser obtidas com técnicas e metodologias da área de Mineração de Texto. Uma dessas metodologias consiste em analisar textos com o Linguistic Inquiry and Word Count, um programa que possui várias versões que foram melhoradas ao longo dos anos. Além de utilizar o arquivo de dicionário padrão, o programa pode utilizar dicionários personalizados ou dicionários traduzidos para outros idiomas. Na utilização com o dicionário traduzido para o português, baseado no dicionário em inglês da versão 2007 do LIWC, as avaliações mostram questões relacionadas ao desempenho da detecção de valência negativa, junto com erros ortográficos e palavras com problemas relacionados à categorização, o que impacta negativamente os resultados obtidos. Desenvolvemos este trabalho observando um aumento no uso desse recurso em estudos acadêmicos nos últimos anos, evidenciado pelo crescente número de citações ao artigo de publicação do dicionário com a tradução para o português. Como não temos conhecimento do desenvolvimento de uma versão mais recente em português e reconhecendo a necessidade de métodos para analisar texto na língua portuguesa, iniciamos o desenvolvimento de uma nova versão em português do dicionário para o LIWC. Trabalhamos com o conjunto de palavras disponíveis na versão de 2015 em inglês e produzimos um novo dicionário compatível com a última versão disponível do programa. Para verificar o desempenho em tarefas de classificação, realizamos experimentos para classificar: (i) autores de textos e (ii) conteúdo das publicações nas redes sociais de acordo com a polaridade do sentimento. As medidas utilizadas para avaliar os resultados obtidos pelos algoritmos de classificação empregados apresentaram valores maiores na nova versão em português do dicionário, comparando com o dicionário atual. Esses experimentos sugerem que o ajuste de palavras a categorias que correspondam adequadamente às características linguísticas e psicológicas permite melhores resultados nas tarefas associadas às áreas de Computação Afetiva e Análise de Sentimentos.
O primeiro Fórum/Workshop Fórmula Drone será realizado no Campus Maracanã do Centro Federal de Educação Tecnológica Celso Sukow da Fonseca (CEFET/RJ), de 22 a 24 de março de 2019. Ele será organizado pelo prof. João Quadros do PPCIC, pelo prof. Luis Carlos do Amaral (CEFET/RJ) e pelos alunos do Projeto Grupo Robótica do Maracanã.
Mais informações do evento neste link.
Dados após realização do evento neste link. [atualizado]
Discente: Ramon Ferreira Silva
Título: Refinement of response models to binary questions
Orientadores: Eduardo Bezerra da Silva (orientador), Joel André Ferreira dos Santos (co-orientador)
Banca: Eduardo Bezerra da Silva (Cefet/RJ) (Presidente), Joel André Ferreira dos Santos (CEFET/RJ), Kele Teixeira Belloze (Cefet/RJ), Ronaldo Ribeiro Goldschmidt (Name-RJ)
Dia/Hora: February 28/9h
Sala: Auditorium V
Resumo:
Responses to visual questions (visual Question Answering, RPV) is a task that unites The fields of computer vision and natural language processing (Natural Language Processing, PLN). Taking as inputs an image I and a question in natural language Q about I, a model for RPV should be able to produce a response R (also in natural language) to Q in a coherent way. A particular type of visual query is That No Which question is binary (i.e., a question whose answer belongs to the set {Yes, not}). Currently, deep neural networks are the technique that corresponds to state of the art for the training of RPV models. Despite its success, the application of neural networks to the RPV task requires a very large amount of data to be able to produce models with adequate accuracy. The data sets currently used for the training of RPV models are the result of laborious processes of manual labeling (i.e., made by humans). This context makes it relevant to study approaches to take greater advantage of these datasets during training. This dissertation proposes to investigate approaches to improve the accuracy of the RPV models for binary questions. In particular, we present reasoned approaches in active learning techniques (active learning) and increased data (data Increase) to take greater advantage of the existing data set during the training phase of an RPV model.
Discente: João Antônio de Ferreira
Título: Um framework Algébrico para Workflows de Análise de Dados em Apache Spark
Orientadores: Eduardo Soares Ogasawara (orientador), Rafaelli de Carvalho Coutinho (coorientador)
Banca: Eduardo Soares Ogasawara (CEFET/RJ) (presidente),
Rafaelli de Carvalho Coutinho (CEFET/RJ), Jorge de Abreu Soares (CEFET/RJ), Fabio Andre Machado Porto (LNCC), Leonardo Gresta Paulino Murta (UFF)
Dia/Hora: 25 de fevereiro / 14h
Sala: H522
Resumo:
A atividade típica de um cientista de dados envolve a implementação de diversos processos que caracterizam experimentos de análise de dados, modelados como workflows. Nestas análises há a necessidade de executar diversos códigos em diferentes linguagens de programação (Python, R, C, Java, Kotlin e Scala) em diferentes ambientes de processamento paralelo e distribuído. Dependendo da complexidade do processo e das inúmeras possibilidades para execução distribuída destas soluções, pode ser necessário gastar muita energia em diferentes implementações que podem afastar o cientista de dados do seu objetivo final, que é o de produzir conhecimento a partir dos grandes volumes de dados. Dentro deste contexto, este trabalho visa apoiar na solução de tal dificuldade ao propor a construção do framework WfF, concebido a partir de uma abordagem algébrica que isola a modelagem do processo da dificuldade de executar, de modo otimizado, tais workflows. Também foi criada uma linguagem agnóstica na forma de uma eDSL (Embedded domain-specific language) inspirada nos conceitos da MDA (Model Driven Architecture) para execução de workflow centrado nos dados (dataflow) e um gerador de código Scala para execução no Apache Spark. O uso de UDF (User Defined Functions) escritas em linguagens diversas, regidas por operadores algébricos (funções de segunda ordem da programação funcional) permite processamento otimizado de dados estruturados, semiestruturados e não estruturados ampliando o domínio de aplicações para além do workflow científico, podendo, ser usado em workflows comerciais de análise de dados. As funcionalidades do ecossistema Apache Spark foram avaliadas no processo de otimização da execução de filtros (operador filter) e mapeamentos (operador map) que operam sobre UDF usando a API (Application Program Interface) Catalyst do SparkSQL, e os experimentos apontam a viabilidade desta abordagem.
A Prof. Rafaelli Coutinho teve o projeto “Meninas na Robótica” aprovado no Edital CNPq/MCTIC Nº 31/2018 – Meninas nas Ciências Exatas, Engenharias e Computação.
Discente: Rebecca Pontes Salles
Título: Benchmarking Nonstationary Time Series Prediction
Orientadores: Eduardo Soares Ogasawara (orientador), Pedro Henrique González Silva (coorientador)
Banca: Eduardo Soares Ogasawara (CEFET/RJ) (presidente), Pedro Henrique González Silva (CEFET/RJ), Eduardo Bezerra da Silva (CEFET/RJ), Fabio Andre Machado Porto (LNCC), Florent Masseglia (INRIA)
Dia/Hora: 06 de fevereiro / 9h
Sala: Auditório V
Resumo:
Data preprocessing is a crucial step for mining and learning from data, and one of its primary activities is the transformation of data. This activity is very important in the context of time series prediction since most time series models assume the property of stationarity, i.e., statistical properties do not change over time, which in practice is the exception and not the rule in most real datasets. There are several transformation methods designed to treat nonstationarity in time series. However, the choice of a transformation that is appropriate to the adopted data model and to the problem at hand is not a simple task. This paper provides a review and experimental analysis of methods for transformation of nonstationary time series. The focus of this work is to provide a background on the subject and a discussion on their advantages and limitations to the problem of time series prediction. A subset of the reviewed transformation methods is compared through an experimental evaluation using benchmark datasets from time series prediction competitions and other real macroeconomic datasets. Suitable nonstationary time series transformation methods provided improvements of more than 30% in prediction accuracy for half of the evaluated time series and improved the prediction in more than 95% for 10% of the time series. Furthermore, the adoption of a validation phase during model training enables the selection of suitable transformation methods.
Discente: Rodrigo Tavares de Souza
Título: Appraisal-Spark: uma abordagem para imputação em larga escala
Orientadores: Jorge Abreu Soares (orientador)
Banca: Jorge Abreu Soares (CEFET/RJ) (presidente), Eduardo Soares Ogasawara (CEFET/RJ), Ronaldo Ribeiro Goldschmidt (IME)
Dia/Hora: 05 de fevereiro / 10h
Sala: Auditório V
Resumo:
Cresce continuamente o volume de dados armazenados e a demanda por integração entre os mesmos. Esse cenário aumenta a ocorrência de um problema bastante conhecido dos cientistas de dados: as diversas possibilidades de inconsistências. E um tipo de seus tipos comuns, a ausência de dados, pode prejudicar a análise e resultado de qualquer técnica produtora de informação. A imputação é a área que estuda métodos que buscam aproximar o valor imputado do real. A técnica de imputação composta aplica tarefas de aprendizado de máquina neste processo. Ela utiliza o conceito de plano de imputação, uma sequência lógica de estratégias e algoritmos utilizados na produção do valor imputado final. Neste trabalho, expandiremos a utilização desta técnica, complementando sua utilização com o classificador ensemble bagging. Neste método, os dados são divididos em grupos aleatórios e atrelados a classificadores chamados base learners. Para os subsets gerados no bagging serão retornadas as pontuações (percentual de assertividade) de cada plano de imputação. O plano com maior assertividade dentre todos os subsets será indicado como a sugestão de imputação para o conjunto completo. O trabalho é implementado em um sistema desenvolvido para a ferramenta Spark, denominado Appraisal-Spark, que tem como objetivo gerar valores com maior acurácia e desempenho preditivos para ambientes de larga escala. Através dele será possível compor diversos planos de imputação de alto desempenho, avaliando estratégias e comparando resultados.
Discente: Leonardo de Souza Preuss
Título: VITA – Uma ferramenta pedagógica para acompanhamento e auxílio na relação aluno-professor
Orientadores: Joel A. F. dos Santos, Gustavo Paiva Guedes (coorientador)
Banca: Joel A. F. dos Santos (CEFET/RJ) (presidente), Gustavo Paiva Guedes (CEFET/RJ), Eduardo Soares Ogasawara (CEFET/RJ), Alessandro Rosa Lopes Zachi (CEFET/RJ), Diego Gimenez Passos (UFF)
Dia/Hora: 06 de dezembro / 10h
Sala: Auditório V
Resumo:
Um grande problema do sistema de educação atual é o alto índice de evasão em cursos de graduação. Pesquisas na área da educação indicam que o nível de satisfação do estudante é um importante indicador na medida do sucesso de uma universidade. Estudantes com altos níveis de satisfação são mais propensos a continuar no curso, em contraste àqueles que estão insatisfeitos. Nas universidades brasileiras, a qualidade docente e o método de ensino são considerados fatores cruciais e altamente responsáveis na satisfação dos alunos. Nesse contexto, é de grande valia um mecanismo capaz de melhorar a percepção do professor a respeito dos alunos. Isso permite que o professor antecipe a insatisfação dos alunos em uma disciplina e tenha maior agilidade na compreensão de suas necessidades e na adequação das aulas. Reduzindo, assim, a taxa de evasão nas universidades brasileiras. O presente trabalho propõe um sistema que auxilia o professor na percepção do andamento dos alunos em suas aulas, revelando seu grau de satisfação ou insatisfação durante o período letivo. A avaliação é feita tendo como base comentários escritos sobre cada aula, fornecidos pelos alunos. A ferramenta proposta utiliza técnicas da Análise de Sentimentos para processar as avaliações e apresentar ao professor um resultado em formato de gráfico, individual ou por turma. Este gráfico indica apenas os sentimentos predominantes na avaliação do aluno. Assim, é mantida a privacidade do mesmo (com respeito à avaliação fornecida), bem como evita interpretações diferenciadas por parte do professor. Experimentos realizados com 4 turmas de graduação apontam para uma boa precisão da estimativa da satisfação feita por VITA e sua utilidade para professores.
Para que você possa obter certificado de participação é necessário realizar a inscrição: Formulário de Inscrição.
Palestrantes:
O Exame Nacional para Ingresso na Pós-Graduação em Computação (POSCOMP) é um exame aplicado em todas as regiões do País. O POSCOMP testa conhecimentos na área de Computação e tem como objetivo específico avaliar os conhecimentos de candidatos a Programas de Pós-Graduação em Computação oferecidos no Brasil. A grande maioria dos Programas de Pós-Graduação no País utiliza, de alguma forma, o resultado do POSCOMP em seu processo seletivo.
O POSCOMP foi concebido para permitir que os candidatos a cursar Programas de Pós-Graduação em Computação possam participar dos processos seletivos em vários Programas no País, sem a necessidade de deslocamento para a sede de cada um dos Programas postulados pelo candidato, cumprindo assim um forte papel de inclusão social.
O período de inscrições para o POSCOMP 2018 pela internet, a partir do site www.fundatec.org.br até 13/08/2018. A prova ocorrerá em 23/09/2018. No Rio de Janeiro, o exame será sediado no CEFET/RJ.
Maiores informação em https://www.fundatec.org.br/portal/concursos/index_concursos.php?concurso=471
O Workshop LADaS 2018 (Latin America Data Science Workshop) está sendo organizado em conjunto com o VLDB 2018 (Very Large Data Bases) no Rio de Janeiro, e acontecerá no dia 27 de agosto.
Escopo: lidar com o dilúvio de dados produzido atualmente em diferentes áreas, variando de ciências básicas a bilhões de usuários de serviços globais de Internet, surge como um dos principais desafios de nossa sociedade digital. Apresentado como um vetor multifacetado, esse fenômeno motivou várias iniciativas de pesquisa. Na ciência, o Big Data criou novas oportunidades de investigação, motivando cientistas, como biólogos, astrônomos, bioquímicos e pesquisadores de outras áreas científicas, a enfrentar problemas computacionais dentro do chamado “quarto paradigma” (ciência intensiva em dados). No setor, o Big Data afeta a maneira como a análise preditiva / analítica de dados é conduzida usando recursos poderosos (clusters, nuvens), proporcionando escalabilidade e tolerância a falhas. Na governança, há oportunidades de analisar bancos de dados públicos em massa para gerar planejamento eficiente, além de novos serviços que podem melhorar os serviços públicos oferecidos aos cidadãos. Nesse contexto, o grande desafio é fornecer métodos gerais para extrair conhecimento relevante em grande escala de dados. A Data Science incorpora métodos, processos e algoritmos científicos para extrair o conhecimento dos dados de várias formas. Ele se baseia em técnicas e teorias de muitos campos em engenharia e ciências básicas. Assim, está intimamente relacionado a muitas disciplinas tradicionais bem estabelecidas, mas abre perspectivas para uma nova área altamente interdisciplinar.
Coordenação:
Artur Ziviani – LNCC
Carmem Hara – UFPR
Eduardo Ogasawara – CEFET / RJ
José Antônio de Macêdo – UFC
Patrick Valduriez – INRIA & LIRMM
Coordenador do Comitê de Programa:
Eduardo Ogasawara – CEFET / RJ
Site do evento: