Palestrante: Lucia Drummond, Instituto de Computação da Universidade Federal Fluminense Título: Escalonador de tarefas para máquinas virtuais preemptivas em nuvens computacionais Horário: 04 de setembro 09:30 às 10:30
Resumo: Atualmente, as plataformas de nuvem geralmente oferecem vários tipos de Máquinas
Virtuais (VMs) que possuem diferentes garantias em termos de disponibilidade e volatilidade,
provisionando o mesmo recurso por meio de vários modelos de precificação. Por exemplo,
na nuvem da Amazon EC2, o usuário paga por hora para as VMs sob demanda, enquanto as
VMs spots ou preemptivas são instâncias disponíveis por um preço menor.
Apesar das vantagens monetárias, uma VM spot pode ser terminada ou hibernada pela EC2 a
qualquer momento.
Nesta apresentação, apresentaremos uma proposta de escalonador dinâmico para máquinas virtuais preemptivas para aplicações bag-of-tasks. Também discutiremos o problema de falhas temporais, que ocorre quando uma VM spot hiberna e não retorna a tempo de satisfazer o deadline da aplicação. Nossa abordagem de escalonamento dinâmico visa minimizar os custos monetários da execução de aplicações bag-of-tasks, respeitando seu prazo, mesmo na presença de hibernação. Apresentaremos resultados experimentais com execuções reais usando VMs do Amazon EC2 que confirmam a eficácia do escalonamento quando comparado com abordagens baseadas somente em VM sob demanda, em termos de custos monetários e tempos de execução. costs and execution times. It is also shown that our strategy can tolerate temporal failures.
Palestrante: Noemi de La Rocque, PUC-Rio Título: Threads e memória compartilhada: o que (não) podemos supor Horário: 05 de setembro 11:30 às 12:30
Resumo: Muitas vezes pensamos, intuitivamente, que os resultados possíveis em acessos à memória compartilhada por diferentes threads são dados pelos termos de um modelo de consistência sequencial. Discutiremos como resultados inesperados, às vezes chamados de "out of thin air" (OOTA), podem surgir por diversos motivos. Falaremos da importância do conceito de data races como definido nos modelos de memória de C++ e de Java e de seu significado para o programador. Falaremos um pouco sobre a idéia de "condições de corrida benignas" e sobre as garantias dadas ao programador por mecanismos diversos.
(A definição dos modelos de memória atuais de Java e de C/C++ envolveu vários pesquisadores. Nessa palestra discutimos alguns dos problemas trabalhados. Nos baseamos fortemente no trabalho de H-J Boehm.)
Palestrante: Philippe Olivier Alexandre Navaux, UFRGS. Título: Importância do Processamento de Alto Desempenho na Evolução da Computação Horário: 04 de setembro 14:30 às 15:30
Resumo: A área de Processamento de Alto Desempenho, sigla em inglês HPC, tem nos últimos anos se tomado o centro na viabilização de várias novas áreas, tais como Big Data e Deep Learning.
HPC preocupa-se com sistemas, máquinas, tanto hardware como software, que atendam grandes demandas de processamento. Considerando a necessidade de poder de processamento, a área está associada diretamente com supercomputadores, pois somente estes podem atender este poder. Hoje, fala-se em máquinas que possam atingir o processamento Exaflops, dez elevado a dezoito operações de ponto flutuante por segundo. Nesta palestra será apresentada a evolução da área e sua importância atual para evolução da computação.
Palestrante: Pedro Mario Cruz e Silva, NVIDIA. Título: Plataforma da NVIDIA para HPC e Inteligência Artificial (IA) Horário: 06 de setembro 11:30 às 12:30
Resumo: A Inteligência Artificial moderna é a 4ª revolução industrial. A nova plataforma de IA da NVIDIA, composta por hardware e software, está fornecendo o poder computacional exigido pelos recentes avanços em Deep Learning. A Volta, nossa mais nova e avançada arquitetura de GPUs foi especialmente projetada para as cargas de trabalho de computação de alto desempenho necessárias para treinamento e inferência de Redes Neurais Profundas com uma enorme quantidade de dados de treinamento. É a primeira arquitetura GPU que inclui Tensor Cores (TC), unidades de processamento projetadas para operações com Tensores em altíssima velocidade. A versão mais recente da linguagem CUDA (versão 10) e os SDKs da NVIDIA foram aprimorados para incluir algoritmos especializados e altamente otimizados para extrair o potencial completo de GPUs no treinamento DNN e nas tarefas de inferência em todos os Frameworks de Deep Learning como TensorFlow, CNTK, Caffe, etc. Uma grande variedade de dados pode ser eficientemente usada para treinamento, incluindo texto, áudio, imagens e vídeo. Este novo modelo de computação está fornecendo excelentes resultados em Visão Computacional, Processamento de Linguagem Natural, Tradução de Linguagem, Reconhecimento de Fala, Sistemas de Recomendação, Logística, Carros Autônomos e Robótica.
Palestrante: Guilherme Fuhrken, Mellanox. Título: In Network Computing - Qual a importância da Rede de interconexão em ambientes computacionais de alto desempenho. Horário: 05 de setembro 16:00 às 16:30
Resumo: Abordaremos quais as tecnologias são empregadas nas soluções de redes de interconexão buscando um maior aproveitamento da infraestrutura com baixa latência e offload de processos da CPU e GPU.
Palestrante: Wagner Meira Jr., Departamento de Ciência da Computação da Universidade Federal de Minas Gerais Título: Escalabilidade e eficiência em algoritmos de mineração de dados e aprendizado de máquina Horário: 05 de setembro 14:30 às 15:30 Resumo: Apesar dos esforços, os algoritmos e aplicativos de mineração de dados e de aprendizado de máquina continuam sendo uma tarefa desafiadora, devido a características como a complexidade computacional e o grande espectro de modelos que podem ser extraídos. Nesta palestra, discutimos alguns desses desafios e nos concentramos em estratégias voltadas para duas questões significativas em cenários relevantes, como redes sociais e bioinformática. A primeira questão é a escalabilidade e apresentamos algumas estratégias não apenas para criar soluções escaláveis computacionalmente, mas também para desenvolvê-las mais facilmente. A segunda questão é a eficiência do processo, e apresentamos novos modelos, bem como estratégias robustas de amostragem para eles. Concluímos resumindo as lições aprendidas e apresentando as tendências atuais.