SSCAD 2024

XXV Simpósio em Sistemas Computacionais de Alto Desempenho

23 a 25 de outubro, 2024 — São Carlos, SP, Brasil



Minicursos



23/10/2024

Minicurso 1: Multi-GPU Multi-Node Programming

Autores: Pedro Mário Cruz e Silva, Senior Solutions Architect - NVIDIA

Sala: Auditório 2 (BCo)

Horário: 8:00 - 9:45 e 10:15 - 12:00

Resumo: Scaling applications to multiple GPUs across multiple nodes requires one to be adept at not just the programming models and optimization techniques but also at performing root-cause analysis using in-depth profiling to identify and minimize bottlenecks. In this boot camp, participants will learn to improve the performance of an application step-by-step, taking cues from profilers along the way. Moreover, understanding the underlying technologies and communication topology will help us utilize high-performance NVIDIA libraries to extract more performance out of the system.


Minicurso 2: Introdução à Computação Quântica com IBM/Qiskit

Autores: Calebe Bianchini, Giancarlo P. Gamberi, Ryan M. A. Santos, Universidade Presbiteriana Mackenzie

Sala: LE6 (DC)

Horário: 8:00 - 9:45

Resumo: O objetivo deste minicurso é mostrar como desenvolver algoritmos para a arquitetura de um Computador Quântico usando o kit de desenvolvimento IBM/Qiskit. Consequentemente, pretendemos resolver problemas clássicos da computação tradicional nesse nova arquitetura. Sabemos que escrever algoritmos e programas nesse novo paradigma é um desafio e, por isso, serão definidos e apresentados assuntos importantes da Computação Quântica como sua arquitetura, o emaranhamento, as portas lógicas, os circuitos utilizados e como eles se comportam diferentemente de uma arquitetura tradicional. Por meio de demonstrações, será apresentado como essa tecnologia emergente fornece um grau interessante de paralelismo e aceleração computacional significativos em relação às arquitetura clássicas, e permitirá que o leitor se prepare melhor para programar para um computador quântico.


Minicurso 3: Perfilamento e Visualização da Escalabilidade de Aplicações Paralelas como Parallel Scalability Suite

Autores: Felipe Hidequel Santos da Silva, Samuel Xavier-de-Souza, UFRN

Sala: LE6 (DC)

Horário: 10:15 - 12:00

Resumo: Supercomputadores são ferramentas essenciais para o avanço científico e tecnológico, mas sua capacidade de processamento nem sempre é totalmente utilizada. Programas práticos costumam ter dificuldade em aproveitar mais de 2% da capacidade total das máquinas, tornando-as ineficientes. Ferramentas tradicionais de apoio ao desenvolvimento de software para supercomputadores focam na aceleração em configurações específicas, sem prever o comportamento em outras máquinas.Visando otimizar o uso de supercomputadores, o Laboratório de Arquiteturas Paralelas para Processamento de Sinais da UFRN desenvolveu o Parallel Scalability (PaScal) Suite. Esse conjunto de ferramentas inovadoras se diferencia por avaliar a escalabilidade dos programas, ao invés de apenas o desempenho. Através do PaScal Suite, é possível prever como o programa se comporta em diferentes configurações e máquinas, otimizando o uso de recursos e aumentando a eficiência geral. O PaScal Suite é uma ferramenta brasileira com grande potencial para melhorar a eficiência do uso de supercomputadores. Integra duas ferramentas, o PaScal Analyzer e o PaScal Viewer, simplificando a execução, medição e comparação de execuções de programas paralelos. Ele permite a análise de tendências de escalabilidade em diferentes configurações de processamento e cargas de trabalho, com elementos visuais que ajudam a identificar gargalos de escalabilidade. Esse conjunto de ferramentas é essencial para o desenvolvimento de programas paralelos em nós computacionais de memória compartilhada. O minicurso aborda a importância e os métodos de avaliação da escalabilidade em programas paralelos. Demonstrará como o PaScal Suite pode auxiliar desenvolvedores na realização de perfilamento e análises de escalabilidade, ensinando na prática a identificar pontos críticos e gargalos.


Palestra: A nossa visão da história da Computação de Alto Desempenho

Autores: Alfredo Goldman (IME-USP) e Lucas de Sousa Rosa (IME-USP)

Sala: Auditório 3 (BCo)

Horário: 14:30 - 16:15

Biografia Resumida:
Professor da Universidade de São Paulo e bolsista de produtividade do CNPq. Atualmente é conselheiro da Sociedade Brasileira de Computação e coordenador da comunidade de processamento paralelo na IEEE Computer Society (TCPP). Possui doutorado em Informática e Sistemas pelo Instituto Nacional Politécnico de Grenoble. Trabalha com programação paralela e distribuída e desenvolvimento ágil de software. Coordena um projeto temático da FAPESP.
Doutorando Direto no Programa de Pós-Graduação em Ciência da Computação do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP), com experiência em pesquisa científica consolidada por mais de quatro anos como bolsista FAPESP em programas de treinamento técnico, iniciação científica e estágio de pesquisa no exterior. Interesses direcionados a problemas matemático-computacionais, com ênfase em computação de alto desempenho, aprendizado de máquina e escalonamentos.

Resumo: Esta palestra explora a evolução da computação de alto desempenho (HPC) desde seus primórdios até os atuais sistemas exascale. Aborda o desenvolvimento de hardware, software e aplicações em supercomputação. Analisa tendências do ranking TOP500 e destaca figuras importantes como Seymour Cray, conhecido como o 'pai da supercomputação', e Jack Dongarra, notável por suas contribuições em software. A palestra aborda acontecimentos na história da HPC, incluindo o surgimento e declínio do processamento vetorial e seu subsequente renascimento. Traçando o caminho dos primeiros supercomputadores aos sistemas exascale, a apresentação oferece uma visão geral do desenvolvimento histórico da HPC e seu impacto na ciência e tecnologia.


24/10/2024

Minicurso 4: Técnicas para análise e otimização de programas

Autores: Aleardo Manacero, DCCE/UNESP

Sala: Auditório 1 (BCo)

Horário: 8:00 - 9:45

Resumo: Minicurso proposto abordando problemas relacionados à medição e otimização de desempenho. Ao longo do minicurso serão apresentados os conceitos relacionados à definição de métricas para desempenho (especialmente de programas paralelos), como speedup e escalabilidade. Serão também apresentadas as técnicas para medir o desempenho de sistemas de software, juntamente com ferramentas disponíveis para essa atividade. Conclui-se o minicurso com a apresentação de técnicas para otimizar o desempenho de um programa a partir da identificação de seus gargalos na fase de medição.


Minicurso 1: Multi-GPU Multi-Node Programming (continuação)

Autores: Pedro Mário Cruz e Silva, Senior Solutions Architect - NVIDIA

Sala: Auditório 1 (BCo)

Horário: 8:00 - 9:45 e 17:45 - 19:30


Minicurso 5: Processamento e análise de Big Data para aplicação de algoritmos deMachine Learning com interface Myriad através da utilização da plataforma HPCC Systems

Autores: Mauro Marques, Senior Technical Support Engineer with LexisNexis Risk Solutions

Sala: LE6 (DC)

Horário: 8:00 - 9:45 e 17:45 - 19:30

Resumo: Ao longo do minicurso, os participantes terão a oportunidade de conhecer os conceitos essenciais de processamento e análise de volumes massivos de dados (Big Data) e o processo de desenvolvimento de um serviço de consulta através da utilização da plataforma open-source composta por um Cluster Computacional de Alto Desempenho (HPCC Systems) e, também, a aplicação de algoritmos de Aprendizado de Máquina com interface Myriad, bem como terão a possibilidade de aplicar os conhecimentos adquiridos em um ambiente de treinamento disponibilizado em sala de aula.


25/10/2024

Minicurso 6: Programação Paralela Híbrida: MPI + OpenMP Offloading

Autores: Calebe P. Bianchini - Mackenzie , Evaldo B. Costa, Gabriel P. Silva - UFRJ

Sala: LE6 (DC)

Horário: 8:00 - 9:45

Resumo: Este minicurso tem como objetivo apresentar técnicas de programação paralela híbridas utilizando MPI e diretivas de Offloading do OpenMP, com ênfase nos modelos de paralelismo em aceleradores. Serão abordadas as modificações necessárias no código-fonte para implementar esses modelos, e os resultados obtidos serão avaliados por meio de métricas de desempenho, como aceleração e eficiência.


Minicurso 7: Architectural Simulation with gem5

Autores: Iago Caran Aquino, Lucas Wanner e Sandro Rigo, UNICAMP

Sala: Auditório 1 (BCo)

Horário: 14:30 - 16:15

Resumo: In this mini-course, we will introduce the gem5 simulator, with a focus on its RISC-VISA models. We will show how to configure and run the simulator, how to extract performance statistics, and how to extend the simulator with new custom instructions, using a matrix multiplication workload as an example.