SSCAD 2024

XXV Simpósio em Sistemas Computacionais de Alto Desempenho

23 a 25 de outubro, 2024 — São Carlos, SP, Brasil



Palestras



23/10/2024

O Supercomputador Santos Dumont no cenário nacional e internacional das pesquisas de HPC e IA

Palestrante: Carla Osthoff (Laboratório Nacional de Computação Científica)

Sala: Bento Prado

Horário: 13:30 - 14:30

Biografia Resumida: Possui graduação em Engenharia Elétrica pela PUC/RJ, mestrado e doutorado em Engenharia de Sistemas e Computação COPPE/UFRJ. Atua na área de processamento de alto desempenho desde 1985, inicialmente em projetos de desenvolvimento de hardware de multiprocessadores paralelos distribuídos. Atualmente, é pesquisadora na área de Computação de Alto Desempenho do Laboratório Nacional de Computação Científica (LNCC), professora do Programa Multidisciplinar de Pós-Graduação do LNCC, coordena o Centro Nacional de Processamento de Alto Desempenho do LNCC(CENAPAD/LNCC), é membro do corpo Técnico-Científico do Comitê Consultivo do Supercomputador Santos Dumont, coordena o Setor de Processamento de Alto Desempenho do LNCC e diversos projetos de colaboração na área de Computação de Alto Desempenho.

Resumo: O supercomputador SDumont, hospedado no LNCC /MCTIC, na cidade de Petrópolis-RJ, financiado pelo MCTIC para atender a comunidade acadêmica brasileira, de forma gratuita, atende atualmente a cerca de 240 projetos de pesquisa de 20 áreas de conhecimento, coordenados por instituições de ensino e pesquisa distribuídas em 12 estados brasileiros além de colaborações com instituições de pesquisas internacionais. Nesta palestra serão apresentadas as características da nova arquitetura do supercomputador de cerca de 23 PetaFlops e do futuro Supercomputador para IA, como parte do Plano Nacional de Inteligencia Artificial (PBIA). Em seguida, serão apresentadas as pesquisas e as colaborações desenvolvidas pelo setor de Processamento de Alto Desempenho do LNCC.


HPC & AI supercomputing

Palestrante: Mônica A. Costa (Hewlett Packard Enterprise)

Sala: Bento Prado

Horário: 16:45 - 17:15

Resumo: Vamos explorar a liderança mundial da HPE em Computação de Alto Desempenho e Inteligência Artificial reforçando o posicionamento da HPE com no. 1 no Top500 (https://www.top500.org/) e apresentar demais casos de sucesso para os Supercomputadores HPE CRAY EX como referência mundial em performance, sustentabilidade e escalabilidade. Vamos apresentar o Portifólio de HPC/AI CRAY XD, com suas diversas arquiteturas e infraestrutura de rede de alta performance, CPUs e Aceleradores, bem como as opções de refrigeração Air Cooled, ARCS e DLC, conforme a disponibilidade de cada ambiente.


Modelagem e Análise do Comportamento de Usuários e Sistemas de Supercomputação: o caso do LNCC

Palestrante: Antônio Tadeu A. Gomes (Laboratório Nacional de Computação Científica)

Sala: Bento Prado

Horário: 17:15 - 18:15

Biografia Resumida: Antônio Tadeu A. Gomes possui graduação em Informática - Magna Cum-Laude - pela UFRJ (1995), mestrado e doutorado em Informática pela PUC-Rio (1999 e 2005). Atualmente é pesquisador do LNCC/MCTI. Também é secretário executivo do SINAPAD (Sistema Nacional de Processamento de Alto Desempenho - http://www.lncc.br/sinapad) e coordenador do Comitê Gestor do supercomputador Santos Dumont (http://sdumont.lncc.br). É vice-coordenador e leciona na Pós-graduação em Modelagem Computacional do LNCC. Seus principais interesses são na ampla área de modelagem de sistemas, englobando sistemas em rede, sistemas distribuídos, sistemas de simulação numérica, sistemas de computação de alto desempenho e sistemas de aprendizado de máquina. É membro da Sociedade Brasileira de Computação (SBC) e da Association for Computing Machinery (ACM). Foi Bolsista de Produtividade em Pesquisa do CNPq (PQ-2) entre 2010 e 2018.

Resumo: Nesta palestra discorro sobre a diversidade de projetos que executam no supercomputador SDumont hospedado no Laboratório Nacional de Computação Científica (LNCC), em Petrópolis-RJ. Tal diversidade -- que abarca diferentes perfis de usuários e de aplicações -- combinada à alta rotatividade de projetos traz desafios relacionados à continua revisão das políticas de escalonamento no supercomputador. Nesse sentido, apresento algumas estratégias sendo estudadas e avaliadas nas áreas de modelagem, análise e simulação discreta do comportamento de usuários e de sistemas de HPC, utilizando os dados de accounting do SDumont como estudo de caso.


24/10/2024

Technological challenges in HPC for weather and climate prediction

Palestrante: Pedro Leite da Silva Dias (IAG/USP)

Sala: Bento Prado

Horário: 13:30 - 14:30

Biografia Resumida: Bacharel em Matemática Aplicada-IME-USP/1974, PhD em Ciências Atmosféricas na Colorado State University-1979. Professor Titular no IAG/USP desde 1975. Diretor do IAG/USP (2017-2021), Diretor do LNCC/MCTI (2007-2015) e Chefe do CPTEC/INPE (1988-1990). Membro titular da Academia Brasileira de Ciências e recebeu a Ordem do Mérito Científico do MCTI. Orientou cerca de 70 alunos de pós-graduação. Ampla experiência em desenvolvimento de modelos computacionais eficientes aplicados à previsão de tempo e clima.

Resumo: A short history of numerical weather prediction will be presented, beginning with Richardson's (1922) pioneering experiments, the birth of computational predictions in the late 40's with the ENIAC computer, the introduction of more complex models in the 60's and early 70's, and the impact of the vector machines (Cray, Cyber) in the operational centers. New challenges were brought in the late 80's and 90's in the operational forecasting centers by the parallel computers and the demand for computational power needed to accomplish the goals of the Intergovernmental Panel for Climate Change. Massive parallelization since the early 2000's led to a major improvement in the quality of the weather forecasts, driven by data assimilation systems and GPU's. Current challenges will be discussed at the end.


Dell & NVIDIA soluções para HPC/IA

Palestrante: Evaldo Costa e Pedro Mario

Sala: Bento Prado

Horário: 17:15 - 17:45

Biografia Resumida:
Evaldo Costa Engenheiro sênior responsável pelo desenvolvimento de projetos com soluções Dell & NVIDIA. Possui mais de vinte anos de experiência na área de Tecnologia da Informação em planejamento e implementação de ambientes de missão crítica, arquitetura de soluções para Data Center, HPC/IA. Graduado em engenharia elétrica, mestre e doutor em informática pela UFRJ.
Pedro Mário Cruz e Silva fez sua graduação (1995) e mestrado (1998) na Universidade Federal de Pernambuco (UFPE), fez seu doutorado em 2004 na PUC-Rio. Criou o Grupo de Geofísica Computacional na PUC-Rio onde trabalhou por 15 anos como Gerente, durante este período foi responsável por vários projetos de Desenvolvimento de Software e P&D para Geofísica com forte foco em inovação. Concluiu o MBA em 2015 na Fundação Getúlio Vargas (FGV/RJ). Atualmente é o Arquiteto de Soluções para Ensino Superior e Pesquisa na Região da América Latina.


25/10/2024

The Price Performance of Performance Models

Palestrante: Felix Wolf (Technical University of Darmstadt)

Sala: Bento Prado

Horário: 10:15 - 11:15

Biografia Resumida: Felix Wolf is a full professor at the Department of Computer Science of the Technical University of Darmstadt in Germany, where he leads the Laboratory for Parallel Programming. He works on methods, tools, and algorithms that support developing and deploying parallel software systems in various life-cycle stages. Wolf received his Ph.D. degree from RWTH Aachen University in 2003. After working more than two years as a postdoc at the Innovative Computing Laboratory of the University of Tennessee, he was appointed research group leader at Juelich Supercomputing Centre. Between 2009 and 2015, he was head of the Laboratory for Parallel Programming at the German Research School for Simulation Sciences in Aachen and a full professor at RWTH Aachen University. Wolf has made major contributions to several open-source performance tools for parallel programs, including Scalasca, Score-P, and Extra-P. Moreover, he has initiated the Virtual Institute – High Productivity Supercomputing, an international initiative of HPC programming-tool builders aimed at enhancing, integrating, and deploying their products. He has published over 150 refereed articles on parallel computing, several of which have received awards.

Resumo: To understand the scaling behavior of HPC applications, developers often use performance models. A performance model is a formula that expresses a critical performance metric, such as runtime, as a function of one or more execution parameters, such as core count and input size. Performance models offer quick insights on a very high level of abstraction, including predictions of future behavior. Given the complexity of today’s applications, which often combine several sophisticated algorithms, creating performance models manually is extremely laborious. Empirical performance modeling, the process of learning such models from performance data, offers a convenient alternative but comes with its own set of challenges.  The two most prominent ones are noise and the cost of the experiments needed to generate the underlying data. In this talk, we will review the state of the art in empirical performance modeling and investigate how we can employ machine learning and other strategies to improve the quality and lower the cost of the resulting models.