Sala: Bento Prado
Horário: 13:30 - 14:30
Biografia Resumida: Possui graduação em Engenharia Elétrica pela PUC/RJ, mestrado e doutorado em Engenharia de Sistemas e Computação COPPE/UFRJ. Atua na área de processamento de alto desempenho desde 1985, inicialmente em projetos de desenvolvimento de hardware de multiprocessadores paralelos distribuídos. Atualmente, é pesquisadora na área de Computação de Alto Desempenho do Laboratório Nacional de Computação Científica (LNCC), professora do Programa Multidisciplinar de Pós-Graduação do LNCC, coordena o Centro Nacional de Processamento de Alto Desempenho do LNCC(CENAPAD/LNCC), é membro do corpo Técnico-Científico do Comitê Consultivo do Supercomputador Santos Dumont, coordena o Setor de Processamento de Alto Desempenho do LNCC e diversos projetos de colaboração na área de Computação de Alto Desempenho.
Resumo: O supercomputador SDumont, hospedado no LNCC /MCTIC, na cidade de Petrópolis-RJ, financiado pelo MCTIC para atender a comunidade acadêmica brasileira, de forma gratuita, atende atualmente a cerca de 240 projetos de pesquisa de 20 áreas de conhecimento, coordenados por instituições de ensino e pesquisa distribuídas em 12 estados brasileiros além de colaborações com instituições de pesquisas internacionais. Nesta palestra serão apresentadas as características da nova arquitetura do supercomputador de cerca de 23 PetaFlops e do futuro Supercomputador para IA, como parte do Plano Nacional de Inteligencia Artificial (PBIA). Em seguida, serão apresentadas as pesquisas e as colaborações desenvolvidas pelo setor de Processamento de Alto Desempenho do LNCC.
Sala: Bento Prado
Horário: 16:45 - 17:15
Resumo: Vamos explorar a liderança mundial da HPE em Computação de Alto Desempenho e Inteligência Artificial reforçando o posicionamento da HPE com no. 1 no Top500 (https://www.top500.org/) e apresentar demais casos de sucesso para os Supercomputadores HPE CRAY EX como referência mundial em performance, sustentabilidade e escalabilidade. Vamos apresentar o Portifólio de HPC/AI CRAY XD, com suas diversas arquiteturas e infraestrutura de rede de alta performance, CPUs e Aceleradores, bem como as opções de refrigeração Air Cooled, ARCS e DLC, conforme a disponibilidade de cada ambiente.
Sala: Bento Prado
Horário: 17:15 - 18:15
Biografia Resumida: Antônio Tadeu A. Gomes possui graduação em Informática - Magna Cum-Laude - pela UFRJ (1995), mestrado e doutorado em Informática pela PUC-Rio (1999 e 2005). Atualmente é pesquisador do LNCC/MCTI. Também é secretário executivo do SINAPAD (Sistema Nacional de Processamento de Alto Desempenho - http://www.lncc.br/sinapad) e coordenador do Comitê Gestor do supercomputador Santos Dumont (http://sdumont.lncc.br). É vice-coordenador e leciona na Pós-graduação em Modelagem Computacional do LNCC. Seus principais interesses são na ampla área de modelagem de sistemas, englobando sistemas em rede, sistemas distribuídos, sistemas de simulação numérica, sistemas de computação de alto desempenho e sistemas de aprendizado de máquina. É membro da Sociedade Brasileira de Computação (SBC) e da Association for Computing Machinery (ACM). Foi Bolsista de Produtividade em Pesquisa do CNPq (PQ-2) entre 2010 e 2018.
Resumo: Nesta palestra discorro sobre a diversidade de projetos que executam no supercomputador SDumont hospedado no Laboratório Nacional de Computação Científica (LNCC), em Petrópolis-RJ. Tal diversidade -- que abarca diferentes perfis de usuários e de aplicações -- combinada à alta rotatividade de projetos traz desafios relacionados à continua revisão das políticas de escalonamento no supercomputador. Nesse sentido, apresento algumas estratégias sendo estudadas e avaliadas nas áreas de modelagem, análise e simulação discreta do comportamento de usuários e de sistemas de HPC, utilizando os dados de accounting do SDumont como estudo de caso.
Sala: Bento Prado
Horário: 13:30 - 14:30
Biografia Resumida: Bacharel em Matemática Aplicada-IME-USP/1974, PhD em Ciências Atmosféricas na Colorado State University-1979. Professor Titular no IAG/USP desde 1975. Diretor do IAG/USP (2017-2021), Diretor do LNCC/MCTI (2007-2015) e Chefe do CPTEC/INPE (1988-1990). Membro titular da Academia Brasileira de Ciências e recebeu a Ordem do Mérito Científico do MCTI. Orientou cerca de 70 alunos de pós-graduação. Ampla experiência em desenvolvimento de modelos computacionais eficientes aplicados à previsão de tempo e clima.
Resumo: A short history of numerical weather prediction will be presented, beginning with Richardson's (1922) pioneering experiments, the birth of computational predictions in the late 40's with the ENIAC computer, the introduction of more complex models in the 60's and early 70's, and the impact of the vector machines (Cray, Cyber) in the operational centers. New challenges were brought in the late 80's and 90's in the operational forecasting centers by the parallel computers and the demand for computational power needed to accomplish the goals of the Intergovernmental Panel for Climate Change. Massive parallelization since the early 2000's led to a major improvement in the quality of the weather forecasts, driven by data assimilation systems and GPU's. Current challenges will be discussed at the end.
Sala: Bento Prado
Horário: 17:15 - 17:45
Biografia Resumida:
Evaldo Costa Engenheiro sênior responsável pelo desenvolvimento de projetos com soluções Dell & NVIDIA. Possui mais de vinte anos de experiência na área de Tecnologia da Informação em planejamento e implementação de ambientes de missão crítica, arquitetura de soluções para Data Center, HPC/IA. Graduado em engenharia elétrica, mestre e doutor em informática pela UFRJ.
Pedro Mário Cruz e Silva fez sua graduação (1995) e mestrado (1998) na Universidade Federal de Pernambuco (UFPE), fez seu doutorado em 2004 na PUC-Rio. Criou o Grupo de Geofísica Computacional na PUC-Rio onde trabalhou por 15 anos como Gerente, durante este período foi responsável por vários projetos de Desenvolvimento de Software e P&D para Geofísica com forte foco em inovação. Concluiu o MBA em 2015 na Fundação Getúlio Vargas (FGV/RJ). Atualmente é o Arquiteto de Soluções para Ensino Superior e Pesquisa na Região da América Latina.
Sala: Bento Prado
Horário: 10:15 - 11:15
Biografia Resumida: Felix Wolf is a full professor at the Department of Computer Science of the Technical University of Darmstadt in Germany, where he leads the Laboratory for Parallel Programming. He works on methods, tools, and algorithms that support developing and deploying parallel software systems in various life-cycle stages. Wolf received his Ph.D. degree from RWTH Aachen University in 2003. After working more than two years as a postdoc at the Innovative Computing Laboratory of the University of Tennessee, he was appointed research group leader at Juelich Supercomputing Centre. Between 2009 and 2015, he was head of the Laboratory for Parallel Programming at the German Research School for Simulation Sciences in Aachen and a full professor at RWTH Aachen University. Wolf has made major contributions to several open-source performance tools for parallel programs, including Scalasca, Score-P, and Extra-P. Moreover, he has initiated the Virtual Institute – High Productivity Supercomputing, an international initiative of HPC programming-tool builders aimed at enhancing, integrating, and deploying their products. He has published over 150 refereed articles on parallel computing, several of which have received awards.
Resumo: To understand the scaling behavior of HPC applications, developers often use performance models. A performance model is a formula that expresses a critical performance metric, such as runtime, as a function of one or more execution parameters, such as core count and input size. Performance models offer quick insights on a very high level of abstraction, including predictions of future behavior. Given the complexity of today’s applications, which often combine several sophisticated algorithms, creating performance models manually is extremely laborious. Empirical performance modeling, the process of learning such models from performance data, offers a convenient alternative but comes with its own set of challenges. The two most prominent ones are noise and the cost of the experiments needed to generate the underlying data. In this talk, we will review the state of the art in empirical performance modeling and investigate how we can employ machine learning and other strategies to improve the quality and lower the cost of the resulting models.
Sala: Bento Prado
Horário: 13:00 - 14:00
Biografia Resumida: Jairo Panetta teaches and develops HPC scientific software at Brazil. He has worked on oil and gas, weather forecasting, and financial industries since 1986, both creating and educating HPC groups as well as developing HPC software. He teaches Parallel Processing graduate classes at ITA as a volunteer, after retirement. He holds a PhD in Computer Science from Purdue University.
Resumo: This talk summarizes policies, actors and institutions that contributed for the development of HPC in Brazil during the last 40 years. It visits activities at academia, professional societies, industries, federal and state governments related to such purpose. It emphasizes actions that could be useful for other development countries that are willing to invest in HPC