【CCSで学ぶ】高田 菜月さん

高田 菜月(Natsuki TAKADA)さん

 

筑波大学 理工情報生命学術院 生命地球科学研究群 地球科学学位プログラム
都市・山岳気象学研究室 博士前期課程2年 

 

(内容は、2022年7月取材当時のものです。)


高田さんは、筑波大学 生命環境学群 地球学類在籍時に都市・山岳気象学研究室に入り、日下博幸 教授の指導のもとで研究を続けています。

今の研究室に進んだ理由

中学生の頃、姉が進路のことを考え始めたのをきっかけに、「自分は何をしよう、何に一番興味が持てるかな」と考え始めました。それで、日々の天気予報だったり、雲とか気象現象だったりを見るのが好きだなと気づいて、気象の道に行きたいと思い始めました。
研究室を選ぶ時には、身近な気象現象を研究テーマにしたいなと思っていました。日下先生や先輩たちが富士山にできる雲の研究を楽しそうにやっていたので、私も一緒に研究したいと思い、今の研究室を選びました。

 

どんな研究をしているの?

富士山周辺に出現する「吊るし雲」という雲について研究をしています。「吊るし雲」とは、山の風下にできるレンズ状の雲で、普通の雲とは違って風に流されることなく、同じ場所に浮かんでいる雲です。この「吊るし雲」がどんな気象条件で発生するのかを、雲の動画とコンピュータシミュレーションによって調べています。
「吊るし雲」は、風が山に当たる時に生まれる山岳波という波によって発生し、また風が強くて湿度が高い時に発生するといわれています。しかしながら、その発生メカニズムには、まだまだ分かっていないこともたくさんあります。
雲というとても身近な現象であるにもかかわらず、未解明な問題があることを知り、その謎の解明に挑戦したいなと思って研究をしています。

富士山と吊るし雲
富士山と吊るし雲 (富士市役所ライブカメラhttp://www2.city.fuji.shizuoka.jp/livehistory/19/09/24/08.jpg より)

研究をすること、ここが魅力!

答えのない問いに挑み、自分でその答えを導くというところが面白いなと感じています。今まで誰も知らなかった、分からなかったことを、自分の手で明らかにできることはすごく魅力的です。また、自分で明らかにできた時の達成感と喜びはとても大きいです。

 

高校ではどんな勉強をしていたの?

大学では気象について学び、将来は気象に関わる仕事に就きたいと考えていたので、気象を学べる環境が充実している筑波大学が第一志望でした。筑波大学に入るため、高校時代はとにかく受験勉強をしていました。(特に気象の勉強はしていなかったです。)
筑波大学は気象を研究している先生の数がとても多く、指導教員の先生に丁寧な指導をしてもらえるのはもちろんのこと、さらに周辺分野の気象の先生たちからも指導を受けられるので、気象の研究をするのにとても良いところです。

 

メッセージ

自分が興味を持てる分野、行きたい大学をぜひ見つけてください! そして、大学では興味を持てる研究テーマに出会えるといいですね!
大学では一つの学問分野でもいくつも研究室があったり、一つの研究室でも様々な研究テーマを扱っていたりします。その中から、皆さんが興味の持てる研究テーマに出会い、そのテーマについて研究できることを祈っています!

 

 

【CCSで学ぶ】一覧に戻る

 

↓ インタビュー動画もあります。

JAPAN-KOREA Winter School 2022

Course Overview

High performance computing is the basic technology needed to support today’s large scale scientific simulations. It covers a wide variety of issues on hardware and software for high-end computing such as high speed computation, high speed networking, large scale memory and disk storage, high speed numerical algorithms, programming schemes and the system softwares to support them. Current advanced supercomputer systems are based on large scale parallel processing systems. Nowadays, even application users are required to understand these technologies to a certain level for their effective utilization. In this class, we focus on the basic technology of high-end computing systems, programming, algorithm and performance tuning for application users who aim to use these systems for their practical simulation and computing.

Lecture Day and Location

Lecture Day: February 20 (Mon), 21 (Tue), 2023
Location: Hybrid form
  Onsite: International Workshop Room, Center for Computational Sciences (Access)
  Online: Zoom (Zoom link will be sent by email.)

Schedule

  Feb. 20 (Mon) Feb. 21 (Tue)
09:00 – 10:30 Fundamentals of HPC and Parallel Processing Parallel Programming 2: OpenMP
10:45 – 12:15 Parallel Processing Systems Parallel Numerical Algorithm 1
13:30 – 15:00 Parallel Programming 1: MPI Parallel Numerical Algorithm 2
15:15 – 16:45 Optimization 1: Communication Optimization Optimization 2: Computation Optimization

Contents

  Lecture name Contents Instructor
1 Fundamentals of HPC and Parallel Processing Amdahl’s law, Parallelization methods (EP, Data parallelism, Pipeline parallelism), Communication, Synchronization, Parallelization efficiency, Load balance. Taisuke Boku
2 Parallel Processing Systems Parallel processing systems (SMP, NUMA, Cluster, Grid, etc.), Memory hierarchy, Memory bandwidth, Network, Communication bandwidth, Delay. Ryohei Kobayashi
3 Parallel Programming 1: MPI Parallel programming language MPI. Norihisa Fujita
4 Optimization 1: Communication Optimization Optimization techniques and performance evaluation of parallel programming on parallel processing systems. Osamu Tatebe
5 Parallel Programming 2: OpenMP Parallel programming model, parallel programming language OpenMP. Akira Nukada
6 Parallel Numerical Algorithm 1 Krylov subspace iterative methods and their parallelization methods. Hiroto Tadano
7 Parallel Numerical Algorithm 2 Fast Fourier Transformation (FFT) and its parallelization methods. Daisuke Takahashi
8 Optimization 2: Computation Optimization Program optimization techniques (Register blocking, Cache blocking, Memory allocation, etc.) and performance evaluation on a compute node of parallel processing systems. Daisuke Takahashi

*本セミナーは,筑波大学理工情報生命学術院共通専門基盤科目「High Performance Parallel Computing Technology for Computational Sciences」(0AH0209)と共通です. 本セミナーを授業として受講する方は,TWINS で履修登録して下さい.

 

 

JAPAN-KOREA HPC Winter School 2022

Course Overview

High performance computing is the basic technology needed to support today’s large scale scientific simulations. It covers a wide variety of issues on hardware and software for high-end computing such as high speed computation, high speed networking, large scale memory and disk storage, high speed numerical algorithms, programming schemes and the system softwares to support them. Current advanced supercomputer systems are based on large scale parallel processing systems. Nowadays, even application users are required to understand these technologies to a certain level for their effective utilization. In this class, we focus on the basic technology of high-end computing systems, programming, algorithm and performance tuning for application users who aim to use these systems for their practical simulation and computing.

Lecture Day and Location

Lecture Day: February 20 (Mon), 21 (Tue), 2023
Location: Hybrid form
  Onsite: International Workshop Room, Center for Computational Sciences (Access)
  Online: Zoom (Zoom link will be sent by email.)

Schedule

  Feb. 20 (Mon) Feb. 21 (Tue)
09:00 – 10:30 Fundamentals of HPC and Parallel Processing Parallel Programming 2: OpenMP
10:45 – 12:15 Parallel Processing Systems Parallel Numerical Algorithm 1
13:30 – 15:00 Parallel Programming 1: MPI Parallel Numerical Algorithm 2
15:15 – 16:45 Optimization 1: Communication Optimization

Optimization 2: Computation Optimization

Contents

  Lecture name Contents Instructor
1 Fundamentals of HPC and Parallel Processing Amdahl’s law, Parallelization methods (EP, Data parallelism, Pipeline parallelism), Communication, Synchronization, Parallelization efficiency, Load balance. Taisuke Boku
2 Parallel Processing Systems Parallel processing systems (SMP, NUMA, Cluster, Grid, etc.), Memory hierarchy, Memory bandwidth, Network, Communication bandwidth, Delay. Ryohei Kobayashi
3 Parallel Programming 1: MPI Parallel programming language MPI. Norihisa Fujita
4 Optimization 1: Communication Optimization Optimization techniques and performance evaluation of parallel programming on parallel processing systems. Osamu Tatebe
5 Parallel Programming 2: OpenMP Parallel programming model, parallel programming language OpenMP. Akira Nukada
6 Parallel Numerical Algorithm 1 Krylov subspace iterative methods and their parallelization methods. Hiroto Tadano
7 Parallel Numerical Algorithm 2 Fast Fourier Transformation (FFT) and its parallelization methods. Daisuke Takahashi
8 Optimization 2: Computation Optimization Program optimization techniques (Register blocking, Cache blocking, Memory allocation, etc.) and performance evaluation on a compute node of parallel processing systems. Daisuke Takahashi

2022 CCS-KISTI Workshop

Date: Feb. 22nd (Wed),  2023
Venue: CCS Meeting Room A

9:00 Dr. Taisuke Boku CCS research activity update
9:15 Dr. Jihoon Kang Parallel and scalable tri-diagonal matrix algorithm for CFD applications
9:35 Dr. Daisuke Takahashi Implementation of Parallel Number-Theoretic Transform on Manycore Clusters
9:55 Dr. Oh-Kyoung Kwon Efficient task-mapping of parallel applications using a space-filling curve
10:15    
10:25 Dr. Sangjae Seo Simulation studies of nanomaterials using Nurion supercomputer
10:45 Dr. Kazuhiko Yabana Development and applications of SALMON: first-principles computations in optical science
11:05 Dr. Hee Jin Jung Introduction to Fake Movie Generator to Train Data-driven AI Models for Applying to A Smart Intersection
11:25 Dr. Mitsuo Shoji Unique reaction mechanism of copper amine oxidase revealed by theoretical QM/MM and experimental approaches
11:45    
13:00 Dr. John Bosco Mugeni A graph-based blocking approach for entity matching using contrastively learned embeddings
13:20 Dr. Jung Woo Park Research on Computer-Aid Drug Design for New Scaffold-based Drug Development
13:40    

 

*Please wear a mask, take your temperature, and sanitize your hands when entering.
Please refrain from participating if you are not feeling well due to a cold or fever.

2022 CCS-KISTI ワークショップ

韓国 KISTI(韓国科学技術情報研究院)と対面の研究交流会を開催します。

Date: Feb. 22nd (Wed),  2023
Venue: CCS Meeting Room A

9:00 Dr. Taisuke Boku CCS research activity update
9:15 Dr. Jihoon Kang Parallel and scalable tri-diagonal matrix algorithm for CFD applications
9:35 Dr. Daisuke Takahashi Implementation of Parallel Number-Theoretic Transform on Manycore Clusters
9:55 Dr. Oh-Kyoung Kwon Efficient task-mapping of parallel applications using a space-filling curve
10:15    
10:25 Dr. Sangjae Seo Simulation studies of nanomaterials using Nurion supercomputer
10:45 Dr. Kazuhiko Yabana Development and applications of SALMON: first-principles computations in optical science
11:05 Dr. Hee Jin Jung Introduction to Fake Movie Generator to Train Data-driven AI Models for Applying to A Smart Intersection
11:25 Dr. Mitsuo Shoji Unique reaction mechanism of copper amine oxidase revealed by theoretical QM/MM and experimental approaches
11:45    
13:00 Dr. John Bosco Mugeni A graph-based blocking approach for entity matching using contrastively learned embeddings
13:20 Dr. Jung Woo Park Research on Computer-Aid Drug Design for New Scaffold-based Drug Development
13:40    

 

*センター内への立ち入りに際しては、マスクの着用・検温・手指の消毒を行い、風邪症状等の体調不良の方は立ち入りをご遠慮ください。

令和4年度 年次報告会(2023年2月24日)

日時:2023年2月24日(金) 8:30~18:00
会場:Zoom

計算科学研究センター 令和4年度年次報告会を行います。

プログラム

発表時間は、新任者(*印)は15分、それ以外の方は12分です(質疑応答、交代時間含む)

セッション1 (8:30-9:51 座長:萩原聡)

8:30      *清水 則孝                    (原子核物理研究部門)

8:45       *福島 肇                    (宇宙物理研究部門)

9:00       *Kowit Hengphasatporn(生命科学研究部門)

9:15        多田野 寛人                (高性能計算システム研究部門)

9:27        Tong Xiao-Min            (量子物性研究部門)

9:39        Alexander Wagner       (宇宙物理研究部門)

セッション2  (9:51-11:15 座長:福島肇)

9:51         中務 孝        (原子核物理研究部門)

10:03       森 正夫             (宇宙物理研究部門)

10:15       日野原 伸生             (原子核物理研究部門)

10:27       中山 卓郎           (生命科学研究部門)

10:39       日下 博幸           (地球環境研究部門)

10:51       萩原 聡        (量子物性研究部門)

11:03       小林 諒平       (高性能計算システム研究部門) 

セッション3  (11:15-12:39 座長:小林諒平)

11:15       藏増 嘉伸      (素粒子物理研究部門)

11:27       矢島 秀伸      (宇宙物理研究部門)

11:39       田中 博                 (地球環境研究部門)

11:51       大谷 実                 (量子物性研究部門)

12:03       堀江 和正       (計算情報学研究部門)

12:15       北原 格       (計算情報学研究部門)

12:27       原田 隆平      (生命科学研究部門)

セッション4    (12:39-14:15 座長:佐藤駿丞)

12:39       宍戸 英彦       (計算情報学研究部門)

12:51       吉川 耕司          (宇宙物理研究部門)

13:03       稲垣 祐司               (生命科学研究部門)

13:15       矢花 一浩               (量子物性研究部門) 

13:27       松枝 未遠               (地球環境研究部門)

13:39       高橋 大介               (高性能計算システム研究部門) 

13:51       前島 展也                 (量子物性研究部門)

14:03       塩川 浩昭                (計算情報学研究部門)

セッション5    (14:15-15:39 座長:庄司光男

14:15        大須賀 健          (宇宙物理研究部門)

14:27        吉江 友照          (素粒子物理研究部門)

14:39        小泉 裕康          (量子物性研究部門)

14:51        堀 優太           (生命科学研究部門)

15:03       Doan Quang van   (地球環境研究部門)

15:15        朴 泰祐              (高性能計算システム研究部門)

15:27        天笠 俊之           (計算情報学研究部門)

セッション6     (15:39-16:39 座長:堀優太)

15:39         Savong Bou          (計算情報学研究部門)

15:51         石塚 成人             (素粒子物理研究部門)

16:03          佐藤 駿丞            (量子物性研究部門)

16:15          庄司 光男            (生命科学研究部門) 

16:27          藤田 典久            (高性能計算システム研究部門)

セッション7 (16:39-17:44 座長:Savong Bou)

16:39          大野 浩史        (素粒子物理研究部門)

16:51          梅村 雅之        (宇宙物理研究部門)

17:03          重田 育照        (生命科学研究部門)

17:15          額田 彰           (高性能計算システム研究部門)

17:27          亀田 能成        (計算情報学研究部門)   

17:39          朴 泰祐               (センター長)

 

スーパーコンピュータPegasusの理論ピーク性能を公開

Intel社の最新CPU、第4世代Xeonスケーラブル・プロセッサの製品発表に伴い、2022年12月に試験稼働を開始したスーパーコンピュータPegasusの理論ピーク性能が公開となりました。
Pegasusは120ノードの計算ノードで構成され、全体の理論ピーク性能は6.5 PFlopsとなります。

Pegasusについて詳しくはこちらをご覧ください。

 

 

The theoretical peak performance of the Pegasus supercomputer is released

With the product launch of Intel’s latest CPU, the 4th generation Xeon scalable processor, the theoretical peak performance of the Pegasus supercomputer, which began test operation in December 2022, is now available.
Pegasus will consist of 120 compute nodes with an overall theoretical peak performance of 6.5 PFlops.

For more information, please see the following link.

Supercomputers

【受賞】原田准教授が第 50 回 構造活性相関シンポジウムSAR Presentation Awardを受賞

原田准教授が、2022年11月10-11日にオンラインで開催された第 50 回 構造活性相関シンポジウム(主催:日本薬学会・構造活性相関部会)において優秀発表賞(SAR Presentation Award)を受賞しました。
 
発表タイトル:化合物の膜透過プロセスを紐解く自由エネルギー計算手法の開発
著者:原田隆平, 森田陸離, 重田育照
 
 
 
 

[ウェブリリース] 薬剤の膜透過メカニズムを解明する計算手法を提案

2022年12月28日
筑波大学 計算科学研究センター

概要

病気の原因となるタンパク質に薬剤が結合し作用するためには、薬剤が生体外から様々なステップを踏んで生体内へ取り込まれる必要があります。中でも、細胞膜を通り抜けて細胞内に侵入する過程は重要であり、この膜透過メカニズムの解明は効率よくはたらく薬剤をデザインする上で重要です。膜透過のプロセスを精度良く調べるための計算科学的手法として、分子動力学計算(MD)に期待がかけられています。MDは薬剤がどのように膜を透過するのかを原子レベルで解明する可能性を持ちます。しかし、薬剤が膜透過するプロセスをMDで観察するには秒(100 s)以上の時間スケールを必要とするのに対して、現状のMDでは長くてもマイクロ秒(10-6 s)程度のシミュレーションを行うのが限界です。そこで本研究では、計算手法を工夫することにより現実的な計算コストで膜透過のプロセスを観察することに成功しました。それにより、膜透過性を定量的に示す膜透過係数を精度良く見積もることができました。

研究内容と成果

MDで観測可能な時間の間に薬剤はごく低い確率で膜を透過します。そのため従来の手法では、長時間のMDを行って運良く膜透過プロセスが観察されるのを待つしか無く、不確実性が高く効率も良くないという問題がありました。私達のグループでは、これまで開発してきたオリジナルの計算手法(PaCS-MD(注1)、OFLOOD(注2))を活用することで、MDの問題点の解決を目指しました。これらの計算手法は①短い時間のMDを繰り返し行い、②良い初期状態を抽出する、という特徴があります。本手法では、良い初期状態、つまり膜透過しそうな構造を選び出して短時間MDを繰り返すことによって、従来の手法では観察困難な膜透過プロセスを効率よく抽出することができます。
実際に計算性能を評価するために7種類の薬剤について膜透過プロセスを抽出しました。この時、多数の短時間MDを統計的に処理することによって膜透過の効率を定量的に示す膜透過係数を算出したところ、7種類すべての薬剤について実験値と計算値が高い一致を示しました。このことから、私達の開発した手法を適用することにより現実的な計算コストで薬剤の膜透過プロセスを抽出でき、同時に膜透過係数を精度良く見積もることができることが示されました。

今後の展開

予測される研究展開としては、中分子医薬の開発に貢献することが期待できます。環状ペプチド(注3)をはじめとする中分子医薬品は、薬効が高く製造コストが低いという多くの利点を持つことから次世代の医薬品として期待されています。環状ペプチドは従来の医薬品と比べてフレキシブルな構造をとるため、分子のダイナミクスによる影響を観測できるMDを利用することで、膜透過プロセスを詳細に理解することができます。これにより膜透過性が高い環状ペプチドの評価とそのメカニズムを調べることができれば、実験に先立って創薬設計の指針を提供することができ、中分子医薬品の発展に大きく貢献することが期待されます。

図1:薬剤の膜透過プロセスは、分子シミュレーションによって評価できる。
図1:薬剤の膜透過プロセスは、分子シミュレーションによって評価できる。

 

図2:本研究で開発した計算手法の概略図。計算コストを必要とする従来法と比較して、膜透過プロセスを効率的に抽出できる。
図2:本研究で開発した計算手法の概略図。計算コストを必要とする従来法と比較して、膜透過プロセスを効率的に抽出できる。

 

用語解説

注1)PaCS-MD:短時間のMDを繰り返しながら、最適な構造を選び続けることで効率よくタンパク質の構造変化を抽出する計算手法

注2)OFLOOD:短時間のMDを繰り返しながら、未知の構造(外れ値)を探索し続けることで多様な構造を抽出する計算手法

注3)環状ペプチド:タンパク質はアミノ酸が直鎖としてつながったものであるが、アミノ酸が環状につながった化合物。生体内での安定性が高く、標的への特異性が高いことから代表的な中分子医薬品として注目されている。

研究資金

本研究は、科研費(21K06094)、住友財団(基礎科学研究助成)、筑波大学計算科学研究センター学際共同利用プログラムによって実施されました。

掲載論文情報

【題 名】 Free-energy Profiles for Membrane Permeation of Compounds Calculated Using Rare-Event Sampling
【著者名】 Ryuhei Harada, Rikuri Morita, Yasuteru Shigeta
【掲載誌】 Journal of Chemical Information and Modeling
【掲載日】 2022年12月28日
【DOI】      DOI: 10.1021/acs.jcim.2c01097
https://pubs.acs.org/doi/10.1021/acs.jcim.2c01097

 

プレスリリース全文はこちら

 

 

 

The University of Tsukuba announces plans for a New Big Memory Supercomputer “Pegasus” featuring upcoming 4th Gen Intel Xeon Scalable Processors, NVIDIA H100 PCIe GPU and Intel Optane Persistent Memory

 

Highlights

  • Plans to build with 4th Gen Intel Xeon Scalable processors (formerly codenamed Sapphire Rapids), NVIDIA H100 Tensor Core GPU with PCIe and 51TFlops of extreme performance, and Intel Optane persistent memory (codenamed Crow Pass) will strongly drive big data and AI
  • The world’s first system with NVIDIA H100 GPUs connected via PCIe Gen5
  • The first system announced in Japan that will utilize NVIDIA Quantum-2 400Gb/s InfiniBand networking

 

Tsukuba, Japan – December 22, 2022 – The Center for Computational Sciences at the University of Tsukuba announces plans for a new big memory supercomputer Pegasus manufactured by NEC.  The new supercomputer will be one of the first systems in the world to introduce 4th Gen Intel Xeon Scalable processors (formerly codenamed Sapphire Rapids), Intel Optane persistent memory (codenamed Crow Pass), and the NVIDIA H100 Tensor Core GPU with 51TFlops of breakthrough acceleration.

NVIDIA H100 PCIe GPU is the latest GPU announced in March, 2022 with a theoretical peak performance of 51 TFlops in double precision floating point operations.  Pegasus is the first to offer the latest high-bandwidth PCIe Gen5 connection to H100 GPU. Networking utilizes the latest NVIDIA Quantum-2 400 Gb/s InfiniBand networking platform with advanced in-network computing acceleration engines. Utilizing the world’s newest technology such as the Memory bandwidth and I/O bandwidth increased by DDR5 and PCIe Gen5, the University of Tsukuba will strongly support HPC, big data and AI.

To drive big data analytics and ultra-large scale AI, not only high computing performance is required, but also high-bandwidth large memory and ultra-fast storage systems; Pegasus has introduced H100 GPUs, DDR5 memory, and persistent memory to solve this problem. The H100 GPU is 2.7 times faster in computing performance than the current A100 GPU, and DDR5 memory provides twice the memory bandwidth of conventional DDR4 memory. The Center of Computational Sciences has been offering solutions with Intel Xeon processors and Intel Optane persistent memory since 2020 to research partners.  Based on previous generations of Intel Optane persistent memory, allowing direct access to persistent data structures has potential to significantly improve application performance.  In addition, unlike DRAM, persistent memory does not require refresh to retain data, thus dramatically reducing power consumption compared to DRAM of the same capacity.  Moreover, memory expansion with persistent memory enables calculations with memory sizes that exceed DRAM capacity, and the performance of computational science applications remains largely unchanged.

The effectiveness of compute accelerators (GPUs) in HPC, data-driven science, and AI-driven science has already been demonstrated, and Pegasus has been designed to incorporate state-of-the-art CPUs, GPUs, memory, and persistent memory, connected via a state-of-the-art network.

Pegasus consists of 120 compute nodes, and the overall theoretical peak performance of the GPU part alone exceeds 6.1 PFlops. The Center for Computational Sciences at the University of Tsukuba, as a Joint Usage / Research Center, will make Pegasus available to users around the world through various usage programs such as Interdisciplinary Collaborative Use, HPCI Collaborative Use, and General Use, thereby contributing to the further development of computational science.

 

“Big data and AI applications are one of the most important research topics in addition to the high performance computational sciences which we have been focusing on so far. Introducing a new machine with a large-capacity memory system and high-performance AI processing should be our new tools to expand our research field toward excellent data science,” said Taisuke Boku, Director of the Center for Computational Sciences, the University of Tsukuba.

 

“Data-driven and AI-driven science requires large memory size and storage performance, but memory capacity per CPU core has decreased for a decade,” said Osamu Tatebe, professor at the Center for Computational Sciences, the University of Tsukuba.  “That is why we introduce NVIDIA H100 PCIe GPU, DDR5, and persistent memory in compute nodes to accelerate large-scale data analysis and big data for better cost performance, power consumption, and application performance.  Also, we foster new fields of large-scale data analysis, new applications of big data AI, and system software research.”

 

“NEC is very honored to announce that the Center for Computational Sciences at the University of Tsukuba adopted NEC LX-Series as their new supercomputer,” said Yasuo Mogaki, Managing Director, NEC Advanced Platform Division.  “This system is World’s first system that delivers revolutionary acceleration applying Intel’s next generation Xeon CPU, Optane memory and NVIDIA’s H100 GPU.  NEC will contribute to advanced computational science by combining our technological capabilities.”

 

“We are very excited that the University of Tsukuba plans to build their new supercomputer with the upcoming 4th Gen Intel Xeon Scalable processor and Optane persistent memory 300 series, showcasing the value that Intel Architecture brings to high performance computing” said Don Cunningham, Vice President & General Manager, Data Center and AI Group at Intel.

 

“As supercomputing enters the era of exascale HPC and AI, NVIDIA enables researchers to tackle massive challenges using NVIDIA H100 GPUs,” said Ian Buck, vice president of Hyperscale and HPC at NVIDIA. “The selection by the University of Tsukuba will enable researchers to deliver the same AI performance with 3.5x more energy efficiency and 3x lower total cost of ownership.”

 

“It is our great pleasure to support the innovative Pegasus project at Tsukuba University. We look forward to working with the team at Tsukuba University towards better integrating emerging memory architectures and node-local persistent storage solutions with global shared storage” said Robert Triendl, President of DataDirect Networks Japan, Inc.

 

Planned Specifications

System name

Pegasus

Manufacture

NEC

Total performance

> 6.1 PFlops

Number of nodes

120

Interconnects

Full bisection fat-tree network interconnected by the NVIDIA Quantum-2 InfiniBand platform

Parallel file system

7.1PB DDN EXAScaler (40 GB/s throughput)

Compute node

CPU

4th Gen Intel Xeon Scalable processor formerly codenamed Sapphire Rapids (48c)

GPU

NVIDIA H100 Tensor Core GPU with PCIe Gen5 (51 TFlops in FP64 Tensor Core, 80GB HBM2E, 2 TB/s)

Memory

128GiB DDR5 (282 GB/s)

Persistent memory

Intel Optane persistent memory (codenamed Crow Pass)

SSD

2 x 3.2TB NVMe SSD (7 GB/s)

Networking

NVIDIA Quantum-2 InfiniBand platform (200 Gb/s)

 

About the Center for Computational Sciences, the University of Tsukuba

For more information, go to www.ccs.tsukuba.ac.jp

 
*Intel, the Intel logo, and other Intel marks are trademarks of Intel Corporation or its subsidiaries.

ビッグメモリスーパコンピュータPegasusの試験稼働開始 〜第4世代Intel Xeon、NVIDIA H100 PCIe GPU、Intel不揮発性メモリを搭載〜

2022年12月22日
国立大学法人 筑波大学

概要

筑波大学計算科学研究センターは、新たなスーパコンピュータPegasus(ペガサス)の試験稼働の開始を発表しました。演算性能、メモリ帯域幅注1)、メモリサイズを大きく向上させ、計算科学のみならずビッグデータ解析、超大規模AI分野を強力に推進します。
Pegasusに搭載される演算加速装置(GPU)は、倍精度浮動小数点演算注2)における理論ピーク性能が51 TFlops注3)(従来よりも2.7倍高速)であり、CPU(中央演算処理装置)と高帯域幅のPCIe Gen5注4)により世界で初めて接続されます。DDR5メモリ注5)(従来よりも約2倍高速)、不揮発性メモリ注6)を搭載し、大容量メモリまたは超高速ストレージとしての利用が可能です。また、ネットワークについても最新の400Gbpsネットワークプラットフォームを利用します。
Pegasusは120ノードの計算ノードで構成され、全体の理論ピーク性能はGPU部分だけでも6.1 PFlopsを超えます。筑波大学計算科学研究センターは、共同利用・共同研究拠点として、学際共同利用、HPCI注7)共同利用、一般利用などの各種利用プログラムにより、Pegasusを全世界のユーザに提供し、さらなる計算科学の発展に寄与します。

 プレスリリース全文はこちら

仕様 

システム名称

Pegasus

製造

NEC

全体性能

> 6.1 PFlops

ノード数

120

ネットワーク

NVIDIA Quantum-2 InfiniBandプラットフォームによるフルバイセクションファットツリーネットワーク

並列ファイルシステム

7.1PB DDN EXAScaler (帯域幅40 GB/s)

計算ノード

CPU

第4世代Intel Xeonスケーラブルプロセッサ(旧コードネームSapphire Rapids)(48コア)

GPU

NVIDIA H100 PCIe GPU (FP64テンソルコア演算51 TFlops、80GB HBM2E、2 TB/s)

メモリ

128GiB DDR5 (282 GB/s)

不揮発性メモリ

Intel Optane不揮発性メモリ(コードネームCrow Pass)

SSD

2 x 3.2TB NVMe SSD (7 GB/s)

ネットワーク

NVIDIA Quantum-2 InfiniBandプラットフォーム (200 Gbps)

 

本スーパコンピュータについてのコメント 

筑波大学計算科学研究センター長 朴泰祐教授
「ビッグデータやAIは、これまで注力してきた高性能計算科学と並ぶ重要な研究テーマの一つです。大容量メモリと高性能なAI処理機能を備えた新型マシンを導入することで、優れたデータサイエンスに向けて研究領域を拡大するための新たなツールとなるはずです。」

筑波大学計算科学研究センター高性能計算システム運用開発室長 建部修見教授
「データ駆動型科学やAI駆動型科学では、これにより、消費電力を抑えつつコストパフォーマンスに優れながら、高帯域の大容量メモリ、超高速ストレージの要求を満たすことができ、アプリケーション性能の向上が図れます。 また、不揮発性メモリを活用した大規模データ解析の新分野、ビッグデータ・AIの新用途、システムソフトウェア研究なども育成していきます。」

NEC先端プラットフォーム事業部門マネージングディレクター 茂垣泰夫氏
「この度、筑波大学計算科学研究センター様がビッグメモリスーパコンピュータシステムとして、当社のLXシリーズを導入いただきまして、大変光栄です。今回のシステムは、Intelの次期 Xeon CPU、次期 Optane 不揮発性メモリ、NVIDIAの最新GPUからなる、画期的なアクセラレーションを実現する世界初のシステムであり、当社が持つ技術力を結集して、先進的な計算科学に貢献してまいります。」

IntelデータセンタAIグループVP兼GM ドンカニングハム氏
「筑波大学が、今後発売予定の第4世代インテルXeonスケーラブルプロセッサとOptane不揮発性メモリ300シリーズで新しいスーパコンピュータの構築を計画していることを大変うれしく思っております。これはIntelアーキテクチャが高性能コンピュータにもたらす価値を実証しています。」

NVIDIAハイパースケールとHPC VP イアンバック氏
「エクサスケールHPCとAIの時代に突入する中、NVIDIAはNVIDIA H100 GPUを使用して研究者が大規模な課題に取り組むことを可能にします。筑波大学が採用したことで、研究者は同じAIパフォーマンスを3.5倍のエネルギー効率と3倍の総所有コスト削減で実現できるようになります。」

株式会社データダイレクト・ネットワークス・ジャパン 代表取締役社長 ロベルト・トリンドル氏
「この度DDNは筑波大学計算科学研究センター様の革新的なPegasusプロジェクトをご支援できることを大変光栄に思います。
筑波大学のチームの皆様と協力して、新しいメモリアーキテクチャとローカルノードにおける永続的メモリなどを利用するストレージソリューションをグローバルな共有ストレージとより良い統合を目指すことを楽しみにしています。」

 

 

 

 

研究トピックス「超伝導の新しい理論の提案 そして量子コンピュータへ」と「謎の粒子ニュートリノの質量解明に迫る2重ベータ崩壊」を公開

計算科学研究センター(CCS)に所属する教員・研究員の研究をわかりやすく紹介する「研究者に聞く− 研究トピックス」に「Vol.8 超伝導の新しい理論の提案 そして量子コンピュータへ」と「Vol.9 謎の粒子ニュートリノの質量解明に迫る2重ベータ崩壊」を公開しました。

「研究者に聞く− 研究トピックス」

量子物性研究部門 の小泉准教授の研究を紹介しています。

超伝導の新しい理論の提案 そして量子コンピュータへ

原子核物理研究部門 の日野原助教の研究を紹介しています。

謎の粒子ニュートリノの質量解明に迫る2重ベータ崩壊

謎の粒子ニュートリノの質量解明に迫る2重ベータ崩壊

日野原 伸生 助教

原子核物理研究部門

日野原助教は、原子核物理研究部門の研究者です。先生は、2011年から渡米し海外での研究生活も長く、国際的でグローバルな研究のネットワークを構築しています。原子核物理の研究とは、原子の中心にある陽子や中性子が集団でいるときの複雑な状態を調べることを目的としています。この物理の応用としては、原子力発電、放射性廃棄物をできるだけ寿命を短くする研究、そして放射線治療などがあげられます。原子核物理は、宇宙から現実の生活まで実に幅広い重要性と、応用の可能性がある魅力的な基礎物理なのです。その中で今回取り上げるのは、素粒子のひとつであるニュートリノに関する理論研究です。キーワードは、「2重ベータ崩壊」。何やらすごそうな研究の一端を紹介します。

(2022.11.1 公開)

 

ニュートリノの質量解明に向けた基礎物理

私たちも、身の回りの物質も、すべて素粒子からできています。

では皆さん、「ニュートリノ」という素粒子をきいたことがありますか。日本人のノーベル賞受賞者である、故小柴昌俊先生(2002年受賞2020年逝去)と梶田隆章先生(2015年受賞)が取り組んでいたこのニュートリノは、放射線などで有名な放射性元素と深く関係しています。

ベータ崩壊(注1という現象は、中性子が崩壊するもので、その際にニュートリノが放出されます。ただしニュートリノは非常に透過性が高い粒子で、日常も宇宙から常に降り注いでいますが、私たちにはなんの影響もありません。なんと私たちの身体にも毎秒1兆個ものニュートリノが貫通しているんですって。

そんなちょっと不思議なニュートリノですが、質量の謎が素粒子の未解決テーマとして残っています。質量階層性問題(注2というもので、簡単に言うと、3種類あるニュートリノ同士の質量モデルの候補が2つあり、どちらが正しいのか絞りきれない状況にあります。最後の決定打が観測的に得られていないのです。そこで重要になるのが、ニュートリノが関係する2重ベータ崩壊という現象です。さきほどのベータ崩壊を同時に2回起こすことに相当します。

図1:ゲルマニウムの元素が崩壊していく様子を描いています。ベータ崩壊は崩壊した先の原子のエネルギーが高いので崩壊は起きず、二重ベータ崩壊が起こる場合の一例です。

 

ニュートリノの質量に制限をつける仕組み!

日野原助教は、ニュートリノがマヨラナ粒子(注3であると仮定したときの、2重ベータ崩壊について、専門用語の説明だけではなかなかわかりにくいテーマですが、ある原子核の崩壊について計算し、それを実験と照らし合わせると、ニュートリノの質量がわかるという原理を用いています(図2)。

図2:半減期と質量の関係を表している。数式中の色分けした四角は、青が半減期の逆数、黄色が位相因子、緑が行列要素、最後のオレンジ色がニュートリノの質量を表している

 

日野原助教は、基本的にこの数式の原子核行列要素、つまり簡単にいうと原子核の崩壊によってある原子核が他の原子核へと変わる確率(崩壊における遷移確率)を計算しています。この原子核行列要素と、「放射性元素の半減期」を比較することで、数式の残りの部分である、「ニュートリノの質量」に制限をつけることができるという仕組みです。

元素は、中央にある原子核の内部に、陽子と中性子を複数もっています。ある陽子の数に対して、中性子の数だけが違うものを同位体(注4といいます。これらは質量が異なります。たとえばゲルマニウムの安定同位体には、5種類あり、それぞれ陽子数は32で同じですが、中性子の数が38、40、41、42、44と異なります。このうち、最後のものはもっとも不安定ですが、10の21乗年(注5というケタ外れに長い時間(宇宙の現在の年齢よりもはるかに長い)をかけて2重ベータ崩壊をします。

一見、このような長い半減期を測定するのは困難に思えます。これに対して世界中で測定する元素の量をふやすなど様々な工夫をすることで、実現しようとしています。

ニュートリノがマヨラナ粒子でなくても起きる二重ベータ崩壊は実験で測定されており、日野原先生の計算した結果が、図3です。原子核行列要素の計算として、計算値と実験値の比較が載っています。

多少のばらつきはありますが、よく実験を再現する結果が得られています。今後はこれらのばらつきの原因を突き止めてより精密な値を計算したいと意気込んでいます。

図3:ニュートリノを2つ放出する二重ベータ崩壊の原子核行列要素の理論計算値と実験値の比較です。測定された半減期から導出された実験値(黒)とパラメータを変えた様々な理論計算値の範囲(赤色・水色)を示しており、右側の質量数の大きい原子核では理論計算で実験値が説明できていますが、左側の質量数の小さい原子核では理論計算値とのずれが見られます

 

用語

1)ベータ崩壊:中性子が陽子に崩壊する現象として、ベータ線という高速の電子と、反電子ニュートリノを放出する現象。

2)質量階層性問題:ニュートリノには、3つの種類があり、それぞれの質量(正確には質量固有状態)が混ざり合っているという不思議な性質を持っています。しかしこの質量固有状態のそれぞれの質量の値がわかっていません。3つのうちどれがもっとも軽く、どれが重いのかという順番もわかっていません。これを質量階層性問題と言って、素粒子標準理論の最後の課題として残っています。

3)マヨラナ粒子:素粒子はフェルミオンという物質を構成する粒子が代表的です。たとえばクォークや電子です。これらはディラック方程式というものに従っています。この理論では、粒子とその相方である反粒子という別の粒子が、異なる振る舞いをします。しかし近年、ニュートリノの不思議な性質を研究する上で、ニュートリノは粒子・反粒子が同じ、特殊な状態にあるのではないかという仮説がでてきました。この仮説に基づいて、粒子と反粒子が同じである素粒子をマヨラナ粒子といいます。

4)同位体:(ラジオ)アイソトープともいいます。放射性元素の種類の説明でよく登場します。原子番号が同じ(つまり陽子数が同じ)で、質量数が異なるもの(つまり中性子数が異なるもの)をさします。

5)10の21乗年:大きい数字の対応を列記します。10の12乗=1兆、10の15乗=1000兆、10の18乗=100京、10の21乗(英語では1ゼタ)=10垓、となるので、10の21乗年は10垓年

さらに詳しく知りたい人へ