量子物性研究部門 助教(任期付)公募(締切3月17日)

1.公募する職名・人数
助教(任期付)・1名

 

2.所属部門、講座、研究室等
計算科学研究センター 量子物性研究部門

 

3.専門分野、仕事の内容
当研究部門では、エネルギー材料や構造材料の第一原理計算に加えて、固体表面、固体・固体界面や固体・液体界面を、密度汎関数法を含む様々な計算技術で扱うための方法論の開発を行っています。これらの研究を通して、実験家との共同研究を意欲的に進めていただける助教を募集します。また、応募者の適性を判断して、理工学群物理学類・数理物質科学研究群物理学学位プログラムにおいて、教育・研究指導補助を担当していただきます。

 

4.着任時期
決定後できるだけ早い時期

 

5.任期
採用日から2026年3月31日まで

 

6.応募資格
博士の学位を有する者、 あるいはそれと同等の能力をもつ者

 

7.提出書類
以下の(1)-(8)の内容を含む電子ファイルを提出してください。

1)履歴書(写真添付)
2)業績リスト(査読論文とその他を区別すること)
3)これまでの研究の概要(A4用紙1枚程度)
4)着任後の研究と教育に関する抱負(A4用紙1枚程度)
5)主要論文5編(うち4編以上は最近5年以内のもの)
6)照会者可能者2名以上の氏名・連絡先
7)特定類型自己申告書(本学所定様式)
8)EU一般データ保護規則(GDPR)に基づく個人データの取り扱い及び域外移転に関する同意書(欧州経済領域の構成国および英国在住者は必ず提出のこと)

※提出書類の7)、8)の様式および記入例は下記URLからダウンロードできます。

提出書類

 

8.給与等
本学規定に基づき支給、文部科学省共済組合(年金、医療)に加入、雇用保険適用

 

9.勤務日
週5日(月~金曜日)専門業務型裁量労働制(みなし労働時間:1日7時間45分)
(土曜日、日曜日、祝日、年末年始(12月29日から1月3日)は、休日)

 

10休暇
年次有給休暇あり
休暇等の制度は、大学が定める就業規則等によります。

 

11.応募締切
2023年3月17日(金)必着

 

12.問い合わせ先
筑波大学計算科学研究センター量子物性研究部門 大谷実
Tel: 029-853-4273
Email: otani[at]ccs.tsukuba.ac.jp ([at]→@)

 

13.応募書類送付先
JREC-IN Portal Web応募のみとします。郵送あるいは電子メールへの添付による提出は原則受け付けません。

  1. 応募書類1)〜8)を一覧の順に並べ、単一のPDFファイルにまとめてください。
  2. JREC-In Portal (https://jrecin.jst.go.jp/)においてユーザ登録・Web応募を行って下さい。

 

14.選考方法
書類審査合格者に対して、テレビ会議または対面で面接を行います。交通費は応募者の負担とします。

 

15.その他
(1) 応募書類に含まれる個人情報は、本人事選考のみに使用し、他の目的には一切使用しません。選考終了後はすべての個人情報を適切に破棄します。
(2) 計算科学研究センターは、文部科学省共同利用・共同研究拠点に認定されており、計算機共同利用を含む学際計算科学を推進しています。筑波大学では男女雇用機会均等法を遵守した人事選考を行っています。
(3) 本学では、「外国為替及び外国貿易法」に基づき、「国立大学法人筑波大学安全保障輸出管理規則」を定め、外国人、外国の大学・企業・政府機関等の出身者または特定類型該当者の雇用に際した厳格な審査を実施しています。
(4) この公募は、筑波大学ITF(IMAGINE THE FUTURE)助教制度を適用する公募です。ITF助教制度については、https://www.tsukuba.ac.jp/about/jobs-information/pdf/itf-assistantprofessor.pdfをご参照ください。

 

梅村雅之先生 最終講義(3/10)

宇宙物理研究部門の部門主任,計算科学研究センター長等を歴任されました梅村雅之先生(計算科学研究センター 教授)が,令和4年度末日をもちまして定年を迎えられることとなり,最終講義を開催することとなりました.

計算科学研究センターとオンラインのハイブリッドにて開催いたします.
参加を希望される方は,下記フォームよりお申込ください.

 

日時:令和5年3月10日(金)13:30-15:00
場所:計算科学研究センター 国際ワークショップ室 / オンライン
主催:筑波大学計算科学研究センター

参加登録フォーム
https://tinyurl.com/2jts85yw
申込締切 令和5年3月8日(水)

【CCSで学ぶ】高田 菜月さん

高田 菜月(Natsuki TAKADA)さん

 

筑波大学 理工情報生命学術院 生命地球科学研究群 地球科学学位プログラム
都市・山岳気象学研究室 博士前期課程2年 

 

(内容は、2022年7月取材当時のものです。)


高田さんは、筑波大学 生命環境学群 地球学類在籍時に都市・山岳気象学研究室に入り、日下博幸 教授の指導のもとで研究を続けています。

今の研究室に進んだ理由

中学生の頃、姉が進路のことを考え始めたのをきっかけに、「自分は何をしよう、何に一番興味が持てるかな」と考え始めました。それで、日々の天気予報だったり、雲とか気象現象だったりを見るのが好きだなと気づいて、気象の道に行きたいと思い始めました。
研究室を選ぶ時には、身近な気象現象を研究テーマにしたいなと思っていました。日下先生や先輩たちが富士山にできる雲の研究を楽しそうにやっていたので、私も一緒に研究したいと思い、今の研究室を選びました。

 

どんな研究をしているの?

富士山周辺に出現する「吊るし雲」という雲について研究をしています。「吊るし雲」とは、山の風下にできるレンズ状の雲で、普通の雲とは違って風に流されることなく、同じ場所に浮かんでいる雲です。この「吊るし雲」がどんな気象条件で発生するのかを、雲の動画とコンピュータシミュレーションによって調べています。
「吊るし雲」は、風が山に当たる時に生まれる山岳波という波によって発生し、また風が強くて湿度が高い時に発生するといわれています。しかしながら、その発生メカニズムには、まだまだ分かっていないこともたくさんあります。
雲というとても身近な現象であるにもかかわらず、未解明な問題があることを知り、その謎の解明に挑戦したいなと思って研究をしています。

富士山と吊るし雲
富士山と吊るし雲 (富士市役所ライブカメラhttp://www2.city.fuji.shizuoka.jp/livehistory/19/09/24/08.jpg より)

研究をすること、ここが魅力!

答えのない問いに挑み、自分でその答えを導くというところが面白いなと感じています。今まで誰も知らなかった、分からなかったことを、自分の手で明らかにできることはすごく魅力的です。また、自分で明らかにできた時の達成感と喜びはとても大きいです。

 

高校ではどんな勉強をしていたの?

大学では気象について学び、将来は気象に関わる仕事に就きたいと考えていたので、気象を学べる環境が充実している筑波大学が第一志望でした。筑波大学に入るため、高校時代はとにかく受験勉強をしていました。(特に気象の勉強はしていなかったです。)
筑波大学は気象を研究している先生の数がとても多く、指導教員の先生に丁寧な指導をしてもらえるのはもちろんのこと、さらに周辺分野の気象の先生たちからも指導を受けられるので、気象の研究をするのにとても良いところです。

 

メッセージ

自分が興味を持てる分野、行きたい大学をぜひ見つけてください! そして、大学では興味を持てる研究テーマに出会えるといいですね!
大学では一つの学問分野でもいくつも研究室があったり、一つの研究室でも様々な研究テーマを扱っていたりします。その中から、皆さんが興味の持てる研究テーマに出会い、そのテーマについて研究できることを祈っています!

 

 

【CCSで学ぶ】一覧に戻る

 

↓ インタビュー動画もあります。

JAPAN-KOREA Winter School 2022

Course Overview

High performance computing is the basic technology needed to support today’s large scale scientific simulations. It covers a wide variety of issues on hardware and software for high-end computing such as high speed computation, high speed networking, large scale memory and disk storage, high speed numerical algorithms, programming schemes and the system softwares to support them. Current advanced supercomputer systems are based on large scale parallel processing systems. Nowadays, even application users are required to understand these technologies to a certain level for their effective utilization. In this class, we focus on the basic technology of high-end computing systems, programming, algorithm and performance tuning for application users who aim to use these systems for their practical simulation and computing.

Lecture Day and Location

Lecture Day: February 20 (Mon), 21 (Tue), 2023
Location: Hybrid form
  Onsite: International Workshop Room, Center for Computational Sciences (Access)
  Online: Zoom (Zoom link will be sent by email.)

Schedule

  Feb. 20 (Mon) Feb. 21 (Tue)
09:00 – 10:30 Fundamentals of HPC and Parallel Processing Parallel Programming 2: OpenMP
10:45 – 12:15 Parallel Processing Systems Parallel Numerical Algorithm 1
13:30 – 15:00 Parallel Programming 1: MPI Parallel Numerical Algorithm 2
15:15 – 16:45 Optimization 1: Communication Optimization Optimization 2: Computation Optimization

Contents

  Lecture name Contents Instructor
1 Fundamentals of HPC and Parallel Processing Amdahl’s law, Parallelization methods (EP, Data parallelism, Pipeline parallelism), Communication, Synchronization, Parallelization efficiency, Load balance. Taisuke Boku
2 Parallel Processing Systems Parallel processing systems (SMP, NUMA, Cluster, Grid, etc.), Memory hierarchy, Memory bandwidth, Network, Communication bandwidth, Delay. Ryohei Kobayashi
3 Parallel Programming 1: MPI Parallel programming language MPI. Norihisa Fujita
4 Optimization 1: Communication Optimization Optimization techniques and performance evaluation of parallel programming on parallel processing systems. Osamu Tatebe
5 Parallel Programming 2: OpenMP Parallel programming model, parallel programming language OpenMP. Akira Nukada
6 Parallel Numerical Algorithm 1 Krylov subspace iterative methods and their parallelization methods. Hiroto Tadano
7 Parallel Numerical Algorithm 2 Fast Fourier Transformation (FFT) and its parallelization methods. Daisuke Takahashi
8 Optimization 2: Computation Optimization Program optimization techniques (Register blocking, Cache blocking, Memory allocation, etc.) and performance evaluation on a compute node of parallel processing systems. Daisuke Takahashi

*本セミナーは,筑波大学理工情報生命学術院共通専門基盤科目「High Performance Parallel Computing Technology for Computational Sciences」(0AH0209)と共通です. 本セミナーを授業として受講する方は,TWINS で履修登録して下さい.

 

 

JAPAN-KOREA HPC Winter School 2022

Course Overview

High performance computing is the basic technology needed to support today’s large scale scientific simulations. It covers a wide variety of issues on hardware and software for high-end computing such as high speed computation, high speed networking, large scale memory and disk storage, high speed numerical algorithms, programming schemes and the system softwares to support them. Current advanced supercomputer systems are based on large scale parallel processing systems. Nowadays, even application users are required to understand these technologies to a certain level for their effective utilization. In this class, we focus on the basic technology of high-end computing systems, programming, algorithm and performance tuning for application users who aim to use these systems for their practical simulation and computing.

Lecture Day and Location

Lecture Day: February 20 (Mon), 21 (Tue), 2023
Location: Hybrid form
  Onsite: International Workshop Room, Center for Computational Sciences (Access)
  Online: Zoom (Zoom link will be sent by email.)

Schedule

  Feb. 20 (Mon) Feb. 21 (Tue)
09:00 – 10:30 Fundamentals of HPC and Parallel Processing Parallel Programming 2: OpenMP
10:45 – 12:15 Parallel Processing Systems Parallel Numerical Algorithm 1
13:30 – 15:00 Parallel Programming 1: MPI Parallel Numerical Algorithm 2
15:15 – 16:45 Optimization 1: Communication Optimization

Optimization 2: Computation Optimization

Contents

  Lecture name Contents Instructor
1 Fundamentals of HPC and Parallel Processing Amdahl’s law, Parallelization methods (EP, Data parallelism, Pipeline parallelism), Communication, Synchronization, Parallelization efficiency, Load balance. Taisuke Boku
2 Parallel Processing Systems Parallel processing systems (SMP, NUMA, Cluster, Grid, etc.), Memory hierarchy, Memory bandwidth, Network, Communication bandwidth, Delay. Ryohei Kobayashi
3 Parallel Programming 1: MPI Parallel programming language MPI. Norihisa Fujita
4 Optimization 1: Communication Optimization Optimization techniques and performance evaluation of parallel programming on parallel processing systems. Osamu Tatebe
5 Parallel Programming 2: OpenMP Parallel programming model, parallel programming language OpenMP. Akira Nukada
6 Parallel Numerical Algorithm 1 Krylov subspace iterative methods and their parallelization methods. Hiroto Tadano
7 Parallel Numerical Algorithm 2 Fast Fourier Transformation (FFT) and its parallelization methods. Daisuke Takahashi
8 Optimization 2: Computation Optimization Program optimization techniques (Register blocking, Cache blocking, Memory allocation, etc.) and performance evaluation on a compute node of parallel processing systems. Daisuke Takahashi

2022 CCS-KISTI Workshop

Date: Feb. 22nd (Wed),  2023
Venue: CCS Meeting Room A

9:00 Dr. Taisuke Boku CCS research activity update
9:15 Dr. Jihoon Kang Parallel and scalable tri-diagonal matrix algorithm for CFD applications
9:35 Dr. Daisuke Takahashi Implementation of Parallel Number-Theoretic Transform on Manycore Clusters
9:55 Dr. Oh-Kyoung Kwon Efficient task-mapping of parallel applications using a space-filling curve
10:15    
10:25 Dr. Sangjae Seo Simulation studies of nanomaterials using Nurion supercomputer
10:45 Dr. Kazuhiko Yabana Development and applications of SALMON: first-principles computations in optical science
11:05 Dr. Hee Jin Jung Introduction to Fake Movie Generator to Train Data-driven AI Models for Applying to A Smart Intersection
11:25 Dr. Mitsuo Shoji Unique reaction mechanism of copper amine oxidase revealed by theoretical QM/MM and experimental approaches
11:45    
13:00 Dr. John Bosco Mugeni A graph-based blocking approach for entity matching using contrastively learned embeddings
13:20 Dr. Jung Woo Park Research on Computer-Aid Drug Design for New Scaffold-based Drug Development
13:40    

 

*Please wear a mask, take your temperature, and sanitize your hands when entering.
Please refrain from participating if you are not feeling well due to a cold or fever.

2022 CCS-KISTI ワークショップ

韓国 KISTI(韓国科学技術情報研究院)と対面の研究交流会を開催します。

Date: Feb. 22nd (Wed),  2023
Venue: CCS Meeting Room A

9:00 Dr. Taisuke Boku CCS research activity update
9:15 Dr. Jihoon Kang Parallel and scalable tri-diagonal matrix algorithm for CFD applications
9:35 Dr. Daisuke Takahashi Implementation of Parallel Number-Theoretic Transform on Manycore Clusters
9:55 Dr. Oh-Kyoung Kwon Efficient task-mapping of parallel applications using a space-filling curve
10:15    
10:25 Dr. Sangjae Seo Simulation studies of nanomaterials using Nurion supercomputer
10:45 Dr. Kazuhiko Yabana Development and applications of SALMON: first-principles computations in optical science
11:05 Dr. Hee Jin Jung Introduction to Fake Movie Generator to Train Data-driven AI Models for Applying to A Smart Intersection
11:25 Dr. Mitsuo Shoji Unique reaction mechanism of copper amine oxidase revealed by theoretical QM/MM and experimental approaches
11:45    
13:00 Dr. John Bosco Mugeni A graph-based blocking approach for entity matching using contrastively learned embeddings
13:20 Dr. Jung Woo Park Research on Computer-Aid Drug Design for New Scaffold-based Drug Development
13:40    

 

*センター内への立ち入りに際しては、マスクの着用・検温・手指の消毒を行い、風邪症状等の体調不良の方は立ち入りをご遠慮ください。

令和4年度 年次報告会(2023年2月24日)

日時:2023年2月24日(金) 8:30~18:00
会場:Zoom

計算科学研究センター 令和4年度年次報告会を行います。

プログラム

発表時間は、新任者(*印)は15分、それ以外の方は12分です(質疑応答、交代時間含む)

セッション1 (8:30-9:51 座長:萩原聡)

8:30      *清水 則孝                    (原子核物理研究部門)

8:45       *福島 肇                    (宇宙物理研究部門)

9:00       *Kowit Hengphasatporn(生命科学研究部門)

9:15        多田野 寛人                (高性能計算システム研究部門)

9:27        Tong Xiao-Min            (量子物性研究部門)

9:39        Alexander Wagner       (宇宙物理研究部門)

セッション2  (9:51-11:15 座長:福島肇)

9:51         中務 孝        (原子核物理研究部門)

10:03       森 正夫             (宇宙物理研究部門)

10:15       日野原 伸生             (原子核物理研究部門)

10:27       中山 卓郎           (生命科学研究部門)

10:39       日下 博幸           (地球環境研究部門)

10:51       萩原 聡        (量子物性研究部門)

11:03       小林 諒平       (高性能計算システム研究部門) 

セッション3  (11:15-12:39 座長:小林諒平)

11:15       藏増 嘉伸      (素粒子物理研究部門)

11:27       矢島 秀伸      (宇宙物理研究部門)

11:39       田中 博                 (地球環境研究部門)

11:51       大谷 実                 (量子物性研究部門)

12:03       堀江 和正       (計算情報学研究部門)

12:15       北原 格       (計算情報学研究部門)

12:27       原田 隆平      (生命科学研究部門)

セッション4    (12:39-14:15 座長:佐藤駿丞)

12:39       宍戸 英彦       (計算情報学研究部門)

12:51       吉川 耕司          (宇宙物理研究部門)

13:03       稲垣 祐司               (生命科学研究部門)

13:15       矢花 一浩               (量子物性研究部門) 

13:27       松枝 未遠               (地球環境研究部門)

13:39       高橋 大介               (高性能計算システム研究部門) 

13:51       前島 展也                 (量子物性研究部門)

14:03       塩川 浩昭                (計算情報学研究部門)

セッション5    (14:15-15:39 座長:庄司光男

14:15        大須賀 健          (宇宙物理研究部門)

14:27        吉江 友照          (素粒子物理研究部門)

14:39        小泉 裕康          (量子物性研究部門)

14:51        堀 優太           (生命科学研究部門)

15:03       Doan Quang van   (地球環境研究部門)

15:15        朴 泰祐              (高性能計算システム研究部門)

15:27        天笠 俊之           (計算情報学研究部門)

セッション6     (15:39-16:39 座長:堀優太)

15:39         Savong Bou          (計算情報学研究部門)

15:51         石塚 成人             (素粒子物理研究部門)

16:03          佐藤 駿丞            (量子物性研究部門)

16:15          庄司 光男            (生命科学研究部門) 

16:27          藤田 典久            (高性能計算システム研究部門)

セッション7 (16:39-17:44 座長:Savong Bou)

16:39          大野 浩史        (素粒子物理研究部門)

16:51          梅村 雅之        (宇宙物理研究部門)

17:03          重田 育照        (生命科学研究部門)

17:15          額田 彰           (高性能計算システム研究部門)

17:27          亀田 能成        (計算情報学研究部門)   

17:39          朴 泰祐               (センター長)

 

スーパーコンピュータPegasusの理論ピーク性能を公開

Intel社の最新CPU、第4世代Xeonスケーラブル・プロセッサの製品発表に伴い、2022年12月に試験稼働を開始したスーパーコンピュータPegasusの理論ピーク性能が公開となりました。
Pegasusは120ノードの計算ノードで構成され、全体の理論ピーク性能は6.5 PFlopsとなります。

Pegasusについて詳しくはこちらをご覧ください。

 

 

The theoretical peak performance of the Pegasus supercomputer is released

With the product launch of Intel’s latest CPU, the 4th generation Xeon scalable processor, the theoretical peak performance of the Pegasus supercomputer, which began test operation in December 2022, is now available.
Pegasus will consist of 120 compute nodes with an overall theoretical peak performance of 6.5 PFlops.

For more information, please see the following link.

Supercomputers

【受賞】原田准教授が第 50 回 構造活性相関シンポジウムSAR Presentation Awardを受賞

原田准教授が、2022年11月10-11日にオンラインで開催された第 50 回 構造活性相関シンポジウム(主催:日本薬学会・構造活性相関部会)において優秀発表賞(SAR Presentation Award)を受賞しました。
 
発表タイトル:化合物の膜透過プロセスを紐解く自由エネルギー計算手法の開発
著者:原田隆平, 森田陸離, 重田育照
 
 
 
 

[ウェブリリース] 薬剤の膜透過メカニズムを解明する計算手法を提案

2022年12月28日
筑波大学 計算科学研究センター

概要

病気の原因となるタンパク質に薬剤が結合し作用するためには、薬剤が生体外から様々なステップを踏んで生体内へ取り込まれる必要があります。中でも、細胞膜を通り抜けて細胞内に侵入する過程は重要であり、この膜透過メカニズムの解明は効率よくはたらく薬剤をデザインする上で重要です。膜透過のプロセスを精度良く調べるための計算科学的手法として、分子動力学計算(MD)に期待がかけられています。MDは薬剤がどのように膜を透過するのかを原子レベルで解明する可能性を持ちます。しかし、薬剤が膜透過するプロセスをMDで観察するには秒(100 s)以上の時間スケールを必要とするのに対して、現状のMDでは長くてもマイクロ秒(10-6 s)程度のシミュレーションを行うのが限界です。そこで本研究では、計算手法を工夫することにより現実的な計算コストで膜透過のプロセスを観察することに成功しました。それにより、膜透過性を定量的に示す膜透過係数を精度良く見積もることができました。

研究内容と成果

MDで観測可能な時間の間に薬剤はごく低い確率で膜を透過します。そのため従来の手法では、長時間のMDを行って運良く膜透過プロセスが観察されるのを待つしか無く、不確実性が高く効率も良くないという問題がありました。私達のグループでは、これまで開発してきたオリジナルの計算手法(PaCS-MD(注1)、OFLOOD(注2))を活用することで、MDの問題点の解決を目指しました。これらの計算手法は①短い時間のMDを繰り返し行い、②良い初期状態を抽出する、という特徴があります。本手法では、良い初期状態、つまり膜透過しそうな構造を選び出して短時間MDを繰り返すことによって、従来の手法では観察困難な膜透過プロセスを効率よく抽出することができます。
実際に計算性能を評価するために7種類の薬剤について膜透過プロセスを抽出しました。この時、多数の短時間MDを統計的に処理することによって膜透過の効率を定量的に示す膜透過係数を算出したところ、7種類すべての薬剤について実験値と計算値が高い一致を示しました。このことから、私達の開発した手法を適用することにより現実的な計算コストで薬剤の膜透過プロセスを抽出でき、同時に膜透過係数を精度良く見積もることができることが示されました。

今後の展開

予測される研究展開としては、中分子医薬の開発に貢献することが期待できます。環状ペプチド(注3)をはじめとする中分子医薬品は、薬効が高く製造コストが低いという多くの利点を持つことから次世代の医薬品として期待されています。環状ペプチドは従来の医薬品と比べてフレキシブルな構造をとるため、分子のダイナミクスによる影響を観測できるMDを利用することで、膜透過プロセスを詳細に理解することができます。これにより膜透過性が高い環状ペプチドの評価とそのメカニズムを調べることができれば、実験に先立って創薬設計の指針を提供することができ、中分子医薬品の発展に大きく貢献することが期待されます。

図1:薬剤の膜透過プロセスは、分子シミュレーションによって評価できる。
図1:薬剤の膜透過プロセスは、分子シミュレーションによって評価できる。

 

図2:本研究で開発した計算手法の概略図。計算コストを必要とする従来法と比較して、膜透過プロセスを効率的に抽出できる。
図2:本研究で開発した計算手法の概略図。計算コストを必要とする従来法と比較して、膜透過プロセスを効率的に抽出できる。

 

用語解説

注1)PaCS-MD:短時間のMDを繰り返しながら、最適な構造を選び続けることで効率よくタンパク質の構造変化を抽出する計算手法

注2)OFLOOD:短時間のMDを繰り返しながら、未知の構造(外れ値)を探索し続けることで多様な構造を抽出する計算手法

注3)環状ペプチド:タンパク質はアミノ酸が直鎖としてつながったものであるが、アミノ酸が環状につながった化合物。生体内での安定性が高く、標的への特異性が高いことから代表的な中分子医薬品として注目されている。

研究資金

本研究は、科研費(21K06094)、住友財団(基礎科学研究助成)、筑波大学計算科学研究センター学際共同利用プログラムによって実施されました。

掲載論文情報

【題 名】 Free-energy Profiles for Membrane Permeation of Compounds Calculated Using Rare-Event Sampling
【著者名】 Ryuhei Harada, Rikuri Morita, Yasuteru Shigeta
【掲載誌】 Journal of Chemical Information and Modeling
【掲載日】 2022年12月28日
【DOI】      DOI: 10.1021/acs.jcim.2c01097
https://pubs.acs.org/doi/10.1021/acs.jcim.2c01097

 

プレスリリース全文はこちら

 

 

 

The University of Tsukuba announces plans for a New Big Memory Supercomputer “Pegasus” featuring upcoming 4th Gen Intel Xeon Scalable Processors, NVIDIA H100 PCIe GPU and Intel Optane Persistent Memory

 

Highlights

  • Plans to build with 4th Gen Intel Xeon Scalable processors (formerly codenamed Sapphire Rapids), NVIDIA H100 Tensor Core GPU with PCIe and 51TFlops of extreme performance, and Intel Optane persistent memory (codenamed Crow Pass) will strongly drive big data and AI
  • The world’s first system with NVIDIA H100 GPUs connected via PCIe Gen5
  • The first system announced in Japan that will utilize NVIDIA Quantum-2 400Gb/s InfiniBand networking

 

Tsukuba, Japan – December 22, 2022 – The Center for Computational Sciences at the University of Tsukuba announces plans for a new big memory supercomputer Pegasus manufactured by NEC.  The new supercomputer will be one of the first systems in the world to introduce 4th Gen Intel Xeon Scalable processors (formerly codenamed Sapphire Rapids), Intel Optane persistent memory (codenamed Crow Pass), and the NVIDIA H100 Tensor Core GPU with 51TFlops of breakthrough acceleration.

NVIDIA H100 PCIe GPU is the latest GPU announced in March, 2022 with a theoretical peak performance of 51 TFlops in double precision floating point operations.  Pegasus is the first to offer the latest high-bandwidth PCIe Gen5 connection to H100 GPU. Networking utilizes the latest NVIDIA Quantum-2 400 Gb/s InfiniBand networking platform with advanced in-network computing acceleration engines. Utilizing the world’s newest technology such as the Memory bandwidth and I/O bandwidth increased by DDR5 and PCIe Gen5, the University of Tsukuba will strongly support HPC, big data and AI.

To drive big data analytics and ultra-large scale AI, not only high computing performance is required, but also high-bandwidth large memory and ultra-fast storage systems; Pegasus has introduced H100 GPUs, DDR5 memory, and persistent memory to solve this problem. The H100 GPU is 2.7 times faster in computing performance than the current A100 GPU, and DDR5 memory provides twice the memory bandwidth of conventional DDR4 memory. The Center of Computational Sciences has been offering solutions with Intel Xeon processors and Intel Optane persistent memory since 2020 to research partners.  Based on previous generations of Intel Optane persistent memory, allowing direct access to persistent data structures has potential to significantly improve application performance.  In addition, unlike DRAM, persistent memory does not require refresh to retain data, thus dramatically reducing power consumption compared to DRAM of the same capacity.  Moreover, memory expansion with persistent memory enables calculations with memory sizes that exceed DRAM capacity, and the performance of computational science applications remains largely unchanged.

The effectiveness of compute accelerators (GPUs) in HPC, data-driven science, and AI-driven science has already been demonstrated, and Pegasus has been designed to incorporate state-of-the-art CPUs, GPUs, memory, and persistent memory, connected via a state-of-the-art network.

Pegasus consists of 120 compute nodes, and the overall theoretical peak performance of the GPU part alone exceeds 6.1 PFlops. The Center for Computational Sciences at the University of Tsukuba, as a Joint Usage / Research Center, will make Pegasus available to users around the world through various usage programs such as Interdisciplinary Collaborative Use, HPCI Collaborative Use, and General Use, thereby contributing to the further development of computational science.

 

“Big data and AI applications are one of the most important research topics in addition to the high performance computational sciences which we have been focusing on so far. Introducing a new machine with a large-capacity memory system and high-performance AI processing should be our new tools to expand our research field toward excellent data science,” said Taisuke Boku, Director of the Center for Computational Sciences, the University of Tsukuba.

 

“Data-driven and AI-driven science requires large memory size and storage performance, but memory capacity per CPU core has decreased for a decade,” said Osamu Tatebe, professor at the Center for Computational Sciences, the University of Tsukuba.  “That is why we introduce NVIDIA H100 PCIe GPU, DDR5, and persistent memory in compute nodes to accelerate large-scale data analysis and big data for better cost performance, power consumption, and application performance.  Also, we foster new fields of large-scale data analysis, new applications of big data AI, and system software research.”

 

“NEC is very honored to announce that the Center for Computational Sciences at the University of Tsukuba adopted NEC LX-Series as their new supercomputer,” said Yasuo Mogaki, Managing Director, NEC Advanced Platform Division.  “This system is World’s first system that delivers revolutionary acceleration applying Intel’s next generation Xeon CPU, Optane memory and NVIDIA’s H100 GPU.  NEC will contribute to advanced computational science by combining our technological capabilities.”

 

“We are very excited that the University of Tsukuba plans to build their new supercomputer with the upcoming 4th Gen Intel Xeon Scalable processor and Optane persistent memory 300 series, showcasing the value that Intel Architecture brings to high performance computing” said Don Cunningham, Vice President & General Manager, Data Center and AI Group at Intel.

 

“As supercomputing enters the era of exascale HPC and AI, NVIDIA enables researchers to tackle massive challenges using NVIDIA H100 GPUs,” said Ian Buck, vice president of Hyperscale and HPC at NVIDIA. “The selection by the University of Tsukuba will enable researchers to deliver the same AI performance with 3.5x more energy efficiency and 3x lower total cost of ownership.”

 

“It is our great pleasure to support the innovative Pegasus project at Tsukuba University. We look forward to working with the team at Tsukuba University towards better integrating emerging memory architectures and node-local persistent storage solutions with global shared storage” said Robert Triendl, President of DataDirect Networks Japan, Inc.

 

Planned Specifications

System name

Pegasus

Manufacture

NEC

Total performance

> 6.1 PFlops

Number of nodes

120

Interconnects

Full bisection fat-tree network interconnected by the NVIDIA Quantum-2 InfiniBand platform

Parallel file system

7.1PB DDN EXAScaler (40 GB/s throughput)

Compute node

CPU

4th Gen Intel Xeon Scalable processor formerly codenamed Sapphire Rapids (48c)

GPU

NVIDIA H100 Tensor Core GPU with PCIe Gen5 (51 TFlops in FP64 Tensor Core, 80GB HBM2E, 2 TB/s)

Memory

128GiB DDR5 (282 GB/s)

Persistent memory

Intel Optane persistent memory (codenamed Crow Pass)

SSD

2 x 3.2TB NVMe SSD (7 GB/s)

Networking

NVIDIA Quantum-2 InfiniBand platform (200 Gb/s)

 

About the Center for Computational Sciences, the University of Tsukuba

For more information, go to www.ccs.tsukuba.ac.jp

 
*Intel, the Intel logo, and other Intel marks are trademarks of Intel Corporation or its subsidiaries.

ビッグメモリスーパコンピュータPegasusの試験稼働開始 〜第4世代Intel Xeon、NVIDIA H100 PCIe GPU、Intel不揮発性メモリを搭載〜

2022年12月22日
国立大学法人 筑波大学

概要

筑波大学計算科学研究センターは、新たなスーパコンピュータPegasus(ペガサス)の試験稼働の開始を発表しました。演算性能、メモリ帯域幅注1)、メモリサイズを大きく向上させ、計算科学のみならずビッグデータ解析、超大規模AI分野を強力に推進します。
Pegasusに搭載される演算加速装置(GPU)は、倍精度浮動小数点演算注2)における理論ピーク性能が51 TFlops注3)(従来よりも2.7倍高速)であり、CPU(中央演算処理装置)と高帯域幅のPCIe Gen5注4)により世界で初めて接続されます。DDR5メモリ注5)(従来よりも約2倍高速)、不揮発性メモリ注6)を搭載し、大容量メモリまたは超高速ストレージとしての利用が可能です。また、ネットワークについても最新の400Gbpsネットワークプラットフォームを利用します。
Pegasusは120ノードの計算ノードで構成され、全体の理論ピーク性能はGPU部分だけでも6.1 PFlopsを超えます。筑波大学計算科学研究センターは、共同利用・共同研究拠点として、学際共同利用、HPCI注7)共同利用、一般利用などの各種利用プログラムにより、Pegasusを全世界のユーザに提供し、さらなる計算科学の発展に寄与します。

 プレスリリース全文はこちら

仕様 

システム名称

Pegasus

製造

NEC

全体性能

> 6.1 PFlops

ノード数

120

ネットワーク

NVIDIA Quantum-2 InfiniBandプラットフォームによるフルバイセクションファットツリーネットワーク

並列ファイルシステム

7.1PB DDN EXAScaler (帯域幅40 GB/s)

計算ノード

CPU

第4世代Intel Xeonスケーラブルプロセッサ(旧コードネームSapphire Rapids)(48コア)

GPU

NVIDIA H100 PCIe GPU (FP64テンソルコア演算51 TFlops、80GB HBM2E、2 TB/s)

メモリ

128GiB DDR5 (282 GB/s)

不揮発性メモリ

Intel Optane不揮発性メモリ(コードネームCrow Pass)

SSD

2 x 3.2TB NVMe SSD (7 GB/s)

ネットワーク

NVIDIA Quantum-2 InfiniBandプラットフォーム (200 Gbps)

 

本スーパコンピュータについてのコメント 

筑波大学計算科学研究センター長 朴泰祐教授
「ビッグデータやAIは、これまで注力してきた高性能計算科学と並ぶ重要な研究テーマの一つです。大容量メモリと高性能なAI処理機能を備えた新型マシンを導入することで、優れたデータサイエンスに向けて研究領域を拡大するための新たなツールとなるはずです。」

筑波大学計算科学研究センター高性能計算システム運用開発室長 建部修見教授
「データ駆動型科学やAI駆動型科学では、これにより、消費電力を抑えつつコストパフォーマンスに優れながら、高帯域の大容量メモリ、超高速ストレージの要求を満たすことができ、アプリケーション性能の向上が図れます。 また、不揮発性メモリを活用した大規模データ解析の新分野、ビッグデータ・AIの新用途、システムソフトウェア研究なども育成していきます。」

NEC先端プラットフォーム事業部門マネージングディレクター 茂垣泰夫氏
「この度、筑波大学計算科学研究センター様がビッグメモリスーパコンピュータシステムとして、当社のLXシリーズを導入いただきまして、大変光栄です。今回のシステムは、Intelの次期 Xeon CPU、次期 Optane 不揮発性メモリ、NVIDIAの最新GPUからなる、画期的なアクセラレーションを実現する世界初のシステムであり、当社が持つ技術力を結集して、先進的な計算科学に貢献してまいります。」

IntelデータセンタAIグループVP兼GM ドンカニングハム氏
「筑波大学が、今後発売予定の第4世代インテルXeonスケーラブルプロセッサとOptane不揮発性メモリ300シリーズで新しいスーパコンピュータの構築を計画していることを大変うれしく思っております。これはIntelアーキテクチャが高性能コンピュータにもたらす価値を実証しています。」

NVIDIAハイパースケールとHPC VP イアンバック氏
「エクサスケールHPCとAIの時代に突入する中、NVIDIAはNVIDIA H100 GPUを使用して研究者が大規模な課題に取り組むことを可能にします。筑波大学が採用したことで、研究者は同じAIパフォーマンスを3.5倍のエネルギー効率と3倍の総所有コスト削減で実現できるようになります。」

株式会社データダイレクト・ネットワークス・ジャパン 代表取締役社長 ロベルト・トリンドル氏
「この度DDNは筑波大学計算科学研究センター様の革新的なPegasusプロジェクトをご支援できることを大変光栄に思います。
筑波大学のチームの皆様と協力して、新しいメモリアーキテクチャとローカルノードにおける永続的メモリなどを利用するストレージソリューションをグローバルな共有ストレージとより良い統合を目指すことを楽しみにしています。」