【仁科記念賞授賞式】青木慎也教授、石井理修准教授が仁科記念賞(2012年度)を受賞しました

公益財団法人仁科記念財団 2012年度仁科記念賞の授賞式・懇談会が、12月6日(木)、東京會舘で行われました。筑波大学計算科学研究センターの青木慎也(あおき・ しんや)教授、石井理修(いしい・のりよし)准教授、理化学研究所仁科加速器研究センターの初田哲男(はつだ・てつお)主任研究員の3人が受賞理由「格子量子色力学に基づく核力の導出」により選ばれ、賞状、副賞を受け取りました。

表彰式に続く受賞講演では、3人が役割分担をしました。“過去”を担当した初田主任研究員は研究分野の背景について説明し、“現在”を担当した青木教授は受賞理由となった研究の経緯について紹介し、“未来”を担当した石井准教授が今後の展望を語って最後を締めました。

受賞者(前列)と財団関係者(後列)の記念撮影。左から2人目が石井准教授、4人目に青木教授、6人目が初田主任研究員。2012度はほかに、東北大学・井上邦雄教授「地球内部起源反ニュートリノの検出」(右端)、東京工業大学・細野秀雄教授「鉄系超伝導体の発見」(右から3人目)が仁科記念賞を受賞しました。

青木慎也教授の受賞コメント
「日本の素粒子物理学の研究者にとって最も権威がある仁科記念賞に選ばれ、光栄であると同時に身の引き締まる思いです。今まで私の研究を支えてくれた多くの方々に感謝します。筑波大学の素粒子論研究室は、仁科記念賞受賞者である原 康夫先生、岩崎洋一先生、宇川 彰先生、故 梁成吉先生という蒼々たる方々が在籍され、その居室があった自然学系D棟4階は「仁科賞通り」という異名があるほどです。
現在の私の研究室は、その「仁科賞通り」にあり、これまで“肩身の狭い”思いをしてきましたが、この度、その末席に加わることが出来てほっとしています。しかし、これらの方々に比べるとまだまだ未熟である私は、諸先輩に追いつくために一層の努力をしていきたいと思います。」

石井理修准教授の受賞コメント
「この度は、仁科記念賞という素晴らしい賞を賜り、身に余る光栄に思います。当初は定性的な事実を再現できれば上出来と思っていたのですが、様々な助言をいただくことにより発展を遂げ、現在では定量的な問題への適用も視野に入れつつあります。今回の受賞を励みにして、理研のスーパーコンピュータ「京」やKEKの「Blue Gene/Q」を始めとする強力なスパコンを使用し、格子量子色力学に基づいた原子核物理の研究を、新しい仲間達と協力して進めていきたいと思います。」

関連リンク

高エネルギー加速器研究機構:スパコンユーザが仁科記念賞を受賞

筑波大学計算科学研究センター GPUプログラミング講習会 ~第4回 PGI CUDA Fortran によるGPUプログラミング~(2012年12月21日)

本講習会は終了しました。資料をアップロードしました。(12/25) 

 筑波大学計算科学研究センターでは2012年1月に超並列GPUクラスタHA-PACSを導入し、同年10月より「学際共同利用」プログラムの下、プロジェクト公募に基づく一般無償公開利用を行っています。これに伴い、並列GPUクラスタにおけるプログラミング講習会を行ってきました。
 今回、この一環として、HA-PACS で利用可能となっている PGI CUDA Fortran を用いた並列GPUプログラミングをテーマとして「第4回GPUプログラミング講習会」を開催致します。これまでは計算科学研究センター内の講習会でしたが、今回は一般公開セミナーの形式で講習会を行います。学際共同利用で実際にHA-PACSを利用されている方はもちろん、PGI CUDA Fortranによる大規模並列GPUプログラミングに興味のある方はどなたでも参加頂けます。参加費は無料ですが、資料の準備の都合上、事前参加登録をお願いします。

・主催
 筑波大学計算科学研究センター HA-PACSプロジェクト次世代計算システム開発室
 https://www.ccs.tsukuba.ac.jp/research_project/ha-pacs/

・内容
 PGI CUDA Fortran の機能・概要・利用方法
 PGI CUDA Fortran を用いた並列GPUプログラミングの事例紹介
 HA-PACS上での利用方法の紹介(実習は伴いません)

・講習会資料
 講習会スライド(pdf)
 サンプルコード

・対象・前提知識
 本センター学際共同利用のプロジェクト研究者の参加を推奨しますが、一般の方も自由にご参加頂けます。
(事前登録をお願いします)
 NVIDIA GPU、CUDAプログラミング、MPIプログラミングの基本知識をお持ちの方を対象とします。

・参加要領
 日時:平成24年12月21日(金)13:30~15:30
 場所:筑波大学計算科学研究センター 国際ワークショップ室
    https://www.ccs.tsukuba.ac.jp/access/
 参加人数:80名まで
 参加申込方法:
    会場及び資料準備の都合上、必ず事前登録をお願いします
    (終了しました)

・お問い合わせ
 本件に関するお問い合わせは gpulec [at] ccs.tsukuba.ac.jp までメールにて
 お願いします。

第4回GPUプログラミング講習会

筑波大学計算科学研究センター GPUプログラミング講習会
~第4回 PGI CUDA Fortran によるGPUプログラミング~

本講習会は終了しました。資料をアップロードしました。(12/25) 

 筑波大学計算科学研究センターでは2012年1月に超並列GPUクラスタHA-PACSを導入し、同年10月より「学際共同利用」プログラムの下、プロジェクト公募に基づく一般無償公開利用を行っています。これに伴い、並列GPUクラスタにおけるプログラミング講習会を行ってきました。
 今回、この一環として、HA-PACS で利用可能となっている PGI CUDA Fortran を用いた並列GPUプログラミングをテーマとして「第4回GPUプログラミング講習会」を開催致します。これまでは計算科学研究センター内の講習会でしたが、今回は一般公開セミナーの形式で講習会を行います。学際共同利用で実際にHA-PACSを利用されている方はもちろん、PGI CUDA Fortranによる大規模並列GPUプログラミングに興味のある方はどなたでも参加頂けます。参加費は無料ですが、資料の準備の都合上、事前参加登録をお願いします。

・主催
 筑波大学計算科学研究センター HA-PACSプロジェクト次世代計算システム開発室
 http://www.ccs.tsukuba.ac.jp//research_promotion/jisedai

・内容
 PGI CUDA Fortran の機能・概要・利用方法
 PGI CUDA Fortran を用いた並列GPUプログラミングの事例紹介
 HA-PACS上での利用方法の紹介(実習は伴いません)

・講習会資料
 講習会スライド(pdf)
 サンプルコード

・対象・前提知識
 本センター学際共同利用のプロジェクト研究者の参加を推奨しますが、一般の方も自由にご参加頂けます。
(事前登録をお願いします)
 NVIDIA GPU、CUDAプログラミング、MPIプログラミングの基本知識をお持ちの方を対象とします。

・参加要領
 日時:平成24年12月21日(金)13:30~15:30
 場所:筑波大学計算科学研究センター 国際ワークショップ室
    http://www.ccs.tsukuba.ac.jp/access
 参加人数:80名まで
 参加申込方法:
    会場及び資料準備の都合上、必ず事前登録をお願いします
    (終了しました)

・お問い合わせ
 本件に関するお問い合わせは gpulec [at] ccs.tsukuba.ac.jp までメールにて
 お願いします。

次世代超省エネメモリの動作機構を電子レベルで解明 -抵抗変化型メモリ設計指針を計算科学によって構築-

 

プレスリリース

次世代超省エネメモリの動作機構を電子レベルで解明
-抵抗変化型メモリ設計指針を計算科学によって構築- 

 

2012年12月3日
国立大学法人筑波大学

概要

筑波大学計算科学研究センターの神谷克政助教、数理物質科学研究科・博士課程後期2年の梁文榮氏、白石賢二教授を中心とする研究グループは、次世代超省エネメモリの最有力候補である抵抗変化型メモリ(ReRAM)の動作機構を電子レベルで解明しました。ReRAMは、省エネルギー化社会実現の決め手となる待機電力ゼロのコンピュータ等の開発において、最も重要なメモリ素子と考えられています。ところが、これまで「ReRAMがなぜ動くのか」という物理的な視点から動作機構が解明されていなかったことが、超省エネメモリの開発上の大きな問題になっていました。今回、ReRAMの動作機構を電子レベルで解明したことで、ReRAMによる超省エネメモリの実現に向けた研究開発に大きなブレークスルーを与えることができました。
神谷助教らの研究グループは、筑波大学計算科学研究センターのスーパーコンピュータ「T2K-Tsukuba」などを用い、最先端の計算科学手法「第一原理計算」により、抵抗変化型メモリの物理的な機構を明らかにしました。この研究成果は、国際電子デバイス会議(IEEE International Electron Device Meeting:IEDM)会期中の2012年12月11日に発表されます。

1.研究の背景

情報化社会の一層の高度化が進行する中、コンピュータなどのIT機器が消費する電力は益々増大し、2025年には国内全体の20%を占めることが見込まれています。現在、これらの省エネルギー化に向け、コンピュータを構成する半導体メモリを、待機電力がゼロである超省エネ型の次世代メモリに置き換えることが考えられています。待機電力ゼロのメモリの最も身近な例は、USBメモリに代表されるフラッシュメモリです。しかし、超低電力化の点でより優れているのは、フラッシュメモリとは異なる原理で動作する抵抗変化型メモリ(ReRAM)です。
ReRAMは、電圧を加えると電気抵抗の値が変化する酸化物を、図1に示すように2枚の金属電極で挟み込んだ構造を持ちます。ここで、図1のように電極に電圧を加えて酸化物を通電させると、抵抗値が低い状態になります。一方、電圧の向きを変えて反対方向に電流を流すと、抵抗値が高い状態に変化します。このような抵抗値の変化は、ある一定以上の大きさの電圧で生じるため、それ以下の小さな電圧をかけることで抵抗状態を調べ(情報の読み出し)、大きい電圧をかけることで抵抗状態を変化(情報の書き込み・消去)させることができます。
ところが、これまで「ReRAMがなぜ動くのか」がわかっていませんでした。それが、超省エネメモリ実現に向けたReRAMの研究開発において大きな障害になっています。ReRAMを構成する酸化物中には、酸素原子の抜けた穴がバラバラに存在します。この穴は、ReRAMに電圧を加えると図2に示すように、集まって電流の通り道を作り(低抵抗状態)、電圧の向きを変えると電流の通り道の一部が切断される(高抵抗状態)ことが、電子顕微鏡を用いた実験などからわかってきています。ところが、電圧をかけるとなぜ酸素原子の抜けた穴が集まり、電流の通り道が形成されたり切断されたりするのか、という視点からの理解はこれまで十分にされていませんでした。

2.研究成果

筑波大学計算科学研究センターの神谷克政助教、数理物質科学研究科・博士課程後期2年の梁文榮氏、白石賢二教授を中心とする研究グループは、上記の問題を解決するために、ReRAMの動作時に電子レベルで何が起こっているのかを、量子論に基づく計算科学的な手法「第一原理計算」を用いてシミュレーションを行いました。その結果、電圧を加えると酸素の穴が集まる最も重要な原因を解明することができ、それに基づいてReRAMのメモリ特性を向上するためのデバイス設計指針を提案しました。
酸化物中の酸素原子の抜けた穴には電子が不足している場合が多く、プラスの電荷を帯びています(図3)。この場合、プラス同士の電気的な反発力のため、穴は集まることができません。ところが、酸化物に電圧が加わり穴に電子が注入されると、それらは集まることができ、電流の通り道が形成されます。一方、酸素原子の抜けた穴から電子を除去することで、穴は再びバラバラになります。
このような電子注入/除去で酸素原子の抜けた穴の凝集と分散が生じる機構は、2つの水素原子が電子を共有して共有結合を形成すると分子ができ、電子を取り除くと水素原子がイオン化してバラバラになることと類似しています。ReRAMでは、このような「イオン化した酸素原子の抜けた穴」と「イオン化していない酸素原子の抜けた穴」を、電圧による電子注入/除去により容易に作り分けることができ、その凝集と分散により電流通り道の形成と崩壊を制御できる点が、動作機構の本質であることがわかりました。
神谷助教らの研究グループは、この機構に基づき、ReRAMのメモリ特性を大きく向上させるために以下の提案をしました。これまで使われていた酸素原子の抜けた穴が発生しやすい材料(たとえばハフニウムHfと酸化ハフニウムHfO2)に加え、穴が発生しにくい材料(たとえば酸化アルミニウムAl2O3)を、図4のように組み合わせた多層構造ReRAMを作り、電流の通り道の形状を高度に制御することが重要です。
この成果は、国際電子デバイス会議(IEEE International Electron Device Meeting:IEDM、2012年12月10日~12日)会期中の2012年12月11日に発表されます。

3.波及効果と今後の展開

本研究の成果で明らかにした「ReRAMがなぜ動くのか」という電子レベルの機構により、超省エネメモリの実現に向けた研究開発が飛躍的に進展することが期待されます。さらに、近い将来抵抗変化型メモリ「ReRAM」が情報化社会のインフラとして本格的に普及し、待機電力ゼロのコンピュータなどが実現する省エネルギー化社会の形成が期待されます。

4.国際電子デバイス会議での発表

発表日時:12月11日(火)14:45~(米国太平洋標準時、日本時間12日7:45~)
発表セッション:Session 20. Memory Technology – Resistive RAM 講演番号:20.2
“Physics in Designing Desirable ReRAM Stack Structure -Atomistic Recipes Based on Oxygen Chemical Potential Control and Charge Injection/Removal” (高品質なReRAMを実現する多層構造デザインのための物理-酸素化学ポテンシャル制御と電荷注入/除去に基づく原子レベルの設計指針)
神谷克政1、梁文榮1、Blanka Magyari-Köpe2、丹羽正昭1、Yoshio Nishi2、白石賢二1,3(1 筑波大学数理物質系、2 スタンフォード大学、3 筑波大学計算科学研究センター、*下線は登壇者)

5.関連URL

筑波大学計算科学研究センター https://www.ccs.tsukuba.ac.jp/ccs_introduction/
量子物性研究部門 https://www.ccs.tsukuba.ac.jp/depart_intro/depart_quantum/

問い合わせ先

神谷克政
筑波大学数理物質系助教
TEL 029-853-5922 E-mail:kkamiya [at] comas.frsc.tsukuba.ac.jp
梁文榮
筑波大学数理物質科学研究科 博士課程後期2年
白石賢二
筑波大学計算科学研究センター/数理物質系教授
TEL 029-853-5911 E-mail:shiraishi [at] comas.frsc.tsukuba.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL 029-853-6260 E-mail:pr [at] ccs.tsukuba.ac.jp

The Large Scale Parallel Simulation Performed on the K computer was Awarded the ACM Gordon Bell Prize

November 28, 2012

University of Tsukuba
RIKEN
Tokyo Institute of Technology

PDF Version(320KB)

A research group of University of Tsukuba, RIKEN, and Tokyo Institute of Technology announced that the ACM Gordon Bell Prize (*1) was awarded to that group for the large scale parallel simulation using the “K computer” (*2) at SC12, the International Conference for High Performance Computing, Networking, Storage and Analysis held in Salt Lake City, on November 15 (US Pacific Standard Time). The group performed extremely large simulations with an unprecedentedly high level of efficiency.

The target of the award-winning simulation, presented at SC12, was the gravitational evolution of dark matter (*3) in the early Universe. The number of dark matter particles simulated was two trillions, which is the world’s largest dark matter simulation at present. The execution performance (*4) was 5.67 Pflops on the 98% resources of the K computer system.

This year, the Gordon Bell Prize was awarded singly to the Tsukuba group. A USA group achieved a 14 Pflops execution performance on Sequoia of LLNL for a similar dark matter simulation. Although the peak performance of Sequoia is twice that of K computer, the calculation speed achieved by the Tsukuba group is 2.4 times faster than that by the USA group. This is because the numerical algorithm of the Tsukuba group is more advanced than that of the USA group.

Background

As part of the Strategic Programs for Innovative Research (SPIRE) Field 5 “The origin of matter and the universe” research group led by T. Ishiyama, a research associate in University of Tsukuba, has been developing high performance software for use on the K computer. The group has been developing a massively parallel computing code (*5) based on the TreePM algorithm for large astrophysical N-body simulations and simulated the evolution of dark matter distribution in the early Universe on the 98% resources of the K computer system.

Our Universe is primarily composed of dark matter and dark energy. Dark matter exists about five times as much as baryonic matter. Baryonic matter is the usual one which we can see as atoms or molecules. Since dark matter dominates the gravitational evolution of the Universe, it is important to understand the evolution of dark matter in order to reveal the structure formation of the Universe.

This simulation is still running on the K computer. If this simulation is completed, the fine structure of dark matter existing in the Milky Way and its formation processes can be partly revealed. Finally, it makes great improvement of the strategy for indirect detection of dark matter.

Fig.1 The distribution of dark matter in a 16.8G particles simulation at redshift z=400 (initial), 70, 40, and 31. The redshift is an index for time or distance used in astrophysics. Higher redshift value means earlier Universe. The distribution is almost uniform at the beginning (z=400, about two million years after the Big Bang, the width of the image corresponds to about five light years).
Gradually, dark matter concentrates via the gravity and forms large structures. Bottom-left and bottom-middle images are enlargement of the image of z=31 (about 100 million years after the Big Bang, the width corresponds to about 65 light years).

Research Methods and Results

The research group simulated the evolution of two trillion dark matter particles in the early Universe using the 98% resources (81408 nodes) of the K computer system. They achieved 5.67 Pflops execution performance, which corresponds to 55% of the theoretical peak.

The TreePM method adopted in the software is one algorithm to accelerate the calculation of gravitational interactions. In this method, the short-range force is computed with the tree algorithm while the long-range force with the particle mesh (PM) algorithm. This method has been well approved in this century, and so, several groups have been developing software based on the TreePM method. Until now, parallelization techniques for about one thousand processes were reported.

The Tsukuba group has developed a novel communication algorithm for the long-range part and a highly tuned gravity kernel for the short-range part. The group has succeeded in developing the TreePM software that works with an extremely high level of efficiency on a hundred thousands processes at least.
This software enables us to perform gravitational N-body simulations with more than one trillion particles within a practical period of time. It is the largest gravitational N-body simulation in the world for which the number of particles exceeds one trillion. The simulation is expected to complete within about three days. If we use a single personal computer, it will take more than a few hundred years.
Such simulations enable us to reveal finer and more accurate structures of the Milky Way dark matter as compared to previous simulations. It is important for the detection experiments of dark matter.

The group of Argonne National Laboratory of USA performed similar simulations to those of the Tsukuba group. The Argonne group achieved about 14 Pflops sustained performance on IBM Sequoia with about 20 Pflops theoretical peak performance, which is about twice the peak Performance of K computer. Nevertheless, the software of the Tsukuba group can solve the gravity much faster than that of the Argonne group.
The calculation speed for a dark matter particle is about 2.4 times faster. This means that the software of the Tsukuba group is more advanced in solving large scale simulations. For this reason, the Gordon Bell Prize was awarded to the Tsukuba group in the end.

Regarding the past Gordon Bell Prizes, the group that could access the fastest supercomputers at that time, had the superiority. However, it resulted differently this year. This means that the software of the Tsukuba group is evaluated as the state-of-the-art and leading position in the world.

Future Expectations

The research group has been studying continually the fine structures of dark matter. By combining this software with the SPH (smoothed particle hydrodynamics) algorithm for compressive fluids, the group is addressing early scientific achievements such as star formation and galaxy formation simulated on the K computer.

Paper awarded the Gordon Bell Prize

Tomoaki Ishiyama, Keigo Nitadori, and Junichiro Makino, 2012, “4.45 Pflops astrophysical N-body simulation on K computer: the gravitational trillion-body problem”, in Proceedings of the International Conference on High Performance Computing, Networking, Storage and Analysis (SC ’12), IEEE Computer Society Press, Los Alamitos, CA, USA, Article 5

Glossary and Notes

1. ACM Gordon Bell prize

The ACM Gordon Bell Prize, sponsored by the Association of Computing Machinery, is awarded to promote advancements in parallel computing technology, and is presented every November at the International Conference for High Performance Computing, Networking, Storage and Analysis (SC, Supercomputing Conference) to the papers that show the most outstanding results in hardware and application development.

2. K computer

The K computer, jointly developed by RIKEN and Fujitsu, is part of the High-Performance Computing Infrastructure (HPCI) initiative led by Japan’s Ministry of Education, Culture, Sports, Science and Technology (MEXT). This newly developed supercomputer commenced full operation at the end of September 2012. The “K computer” is the registered trademark of RIKEN. “K” comes from the Japanese Kanji letter “Kei” which means ten peta or 10 to the 16th power. In its original sense, “Kei” expresses a large gateway, and it is hoped that the system will be a new gateway to computational science.

3. Dark matter

It is the matter to interact via the gravity only. The nature of dark matter particle is still unknown. The initial primordial density fluctuations of dark matter grow via the gravity and form dark matter structures with various sizes everywhere. Then, the baryonic matter condenses in the gravitational potential of these dark matter structures, and forms first stars and galaxies. This is the cold dark matter theory, which is widely accepted as the standard theory of the formation and evolution of the Universe.

4. Execution performance

In contrast to theoretical performance, this is the computational performance obtained in running a given program, and acts as a practical measure of a computer’s performance.

5. Massively parallel code

An application program that can run efficiently on a massively parallel computer.

Press Contacts

Center for Computational Sciences, University of Tsukuba
Public Relations Office
Tel: +81-29-853-6260 E-Mail: pr [at] ccs.tsukuba.ac.jp

RIKEN Advanced Institute for Computational Science
Office for Research Communications
Tel: +81-78-940-5623, 5624

Tokyo Institute of Technology
Center for Public Information
Tel: +81- 3-5734-2976

About University of Tsukuba

The University of Tsukuba aims to establish free exchange and close relationship in both basic and applied sciences with educational and research organizations and academic communities in Japan and overseas. The university makes a contribution to the world through its educational system that seeks to make the most of students’ creativity and individuality.

http://www.tsukuba.ac.jp/english/ http://www.ccs.tsukuba.ac.jp/

About RIKEN

RIKEN is Japan’s flagship research institute devoted to basic and applied research. Over 2500 papers by RIKEN researchers are published every year in reputable scientific and technical journals, covering topics ranging across a broad spectrum of disciplines including physics, chemistry, biology, medical science and engineering. RIKEN’s advanced research environment and strong emphasis on interdisciplinary collaboration has earned itself an unparalleled reputation for scientific excellence in Japan and around the world. For more information, please see: http://www.riken.jp/

About Tokyo Institute of Technology

Tokyo Institute of Technology, also known as Tokyo Tech, is one of Japan’s leading research universities, providing a focused, scientifically and technologically based education to about 10,000 undergraduate and graduate students. Tokyo Tech has many nationally recognized programs, all top-ranked by peers and publications alike, and is ranked in the 65th in overall rankings and 19th in Engineering & Technology in the QS 2012 World University Rankings. As a leading scientific and technological university, Tokyo Tech has three undergraduate schools, six graduate schools, six research laboratories, and many research and service centers that consistently contribute vital research and innovation to industry and business. For more information, please see: http://www.titech.ac.jp/english/

 

ISAR-3

Third International Symposium on the Arctic Research

Date:
January 14-17, 2013
(Public Lecture on January 14, 2013)

Venue:
Miraikan (7th Floor)
National Museum of Emerging Science and Innovation
Tokyo, Japan

Organized by
●National Committee of IASC, Subcommittee for International Affairs, Committee on Earth and Planetary Sciences, Science Council of Japan
●Japan Consortium for Arctic Environmental Research (JCAR)

Co-Organized by
●IFES-GCOE, Hokkaido University
●International Arctic Research Center (IARC)
●Japan Agency for Marine-Earth Science and Technology (JAMSTEC)
●National Institute of Polar Research (NIPR)

Supported by
●Center for Computational Sciences (CCS), University of Tsukuba
●Climate and Cryosphere Project (CliC), World Climate Research Programme (WCRP)
●International Arctic Science Committee (IASC)
●Research Institute for Humanity and Nature (RIHN)

Please see here for more details.

スーパーコンピュータ「京」によるダークマターシミュレーションがゴードン・ベル賞を受賞

プレスリリース

スーパーコンピュータ「京」によるダークマターシミュレーションが
ゴードン・ベル賞を受賞

2012年11月16日

国立大学法人筑波大学
独立行政法人理化学研究所
国立大学法人東京工業大学

印刷用PDF[382KB]

概要

筑波大学計算科学研究センター、理化学研究所計算科学研究機構、東京工業大学による研究グループ(以下 筑波大グループ)は、理研のスーパーコンピュータ「京(けい)」1を用いた研究成果を、ハイ・パフォーマンス・コンピューティング(高性能計算技術)に関する国際会議SC12(米国・ソルトレイクシティ開催)で発表し、15日(米国山地標準時間/日本時間16日)、ゴードン・ベル賞2を受賞しました。「大規模計算を非常に高い実効性能で実現した」ことが受賞理由です。

受賞の対象となった成果は、約2兆個のダークマター粒子の宇宙初期における重力進化の計算です。1兆粒子を超す規模のダークマターシミュレーションは世界最大であり、専用のアプリケーションを開発した上で「京」全体の約98%を使用し、実効性能5.67ペタフロップス(1秒間に0.567京回計算)を達成しました。本研究で用いたアプリケーションは、文部科学省「HPCI戦略プログラム分野5-物質と宇宙の起源と構造(代表機関:筑波大学計算科学研究センター)」で開発されました。

日本のグループによるゴードン・ベル賞受賞は2年連続で、今回は筑波大グループの単独受賞となりました。ファイナリストには、同じくダークマター粒子の計算で14ペタフロップスを実現した米国のグループがありました。しかし、筑波大グループの計算法が優れていたため実際のシミュレーション速度では上回り、一粒子あたりの計算速度が米国グループに比べ約2.4倍だったことが評価されました。「京」のような大規模システムの開発・構築に加え、それを使いこなすアプリケーションの面でも日本が世界をリードしていることが示されました。

1. 背景

筑波大学計算科学研究センターの石山智明研究員らは、HPCI戦略プログラム分野5「物質と宇宙の起源と構造」開始当初の2011年度から、実アプリケーションによるスーパーコンピュータ「京(けい)」の性能確認を行うための最適な計算手法とアプリケーション開発を進めてきました。これまでに、宇宙におけるさまざまな物質の重力的な進化をシミュレーションすることができるTreePM法の高並列アプリケーション3を開発しました。今回、そのアプリケーションを用いて、初期宇宙のダークマター4分布の進化を、実際に「京」を使って計算を行いました。

宇宙には、普段われわれが目にする物質のほかに、質量にして5倍ほどのダークマターが存在します。ダークマターの重力進化を解明することは、宇宙の形成過程を明らかにすることにつながります。この計算は現在も進行中で、終了すると、現存する銀河のダークマターの微細構造やその成長過程が明らかになり、ダークマター粒子の観測方法の改良にもつながります。

図1 宇宙初期のダークマター密度分布

図1 宇宙初期のダークマター密度分布
明るさはダークマターの空間密度を表し、明るいところは密度が高くなっています。宇宙が生まれてすぐはほぼ一様(上段左)ですが、時間が経つにつれて(順番に右へ)重力により集まり、大きな構造が形成されていきます。zは赤方偏移の量を表し、天文学では時間や距離の尺度として用いられます。zが大きいほど過去を見ていることになり、上段左のz=400は宇宙誕生から約200万年後(1辺約5光年)、下段右のz=31は誕生から約1億年後(約136億年前、1辺約65光年)の宇宙の姿を表しています。下段の3枚はすべてz=31で、下段右の中心部を拡大したものが下段中、さらに中心部を拡大したものが下段左です。

2. 研究手法と結果

「京」全体の約98%(81,408ノード)を用いて、約2兆個のダークマター粒子の重力進化を計算しました。その結果、実効性能55.67ペタフロップス(1秒間に0.567京回の演算性能)を得ることができました(実行効率約55%)。

アプリケーション開発に用いたTreePM 法は、粒子間の重力相互作用を高速に解くアルゴリズムの一つです。この方法では、近距離力をTree 法、遠距離力をParticle-Mesh(PM)法で計算します。21世紀に入ってからTreePM法を採用したアプリケーションは世界のいくつかのグループで開発されており、これまでに、およそ1000並列度まで対応した並列化が報告されていました。今回、遠距離力の計算の際に発生する大データの通信を高速に行う新しいアルゴリズムを開発するなどの最適化を行い、少なくとも10万近い並列度まで非常に効率良く動作するTreePMアプリケーションの開発に成功しました。
開発にあたっては、研究グループ内の、理化学研究所計算科学研究機構・似鳥啓吾研究員、東京工業大学大学院理工学研究科 理学研究流動機構・牧野淳一郎教授の協力を得ました。

今回開発したアプリケーションによって、数兆個におよぶダークマター粒子の重力進化が実用的な時間内にシミュレーションできることを示しました。1兆粒子を超す規模のダークマターシミュレーションは世界最大規模であり、パソコン1台で数百年かかる計算が、「京」ではわずか3日程度で可能になりました。これは、より微細なダークマター構造を解明できることを意味しており、ダークマター粒子の探査、そして正体解明のために重要です。

米国・アルゴンヌ国立研究所のグループは、ピーク性能約20ペタフロップスの「セコイア」(米国・ローレンス・リバモア国立研究所)を使って同様なダークマターシミュレーションを行い、14ペタフロップスを実現しています。ところが、筑波大グループの「京」(ピーク性能10.62ペタフロップス)を用いた計算は米国グループに比べて実際の計算速度で上回り、一粒子あたりの計算速度が米国グループに比べて約2.4倍を記録。大規模計算をできるだけ高速に解くための非常に高度なアプリケーションを開発した点が評価され、ゴードン・ベル賞の受賞となりました。
これまでゴードン・ベル賞は、その時点で世界最高速の計算機で最高性能の実アプリケーション計算を行った場合が有利でしたが、今回はそれを覆す結果となりました。このことは、筑波大グループが開発したアプリケーションが世界を大きくリードしていることを示しています。

3. 今後の期待

本研究は、スーパーコンピュータ「京」による実アプリケーションが評価され、ゴードン・ベル賞を受賞することができました。今後の科学技術の発展に「京」が大きく寄与することを、国際的な学会が認めたことを意味します。

引き続き、宇宙のダークマター微細構造をこれまでにない精密さで解明していきます。また、今回開発したアプリケーションを、圧縮性流体のための計算法であるSPH法などのより複雑な物理を扱うアルゴリズムと組み合わせ、星形成、銀河形成など、「京」がもたらす宇宙の構造形成過程に関する科学的成果の早期創出に向けて、貢献していきます。

用語解説

*1 スーパーコンピュータ「京(けい)」
文部科学省が推進する革新的ハイパフォーマンス・コンピューティング・インフラ(HPCI)の中核システムとして、理研と富士通が共同で開発を行い、2012年9月に共用を開始した、計算速度10ペタフロップス級のスーパーコンピュータ。「京(けい)」は理研の登録商標で、10ペタ(10の16乗)を表す万進法の単位であるとともに、この漢字の本義が大きな門を表すことを踏まえ、「計算科学の新たな門」という期待も込められています。

*2 ゴードン・ベル賞
ゴードン・ベル賞(ACM Gordon Bell Prize)は、計算機設計者として著名な米国のゴードン・ベル氏により、並列計算機技術開発の推進のため1987年に創設されました。米国計算機学会(ACM、1947年設立)によって運営され、毎年11月に開催されるハイ・パフォーマンス・コンピューティング(高性能計算技術)に関する国際会議SCで、並列計算の科学技術への応用で最も優れた成果を上げた論文に与えられます。

*3 高並列化アプリケーション
並列数の高い計算機で効率よく実行できるプログラムです。

*4 ダークマター
重力相互作用だけが働く物質で、素粒子としての正体は解明されていません。宇宙初期に存在したダークマターの密度揺らぎが重力相互作用により成長して、至るところにさまざまなサイズの天体を形成し、その中で陽子や中性子といった通常物質を集め、現在の宇宙で観測される銀河のような構造を作ってきたという理論「低温ダークマターモデル」があります。これが、宇宙の構造形成を記述する標準的なモデルとして広く受け入れられています。

*5 実効性能
理論性能であるピーク性能に対して、あるアプリケーションを実行したときの計算性能を実効性能といいます。計算機の実質的な性能とされます。

論文

Ishiyama, T., Nitadori, K., Makino, J., 4.45 Pflops Astrophysical N-Body Simulation on K computer – The Gravitational Trillion-Body Problem, accepted in Proceedings of the 2012 ACM/IEEE conference on Supercomputing (SC12), Salt Lake City, Utah, USA, Nov 2012 (ペタフロップスの値は論文執筆当時)

問い合わせ先

国立大学法人筑波大学 計算科学研究センター 広報室 吉戸智明
TEL:029-853-6260 FAX:029-853-6260 E-MAIL:pr [at] ccs.tsukuba.ac.jp

報道担当:
独立行政法人理化学研究所 計算科学研究機構 広報国際室
TEL:078-940-5625 FAX:078-304-4964 E-mail:aics-koho [at] riken.jp
独立行政法人理化学研究所 広報室 報道担当
TEL:048-467-9272 FAX:048-462-4715
国立大学法人東京工業大学広報センター
TEL:03-5734-2975 FAX:03-5734-3661 E-mail:hyo.koh.sya [at] jim.titech.ac.jp

K computer No. 1 in Three HPC Challenge Award Benchmarks

November 14, 2012

RIKEN
University of Tsukuba
Fujitsu Limited

[PDF 204KB]

K computer No. 1 in Three HPC Challenge Award Benchmarks

Japanese supercomputer earns high marks in total performance for second year running

Tokyo and Tsukuba, Japan, November 14, 2012 – RIKEN, the University of Tsukuba, and Fujitsu today received top ranks in three of the four benchmarks at the 2012 HPC Challenge Awards (*1) for the performance of the K computer (*2). The awards were announced on November 13 in Salt Lake City at SC12, the International Conference for High Performance Computing, Networking, Storage and Analysis. The first-place rankings were received in the following three benchmarks used for evaluating the all-around performance of a supercomputer: (1) Global HPL, which measures the floating point rate of execution for solving a linear system of equations; (2) STREAM, which measures sustainable memory bandwidth and the corresponding computation rate for simple vector kernels; and (3) FFT, which measures the floating point rate of execution of double precision complex one-dimensional Discrete Fourier Transform. With this, the K computer demonstrated, for the second consecutive year, high performance as a general-purpose supercomputer.

The HPC Challenge benchmarks are benchmark programs designed to evaluate the overall performance of supercomputers in terms of processing performance in 28 tests derived from frequently used computational patterns in the field of scientific computation.

The K computer, which was developed jointly by RIKEN and Fujitsu as a part of the High-Performance Computing Infrastructure (HPCI) initiative led by Japan’s Ministry of Education, Culture, Sports, Science and Technology (MEXT), was opened to shared use in September 2012. The University of Tsukuba contributed extensively to increasing the computational speed for the Global FFT benchmark.

The top three rankings achieved on the four benchmarks for the HPC Challenge Class 1 Awards for 2012 are as follows:

Global HPL

Performance (TFLOP/s)

System

Institutional Facility

1st place

9,796

K computer

RIKEN

1st runner up

1,534

Cray XT5

ORNL

2nd runner up

1,344

IBM Power 775

IBM Development Engineering

Global RandomAccess

Performance (GUPS)

System

Institutional Facility

1st place

2,021

IBM Power 775

IBM Development Engineering

1st runner up

472

K computer

RIKEN

2nd runner up

117

IBM BG/P

LLNL

EP STREAM (Triad)

per system

Performance (TB/s)

System

Institutional Facility

1st place

3,857

K computer

RIKEN

1st runner up

525

IBM Power 775

IBM Development Engineering

2nd runner up

398

Cray XT5

ORNL

Global FFT

Performance (TFLOP/s)

System

Institutional Facility

1st place

205.9

K computer

RIKEN

1st runner up

132.7

IBM Power 775

IBM Development Engineering

2nd runner up

11.9

NEC SX-9

JAMSTEC

With the understanding that its use would be widely shared by researchers and engineers inside and outside RIKEN from the very start, the development of the K computer has proceeded with the aim of creating a supercomputer that combines superior computational performance with the versatility that enables it to run applications for a wide range of fields. The HPC Challenge results demonstrate the versatility of the K computer and the all-around high performance levels it delivers as a supercomputer.

Additional Information

Glossary and Terms

1. HPC Challenge Awards
The HPC Challenge Awards consist of the Class 1 benchmark performance competition and the Class 2 “Most Productivity” awards for the most “elegant” implementation of computationally intensive kernels. The Class 1 awards consist of the following four benchmarks, each of which evaluates the performance of key system components (CPU computational performance, memory access performance, network transmission performance).

  1. Global HPL: operating speed in solving large-scale simultaneous linear equations
  2. Global RandomAccess: random memory access performance in parallel processing
  3. EP STREAM (Triad) per system: memory access speed under multiple loads
  4. Global FFT: total performance of Fast Fourier Transform

2. K computer
The K computer, which was jointly developed by RIKEN and Fujitsu, is part of the High-Performance Computing Infrastructure (HPCI) initiative led by Japan’s Ministry of Education, Culture, Sports, Science and Technology (MEXT). The K computer’s availability for shared use began in September 2012. The “K” in K computer comes from the Japanese Kanji character “Kei” which means ten peta or 10 to the 16th power. In its original sense, “Kei” expresses a large gateway, and it is hoped that the system will be a new gateway to computational science.

Press Contacts

RIKEN Advanced Institute for Computational Science
Office for Research Communications
Tel: +81-78-940-5623, 5624

University of Tsukuba
Public Relations Office, Center for Computational Sciences
pr [at] ccs.tsukuba.ac.jp

Fujitsu Limited
Public and Investor Relations Division
Inquiries: https://www-s.fujitsu.com/global/news/contacts/inquiries/index.html

About RIKEN

RIKEN is Japan’s flagship research institute devoted to basic and applied research. Over 2500 papers by RIKEN researchers are published every year in reputable scientific and technical journals, covering topics ranging across a broad spectrum of disciplines including physics, chemistry, biology, medical science and engineering. RIKEN’s advanced research environment and strong emphasis on interdisciplinary collaboration has earned itself an unparalleled reputation for scientific excellence in Japan and around the world. For more information, please see: http://www.riken.jp/

About University of Tsukuba

The University of Tsukuba aims to establish free exchange and close relationship in both basic and applied sciences with educational and research organizations and academic communities in Japan and overseas. The university makes a contribution to the world through its educational system that seeks to make the most of students’ creativity and individuality http://www.tsukuba.ac.jp/english/ http://www.ccs.tsukuba.ac.jp/CCS/eng/

About Fujitsu

Fujitsu is the leading Japanese information and communication technology (ICT) company offering a full range of technology products, solutions and services. Over 170,000 Fujitsu people support customers in more than 100 countries. We use our experience and the power of ICT to shape the future of society with our customers. Fujitsu Limited (TSE:6702) reported consolidated revenues of 4.5 trillion yen (US$54 billion) for the fiscal year ended March 31, 2012. For more information, please see http://www.fujitsu.com.

All company or product names mentioned herein are trademarks or registered trademarks of their respective owners. Information provided in this press release is accurate at time of publication and is subject to change without advance notice.

 

スーパーコンピュータ「京」でHPCチャレンジ賞3部門の第1位を獲得

プレスリリース

スーパーコンピュータ「京」でHPCチャレンジ賞3部門の第1位を獲得
-スパコンの総合的な性能を評価するベンチマークで昨年に続き高性能を実証

2012年11月14日

独立行政法人理化学研究所
国立大学法人筑波大学
富士通株式会社

印刷用PDF[220KB]

概要

理化学研究所(野依良治理事長)、筑波大学(山田信博学長)、および富士通株式会社(山本正已代表取締役社長)は、スーパーコンピュータ「京(けい)」※1で測定した、スパコンの総合的な性能を評価するHPCチャレンジベンチマーク※2の実測結果により、2012年「HPCチャレンジ賞※3」の4部門中3部門で第1位を獲得しました。米国・ソルトレークシティで開催中のHPC(ハイパフォーマンス・コンピューティング:高性能計算技術)に関する国際会議「SC12」で現地時間13日(日本時間14日)、発表されました。

HPCチャレンジ賞で第1位を獲得したのは、①大規模な連立1次方程式を解く演算速度②多重負荷時のメモリアクセス速度③高速フーリエ変換の総合性能 の3部門です。京は、昨年の4部門第1位に引き続き汎用スパコンとしての総合的な性能において高い評価を得たことになります。

内容

HPCチャレンジベンチマークは、科学技術計算で多用される計算パターンから抽出した28項目の処理性能によって、スパコンの総合的な性能を多角的に評価するベンチマークプログラムです。この中でも特に重要な、(1)Global HPL(大規模な連立1次方程式を解く演算速度)、(2)Global RandomAccess(並列プロセス間でのランダムメモリアクセス性能)、(3)EP STREAM(Triad) per system(多重負荷時のメモリアクセス速度)、(4)Global FFT(高速フーリエ変換の総合性能)の4つについては、HPCチャレンジ賞(クラス1)として各部門の第1位が表彰されます。

筑波大は4つのプログラムのうちGlobal FFTの高速化に大きく貢献し、その上で、理研、筑波大、富士通は、これら4つのベンチマークプログラムの性能をHPCチャレンジ賞(クラス1)に登録しました。

2012年HPCチャレンジ賞(クラス1)4部門の上位3位は以下の通りです。

Global HPL 性能値(TFLOP/s) システム名 設置機関
1位 9,796 理研 計算科学研究機構
2位 1,534 Cray XT5 オークリッジ研
3位 1,344 IBM Power775 IBM(社内設備)
Global RandomAccess 性能値(GUPS) システム名 設置機関
1位 2,021 IBM Power775 IBM(社内設備)
2位 472 理研 計算科学研究機構
3位 117 IBM BG/P ローレンスリバモア研
EP STREAM(Triad) per system 性能値(TB/s) システム名 設置機関
1位 3,857 理研 計算科学研究機構
2位 525 IBM Power775 IBM(社内設備)
3位 398 Cray XT5 オークリッジ研
Global FFT 性能値(TFLOP/s) システム名 設置機関
1位 205.9 理研 計算科学研究機構
2位 132.7 IBM Power775 IBM(社内設備)
3位 11.9 NEC SX-9 海洋研究開発機構

京は、開発当初から、広く内外の研究者、技術者の利用に供することを念頭に、高い演算性能と幅広い範囲のアプリケーションに対応できる汎用性を兼ね備えたスパコンを目指して開発を進めてきました。昨年の4部門第1位に引き続き、今回の結果はそれを実証するものであり、京の汎用スパコンとしての総合的な能力の高さを示すものです。

関連リンク

HPCチャレンジについて http://icl.cs.utk.edu/hpcc/index.html

理化学研究所次世代スーパーコンピュータの開発・整備 http://www.nsc.riken.jp/index_j.html

計算科学研究機構 http://www.aics.riken.jp/index.html

富士通「次世代スーパーコンピュータ」紹介サイト http://jp.fujitsu.com/about/tech/k/

用語解説

※1 スーパーコンピュータ「京(けい)」
文部科学省が推進する「革新的ハイパフォーマンス・コンピューティング・インフラ(HPCI)の構築」プログラムの中核システムとして、理研と富士通が共同で開発を行い、2012年9月に共用を開始した計算速度10ペタフロップス級のスーパーコンピュータ。「京(けい)」は理研の登録商標で、10ペタ(10の16乗)を表す万進法の単位であるとともに、この漢字の本義が大きな門を表すことを踏まえ、「計算科学の新たな門」という期待も込められている。

※2 ベンチマーク
コンピュータのハードウエア・ソフトウエアの動作速度を評価するための基準。

※3 HPCチャレンジ賞
HPCチャレンジ賞にはベンチマークの性能値を 競うクラス1と、実装における生産性の高さを競うクラス2がある。クラス1は以下の4つの部門で構成され、それぞれシステムを構成する主要な要素(CPU の演算性能、メモリへのアクセス性能、ネットワークの通信性能)の性能が評価される。
Ÿ   Global HPL:大規模な連立1次方程式の求解における演算速度
Ÿ   Global RandomAccess:並列プロセス間でのランダムメモリアクセス性能
Ÿ   EP STREAM(Triad) per system:多重負荷時のメモリアクセス速度
Ÿ   Global FFT:高速フーリエ変換(FFT)の総合性能

問い合わせ先

独立行政法人理化学研究所 計算科学研究機構 広報国際室 岡田昭彦
TEL:078-940-5625 FAX:078-304-4964 E-mail:aics-koho [at] riken.jp

報道担当:
独立行政法人理化学研究所 広報室 報道担当
TEL:048-467-9272 FAX:048-462-4715
国立大学法人筑波大学 計算科学研究センター広報室
TEL:029-853-6260 FAX:029-853-6260
富士通株式会社 広報IR室
TEL:03-6252-2174

【受賞】青木慎也教授らが仁科記念賞(2012年度)を受賞しました

筑波大学計算科学研究センターの青木慎也教授、石井理修准教授、理化学研究所の初田哲男主任研究員が、2012年度仁科記念賞を受賞しました。対象となった受賞者業績は「格子量子色力学に基づく核力の導出」(Nuclear Force from Lattice Quantum Chromodynamics)。授賞式は12月6日(木)の予定です。

仁科記念財団ホームページ

青木慎也教授の受賞コメント
「この度は、仁科記念賞という素粒子物理学および原子物理学で最も権威ある賞に選ばれ、光栄であると同時に身の引き締まる思いです。筑波大学の同僚をはじめとする多くの方々の協力なしに、この研究を成し遂げることはできませんでした。ここに感謝いたします。
この研究に関しての最初の論文を発表してからすでに5年が経ちました。しかし、我々の提案した方法の発展や応用はまだ続いており、研究は発展途上です。さらに良い成果を積み重ねて、この研究分野を完成させるために、よりいっそうの努力をしていきたいと考えています。」

メディア掲載情報:時事通信(11/9)日本経済新聞(11/9)読売新聞(11/9)

スーパーコンピュータ「京」による世界最大規模のダークマターシミュレーションに成功

プレスリリース

スーパーコンピュータ「京」による世界最大規模のダークマターシミュレーションに成功 -ゴードン・ベル賞ファイナリストにノミネート

2012年11月9日

国立大学法人筑波大学
独立行政法人理化学研究所
国立大学法人東京工業大学

印刷用PDF[381KB]

概要

筑波大学計算科学研究センターの石山智明研究員を中心とする研究グループは、理化学研究所のスーパーコンピュータ「京」*1を用いて、約2兆個のダークマター粒子の重力進化の計算に成功しました。1兆粒子を超す規模のダークマターシミュレーションは世界最大であり、専用のアプリケーションを開発した上で「京」全体の約98%を使用し、実効性能5.67ペタフロップス(1秒間に0.567京回計算)を達成しました。

宇宙には、普段われわれが目にする物質のほかに、質量にして5倍ほどのダークマターが存在します。ダークマターの重力進化を解明することは、宇宙の形成過程を明らかにすることにつながります。この計算は現在も進行中で、終了すると、現存する銀河のダークマターの微細構造やその成長過程が明らかになり、ダークマター粒子の観測方法の改良にもつながります。

本研究の初期成果はゴードン・ベル賞のファイナリストとしてノミネートされています。11月10日~16日に米国・ソルトレイクシティで開催される国際会議SC12において、最高性能賞ほかが発表されます。

1. 背景

石山智明研究員らは、HPCI戦略プログラム分野5「物質と宇宙の起源と構造」開始当初の2011年度から、実アプリケーションによるスーパーコンピュータ「京」の性能確認を行うための最適な計算手法とアプリケーション開発を進めてきました。これまでに、宇宙におけるさまざまな物質の重力的な進化をシミュレーションすることができるTreePM法の高並列アプリケーション*2を開発しました。今回、そのアプリケーションを用いて、初期宇宙のダークマター*3分布の進化を、実際に「京」を使って計算を行いました。

図1 宇宙初期のダークマター密度分布

図1 宇宙初期のダークマター密度分布
明るさはダークマターの空間密度を表し、明るいところは密度が高くなっています。宇宙が生まれてすぐはほぼ一様(上段左)ですが、時間が経つにつれて(順番に右へ)重力により集まり、大きな構造が形成されていきます。zは赤方偏移の量を表し、天文学では時間や距離の尺度として用いられます。zが大きいほど過去を見ていることになり、上段左のz=400は宇宙誕生から約200万年後(1辺約5光年)、下段右のz=31は誕生から約1億年後(約136億年前、1辺約65光年)の宇宙の姿を表しています。下段の3枚はすべてz=31で、下段右の中心部を拡大したものが下段中、さらに中心部を拡大したものが下段左です。

2. 研究手法と結果

「京」全体の約98%(81,408ノード)を用いて、約2兆個のダークマター粒子の重力進化を計算しました。その結果、実効性能*45.67ペタフロップス(1秒間に0.567京回の演算性能)を得ることができました(実行効率約55%)。この結果を、米国・ソルトレイクシティで11月10日~16日に開催される「ハイ・パフォーマンス・コンピューティング(高性能計算技術)に関する国際会議SC12(International Conference for High Performance Computing, Networking, Storage and Analysis)」で発表する予定です。本研究の初期成果は、ゴードン・ベル賞*5のファイナリストとしてノミネートされています。

今年のゴードン・ベル賞の審査では、5件の論文がファイナリスト(日本からは本論文のみ)に選ばれました。SC12会期中に最高性能賞ほかの受賞グループが決定されます。ゴードン・ベル賞のファイナリストに選出されたことは、今回開発したアプリケーションの実用的価値と「京」の実運用での性能が高く評価された結果といえます。

計算対象とするダークマターは、最新の「低温ダークマターモデル」によると、普段我々が目にする原子や分子のようなバリオンと呼ばれる物質と比べ、全宇宙におよそ5倍の質量で存在すると考えられています。それが、宇宙の重力的な構造形成、進化に重要な役割を果たしてきました。ダークマターの重力によってバリオンが集まり、現在観測される多種多様な銀河が生み出されてきたと考えられています。

今回開発したアプリケーションによって、数兆個におよぶダークマター粒子の重力進化が実用的な時間内にシミュレーションできることを世界で初めて示しました。1兆粒子を超す規模のダークマターシミュレーションは世界最大規模であり、パソコン1台で数百年かかる計算が、「京」ではわずか3日程度で可能になりました。これは、より微細なダークマター構造を解明できることを意味しており、ダークマター粒子の探査、そして正体解明のために重要です。

アプリケーション開発に用いたTreePM 法は、粒子間の重力相互作用を高速に解くアルゴリズムの一つです。この方法では、近距離力をTree 法、遠距離力をParticle-Mesh(PM)法で計算します。21世紀に入ってからTreePM法を採用したアプリケーションは世界のいくつかのグループで開発されており、これまでに、およそ1000並列度まで対応した並列化が報告されていました。今回、遠距離力の計算の際に発生する大データの通信を高速に行う新しいアルゴリズムを開発するなどの最適化を行い、少なくとも10万近い並列度まで非常に効率良く動作するTreePMアプリケーションの開発に成功しました。開発にあたっては、研究グループ内の、理化学研究所 計算科学研究機構(AICS)・似鳥啓吾研究員、および東京工業大学大学院理工学研究科 理学研究流動機構・牧野淳一郎教授の協力を得ました。

3. 今後の期待

本研究は、スーパーコンピュータ「京」による実アプリケーションが評価され、ゴードン・ベル賞のファイナリストに選ばれました。このことは、今後の科学技術の発展に「京」が大きく寄与することを、国際的な学会が認めたことを意味します。

引き続き、宇宙のダークマター微細構造をこれまでにない精密さで解明していきます。また、今回開発したアプリケーションを、圧縮性流体のための計算法であるSPH法などのより複雑な物理を扱うアルゴリズムと組み合わせ、星形成、銀河形成など、「京」がもたらす宇宙の構造形成過程に関する科学的成果の早期創出に向けて、貢献していきます。

用語解説

*1 スーパーコンピュータ「京(けい)」
文部科学省が推進する革新的ハイパフォーマンス・コンピューティング・インフラ(HPCI)の中核システムとして、理研と富士通が共同で開発を行い、2012年9月に共用を開始した、計算速度10ペタフロップス級のスーパーコンピュータ。「京(けい)」は理研の登録商標で、10ペタ(10の16乗)を表す万進法の単位であるとともに、この漢字の本義が大きな門を表すことを踏まえ、「計算科学の新たな門」という期待も込められています。

*2 高並列化アプリケーション
並列数の高い計算機で効率よく実行できるプログラムです。

*3 ダークマター
重力相互作用だけが働く物質で、素粒子としての正体は解明されていません。宇宙初期に存在したダークマターの密度揺らぎが重力相互作用により成長して、至るところにさまざまなサイズの天体を形成し、その中でバリオンを集め、現在の宇宙で観測される銀河のような構造を作ってきたという理論「低温ダークマターモデル」があります。これが、宇宙の構造形成を記述する標準的なモデルとして広く受け入れられています。

*4 実効性能
理論性能であるピーク性能に対して、あるアプリケーションを実行したときの計算性能を実効性能といいます。計算機の実質的な性能とされます。

*5 ゴードン・ベル賞
ゴードン・ベル賞(ACM Gordon Bell Prize)は、計算機設計者として著名な米国のゴードン・ベル氏により、並列計算機技術開発の推進のため1987年に創設されました。米国計算機学会(ACM、1947年設立) によって運営され、毎年11月に開催されるハイ・パフォーマンス・コンピューティング(高性能計算技術)に関する 国際会議SCで、ハードウエアとアプリケーションの開発において最も優れた成果を上げた論文に与えられます。

論文

Ishiyama, T., Nitadori, K., Makino, J., 4.45 Pflops Astrophysical N-Body Simulation on K computer – The Gravitational Trillion-Body Problem, accepted in Proceedings of the 2012 ACM/IEEE conference on Supercomputing (SC12), Salt Lake City, Utah, USA, Nov 2012

問い合わせ先

国立大学法人筑波大学 計算科学研究センター(神戸分室) 石山智明

報道担当:
国立大学法人筑波大学 計算科学研究センター 広報室 吉戸智明
 TEL:029-853-6260 FAX:029-853-6260 E-MAIL:pr [at] ccs.tsukuba.ac.jp
独立行政法人理化学研究所 計算科学研究機構 広報国際室 岡田昭彦
 TEL:078-940-5625 FAX:078-304-4964 E-mail:aics-koho [at] riken.jp
独立行政法人理化学研究所 広報室 報道担当
 TEL:048-467-9272 FAX:048-462-4715
国立大学法人東京工業大学広報センター
 TEL:03-5734-2975 FAX:03-5734-3661 E-mail:hyo.koh.sya [at] jim.titech.ac.jp

第4回「学際計算科学による新たな知の発見・統合・創出」シンポジウム 平成24年度 学際共同利用成果報告会

開催案内

主催 筑波大学 計算科学研究センター
日時 平成24年10月25日(木) 9:00~18:00
会場 筑波大学 計算科学研究センター ワークショップ室
参加費 無料

プログラム

●発表10分+質疑3分

【座長】矢花一浩(計算科学研究センター)
9:00 「大規模固有値問題の並列アルゴリズムとその高性能実装技術の開発 」(FMOMO, H4ES)
櫻井 鉄也(筑波大学)
9:13 「原子レベルからのマルチスケール電気・熱伝導シミュレーション」(CMSLAB)
小林 伸彦(筑波大学)
9:26 「有限密度QCD」(XQCD)
武田 真滋(金沢大学)
9:39 「格子QCDによる K中間子崩壊振幅の研究」(KPIPI)
石塚 成人(筑波大学)
9:52 「生体高分子の機能メカニズムにおけるダイナミクスの役割」(QMMM)
舘野 賢(兵庫県立大学)
10:05 「First-principles based investigation of reaction on surfaces」(KASAIDYN)
Mohammad Kemal Agusta(大阪大学)
10:18 「次世代スーパーコンピュータに向けたグランドチャレンジ・アプリケーションの開発」 (PFLOPS)
高橋 大介(筑波大学)
休憩(10:31-10:45)
【座長】白石賢二(計算科学研究センター)
10:45 「格子QCDによるチャーモニウム・ハドロン相互作用の研究」(DWFHYP, CHARMNUC)
佐々木 勝一(東北大学)
10:58 「物理的クォーク質量における2+1/1+1+1フレーバー格子QCD」(LATTICE)
藏増 嘉伸(筑波大学)
11:11 「オーダーN 法 DFT 計算プログラムの大規模並列化と応用計算」(NIMSCQ)
宮崎 剛(物質・材料研究機構)
11:24 「原子核におけるα粒子凝縮」(KGUALPHA)
船木 靖郎(理研仁科センター)
11:37 「NICAMを用いた気候変動研究」(GEO)
寺崎 康児(国立極地研究所、筑波大学)
11:50 「系統樹探索のための最適化アルゴリズムの構築」(TREEOPT)
田邉 晶史(京都大学)
12:03 「銀河バイアスの理解に向けた宇宙論的スケールでのハロー・サブハローの大域的分布の研究」(GALSTAT)
西道 啓博(東京大学)
昼食(12:16-13:00)
【座長】 金谷和至(計算科学研究センター)
13:00 「複雑地形・都市を対象とした並列版LESモデルの開発とWRFモデルによる都市気候シミュレーション」(LES)
日下 博幸(筑波大学)
13:13 「格子QCDを用いた軽い原子核の研究」(LATNUC)
山崎 剛(名古屋大学)
13:26 「実空間密度汎関数コード"RSDFT"の開発と応用」(MAT)
岩田 潤一(東京大学)
13:39 「Vlasov方程式の直接数値計算による無衝突自己重力系のシミュレーション」(VLASOV)
吉川 耕司(筑波大学)
13:52 「ナノワイヤ型Siデバイスにおけるキャリア輸送および熱輸送に関する分子動力学シミュレーション」(EMCMD)
神岡 武文(早稲田大学)
14:05 「生体システムにおける分子メカニズムの理論的解明」(LSC)
庄司 光男(筑波大学)
14:18 「Cosmic evolution of galaxy」(GALEVO)
清水 一紘(大阪産業大学)
休憩(14:31-14:45)
【座長】橋本哲男(計算科学研究センター)
14:45 「気象研究所気候モデルMRI-CGCM3のT2Kへの移植: 性能評価と火山エアロゾルの予備実験」(MRIENV)
田中 泰宙(気象研究所)
14:58 「QCDによるバリオン間相互作用の研究」(BBILQCD)
井上 貴史(日本大学)
15:11 「モンテカルロ殻模型によるエキゾチックな核構」(MCSM)
清水 則孝(東京大学)
15:24 「RSPACEを用いた第一原理電子構造・輸送特性シミュレーション」(PSTCP)
小野 倫也(大阪大学)
15:37 「宇宙輻射流体による天体形成シミュレーション」(ASTRO)
梅村 雅之(筑波大学)
15:50 「超巨大データにおける系統樹の信頼性評価バイアス」(TREEBOOT)
田邉 晶史(京都大学)
16:03 「高強度パルス光と固体の相互作用に対する第一原理計算」(TDDFT)
矢花 一浩(筑波大学)
16:16 「TDDFT計算による重イオン核反応解析」(NUCLDFT)
矢花 一浩(筑波大学)
休憩(16:29-16:40)
【座長】梅村雅之(計算科学研究センター)
16:40 「ポストペタスケールコンピューティングのためのプログラミングモデルの研究 」(FP3C)
佐藤 三久(筑波大学)
16:53 「T2K-Tsukubaによる数値銀河考古学の研究」(GALAXIES)
森 正夫(筑波大学)
17:06 「phylogenomicデータの解析によるパルピトモナスの系統的位置の検証」(REALPHYL)
稲垣 祐司(筑波大学)
17:19 「原子核の密度汎関数理論を用いた二重ベータ崩壊行列要素と基底状態の計算」(TKBNDFT)
寺崎 順(筑波大学)
17:32 「Skyrme-QRPA for nuclear collective dynamics with HPC」(NQRPA)
寺崎 順(筑波大学)
17:45 「格子QCDによるpi-K系の散乱位相の研究」(HADSCAT)
佐々木 潔(東京工業大学)
17:58 「イノベーションを加速する最適化シミュレーション手法の開発」(SSALGO)
飯塚 幹夫(高度情報科学技術研究機構)

【つくば賞授賞式】青木慎也教授、石井理修准教授がつくば賞(平成24年度)を受賞しました

財団法人茨城県科学技術振興財団 第23回つくば賞ほかの授賞式・受賞記念講演会が、10月17日(水)、つくば国際会議場で行われました。つくば賞には、筑波大学計算科学研究センターの青木慎也(あおき・しんや)教授、石井理修(いしい・のりよし)准教授、理化学研究所の初田哲男(はつだ・てつお)主任研究員が選ばれており、賞状、メダルなどを受け取りました。授賞式は、第9回江崎玲於奈賞、第22回つくば奨励賞も合わせて行われました。

記念撮影
左から、江崎玲於奈理事長、青木慎也教授、石井理修准教授、初田哲男主任研究員、橋本 昌・茨城県知事。

対象となった研究主題は「格子量子色力学に基づく核力の研究」。素粒子・原子核物理にまたがる未解決の問題を理論的に最定式化し、スーパーコンピュータを用いた大規模数値計算によって解明に導きました。これは、湯川秀樹以来の「核力」の問題に解答を得たと同時に、素粒子・原子核物理の新たな地平を拓いたという意義を持ちます。

青木教授による受賞記念講演では、まず「核力」「量子色力学」「格子」の意味をじっくり説明したうえで、研究の概要について述べました。研究内容の一方で、研究の足取りについても語りました。3人の共同研究は2005年頃から始まり、2006年に高エネルギー加速器研究機構に新規導入されたスパコンを使い、2007年に論文を発表。それが評価されて今回の受賞に至りました。

青木慎也教授の受賞コメント再掲
「この度は、つくば賞という素晴らしい賞に選ばれ、光栄であると同時に大変うれしく思っています。筑波大学の同僚をはじめとする多くの方々の協力なしに、この研究を成し遂げることはできませんでした。ここに感謝いたします。
この研究に関しての最初の論文を発表してからすでに5年が経ちました。しかし、我々の提案した方法の発展や応用はまだ続いており、研究は発展途上です。さらに良い成果を積み重ねて、この研究分野を完成させるために、よりいっそうの努力をしていきたいと考えています。」


スピーチする青木教授(左)と石井准教授(右)

関連URL

筑波大学HP受賞・表彰 http://www.tsukuba.ac.jp/cgi-bin/awards/award.cgi
仁科加速器研究センター|初田哲男主任研究員/副センター長(初田量子ハドロン物理学研究室)らが第23回つくば賞を受賞 http://www.nishina.riken.jp/news/2012/20121019.html

筑波大学 計算科学研究センター設立20周年記念シンポジウム -エクサスケールコンピューティングへの学際計算科学の展開-

筑波大学開学40+101周年記念事業
第3回「学際計算科学による新たな知の発見・統合・創出」シンポジウム

開催案内

主催 筑波大学 計算科学研究センター
日程 平成24年9月7日(金) 10:00~18:00
会場 つくば国際会議場(エポカルつくば) 中ホール300 (交通アクセス)
懇親会 18:30~20:30(つくば国際会議場内レストラン エスポワール)
参加費 シンポジウム無料、懇親会4000円
プログラム こちら

120801[pdf 336KB]

参加申込み

事前登録は終了しました。当日、直接会場にお越しください。

シンポジウムの参加は無料です。
懇親会(会費4,000円)に参加されない場合でも登録をお願いします。

電源および無線LANについて:以下の2点を予めご了承ください
・座席に電源はついておりません。延長コードを用意しますが、参加される皆様全員には行き渡りません。
・無線LANは室内とロビーに用意いたしますが、一度に接続できる機器の数に限りがあります。

開催趣旨

 筑波大学計算科学研究センターは、前身の計算物理学研究センターが平成4年に設立されて以来、本年で20年を迎えることになりました。

 これまで本センターでは、平成4年度に計算物理学研究センターで開発された「超並列計算機CP-PACS」(1996年TOP 500世界1位)をはじめとして、平成17年度には「超並列クラスタPACS-CS」を開発するなど、最先端の大規模計算機の開発を行い、素粒子物理学を始めとする様々な大規模計算科学の研究を進めてきました。

 これらの大規模計算設備は共同利用・共同研究拠点「先端学際計算科学共同研究拠点」が実施する学際共同利用プログラムにおいて共同研究の大規模計算機設備として運用され、諸科学の計算科学の研究者とそれを支える計算機科学の研究者の密接な協力関係の下、最先端の大規模計算科学を推進してきました。

 20周年を迎えた本年、「筑波大学計算科学研究センター設立20周年記念シンポジウム」を開催いたします。スーパーコンピュータ「京」やそれを取り巻くHPCIの整備が運用の段階に入る中、これからエクサスケールに向かう計算科学の検討を本格化する時期に来ています。本シンポジウムでは、これまでの本センターでの活動を振り返り、それを踏まえ、エクサスケールコンピューティングにおいて、CP-PACS以来センターが推進してきた学際計算科学の役割を議論します。

プログラム

開会挨拶
10:00-10:05 開会挨拶
来賓挨拶・招待講演
10:05-10:15 学長挨拶
山田 信博(筑波大学 学長)
10:15-10:30 来賓挨拶
澤川 和宏(文部科学省研究振興局学術機関課長)
10:30-11:00 "Past 20 years and future of CCS – Overlapping with personal history -"
岩崎 洋一 (高エネルギー加速器研究機構 監事)
11:00-11:40 "Center for Computational Sciences – the crossroad between computational science and computer science -"
宇川 彰 (筑波大学 副学長・理事)
11:40-12:00 「計算科学研究センターのこれからの十年にむけて」
佐藤 三久 (筑波大学計算科学研究センター センター長)
昼食(12:00-13:00)
13:00-13:45 招待講演:
"International HPC – Building a Bigger Pyramid"
Richard Kenway(Vice Principal, Computational Science, National e-Science Centre)
13:45-14:30 招待講演:
"Titan: The importance of realizing hierarchical parallelism in the hybrid multicore era"
Julia C. White(Program Manager, INCITE, Oak Ridge National Laboratories)
coffee break(14:30-14:45)
講演:エクサフロップスに向けて
14:45-15:10 「演算加速機構を持つ将来のHPCIシステムに関する調査研究の概要」
佐藤 三久 (筑波大学計算科学研究センター センター長)
15:10-15:35 「エクサスケールシステムソフトウェア要件」
石川 裕 (東京大学大学院情報理工学系研究科 教授)
15:35-16:00 "Design Space Exploration of the Vector Processor Architecture using 3D Die-Stacking Technology"
小林 広明 (東北大学サイバーサイエンスセンター センター長)
16:00-16:25 「ポスト京からエクサフロップス機への取組み~アプリケーションサイドから」
富田 浩文 (理化学研究所計算科学研究機構 チームリーダー)
計算科学パネルセッション
16:40-18:00

計算科学パネルセッション-HPCの過去・現在・未来-
モデレーター:
・梅村 雅之 (筑波大学計算科学研究センター 副センター長)
パネリスト:
・富田 浩文 (理化学研究所計算科学研究機構 チームリーダー)
・観山 正見 (広島大学 特任教授、前国立天文台長 )
・重田 育照 (大阪大学大学院基礎工学研究科 准教授)
・藏増 嘉伸 (筑波大学計算科学研究センター 准教授)
・北川 博之 (筑波大学計算科学研究センター 教授)
・田中 博  (筑波大学計算科学研究センター 教授)

懇親会(18:30-20:30)

招待講演

Titan: The importance of realizing hierarchical parallelism in the hybrid multicore era

Julia C. White(Program Manager, INCITE, Oak Ridge National Laboratories)

The U.S. Department of Energy’s Office of Science is deploying through the Leadership Computing Facility program a 20+ petaflop Cray XK6 system in support of its basic and applied science missions. The heterogeneous architecture of “Titan” represents the future trend of high-performance systems on the path to exascale, and introduces additional levels of complexity in potential parallelism that researchers can exploit. Titan will be housed in the Oak Ridge Leadership Computing Facility at the Oak Ridge National Laboratory (ORNL) in the U.S. Julia White, INCITE program manager from ORNL, will describe the Titan system and several scientific applications selected for early transition to the GPU-based Titan. White will also describe the science missions enabled by Titan and the mechanisms for allocation if this resource.

お問い合わせ

シンポジウムに関するお問い合わせは電子メールにて、 
sympo2012[at]ccs.tsukuba.ac.jp 
までお送り下さい。

※スパム防止のためアットマークを[at]と表記しています。

XXIst International Symposium on the Jahn-Teller Effect

Important dates
21 September: deadline for paper submission
26 August 2012: welcome party
27-31 August 2012: conference

Sponsors:
University of Tsukuba
Center for Computational Sciences, University of Tsukuba
The Insutitute of NATURAL SCIENCES, College of Humanities & Sciences, Nihon University
Izumi Science and Technology Foundation
The Kyoto University Foundation
Tsukuba Expo’85 Memorial Foundation
Tsukuba Tourist and Convention Association (TTCA)
ScienceX Corporation

Auspices:
The Physical Society of Japan
The Chemical Society of Japan

Please see here for more details.

【受賞】青木慎也教授、石井理修准教授がつくば賞(平成24年度)を受賞しました

筑波大学計算科学研究センターの青木慎也教授、石井理修准教授、理化学研究所の初田哲男主任研究員が、第23回つくば賞(平成24年度)を受賞しました。対象となった研究主題は「格子量子色力学に基づく核力の研究」。授賞式は10月17日の予定です。

詳細は、茨城県科学技術振興財団ホームページ第9回江崎玲於奈賞、第23回つくば賞・第22回つくば奨励賞受賞者をご覧ください。

青木慎也教授の受賞コメント

「この度は、つくば賞という素晴らしい賞に選ばれ、光栄であると同時に大変うれしく思っています。筑波大学の同僚をはじめとする多くの方々の協力なしに、この研究を成し遂げることはできませんでした。ここに感謝いたします。
この研究に関しての最初の論文を発表してからすでに5年が経ちました。しかし、我々の提案した方法の発展や応用はまだ続いており、研究は発展途上です。さらに良い成果を積み重ねて、この研究分野を完成させるために、よりいっそうの努力をしていきたいと考えています。」

SiC/SiO2材料の境界面に生じる負の電荷の原因を解明-次世代パワーデバイス設計指針を計算科学によって構築-

プレスリリース

平成24年6月8日
筑波大学
つくばイノベーションアリーナナノテクノロジー拠点運営最高会議
つくばパワーエレクトロニクスコンステレーション(TPEC)

印刷用PDF [315KB]

ポイント

筑波大学計算科学研究センターの神谷克政助教と白石賢二教授を中心とする研究グループは、SiC/SiO2材料の境界面に生じる「負の固定電荷」の原因を解明しました。SiCは、省エネルギー社会実現の決め手となる次世代パワーデバイス(電力用半導体素子)開発に、最も適した材料と考えられています。ところが、表面にSiO2絶縁膜を形成させると、負の固定電荷が発生してしまう問題がありました。今回、その発生原因を解明したことで、SiCによるパワーデバイス開発に大きなブレークスルーを与えることができました。

筑波大学計算科学研究センターは、わが国のナノテクノロジー拠点であるつくばイノベーションアリーナ(TIA-nano)の中核機関であり、TIA-nanoの中でパワーデバイス開発を担当するコンソーシアム、つくばパワーエレクトロニクスコンステレーション(TPEC)にも参加しています。神谷助教らの研究グループは、筑波大学計算科学研究センターのスーパーコンピュータ「T2K-Tsukuba」を用い、最先端の計算科学手法「第一原理計算」により、SiC材料表面での化学反応過程を明らかにしました。この研究成果は、米学術誌「Applied Physics Letters」の100巻21号に掲載されました。

1.研究の背景

次世代の省エネルギー社会のあり方として期待される「スマートシティ*1」構想の実現には、画期的なパワーデバイス*2の実現が不可欠と考えられています。パワーデバイスは、送電線から送られる何万ボルトにも及ぶ電圧を、家庭や工場で用いる100 V程度の電圧に変換するときに主力となるデバイスです。家庭内でも近年、インバータ型エアコンの出現で省エネが進んだことはよく知られています。このインバータこそが、パワーデバイスの最も身近で典型的な例です。

省エネルギー社会実現のために不可欠なパワーデバイスですが、その材料には検討の余地が残されています。現在、主流となっているのはシリコン(Si)材料です。しかし、最もパワーデバイスに適した材料と考えられているのは、高い電圧耐性、高い熱伝導度をもつ炭化ケイ素(SiC)です。そのため、SiC材料で構成するパワーデバイスの研究・開発が盛んに行われています。SiをSiCに変えることで極めて高い省エネルギー効率が得られ、今後の超省エネルギー型スマートシティの実現に大きなブレークスルーを与えると考えられています。

パワーデバイスの中心となる「電界効果トランジスタ(MOSFET)」は、図1に示すように電子を取り出す「ソース」、電子が流れる「チャネル」、電子を受けとる「ドレイン」、それに電圧をかけて電子の流れをオン/オフする「ゲート」電極から構成されています。これまではソース、ドレインともにSi材料が用いられ、ゲート電極の下には電極から電流が下地に流れ込んでこないようにする絶縁膜として酸化ケイ素(SiO2)が用いられてきました。「チャネル」材料をSiからSiCに転換することで、大きな省電力効果が得られると考えています。

ところが、SiをSiCに変えたうえで絶縁膜であるSiO2を熱酸化によって形成するとき、大きな問題が生じることが知られています。代表的なSiCの熱酸化方法として、水によって酸化を進めるウエット酸化があります。酸化が速いために量産性の点で適していますが、この方法によって形成されたSiC/SiO2界面には、大量の負の固定電荷が生じます。これがSiCを材料とするMOSFETの特性を悪化させ、その実現を阻んできました。負の固定電荷が発生する原因を解明してそれを抑制することは、SiC材料によるパワーデバイスの実現にとって重要な課題の1つですが、20年近く未解明のままでした。

120608_1

図1 電界効果トランジスタ(MOSFET)

2.研究成果

筑波大学計算科学研究センターの神谷克政助教と白石賢二教授を中心とする研究グループは、上記の問題を解決するために、最先端の計算科学手法「第一原理計算」を用いて、原子レベルでSiCのウエット酸化過程で何が起こっているのかをスーパーコンピュータ「T2K-Tsukuba」の中で再現しました。その結果、SiC/SiO2界面に生じる負の固定電荷の原因を世界で初めて解明し、SiC材料で構成される次世代パワーデバイスの実現に大きなブレークスルーを与えました。

SiCが酸化されてSiO2絶縁膜になる際、余った炭素(C)原子がSiO2側に放出されます。放出されたC原子はウエット酸化で用いられる水に含まれる水素原子の影響によって、負の電荷をもつ炭酸イオン(CO3イオン)としてSiO2絶縁膜中に残ります。図2に示すように、SiO2中のC不純物の周囲のSi-O-C結合を水素原子がアタックすると、負電荷をもつ炭酸イオンが形成され、SiC/SiO2界面は負に帯電してしまうのです。

このように、SiC材料で構成されるMOSFETの負の固定電荷の原因が、水素原子の影響による炭酸イオンの形成であることが解明されました。この成果は、米国の学術誌「Applied Physics Letters」100巻21号に掲載されています。

120608_2

図2 SiO2中のC不純物の水素の影響による炭酸イオン化
新しい原理から得られるSiCパワーデバイス設計指針。SiCの熱酸化後に水素原子の残存量を低減することで、炭酸イオン(負電荷の起源)の形成を抑制できる。

3.波及効果と今後の展開

負の固定電荷の原因解明は、今後のSiCパワーデバイスの実現に大きな指針を与えることになります。SiC-MOSFETの技術が本研究成果により飛躍的に向上し、SiCパワーデバイスがインフラとして社会に本格的に普及し、スマートシティ実現に多大な貢献をすることが予想されます。今後の省エネルギー社会実現には、パワーデバイスに最も適した材料によるデバイスの実現がキーとなります。

4.TIA-nanoとTPEC

TIA-nano 世界水準の先端ナノテク研究設備・人材が集積するつくばにおいて、世界的なナノテクノロジー研究・教育拠点構築を目指しています。内閣府、文部科学省及び経済産業省からの支援を得て、産業技術総合研究所、物質・材料研究機構、筑波大学、および高エネルギー加速器研究機構が中核機関となり、産業界とも連携した取り組みです。2009年6月に中核機関の代表者及び日本経済団体連合会による共同宣言により誕生しました。

TPEC TIA-nanoを活用してパワーエレクトロニクス・オープンイノベーションの推進を目指す民活型の共同研究体です。2012年4月に発足しました。パワーエレクトロニクスに関連するわが国のグローバル企業が研究開発資金の大半を賄うことで、パワーエレクトロニクスのオープンイノベーション拠点を自立的に運営しています。研究開発と同時に、優秀な人材育成も行います。

5.用語解説

*1 スマートシティ
太陽光や風力など天候によって電力供給が左右される発電を利用する場合に、電力供給量に応じて都市全体としてエネルギー消費量を自動的に制御するシステム。自然エネルギーを用いた発電による社会の実現には不可欠です。

*2 パワーデバイス
発電所、電車、自動車などにおいて電圧変換、直流-交流変換に用いられるデバイス。パワーデバイスの損失の低減が、将来の省エネルギー社会実現へのキーとなります。

6.関連URL

筑波大学計算科学研究センター 量子物性研究部門

つくばイノベーションアリーナ

問い合わせ先

白石賢二
筑波大学計算科学研究センター/数理物質系教授
TEL 029-853-5911 E-mail:shiraishi [at] omas.frsc.tsukuba.ac.jp([at]を@に変えてください)
神谷克政
筑波大学数理物質系助教
TEL 029-853-5922 E-mail:kkamiya [at] comas.frsc.tsukuba.ac.jp([at]を@に変えてください)

報道担当:
筑波大学計算科学研究センター広報室
TEL 029-853-6260 E-mail:pr [at] ccs.tsukuba.ac.jp([at]を@に変えてください)
筑波大学広報室
TEL 029-859-2040 FAX 029-859-2014

GPUコンピューティングとOpenACCに関するセミナー(2012年5月31日)

本セミナーは終了しました。
講演資料をアップロードしました。(2012/6/1)

日時:2012年5月31日(木)13:00~15:30
場所:筑波大学計算科学研究センター ワークショップ室
主催:筑波大学計算科学研究センター、クレイジャパン

趣旨:
筑波大学計算科学研究センターの大規模GPUクラスタHA-PACSの運用開始にちなみ、GPUコンピューティングの最新情報及び新しいアクセラレータ向け言語拡張であるOpenACCに関するセミナーを開催します。セミナーではNVIDIA社の最新GPU動向、OpenACCの基礎及び応用事例の紹介、HA-PACSの見学会を行います。

プログラム

13:00~13:05  開催挨拶
佐藤三久(筑波大学計算科学研究センター センター長)

13:05~13:30  “NVIDIA GPU コンピューティング最新情報“(日本語)
吉田圭二(エヌビディア ジャパン Tesla Quadro事業部 セールス・マネージャー)

13:30~15:00  “OpenACC: A High Level Parallel Programming Model for Accelerated Computing“(英語)
Luiz DeRose (Sr. Principal Engineer, Programming Environment Director, Cray Inc)

15:00~15:30  “HA-PACSの概要説明と見学”
朴 泰祐(筑波大学計算科学研究センター 副センター長)

講演概要

“NVIDIA GPU コンピューティング最新情報” [pdf]
吉田圭二(エヌビディア ジャパン Tesla Quadro事業部 セールス・マネージャー)

GPUコンピューティングはアカデミック分野の最先端の研究から利用が始まり、徐々に適用分野を広げ、今や多くの分野で活用されてます。今年はNVIDIAのGPUアーキテクチャが一新され、GPUコンピューティングのさらなる飛躍が期待されてます。本講演では2012年5月14日~17日に米国サンノゼで行われたGTC 2012の最新情報をご紹介します。

“OpenACC: A High Level Parallel Programming Model for Accelerated Computing” [pdf]
Luiz DeRose (Sr. Principal Engineer, Programming Environment Director, Cray Inc)

現在のHPCシステムでは各種アクセラレータなどで構成されるヘテロジニアスシステムが台頭して来ています。その大きな課題の一つにプログラミングが非常に複雑になってきている事があります。Crayはこの問題解決の為、コンパイラ、ライブラリ、デバッガ、プロファイラその他開発ツールを相互に応用しプラグラミングの生産性を上げ、効率よく性能を引き出す為の研究開発を行っています。業界標準を目指したOpenACCはディレクティブを用いて、出来るだけ簡単にアクセラレータを活用したプログラム開発を可能にします。今回、OpenACC概要及びそのプログラミング例と性能事例、さらにCray開発ツー ルとOpenACCを組み合わせた利用方法についてもご紹介します。

1. Introduction and motivation
2. OpenACC overview
  o Execution and memory models
  o OpenACC Directives
  o CUDA Interoperability
3. Development cycle of application porting
  o Static analysis of the application (finding “hot loops”)
  o Scoping Analysis
  o Debugging OpenACC applications
  o Performance tuning of OpenACC applications
  o Scientific Libraries support
4. Practical case examples

LBNL and CCS-Tsukuba Joint Workshop 2012

Lawrence Berkeley National Laboratory and University of Tsukuba
March 19-20, 2012

CCS Workshop Room, Center for Computational Science, University of Tsukuba
1-1-1 Tennodai, Tsukuba, Ibaraki, 305-8573, Japan
https://www.ccs.tsukuba.ac.jp/eng/

This joint workshop aims at exploring the issues developing possible research collaboration and partnerships between the Lawrence Berkeley National Laboratory (LBNL) and the Center for Computational Science, University of Tsukuba (CCS-Tsukuba).

AGENDA

Monday, March 19, 2012, CCS Workshop Room

 9:30 – 9:45       Opening Remarks
 
 9:45 – 10:15     Mitsuhisa Sato, CCS-Tsukuba Director, Univ. of Tsukuba
Update of CCS [pdf 3.1MB]

10:15 – 10:45     David Brown, LBNL Division Director, LBNL
Computational Research at Lawrence Berkeley National Laboratory [pdf 5.6MB]

10:45 – 11:15     BREAK

11:15 – 11:45     Taisuke Boku, Univ. of Tsukuba
HA-PACS: A New Challenge for Accelerated Computational Sciences [pdf 2.6MB]

11:45 – 12:15     Costin Iancu, LBNL
Scalable Runtimes for Manycore Systems [pdf 1.1MB]

12:15 – 13:30     LUNCH

13:30 – 14:00     Khaled Ibrahim, LBNL
Efficient Virtualization for HPC Applications [pdf 1.0MB]

14:00 – 14:30     Yuetsu Kodama, Univ. of Tsukuba
Tightly Coupled Accelerator for HA-PACS [pdf 2.7MB]

14:30 – 15:00     Jun Terasaki, Univ. of Tsukuba
Large-Scale Calculations of Excited States of Heavy Nuclei [pdf 3.6MB]

15:00 – 15:30     BREAK

15:30 – 16:00     Peter Nugent, LBNL
Nyx: The Lyman Alpha Forest Cosmology Simulator [pdf 3.2MB]

16:00 – 16:30     Mitsuo Shoji, Univ. of Tsukuba
Computational Bioscience Utilizing Supercomputers: Performance and Applications [pdf 3.1MB]

16:30 – 17:00     DISCUSSION

 

Tuesday, March 20, 2012, CCS Workshop Room

 9:30 – 10:00     Osni Marques, LBNL
The ACTS Project: An Overview and Future Directions [pdf 2.4MB]

10:00 – 10:30     Miwako Tsuji, Univ. of Tsukuba
A Hierarchical Programming Model for Integration of Parallel Components with a Scientific Workflow Toward and Beyond Petascale Computing [pdf 2.0MB]

10:30 – 11:00     BREAK

11:00 – 11:30     Esmond Ng, LBNL
Matrix Computation in Large-Scale Nuclear Structure Calculations[pdf 17.1MB]

11:30 – 12:00     Tetsuya Sakurai, Univ. of Tsukuba
z-Pares: A Complex Moment Based Parallel Sparse Eigenvalue Solver Package [pdf 2.9MB]

12:00 – 12:30     DISCUSSION

 

 

 

 

筑波大学2011 BEST FACULTY MEMBER表彰式(2/28)

計算科学研究センター 高性能計算システム研究部門の髙橋大介准教授が、筑波大学2011 BEST FACULTY MEMBERに選ばれました。表彰式は以下のとおり行われます。式の模様はWeb中継されます。

日 時:2月28日(火)15:00~17:00
場 所:筑波大学 大学会館ホール
式次第:15:00~15:30 表彰式
    15:30~17:00 表彰教員による講演

詳しくは大学ホームページをご覧ください。