データセンター向けSSD への適用を目指した相変化デバイスの低消費電力動作に成功-“溶融しない”相変化で高速・低電力・1億回書き換え動作を実証

掲載情報:日経BP(12/10)、日刊工業新聞(12/11)

プレスリリース

データセンター向けSSD への適用を目指した相変化デバイスの低消費電力動作に成功-“溶融しない”相変化で高速・低電力・1億回書き換え動作を実証
 

2013年12月9日
超低電力デバイス技術研究組合
Low-power Electronics Association & Project (LEAP)

詳細PDF (701KB)

概要

超低電力デバイス技術研究組合(理事長:豊木則行、以下LEAPと略記)は国立大学法人筑波大学との共同研究により、データセンター向け固体ストレージSSD(Solid State Drive)への適用を目指した、相変化デバイスの高速・低電力・1億回動作に成功しました。
SSDの不揮発メモリには、現在、フラッシュメモリが用いられています。フラッシュメモリは多値記憶により大容量化を達成していますが、高い内部電圧が必要なことと低いデータ転送速度を補うために消費電力が増大する等の課題があります。今後、データセンターに用いられるSSDにはこれまでにない高速処理能力が求められます。特に、アクセスが集中するストレージ階層に相変化デバイスを使用し、これまでにない高速、低電力、高信頼などの特性を新たにSSDに付加することが重要です。
先のリリース(VLSI Tech.2013)では、抵抗変化でデータを保持する相変化デバイスにおいて、GeTe/Sb2Te3超格子膜の電荷注入による動作の機構を見出しました。今回は、書換動作後にGeTe/Sb2Te3超格子構造が保持されることを観測して、“溶融を伴わない”抵抗変化現象を実証しました。さらに、GeTe/Sb2Te3超格子結晶膜を高品質化することで、従来の相変化デバイスと比較して1/10以下の書き込み時間と書き込み電力、及び1億回以上の書換動作が可能となりました。開発した相変化デバイスを適用することで、これまでにない高速、低電力、高信頼などの特性をSSDに付加できます。さらに高性能化に伴ってチップ個数の削減による低コスト化などのシステムメリットをもたらすと同時に、データセンターの低電力化に貢献することが期待されます。今後、実用化を目指した集積化実証の研究開発を進めていきます。
本研究は、平成22 年度経済産業省産業技術研究開発委託費「低炭素社会を実現する超低電圧デバイスプロジェクト」に関する委託研究として実施ました。平成23 年度からは、独立行政法人新エネルギー・産業技術総合開発機構「低炭素社会を実現する超低電圧デバイスプロジェクト」に係る委託業務として実施しています。デバイス試作に関しては、独立行政法人産業技術総合研究所スーパークリーンルーム(SCR)を使用し、SCR運営室にご協力頂きました。

T2K-Tsukubaログインサーバへの不正アクセスについて:続報

筑波大学計算科学研究センター
平成25年11月29日

 T2K-Tsukubaログインサーバへの不正アクセスにより、全ユーザの暗号化されたssh公開鍵認証情報が取得された可能性があった件で、セキュリティ対策を完了しましたので、停止中のシステムを11/26に再稼働しました。再稼働後、しばらく状況を見守っておりましたが、現在のところ問題は発生しておりません。

 対策としては、公開鍵を全て更新し、ユーザに対してセキュリティレベル向上について具体的な指導を行いました。また、ログインサーバのOSを最新のLinuxに変更し、セキュリティ監視に関して万全の措置を施しました。

 スーパーコンピュータの運転が11/3から停止し、共同利用研究者の方々と関係機関の皆様にご迷惑をおかけしましたことを重ねてお詫びします。

問い合わせ先:
筑波大学計算科学研究センター広報室
TEL:029-853-6260(直通)、029-853-6487(代表)
Email:pr [at] ccs.tsukuba.ac.jp

関連記事
T2K-Tsukubaログインサーバへの不正アクセスについて

K computer Recognized in Class 1 and 2 of the HPC Challenge Awards

November 22, 2013

RIKEN
University of Tsukuba
Fujitsu Limited

[PDF 141KB]

Top honors awarded for productivity in a high-performance supercomputer parallel programming language implementation (a first for Japan) and overall performance

RIKEN, the University of Tsukuba and Fujitsu today announced that they were recognized in the 2013 HPC Challenge Awards. RIKEN and the University of Tsukuba received the prize in the HPC Challenge Class 2 Awards, which recognize the overall performance of a programming language. This recognition is based on performance results measured using the K computer for implementations of the high-performance supercomputer parallel programming language XcalableMP, which was jointly developed by RIKEN and the University of Tsukuba. This is the first time a Japanese organization has received the award.

Furthermore, RIKEN, the University of Tsukuba, and Fujitsu received top ranks in three of the four benchmarks at the 2013 HPC Challenge Class 1 Awards for the performance of the K computer. The first-place rankings were received in the following three benchmarks used for evaluating the all-around performance of a supercomputer: (1) Global HPL, which measures the floating point rate of execution for solving a linear system of equations; (2) EP STREAM (Triad) per system, which measures sustainable memory bandwidth and the corresponding computation rate for simple vector kernels; and (3) Global FFT, which measures the floating point rate of execution of double precision complex one-dimensional Discrete Fourier Transform.

With this, the K computer ranked first, for the third consecutive year from 2011 to 2013, in the HPC Challenge Class 1 Awards. The awards were announced on November 21, 2013 in Denver, Colorado at SC13, the International Conference for High Performance Computing, Networking, Storage and Analysis.

The HPC Challenge benchmarks are benchmark programs designed to evaluate the overall performance of supercomputers in terms of processing performance in 28 tests derived from frequently used computational patterns in the field of scientific computation. There are two classes of awards: Class 1, which measures benchmark performance values, and Class 2, which measures the productivity of programming language implementations.

The HPC Challenge Class 2 Award, the first to be received by a Japanese organization, is a contest for programming languages used in developing HPC applications. Among the 28 tests mentioned above, the award is designed to evaluate both programming language productivity and performance for four HPC Challenge benchmarks: Global HPL, which measures the floating point rate of execution for solving a linear system of equations; Global RandomAccess, which measures random memory access performance in parallel processing; EP STREAM (Triad) per system, which measures memory access speed under multiple loads; and Global FFT, which measures total performance of Fast Fourier Transform. Participants can also choose to include up to two additional benchmarks besides the HPC Challenge benchmarks for consideration, and the award is determined based on the total score for the implementations including the additional benchmarks.

The award-winning XcalableMP is a programming language that was jointly developed by the RIKEN Advanced Institute for Computational Science and the University of Tsukuba’s Center for Computational Sciences. The HPC Challenge benchmarks and the Himeno benchmark (a benchmark program to evaluate the performance of incompressible fluid analysis code) are the benchmarks that were implemented. The performance results of each of these benchmarks on K computer demonstrated that implementations using XcalableMP exhibit extremely high performance.

Programming languages that can be used to develop highly productive, high-speed applications that run on large-scale computation environments – such as K computer – make it possible to accelerate the pace of research. As a result, they are highly desirable by researchers both inside and outside Japan. The awards reveal both the high productivity and high performance of XcalableMP, in addition to demonstrating the substantial effectiveness of XcalableMP for developing HPC applications.

The K computer, which was developed jointly by RIKEN and Fujitsu as a part of the High-Performance Computing Infrastructure (HPCI) initiative led by Japan’s Ministry of Education, Culture, Sports, Science and Technology (MEXT), was opened to shared use in September 2012. The University of Tsukuba contributed extensively to increasing the computational speed for the Global FFT benchmark.

Additional Information

Press Contacts
RIKEN Advanced Institute for Computational Science
Office for Research Communications
Tel: +81-78-940-5623, 5624

University of Tsukuba
Public Relations Office, Center for Computational Sciences
pr [at] ccs.tsukuba.ac.jp

Fujitsu Limited
Public and Investor Relations Division
Inquiries: https://www-s.fujitsu.com/global/news/contacts/inquiries/index.html


About RIKEN
RIKEN is Japan’s flagship research institute devoted to basic and applied research. Over 2500 papers by RIKEN researchers are published every year in reputable scientific and technical journals, covering topics ranging across a broad spectrum of disciplines including physics, chemistry, biology, medical science and engineering. RIKEN’s advanced research environment and strong emphasis on interdisciplinary collaboration has earned itself an unparalleled reputation for scientific excellence in Japan and around the world. For more information, please see: http://www.riken.jp/

About University of Tsukuba
The University of Tsukuba aims to establish free exchange and close relationship in both basic and applied sciences with educational and research organizations and academic communities in Japan and overseas. The university makes a contribution to the world through its educational system that seeks to make the most of students’ creativity and individuality http://www.tsukuba.ac.jp/english/ https://www.ccs.tsukuba.ac.jp/eng/

About Fujitsu
Fujitsu is the leading Japanese information and communication technology (ICT) company offering a full range of technology products, solutions and services. Approximately 170,000 Fujitsu people support customers in more than 100 countries. We use our experience and the power of ICT to shape the future of society with our customers. Fujitsu Limited (TSE: 6702) reported consolidated revenues of 4.4 trillion yen (US$47 billion) for the fiscal year ended March 31, 2013. For more information, please see http://www.fujitsu.com.

All company or product names mentioned herein are trademarks or registered trademarks of their respective owners. Information provided in this press release is accurate at time of publication and is subject to change without advance notice.

 

スーパーコンピュータ「京」でHPCチャレンジ賞クラス1、2(初)を受賞 -スパコンの高性能並列言語の実装における生産性(日本初受賞)と総合的な性能が高い評価-

掲載情報:スポーツ報知(11/22)、日本経済新聞(11/22)、HPCwireJAPAN(11/26)マイナビニュース(2014/1/9)

プレスリリース

平成25年11月22日

独立行政法人理化学研究所
国立大学法人筑波大学
富士通株式会社

[印刷用PDF 394KB]

 理化学研究所(理研、野依良治理事長)と筑波大学(永田恭介学長)が共同開発したスーパーコンピュータ用並列言語「XcalableMP(エクスケーラブル・エム・ピー)※1 」による実装が、スーパーコンピュータ「京(けい)」※2で測定した結果により、プログラミング言語の総合的な性能を評価する「HPCチャレンジ賞※3クラス2」を日本で初めて受賞しました。

 また、理研、筑波大学および富士通(山本正已代表取締役社長)は、「京」で測定した、スパコンの総合的な性能を評価するHPCチャレンジベンチマーク※4の実測結果により、2013年「HPCチャレンジ賞クラス1」の4部門中3部門で第1位を獲得しました。第1位を獲得したのは、①Global HPL(大規模な連立1次方程式を解く演算速度)②EP STREAM(Triad) per system(多重負荷時のメモリアクセス速度)③Global FFT(高速フーリエ変換の総合性能)の3部門です。「京」は「HPCチャレンジ賞クラス1」を2011年より今年2013年まで3年連続第1位を獲得しています。米国デンバーで開催中のHPC(ハイパフォーマンス・コンピューティング:高性能計算技術)に関する国際会議「SC13」で21日(日本時間22日)に発表されました。

 HPCチャレンジベンチマークは、科学技術計算で多用される計算パターンから抽出した28項目の処理性能によって、スパコンの総合的な性能を多角的に評価するベンチマークプログラムです。ベンチマーク性能値を競うクラス1とプログラミング言語の実装における生産性の高さを競うクラス2があります。

 今回、日本で初めて受賞した「HPCチャレンジ賞クラス2」は、HPCアプリケーションを作成するプログラミング言語を対象としたコンテストです。本賞では、上記28項目のうち、Global HPL(大規模な連立1次方程式を解く演算速度)、Global RandomAccess(並列プロセス間でのランダムメモリアクセス性能)、EP STREAM(Triad) per system(多重負荷時のメモリアクセス速度)、Global FFT(高速フーリエ変換の総合性能)の 4つのHPCチャレンジベンチマークの実装に対して、プログラミング言語の生産性と性能の両方を評価するものです。また、HPCチャレンジベンチマーク以外にベンチマークを最大2つまで任意に追加可能であり、追加したベンチマークを含めた実装に対する総合評価によって受賞が決定されます。

今回受賞した並列言語XcalableMPは、理研計算科学研究機構と筑波大学計算科学研究センターが共同で開発を行っているプログラミング言語です。実装を行ったベンチマークは、HPCチャレンジベンチマークと姫野ベンチマーク※5です。これら全てのベンチマークについて「京」を用いて性能評価を行った結果、XcalableMPによる実装が非常に高い性能を発揮することを示しました。

 「京」のように大規模な計算環境で動作するアプリケーションを、高生産かつ高い性能で開発できるプログラミング言語は、研究のスピードを速めることができるため、国内外の多くの研究者から待ち望まれています。本受賞はXcalableMPの持つ高生産性と高性能性の両方を実証するものであり、HPCアプリケーションの開発に対してXcalableMPが極めて有効であることを示すものです。

 HPCチャレンジベンチマークの中で特に重要な①Global HPL②Global RandomAccess③EP STREAM(Triad) per system④Global FFTの4つについては、「HPCチャレンジ賞クラス1」として各部門の第1位が表彰されます。
筑波大学は、4つのベンチマークプログラムのうちGlobal FFTの高速化に大きく貢献し、その上で、理研、筑波大学、富士通は、これら4つのベンチマークプログラムの性能を「HPCチャレンジ賞クラス1」に登録しました。
2013年「HPCチャレンジ賞クラス1」4部門の上位3位は以下の通りです。

Global HPL 性能値(TFLOP/s) システム名 設置機関
1位 9,796 理研 計算科学研究機構
2位 1,534 Cray XT5 オークリッジ研
3位 1,344 Power 775 IBM
Global RandomAccess 性能値(GUPS) システム名 設置機関
1位 2,021 Power 775 IBM
2位 472 理研 計算科学研究機構
3位 117 IBM BG/P ローレンスリバモア研
EP STREAM(Triad) per system 性能値(TB/s) システム名 設置機関
1位 3,857 理研 計算科学研究機構
2位 525 Power 775 IBM
3位 398 Cray XT5 オークリッジ研
Global FFT 性能値(TFLOP/s) システム名 設置機関
1位 206 理研 計算科学研究機構
2位 133 Power 775 IBM
3位 12 NEC SX-9 海洋研究開発機構

関連リンク

・HPCチャレンジについて http://icl.cs.utk.edu/hpcc/index.html
・理研計算科学研究機構 http://www.aics.riken.jp/index.html
・筑波大学計算科学研究センター https://www.ccs.tsukuba.ac.jp/
・富士通「次世代スーパーコンピュータ」紹介サイト http://jp.fujitsu.com/about/tech/k/

補足説明

※1 XcalableMP(エクスケーラブル・エム・ピー)
スパコン等の大規模計算環境で動作する並列アプリケーションを簡易に開発できるプログラミング言語。XcalableMPを用いることにより、従来の方法と比較して、計算速度を保ったまま簡潔な記法で並列アプリケーションの開発が可能になる。
http://www.xcalablemp.org/index-jp.html

※2 スーパーコンピュータ「京(けい)」
文部科学省が推進する「革新的ハイパフォーマンス・コンピューティング・インフラ(HPCI)の構築」プログラムの中核システムとして、理研と富士通が共同で開発を行い、2012年9月に共用を開始した計算速度10ペタフロップス級のスーパーコンピュータ。「京(けい)」は理研の登録商標で、10ペタ(10の16乗)を表す万進法の単位であるとともに、この漢字の本義が大きな門を表すことを踏まえ、「計算科学の新たな門」という期待も込められている。

※3 HPCチャレンジ賞
HPCチャレンジベンチマークとは、科学技術計算で多用される計算パターンから抽出した28項目の処理性能によって、スパコンの総合的な性能を多角的に評価するベンチマークプログラム。そのHPCチャレンジベンチマークを基に評価するのがHPCチャレンジ賞である。HPCチャレンジ賞にはベンチマークの性能値を競うクラス1と、プログラミング言語の実装における生産性の高さを競うクラス2がある。クラス1は以下の4つの部門で構成され、それぞれシステムを構成する主要な要素(CPUの演算性能、メモリへのアクセス性能、ネットワークの通信性能)の性能が評価される。
・Global HPL:大規模な連立1次方程式を解く演算速度
・Global RandomAccess:並列プロセス間でのランダムメモリアクセス性能
・EP STREAM(Triad) per system:多重負荷時のメモリアクセス速度
・Global FFT:高速フーリエ変換(FFT)の総合性能
クラス2は、HPCアプリケーションを作成するプログラミング言語に対して与えられる。クラス1で用いられる4つのベンチマークから3つ以上を選択し、それらの実装に対するプログラミング言語の生産性とベンチマーク性能の両方を評価する。また、クラス1以外のベンチマークも最大2つまで任意に選択可能であり、全てのベンチマークの実装に対する総合評価によって決定される。

※4 ベンチマーク
コンピュータのハードウエア・ソフトウエアの動作速度を評価する基準。

※5 姫野ベンチマーク
非圧縮流体解析コードの性能評価を行うベンチマークプログラム。理化学研究所情報基盤センター長の姫野龍太郎博士が開発。
http://accc.riken.jp/2145.htm

報道担当・問い合わせ先

(問い合わせ先)
独立行政法人理化学研究所
計算科学研究機構 広報国際室
担当 岡田 昭彦
TEL:078-940-5625 FAX:078-304-4964
E-mail:aics-koho [at] riken.jp

(報道担当)
独立行政法人理化学研究所 広報室 報道担当
TEL:048-467-9272 FAX:048-462-4715

国立大学法人筑波大学 計算科学研究センター 広報室
TEL:029-853-6260 FAX:029-853-6260
E-mail:pr [at] ccs.tsukuba.ac.jp

富士通株式会社 広報IR室
TEL:03-6252-2174

スーパーコンピュータ「HA-PACS/TCA」がGreen500の第3位を獲得

筑波大学計算科学研究センターのスーパーコンピュータ「HA-PACS/TCA」が、世界で最もエネルギー消費効率の良いスーパーコンピュータをランキングする「Green500」最新版で第3位を獲得しました。米国デンバーで開催中のハイパフォーマンス・コンピューティングに関する国際会議「SC13」(米国デンバー)において、11月19日(日本時間20日)に発表されました。

HA-PACS/TCAは、2012年2月に稼働開始したHA-PACSの拡張部で、2013年10月に導入されました。各計算ノードは、NVIDIA社の高性能GPUであるK20Xをノード当たり4台搭載しており、同システムはこれを64台結合した超高性能GPUクラスタです。
Green500は消費電力当たりのLINPACK測定性能「HPLベンチマーク(MFLOPS/W)」で評価され、HA-PACS/TCAは3518 MFLOPS/Wでした。HPL効率は76%と、GPUクラスタとしては極めて高い効率を達成しました。
なお、1位は東京工業大学のTSUBAME-KFC(4503MF/W)、2位はケンブリッジ大学のWilkes(3631MF/W)でした。

HA-PACSプロジェクトについてはこちらをご覧ください。

s2P1060918

Green500表彰式が11月20日(日本時間21日)に行われました。

関連リンク
The Green500 List – November 2013
HA-PACSプロジェクト

T2K-Tsukubaログインサーバへの不正アクセスについて

筑波大学計算科学研究センター
平成25年11月14日

 T2K-Tsukubaログインサーバへの不正アクセスにより、全ユーザの暗号化されたssh公開鍵認証情報が取得された可能性があることがわかりました。

 センターでは、システムの運用を停止し、これまでの全ユーザの認証情報を削除しました。現在、各ユーザに対して、追跡調査を徹底し、新しい認証情報の登録を求めています。これらと並行して、システムのセキュリティを万全に確保した上でシステム再稼働を行う予定です。

 スーパーコンピュータの運転が停止し、共同利用研究者の方々と関係機関の皆様にご迷惑をおかけしましたことをお詫びします。

問い合わせ先:
筑波大学計算科学研究センター広報室
TEL:029-853-6260(直通)、029-853-6487(代表)
Email:pr [at] ccs.tsukuba.ac.jp

第5回「学際計算科学による新たな知の発見・統合・創出」シンポジウム -T2K-Tsukuba、HA-PACSによる計算科学の発展と、次世代コンピューティングの展望-

開催案内

主催 筑波大学 計算科学研究センター
日時 平成25年11月5日(火) 13:00~18:00
11月6日(水)9:30~16:30
会場 筑波大学大学会館 国際会議室
懇親会 11月5日(火)18:30~20:30 大学会館プラザ
参加費 シンポジウム参加無料、懇親会4000円
参加登録 登録は終了しました。

開催趣旨

 筑波大学計算科学研究センターは、1992年に設立された計算物理学研究センターを前身として、物理学・生命科学・地球科学などの科学の諸分野の研究者と計算機科学の研究者の協働により、最先端の大規模計算科学を推進してきました。また、全国的な計算科学の発展に寄与するべく、平成22年には文部科学省共同利用・共同研究拠点「先端学際計算科学共同研究拠点」の認定を受け、センターが運用する計算機システムT2K-Tsukuba、HA-PACSを利用する学際共同利用プログラムを推進しています。
 平成20年に運用を開始したT2K-Tsukubaは、これまで学際共同利用プログラムの中心となる計算機システムでしたが、平成26年2月末を持って5年間余の運用を終える予定です。そこで本シンポジウムでは、T2K-Tsukubaの果たした役割とその成果を取り上げます。また、文部科学省特別経費国際的に卓越した教育研究拠点機能の充実「エクサスケール計算技術開拓による先端学際計算科学教育研究拠点の充実」(平成23~25年度)により、密結合並列演算加速機構実証システム「HA-PACS」(Highly Accelerated Parallel Advanced system for Computational Sciences)が開発され、本年度より学際共同利用に供されています。さらに、本年3月には東京大学情報基盤センターと共同で、最先端共同HPC基盤施設を設置し、平成27年度には新たなスーパーコンピューターの運用を開始する予定です。本シンポジウムでは、これらの新たなプロジェクトの進捗と今後の展望について報告します。
 2日目は、平成24年度に行われた学際共同利用プログラムの成果発表、及び平成25年度に進行している課題の中間発表を行います。

プログラム

11月5日(火)

13:00~13:30 開会挨拶
三明康郎 筑波大学副学長
木村直樹 文部科学省研究振興局学術機関課長
梅村雅之 筑波大学計算科学研究センター長
[T2K-Tsukubaの成果]
13:30~13:50 「T2Kプロジェクトとシステムの紹介」
高橋大介(筑波大学計算科学研究センター)
13:50~14:20 「物理的クォーク質量における2+1/1+1+1フレーバー格子QCD」
蔵増嘉伸(筑波大学計算科学研究センター)
14:20~14:50 「銀河の衝突とその進化」
森正夫(筑波大学計算科学研究センター)
14:50~15:20 「RSDFTと大規模第一原理電子状態計算」
岩田潤一(東京大学大学院工学研究科)
休憩(15:20~15:50)
[HA-PACSプロジェクト]
15:50~16:30 「HA-PACSプロジェクトとベースクラスタ」
朴泰祐(筑波大学計算科学研究センター)
16:30~17:00 「HA-PACS/TCA:密結合演算加速機構について」
塙敏博(筑波大学計算科学研究センター)
[最先端共同HPC基盤施設]
17:00~17:30 「最先端共同HPC共用基盤施設の目的・概要」
佐藤三久(筑波大学計算科学研究センター)
17:30~18:00 「Post-T2K構想」
石川裕(東京大学情報基盤センター)
懇親会(18:30-20:30)

11月6日(水)

平成24年度成果報告/平成25年度中間報告
学際共同利用口頭発表1(25分×3件)[座長:小泉裕康(筑波大学)]
9:30~9:55 「QCDによるバリオン間相互作用」
根村英克(筑波大学計算科学研究センター)
9:55~10:20 「Formation and evolution of very high-z objects」
清水一紘(東京大学)
10:20~10:45 「中赤外線における原子電離過程の解明」
仝暁民(筑波大学計算科学研究センター)
ポスターのショートトーク(各2分、30件)(11:20~12:20)
学際共同利用ポスター発表(13:20~14:30)
学際共同利用口頭発表2(25分×4件)[座長:石塚成人(筑波大学)]
14:30~14:55 「GPU-TreeコードBonsaiを用いた銀河円盤のN体シミュレーション」
藤井通子(国立天文台)
14:55~15:20 「格子シミュレーションによる多フレーバゲージ理論の研究」
岩崎洋一(高エネルギー加速器研究機構)
15:20~15:45 「格子QCDを用いた軽い原子核の研究」
山崎 剛(名古屋大学素粒子宇宙起源研究機構)
15:45~16:10 「宇宙流体シミュレーションによる天体形成の研究」
梅村雅之(筑波大学計算科学研究センター)

計算科学研究センター 一般公開を行いました。(11/3)

P1060637P1060649

筑波大学学園祭(雙峰祭)期間中の11月3日(日)、一般公開(スーパーコンピュータ見学ツアー)を行いました。
133名の参加があり、幅広い年代の方にご来場いただきました。他県からお越しいただいた方も少なくなかったようでした。

40分間のツアーでは、計算科学とスーパーコンピュータについての簡単な説明の後、中尾昌広研究員の解説を聞きながら先日拡張されたばかりの「HA-PACS」を見学していただきました。スパコンの計算能力や、通信のしくみについてなどの質問がありました。

ツアー後半では、HA-PACSを使って素粒子物理学の研究を行っている滑川裕介研究員による、最先端の研究紹介を行いました。目では見えない素粒子の世界の研究をスパコンを使ってどのように行っているのか、伝わったでしょうか。

スーパーコンピュータ「HA-PACS」を拡張-1ペタフロップスを超える性能に

掲載情報:マイナビニュース(11/1)HPCwire Japan(11/2)、日経産業新聞(11/5)、インターネットコム(11/5)

プレスリリース

平成25年11月1日

国立大学法人筑波大学
クレイ・ジャパン・インク
エヌビディア ジャパン

[印刷用PDF 296KB]

スーパーコンピュータ「HA-PACS」を拡張-1ペタフロップスを超える性能に

HA-PACS_TCA_480

概要

 筑波大学計算科学研究センターは、スーパーコンピュータ「HA-PACS」に新規開発した「TCA機構」搭載部を拡張し、これまでの総ピーク演算性能802テラフロップス(毎秒802兆回)から1.166ペタフロップス(毎秒1166兆回)に増強させたスーパーコンピュータの運用を開始しました。

 「HA-PACS」は平成24年2月1日に運用を始めた、宇宙・素粒子・生命などの研究をけん引する最先端の超並列演算加速器クラスタ型スーパーコンピュータです。268台の計算ノードからなるベースクラスタシステムに、この度、同センターで開発した密結合並列演算加速機構(TCA機構)を装備した64台の計算ノードを追加しました。その結果、364テラフロップスの演算性能が増強され、システムの総ピーク演算性能は1.166ペタフロップス(毎秒1166兆回)となりました。筑波大学として初めて1ペタフロップスを超えるシステムです。

 TCA機構は、GPU*1を搭載したPCクラスタシステムの大きな問題であった、遠隔GPU間の通信性能の低さを改善する画期的な機構です。独自開発の通信用チップにより、これまでできなかった異なるノード上のGPU間の直接通信を実現。通信時間を大幅に短縮させて、GPUクラスタにおける演算性能を大きく改善させることが可能となりました。これにより、計算科学研究センターでは、並列GPU計算アプリケーション開発を加速させ、先進的計算科学研究を推進していきます。なお、HA-PACS/TCA部の構築は、システム実装及びTCA機構のGPU向け開発に際し、米エヌビディア社および米クレイ社の技術協力を得て進められました。

1. 背景

 10ペタフロップス級の性能がスーパーコンピュータ「京」によって実現された現在、演算性能をエクサ*2フロップス級(エクサはペタの1000倍)まで高めるための研究がすでに始まっています。しかし、1台の計算機で使用可能な電力や設置面積の制限から、このような超高性能を実現することはますます難しくなっており、何らかの演算加速装置*3を持つシステムが不可欠です。これらのシステムには、演算加速装置とCPUの間の通信や、並列演算加速装置間の通信における様々なボトルネックが存在します。加えて、超並列規模の演算加速装置を用いた大規模プログラムの開発には、アルゴリズムレベルからの改良など大きな人的コストと時間がかかります。

 筑波大学計算科学研究センターでは、高密度超並列GPUクラスタを最先端標準製品技術とわれわれ独自の技術の組み合わせにより実現し、これらの問題に挑戦します。このための研究基盤が「HA-PACS」です。最先端CPUとGPUの組み合わせによる超並列GPUクラスタを従来にない規模で定常的に並列利用することにより、エクサスケール時代につながる演算加速型アプリケーションの開発と、われわれが提唱する密結合並列演算加速機構アーキテクチャに基づく次世代GPUクラスタを実現します。ここで培われたハードウエア及びソフトウエアのシステム開発技術を、エクサスケールシステム実現への基盤技術として熟成させていきます。

2. 詳細

 筑波大学計算科学研究センターは、宇宙・素粒子・生命などの研究をけん引する最先端の超並列演算加速器クラスタ型スーパーコンピュータ、密結合並列演算加速機構実証システム「HA-PACS」(Highly Accelerated Parallel Advanced system for Computational Sciences)の導入を平成23年度から進め、平成24年2月1日にその基礎となるベースクラスタシステムの稼働を開始。さらに平成25年11月1より、独自開発による密結合演算加速機構TCA(Tightly Coupled Accelerators)を備えたHA-PACS/TCAシステムを追加した拡張システムを稼働しました。追加されたHA-PACS/TCAシステムの基本部分は米クレイ社により提供され、これに計算科学研究センターで開発されたTCA通信機構を搭載した通信ボードを装着することで、従来のシステムを大幅に上回るGPU間通信性能を持つシステムが実現されています。

 HA-PACS/TCAシステムは、米インテル社製の最新CPUであるE5-2680 v2を2基と米エヌビディア社製の最高性能GPUであるTesla K20Xを4基搭載した、コンパクトで先進的な計算ノードを64台結合した並列システムです。ノード単体のピーク演算性能は5.688テラフロップス(毎秒5兆6800億演算)に達し、これはGPUを搭載した標準的な2 CPUソケットタイプのサーバを利用したこの規模の超並列クラスタ型スーパーコンピュータとして世界最高クラスの性能となります。ベースクラスタシステムと一体となった並列処理が可能で、システム全体としての総ピーク演算性能は1.166ペタフロップス(毎秒1166兆回)となります。

 TCA機構は計算科学研究センターが提唱する「密結合並列演算加速」という概念を実現する新しい技術です。将来のエクサスケール計算システムにおいて、システムの省電力化は最重要課題の一つであり、限られた電力で特定の演算を超高速に実行可能な演算加速装置の重要性が注目されています。しかし、一般的に演算加速装置はその演算性能の高さに比べ、外部とのデータのやり取りを行う入出力部の性能が弱く、特に大規模並列処理に用いた場合、その潜在的性能が著しく制限されてしまう可能性があります。TCA機構はこの問題に対し、ハードウエアとソフトウエアの技術により、一つの答えを提供します。

 GPUを始めとする演算加速装置は、基本的にPCI Expressと呼ばれる標準バス(データ伝送路)によってCPUと結合され、計算の実行や並列処理におけるノード間通信などはCPUのメモリや結合網を用いて行われます。従来のPCI Expressバスは、CPUからの制御によってあらゆる通信が実行されていました。TCA機構は、このPCI Expressバスを計算ノード間通信に拡張し、ノードを超えた演算加速装置間の直接通信を実現することにより、演算加速装置が本来持つ性能を最大限に活かした新しい並列処理を実現する技術です。

 TCA機構をGPUに適用するため、われわれはPEACH2(PCI Express Adaptive Communication Hub ver.2)と呼ばれる通信チップを集積回路FPGAにより新規開発。このチップを搭載した通信ボードをHA-PACS/TCAの計算ノードに装着することにより、多数のGPU間の通信時間を数分の一程にする大幅な短縮を実現しました。

 また、TCA機構が対象とする演算加速装置としては、GPUだけでなくメニーコアプロセッサなどを利用することも可能で、われわれは将来的にいろいろな演算加速装置に適用した実験も視野に入れています。これらの実証実験で培われる新しい形の並列処理や、開発されるアルゴリズム及びアプリケーションは、次世代の超並列演算加速機構の開発につながるものと期待されます。

3.開発経緯とシステムの特徴

 計算科学研究センターは、平成23年度から文部科学省から国立大学法人運営費交付金特別経費を受け、3カ年計画で「エクサスケール計算技術開拓による先端学際計算科学教育研究拠点の充実」事業(責任者 佐藤三久教授)を推進しています。

 この事業は、超並列演算加速型クラスタ計算機の「HA-PACS」を開発・製作し、これを用いて宇宙・素粒子・生命の先端的な研究を推進し、さらに次世代の演算加速型並列システムの要素技術となる密結合並列演算加速機構の技術開発を行うものです。HA-PACSの基本部分となる超並列GPUクラスタは最先端コモディティ技術に基づくCPUとGPUを搭載したシステムとして調達します。密結合並列演算加速機構については、計算科学研究センターにおいてハードウエアからアプリケーションまでの開発を行い、HA-PACSの拡張部分として実装していきます。

システムの特徴

 HA-PACS/TCAは64台の計算ノードを持ち、クラスタグループと呼ばれる複数の計算ノード上のGPU間をTCAネットワークで結合し、さらに全計算ノード間を2本の並列QDR InfiniBandネットワーク*4でFat Tree結合した並列型のGPUクラスタ計算機です。全体で364テラフロップス(毎秒364兆回)のピーク計算性能、8テラバイトのメモリを持っています。既に稼働しているベースクラスタシステムと合わせ、総演算ピーク性能1.166ペタフロップスが実現されます。計算科学の大規模計算を実現可能とする特徴は次のとおりです。

  1. 独自開発のPEACH2チップ及びこれを搭載した通信ボードを64台の全ての計算ノードに装着することにより、併設するInfiniBandネットワークよりもはるかに短い時間での高速通信を実現します。また、単に通信が速いだけでなく、計算ノード上のGPUと他のノードのGPU間の直接通信が可能となり、これに基づく新たなGPUアプリケーションやアルゴリズムの開発を通じて、大幅な計算性能の向上が見込まれます。
  2. 豊富なPCI Expressチャネル数を持つ米インテル社の最新CPUであるE5 v2(IvyBridge-EP)プロセッサを2基搭載することにより、4基の最新型GPU(米エヌビディア社製Tesla K20X)をストレスなくCPUと結合させることを可能にしました。これにより、GPUへの通信性能を損なうことなく、5.688テラフロップスという世界最高クラスのノード単体性能を3U相当のコンパクトな構成で実現しました。
  3. TCA機構を持つ拡張部を既設のベースクラスタとInfiniBandネットワークによってシームレスに結合し、全システムで1ペタフロップスを超える超並列GPU計算を実行可能としました。

4.今後の見通し

 今回のHA-PACSの拡張により、科学技術の基礎となる大規模行列演算の並列処理の加速、宇宙物理分野における大規模並列処理の加速など、従来のGPUによる並列処理の効率を上げ、先端的計算科学の諸分野に貢献することが可能となります。

5.用語解説

*1 GPU
Graphics Processing Unitの略。本来PCサーバにおけるグラフィックス処理を目的として作られた専用プロセッサだが、近年はその高い演算性能とメモリバンド幅を利用した高性能計算への転用が活発化している。

*2 エクサ
10の18乗。ペタ(10の15乗)の1000倍。エクサフロップスとは、現在、スーパーコンピュータ「京」が持つ10ペタフロップスの性能の100倍、すなわち毎秒100京回の演算性能に相当する。

*3 演算加速装置
汎用計算を行うCPUに対する拡張機構として、PCI Expressなどの汎用バスを介して接続される高性能演算装置。計算を自律的に行うことは不可能で、CPUから起動されることにより、アプリケーションの一部または全部を高速に実行する。ただし、演算装置やアーキテクチャが高性能浮動小数点演算向けに特化され、必ずしも全てのアプリケーションプログラムが高速化されるとは限らない。一般的に利用可能な演算加速装置の例としては、GPUやメニーコアプロセッサなどがある。

*4 QDR InfiniBandネットワーク
高性能クラスタ型計算機で多用される高性能ネットワーク。Ethernetなどに比べて数倍~数十倍の通信性能を持ち、さらに数百~数千ノード規模のシステムをFat Treeと呼ばれるネットワーク構成で結合可能である。

6.関連情報

筑波大学計算科学研究センターホームページ
https://www.ccs.tsukuba.ac.jp/
「HA-PACS」プロジェクト特設ページ
https://www.ccs.tsukuba.ac.jp/research_project/ha-pacs/

<問い合わせ先>
梅村雅之(研究代表者)
筑波大学計算科学研究センター長/数理物質系教授
TEL 029-853-6485 E-mail:umemura[at]ccs.tsukuba.ac.jp
朴 泰祐(「HA-PACS」開発担当主査)
筑波大学計算科学研究センター/システム情報系教授
TEL 029-853-5518 E-mail:taisuke[at]cs.tsukuba.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL:029-853-6260(直通)、6487(代表) E-mail:pr[at]ccs.tsukuba.ac.jp

クレイ・ジャパン・インク 製品企画本部
TEL:03-3503-0901(代表) E-mail:jpsales_online[at]cray.com

エヌビディア ジャパン マーケティング本部 広報/マーケティングコミュニケーションズ
中村かおり
TEL: 03-6743-8712(直通) E-mail:knakamura[at]nvidia.com

計算科学研究センター一般公開「スーパーコンピュータを見に行こう!!」を11月3日(日)に開催します。

筑波大学学園祭(雙峰祭)期間中の2013年11月3日(日)、計算科学研究センター一般公開を開催いたします。所要時間約40分間の見学ツアーを4回用意し、団体見学も受け付けています。

スパコンってどんなもの?スパコンで何ができるの?2012年に導入した筑波大学の最新スーパーコンピュータ「HA-PACSシステム」を公開! スパコンと計算科学に関する疑問に答えます。

 

日時:2013年11月3日(日) 10:30/12:00/13:30/15:00
場 所:筑波大学 計算科学研究センター
参加費:無料。
団体見学可(事前にご連絡ください)

予約等は不要です。直接、計算科学研究センターへお越しください。

「計算科学研究センター 一般公開」は以下のイベントに参加しています。
第39回筑波大学学園祭「雙峰祭」(11月3日、4日)
国立大学フェスタ2013(10月1日~11月30日)

過去の一般公開

【受賞】塙敏博准教授が2013年度山下記念研究賞を受賞しました

筑波大学計算科学研究センターの塙敏博准教授が、2013年度情報処理学会 山下記念研究賞を受賞しました。受賞対象となった論文は、「Tightly Coupled Accelerators アーキテクチャ向け通信機構の予備評価」です。本論文は、計算科学研究センターで推進しているHA-PACSプロジェクトのうち、密結合並列演算加速機構(TCA:Tightly Coupled Accelerators)の開発に関するもので、当センターの高性能計算システム研究部門の研究によるものです。2012年度の朴泰祐教授に続き、HA-PACSプロジェクトとして2年連続の受賞となります。

授賞式は2014年3月11日(火)の第76回情報処理学会全国大会にて行われます。賞の詳細、推薦理由については一般社団法人情報処理学会2013年度(平成25年度)山下記念研究賞詳細のページをご覧ください。

第96回計算科学コロキウムを10月18日(金)10:30より行います。

第96回計算科学コロキウムを開催します。多数のご来聴をお願い致します。

講演者:Duncan Poole (NVIDIA, President of OpenACC)
題目:GPUDirect & OpenACC update
日時:平成25年10月18日(金)10:30~12:00
場所:筑波大学 計算科学研究センター ワークショップ室
配信:なし
概要:The presenter will speak on two topics. The first topic will be the latest advances on GPUDirect RDMA, and the road map of adoption by MPI vendors, and how customers may get engaged. The second topic will be an update on the OpenACC standard, the new features in OpenACC 2.0 and some discussion around how the standard is being adopted by commercial products and open source projects. An invitation to joining OpenACC can also be extended.

Duncan Poole, Bio:
Duncan Poole is responsible for strategic partnerships for NVIDIA's Accelerated Computing Division.
His responsibilities reach across the developer tool chain. To drive successful partnerships
where engineering interfaces are adopted by external parties building tools for accelerated computing.
This includes open standards, compilers, profilers, debuggers, performance analysis tools, compute and communications libraries.
He is responsible for NVIDIA's partnerships for MPI and their adoption of GPU Direct RDMA, especially in partnership with Mellanox.
Duncan is also the president of OpenACC, a member of OpenMP. These organizations encourage adoption of directives by developers wanting good performance and good portability in their accelerated code.

世話人: 塙 敏博(筑波大学 システム情報系・計算科学研究センター)

クォークから中性子星の構造解明へ道筋 -中性子星の最大質量とクォーク質量の関係が明らかに-

掲載情報:マイナビニュース(9/18)

プレスリリース

2013年9月13日
独立行政法人理化学研究所
学校法人日本大学
国立大学法人京都大学
国立大学法人筑波大学

印刷用pdf[1.26MB]

クォークから中性子星の構造解明へ道筋
-中性子星の最大質量とクォーク質量の関係が明らかに-

本研究成果のポイント

  • ○スーパーコンピュータの大規模シミュレーションと量子多体論を融合
  • ○中性子星内部の超高密度物質をあらわす「状態方程式」を導出
  • ○超新星爆発、中性子星合体などの爆発的天体現象の理論的解明に道筋

概要

理化学研究所(理研、野依良治理事長)、日本大学(大塚吉兵衛学長)、京都大学(松本紘総長)、筑波大学(永田恭介学長)は、スーパーコンピュータを用いた大規模数値シミュレーションと多粒子系の量子論である量子多体理論を用いて、中性子星の内部構造を表す「状態方程式[1]」を初めて理論的に導き出しました。これは、理研仁科加速器研究センター(延與秀人センター長)初田量子ハドロン物理学研究室の井上貴史客員研究員(日本大学生物資源科学部 准教授)、同 土井琢身研究員、京都大学基礎物理学研究所の青木慎也教授、筑波大学数理物質系の石井理修准教授をはじめとする共同研究チーム「HAL QCD Collaboration[2]」が、筑波大学計算科学研究センターのスーパーコンピュータ「T2K-Tsukuba[3]」を用いて得た成果です。

質量が大きな恒星はその晩年に超新星爆発を起こし、中性子星やブラックホールを生みだします。中性子星は、太陽と同程度の重さを持ちながら半径が約10kmであるため、中心密度が1cm3あたり1兆kgにも達する超高密度状態になります。中性子星の表面は原子核や電子からなり、内部に進むにつれて原子核が融けて一様な物質となると考えられていますが、その内部構造の詳細はいまだ謎に包まれています。

研究チームは、これまで蓄積してきた素粒子「クォーク[4]」同士に働く強い力の数値データを大規模数値シミュレーションで統合し、陽子や中性子(総称して核子)の間に働く核力を求めました。その計算結果と核子の集合体を扱う量子多体理論である「ブルックナー理論[5] 」を用いて、超高密度物質の状態方程式を導き出しました。さらに、この状態方程式と一般相対性理論を用いて、中性子星の質量と半径の関係や、強い重力場でブラックホールになる寸前の中性子星の性質とクォーク質量の関係を明らかにすることに成功しました。

今回の成果により、クォークを支配する量子色力学[6]から出発して中性子星の謎を解明する理論的道筋がついただけでなく、X線、電波、重力波などによる中性子星の今後の観測データと合わせて、超高密度における物質の究極構造の解明が期待できます。

本研究成果は、米国物理学会の学術誌『Physical Review Letters』に掲載されるに先立ちオンライン版(9月13日付、日本時間9月14日)に掲載されます。

1. 背景

中性子星は、質量が大きな恒星の進化の最終段階でおこる超新星爆発で生まれます。中性子星は、銀河系内でもすでに2000個近くが発見されています。太陽と同程度の重さを持ちながら、半径が約10kmであるため、中心密度が1cm3あたり1兆kgにも達する超高密度状態となります。中性子星の表面は原子核や電子からなり、内部に進むにつれて原子核が融けて一様な物質となると考えられていますが、内部構造の詳細はいまだ謎に包まれています。2010年には、太陽の約2倍の質量を持つ重い中性子星が新たに発見され、これに伴って内部構造に関するこれまでの理論の変更を迫られる可能性も出ています。さらに、日本をはじめ世界数カ所で建設中の重力波望遠鏡が数年後に稼働を始めると、2つの中性子星の合体から放射される重力波が検出できる可能性があり、内部構造の理解が大きく進むと期待されています。

私たちを取り巻く物質の究極の構成要素はクォークと呼ばれる素粒子です(図1)。このクォークの運動を支配する理論として、南部陽一郎博士(2008年ノーベル物理学賞受賞)が提唱した「量子色力学」があります。現代物理学における長年の課題の1つに、この量子色力学の基本方程式を解いて、物質質量の99.98%を担う原子核の性質や、究極の高密度天体である中性子星の性質を明らかにすることがあります。しかし、「現在でも核力の詳細を基本方程式から導くことはできない。核子自体がもう素粒子とは見なされないから、いわば複雑な高分子の性質をシュレーディンガー方程式から出発して決定せよというようなもので、むしろこれは無理な話である」(南部博士 著書『クォーク』より)と南部博士が述べているように、量子色力学から原子核や中性子星を解明するための道のりは困難を極めてきました。

図1 クォークと中性子星
図1 クォークと中性子星
ミクロの陽子、中性子や原子核も、マクロの中性子星も、全てクォークでできている。中性子星の一周は、山手線とほぼ同じ大きさになる。

複雑な量子色力学の計算を可能にする1つの方法として、米国のケネス ウィルソン博士(1982年ノーベル物理学賞受賞)が提唱した「格子ゲージ理論[7]」があります。これは、量子色力学を離散的な4次元時空格子上に構築するもので、スーパーコンピュータを使った大規模数値シミュレーションにより陽子や中性子の質量の精密計算が可能になりました。さらに、2007年に研究チームの石井、青木、初田は、格子ゲージ理論を用いて陽子や中性子の間に働く核力の性質を解明する方法を考案しました(N.Ishii, S.Aoki and T.Hatsuda, Physical Review Letters vol.99, p.022001,2007)。しかし、核子が多数集まった中性子星を直接計算することは、いかに高速のスーパーコンピュータが開発されても、現在知られている数値計算アルゴリズムを用いる限り不可能で、負符号問題[8]と呼ばれています。

2.研究手法と成果

研究チームは、格子ゲージ理論に基づく核力の計算結果を基に、負符号問題を回避しつつ中性子星の構造を研究する新たな道筋を構築しました(図2)。これは、以下の3段階のステップを踏んで行います。
まず、研究チームが蓄積してきたクォークに働く強い力の数値データを、筑波大学が保有するスーパーコンピュータ「T2K-Tsukuba」を用いた大規模数値シミュレーションで統合し、クォークの質量を仮想的に変化させると核力がどのように変わるかを求めました。格子ゲージ理論では、クォークの質量を計算機上で変えることが可能なので、実験では得られない豊富な情報を数値シミュレーションから引き出すことができます。

図2 本研究の流れ
図2 本研究の流れ
クォークの基礎理論である量子色力学から中性子星の内部構造を探るための新しい理論的道筋。

次に、得られた核力に陽子や中性子の集合体を扱う「ブルックナー理論」を適用して、原子核や中性子星内部のエネルギーや圧力を求めます。このエネルギーと圧力の関係は「状態方程式」と呼ばれ、体積変化や温度変化に対して物質がどのように応答するかの情報を与えてくれます。例えば、物質を圧縮したときの圧力上昇が大きい場合、物質は石のように硬くて押しにくいので、その状態方程式は“硬い”と呼ばれ、圧力上昇が小さい場合、ゴムまりのように柔らかくてつぶしやすいので、その状態方程式は“柔らかい”と呼ばれます。これまで、量子色力学に基づいて導かれた状態方程式は無く、研究チームはそのような状態方程式を導き出すことに初めて成功しました。得られた状態方程式は、クォーク質量を小さくすると硬くなる性質を持つことが分かりました。

最後に、得られた状態方程式とアインシュタインの一般相対性理論を用いて、中性子星の構造を計算します。中性子星内部では、強い重力場により物質が圧縮されていますが、状態方程式が硬いとつぶれにくいので、半径・質量ともに大きな中性子星になります。研究チームは、量子色力学から求めた状態方程式に基づき、数値シミュレーション上でクォーク質量を仮想的に変化させた時、中性子星の質量と半径の関係や、強い重力場でブラックホールになる寸前の中性子星の性質などが、どのように変わるかを求めることに成功しました。図3に示してある曲線は、これ以上重くなるとブラックホールに崩壊してしまう中性子星の質量(中性子星の最大質量)と半径を表したもので、線の上側はブラックホールになってしまう領域、下側は中性子星が存在できる領域です。クォークの質量を小さくすると、状態方程式が硬くなり、最大質量が上昇していくことが分かります。現実の値より10倍以上大きいクォーク質量で行われた今回の計算結果を、実際に観測されているクォーク質量に外挿すると(図3の点線)、2010年に観測された中性子星の質量と矛盾しないことが分かります。

図3  クォーク質量の変化に伴う中性子星の最大質量と半径
図3 クォーク質量の変化に伴う中性子星の最大質量と半径
今回導き出した状態方程式と一般相対性理論から、クォーク質量の変化に伴う中性子星の最大質量と半径の関係を求めた。質量は太陽質量を単位として、半径はkm単位で示されている。曲線の上側はブラックホールの領域となる。

3.今後の期待

今回の研究により、クォークを支配する量子色力学から出発して中性子星の謎に迫る理論的道筋がつきました。今後は、現実のクォーク質量での計算、2つの核子に働く2体核力だけでなく3つの核子に働く3体核力の導入、陽子や中性子以外のハイペロン[9]と呼ばれる核子の仲間の導入などを行うことで、中性子星に関する理論的予言をより精密にすることが必要です。このためには、理研で稼動しているスーパーコンピュータ「京」[10]が大きな力を発揮すると期待されます。このような理論的予言を、今後行われるX線や電波による中性子星の観測や、重力波を用いた中性子星合体現象の観測データと突き合わせることで、超高密度な物質の究極構造の解明が期待できます。


原論文情報:
Takashi Inoue, Sinya Aoki, Takumi Doi, Tetsuo Hatsuda, Yoichi Ikeda, Noriyoshi Ishii, Keiko Murano, Hidekatsu Nemura, Kenji Sasaki,“Equation of State for Nucleonic Matter and its Quark Mass Dependence from the Nuclear Force in Lattice QCD”, Physical Review Letters, (2013).

問い合わせ先

学校法人日本大学
生物資源科学部 
准教授 井上 貴史(いのうえ たかし)
e-mail: inoue.takashi[at]nihon-u.ac.jp

独立行政法人理化学研究所
仁科加速器研究センター
研究員 土井 琢身(どい たくみ)
e-mail: doi[at]ribf.riken.jp

国立大学法人京都大学
基礎物理学研究所
教授 青木 慎也(あおき しんや)
e-mail: saoki[at]yukawa.kyoto-u.ac.jp

国立大学法人筑波大学
数理物質系(計算科学研究センター)
准教授 石井 理修(いしい のりよし)
e-mail: ishiin[at]ccs.tsukuba.ac.jp

補足説明

[1] 状態方程式
巨視的な物質を特徴付ける状態量(温度、体積、圧力、内部エネルギーなど)の間の関係式。気体の状態方程式(PV=nRT)はその一例。

[2] HAL QCD Collaboration
Hadrons to Atomic nuclei from Lattice QCD Collaborationの略称。理研、日本大学、筑波大学、京都大学、東京大学の研究者からなる共同研究チーム。

[3] T2K-Tsukuba
筑波大学・東京大学・京都大学の3大学間で結ばれたT2Kオープンスーパーコンピュータ提携に基づき、2008年6月、筑波大学に導入された大規模PCクラスタ方式のスパコン。

[4] クォーク
物質を構成する基本要素。6種類のフレーバー(アップ、ダウン、ストレンジ、チャーム、ボトム、トップ)と3種類のカラー(赤、青、緑)を持つ。陽子はアップクォーク2つとダウンクォーク1つ、中性子はアップクォーク1つとダウンクォーク2つからできている。

[5] ブルックナー理論
強く相互作用する量子多体系を扱う理論。短距離で強い反発力を持つ陽子や中性子の集合体に対する状態方程式の導出に有用な方法。

[6] 量子色力学
クォークおよびクォーク間の相互作用を媒介するグルーオンを支配する基本理論。ゲージ理論の一種。南部陽一郎博士 (2008 年ノーベル物理学賞受賞)がその原型を提唱した。グロス博士、ウィルチェック博士、ポリツァー博士らが量子色力学の重要な性質である漸近自由性(高エネルギーになるほど相互作用が弱くなる現象)を理論的に発見し、2004年ノーベル物理学賞を受賞した。

[7] 格子ゲージ理論
量子色力学などのゲージ理論を、超立方格子の時空上で定式化する理論。モンテカルロ法などを使った大規模数値シミュレーションに適している。

[8] 負符号問題
被積分関数が激しく振動するような大自由度積分を、数値的に実行するときに現れる一般的困難。被積分関数の正負が互いに打ち消し合うために起こる。

[9] ハイペロン
アップ、ダウンだけでなく、ストレンジクォークを含むバリオン(クォーク3つからなる粒子)の総称。

[10] スーパーコンピュータ「京(けい)」
文部科学省が推進する革新的ハイパフォーマンス・コンピューティング・インフラ(HPCI)の中核システムとして、理研と富士通が共同で開発を行い、2012年9月に共用を開始した。1秒間に1京回(1兆の1万倍)の計算ができる計算速度10ぺタフロップス級のスーパーコンピュータ。

最先端共同HPC基盤施設の活動を開始 筑波大学と東京大学によるスーパーコンピュータ共同開発、共同運営・管理

掲載情報:日刊工業新聞(7/23)、日経産業新聞

プレスリリース

平成25年7月22日
国立大学法人 東京大学情報基盤センター
国立大学法人 筑波大学計算科学研究センター
最先端共同HPC基盤施設

印刷用pdf[158KB]

概要

筑波大学計算科学研究センター、東京大学情報基盤センターは、両センターの次期スーパーコンピュータシステムを設計し共同運営・管理するための組織として「最先端共同HPC基盤施設」(HPC:High Performance Computing)を設置しました。

7月16日に政府調達の官報公告が公示され、基本要求仕様を策定して企業からの意見を集める手続き(資料招請)を開始。同22日には導入説明会を行い、スーパーコンピュータ導入に向けた活動を始めました。

このような施設を設置し、スーパーコンピュータを共同運営・管理するのは国内初めての試みです。

1.背景

21世紀において世界の科学・技術をリードする立場を維持するには、世界最高水準のHPC基¬¬盤による計算科学の推進が重要です。理化学研究所計算科学研究機構で稼働しているスーパーコンピュータ「京」が世界最高速を達成し、平成24年から共用が開始されていますが、今後も世界最高水準を維持するには、HPC基盤を提供している情報基盤センター群やスパコンを所有する附置研究所が協力して体制を構築すべきであると考えます。

これを踏まえ、筑波大学計算科学研究センターと東京大学情報基盤センターは「最先端共同HPC基盤施設」を設置し、次期スーパーコンピュータの共同設計開発と共同運転・運営を行い、諸分野の研究に供して最先端の計算科学を推進することとしました。

両センターは、これまでの京都大学の学術情報メディアセンターを交えて3センターからなるT2Kオープンスーパーコンピュータアライアンスを結成し、それぞれの大学のスーパーコンピュータの共同仕様を策定・調達するプロジェクトを実施した実績があります。今回の協定による協力・連携は、それを一歩推し進めたものです。

2.協定の締結

平成25年3月、筑波大学と東京大学は、「計算科学・工学及びその推進のための計算機科学・工学の発展に資するための連携・協力推進に関する協定」を締結しました。本協定の下に、筑波大学計算科学研究センターと東京大学情報基盤センターは、「最先端共同HPC 基盤施設(JCAHPC:Joint Center for Advanced High Performance Computing)」を設置しました。

3.ミッション

最先端共同HPC 基盤施設は、東京大学柏キャンパスの東京大学情報基盤センター内に、両機関の教職員が中心となって設計するスーパーコンピュータシステムを設置し、最先端の大規模高性能計算基盤を構築・運営するための組織です。本施設を連携・協力して運営することにより、最先端の計算科学を推進し、我が国の学術及び科学技術の振興に寄与していきます。

最先端共同HPC 基盤施設では、我が国の計算科学の拠点を担うに足る大規模HPCシステムの設計・開発を行います。既存のスーパーコンピュータ製品にとらわれず、先端技術をタイムリーに取り込んだ大規模HPCシステムを設計します。現在のHPCシステム「開発」の重点は、利用可能な高性能コンポーネントを最適になるように構成することです。これからのHPCシステムの中心的なテクノロジーであるメニーコアを利用し、最先端のシステムを構築します。さらに、システムソフトウエアの核となる技術である、OS、プログラミング言語、数値計算ライブラリなどを、他の組織とも連携しながら研究開発していきます。

この設計・開発をもとにスーパーコンピュータを共同調達し、共同で運営・運転を行います。筑波大と東大の両センターは計算利用量(計算時間×ノード数)をもってシステムを案分し、センターごとに運用を行い、それぞれの利用プログラムによって各ユーザーに対するサービスを提供します。これにより、管理等のコストが削減されるだけでなく、各センターが単独でスーパーコンピュータシステムを保有する場合より大規模な計算が可能となります。このような施設を作り、スーパーコンピュータを共同運営・管理するのは国内初めての試みです。

4.計画・スケジュール

7月16日(火)の政府調達の官報公告公示日に、設計中のスーパーコンピュータシステムの実現性を調査するために基本要求仕様を策定し企業からの意見を集める手続き(資料招請)を開始しました。7月22日(月)にはそれぞれのセンターにおいて導入説明会を行いました。

本スーパーコンピュータシステムは、平成27年4月以降に設置、稼働する予定です。

なお、平成25年7月24日(水)13:30より、東京大学柏キャンパス図書館メディアホールにおいて「最先端共同HPC基盤施設発足記念シンポジウム」を開催し、本施設の概要および取り組みを紹介します。

5.ホームページなど

最先端共同HPC基盤施設 http://jcahpc.jp/
発足記念シンポジウム http://jcahpc.jp/sympo.html

6.問い合わせ先

東京大学情報システム部 情報戦略課総務チーム(情報基盤センター事務担当)
TEL:03-5841-2710 E-mail:itc-press [at] itc.u-tokyo.ac.jp

筑波大学計算科学研究センター 広報室
TEL:029-853-6260 E-mail:pr [at] ccs.tsukuba.ac.jp

2013 CCS-EPCC Workshop

CCS – EPCC (Edinburgh Parallel Computing Centre) Joint Workshop

July. 4, 2013 10:00-17:30, International workshop room, CCS 1F

July. 5, 2013 9:30-13:30, International workshop room, CCS 1F

CCS-EPCC Workshop

July 4th

10:00-10:10 Mitsuhisa Sato (CCS, University of Tsukuba)
Welcome Address
10:10-10:50 Taisuke Boku (CCS, University of Tsukuba)
HA-PACS/TCA: Low latency communication among accelerators and its experimental platform
10:50-11:30 Xiao-Min Tong (CCS, University of Tsukuba)
Time-dependent method in laser-material interactions —a hybrid method of using OpenMP + MPI + CUDA C in Fortran
11:30-12:10 Adrian Jackson (EPCC, The University of Edinburgh)
HPC at EPCC, The University of Edinburgh
12:10-13:30 LUNCH
13:30-14:10 Masayki Umemura (CCS, University of Tsukuba)
HPC at CCS, University of Tsukuba
14:10-14:50 Yoshinobu Kuramashi (CCS, University of Tsukuba)
Lattice QCD on K computer and HA-PACS
14:50-15:30 Peter Boyle (EPCC, The University of Edinburgh)
Hierarchically Deflated Conjugate Gradient
15:30-15:50 BREAK
15:50-16:30 Yoshinari Kameda (CCS, University of Tsukuba)
Computational Media: Challenges to Enhance Computer Vision and Augmented Reality
16:30-17:10 Ruyman Rayes (EPCC, The University of Edinburgh)
Overview of OpenACC and the SHMEM implementation of GROMACs
17:10-17:30 PICTURE TAKING & SITE VISIT OF SUPERCOMPUTERS

July 5th

09:30-10:10 Mitsuhisa Sato (CCS, University of Tsukuba)
Feasibility Study on Next Generation Supercomputer
10:10-10:50 Nick Brown (EPCC, The University of Edinburgh)
Type oriented parallel programming and scalable linear solvers
10:50-11:30 Kohji Yoshikawa (CCS, University of Tsukuba)
Vlasov-Poisson Simulation of Astrophysical Self-Gravitating Systems
11:30-11:50 BREAK
11:50-12:30 Mitsuo Shoji (CCS, University of Tsukuba)
Computational Bioscience Utilizing Supercomputers: Performance and Applications
12:30-13:10 Toni Collis (EPCC, The University of Edinburgh)
Porting the DFT code, CASTEP, to GPGPUs
13:10-13:30 FUTURE PLAN & WRAP UP
13:30- LUNCH

 

2013 CCS-EPCC Workshop(2013年7月4日、5日)

CCS – EPCC (Edinburgh Parallel Computing Centre) Joint Workshop

日時:7月4日(木) 10:00-17:30、7月5日(金) 9:30-13:30

場所:計算科学研究センター 国際ワークショップ室

p1060304

July 4th

10:00-10:10 Mitsuhisa Sato (CCS, University of Tsukuba)
Welcome Address
10:10-10:50 Taisuke Boku (CCS, University of Tsukuba)
HA-PACS/TCA: Low latency communication among accelerators and its experimental platform
10:50-11:30 Xiao-Min Tong (CCS, University of Tsukuba)
Time-dependent method in laser-material interactions —a hybrid method of using OpenMP + MPI + CUDA C in Fortran
11:30-12:10 Adrian Jackson (EPCC, The University of Edinburgh)
HPC at EPCC, The University of Edinburgh
12:10-13:30 LUNCH
13:30-14:10 Masayki Umemura (CCS, University of Tsukuba)
HPC at CCS, University of Tsukuba
14:10-14:50 Yoshinobu Kuramashi (CCS, University of Tsukuba)
Lattice QCD on K computer and HA-PACS
14:50-15:30 Peter Boyle (EPCC, The University of Edinburgh)
Hierarchically Deflated Conjugate Gradient
15:30-15:50 BREAK
15:50-16:30 Yoshinari Kameda (CCS, University of Tsukuba)
Computational Media: Challenges to Enhance Computer Vision and Augmented Reality
16:30-17:10 Ruyman Rayes (EPCC, The University of Edinburgh)
Overview of OpenACC and the SHMEM implementation of GROMACs
17:10-17:30 PICTURE TAKING & SITE VISIT OF SUPERCOMPUTERS

July 5th

09:30-10:10 Mitsuhisa Sato (CCS, University of Tsukuba)
Feasibility Study on Next Generation Supercomputer
10:10-10:50 Nick Brown (EPCC, The University of Edinburgh)
Type oriented parallel programming and scalable linear solvers
10:50-11:30 Kohji Yoshikawa (CCS, University of Tsukuba)
Vlasov-Poisson Simulation of Astrophysical Self-Gravitating Systems
11:30-11:50 BREAK
11:50-12:30 Mitsuo Shoji (CCS, University of Tsukuba)
Computational Bioscience Utilizing Supercomputers: Performance and Applications
12:30-13:10 Toni Collis (EPCC, The University of Edinburgh)
Porting the DFT code, CASTEP, to GPGPUs
13:10-13:30 FUTURE PLAN & WRAP UP
13:30- LUNCH

 

「最先端共同HPC基盤施設発足記念シンポジウム」を7月24日(水)に行います。

2013年3月、筑波大学と東京大学は、計算科学・工学及びその推進のための計算機科学・工学の発展に資するため、最先端共同HPC 基盤施設の設置に合意し、協定を締結しました。最先端共同HPC 基盤施設は、東京大学柏キャンパスの東京大学情報基盤センター内に、双方のスーパーコンピュータシステムを設置して、最先端の大規模高性能計算基盤を構築・運営するための組織です。この施設を連携・協力して運営することにより、最先端の計算科学を推進し、我が国の学術及び科学技術の振興に寄与していきます。

本施設発足を記念して、本施設および本施設に設置するスーパーコンピュータの研究開発構想、それぞれの大学の計算科学・計算機科学の取り組みをご紹介します。

日時:2013年7月24日(水) 13:30~17:00(17:30~19:30 懇親会)

会場:東京大学柏キャンパス図書館メディアホール
   http://www.kashiwa.u-tokyo.ac.jp/tpp40.html

事前登録:2013年7月15日(月)17:00 ※事前登録は締め切りました。

プログラム

13:00 受付開始
13:30 ご祝辞・ご挨拶
林 孝浩(文部科学省研究振興局 参事官(情報担当)付計算科学技術推進室長)
宇川 彰(HPCIコンソーシアム理事長、筑波大学教授)
松本 洋一郎 (東京大学理事・副学長)
三明 康郎 (筑波大学理事・副学長)
14:10~14:40 施設の目的・概要の説明
佐藤 三久(施設長、筑波大学計算科学研究センター)
14:40~15:10 PostT2K構想
石川 裕(副施設長、東京大学情報基盤センター)
15:10~15:30 休憩
15:30~16:00 筑波大学の取り組み
朴 泰祐(筑波大学計算科学研究センター)
16:00~16:30 筑波大学のアプリの計画・期待
梅村 雅之(筑波大学計算科学研究センター)
16:30~17:00 東京大学の取り組み
中島 研吾(東京大学情報基盤センター)
17:30~19:30 懇親会(参加費:4,000円予定)

「宇宙生命計算科学連携拠点」ワークショップ(2013年6月28日、29日)

日時: 平成25年6月28日(金) 10:00-18:00、6月29日(土) 10:00-17:00

場所: 筑波大学 計算科学研究センター ワークショップ室

プログラム

「宇宙生命計算科学連携拠点」ワークショップ・プログラム[pdf]

発表15分+質疑5分

6月28日(金)

10:00 「宇宙生命計算科学連携拠点」について
梅村 雅之 (筑波大学 計算科学研究センター)
10:20 地球型惑星形成
小久保 英一郎 (国立天文台 理論研究部)
10:40 ハビタブル惑星の存在確率の理論的推定
井田 茂 (東京工業大学 地球生命研究所)
11:00 偏極量子ビームによる生体有機物キラリティ発現実験&
アミノ酸とその前駆分子の円二色性スペクトル第一原理計算

高橋 淳一 (日本電信電話(株) 先端技術総合研究所)
11:20-11:30 休憩
11:30 ペプチドの構造の分子動力学シミュレーションによる研究
高須 昌子 (東京薬科大学 生命科学部)
11:50 地球流体電脳倶楽部-知見情報集積とシミュレーションモデル開発の試み-
林 祥介 (神戸大学 理学研究科 地球惑星科学専攻)
12:10 同期回転惑星の気候学
石渡 正樹 (北海道大学大学院 理学研究院)
12:30-13:40 昼食
13:40 演算加速装置と通信機構の融合によるHPCの新展開
朴 泰祐(筑波大学 計算科学研究センター)
14:00 星周円盤の重力不安定による惑星形成
町田 正博 (九州大学 大学院理学研究院)
14:20 乱流分子雲と分子雲コアにおける星形成
松本 倫明 (法政大学 人間環境学部)
14:40 原始惑星系円盤を探る輻射輸送計算
中本 泰史 (東京工業大学 地球惑星科学)
15:00-15:20 休憩
15:20 初期太陽系におけるL型アミノ酸過剰の起源の第一原理計算による研究
白石 賢二 (名古屋大学大学院 工学研究科 計算理工学専攻)
15:40 分子軌道計算プログラムOpenFMOのGPGPU化
梅田 宏明 (筑波大学 計算科学研究センター)
16:00 銀河形成・進化の理論研究
森 正夫 (筑波大学計算科学研究センター)
16:20 円盤ダイナモの3次元シミュレーション
松元 亮治 (千葉大学大学院 理学研究科)
16:40 Hras-GTP 複合体における GTP 加水分解の MD シミュレーションによる研究
宮川 毅 (東京薬科大学 生命科学部)
17:00-18:00 自由討論

6月29日(土)

11:20-11:30休憩

10:00 星間および惑星大気中での高分子有機物の生成と生命の起源
小林 憲正 (横浜国立大学大学院 工学研究院)
10:20 シンクロトロン放射を用いたアミノ酸の円二色性測定
中川 和道 (神戸大学 人間発達環境学研究科)
10:40 第一原理計算に基づく反応解析
重田 育照 (大阪大学大学院 基礎工学研究科)
11:00 計算科学に基づくナノ・バイオ物質の機能・構造・電子状態の研究
神谷 克政 (筑波大学 数理物質系 物理学域)
11:30 L型アミノ酸生成機構とバイオマーカーのための光合成光吸収機構についての理論的研究
庄司 光男 (筑波大学 計算科学研究センター)
11:50 量子化学計算による金属錯体の触媒機構の解明
栢沼 愛 (筑波大学 システム情報系 情報工学域)
12:10 星惑星系形成での星間化学計算
相川 祐理 (神戸大学 理学部)
12:30-13:40 昼食
13:40 惑星大気大循環モデルを用いた数値シミュレーション
高橋 芳幸 (神戸大 惑星科学研究センター)
14:00 高レイノルズ数乱流の渦構造について
石原 卓 (名古屋大学大学院 工学研究科 附属連携教育研究センター)
14:20 火星大気における傾圧不安定波の理論的研究
田中 博 (筑波大学 計算科学研究センター)
14:40 回転球殻対流問題~天体内部流体運動の基礎問題として
竹広 真一 (京都大学 数理解析研究所)
15:00-15:20 休憩
15:20-16:30 総合討論

 

データセンター向けSSDへの適用を目指した相変化デバイスの低消費電力動作に成功

プレスリリース

データセンター向けSSDへの適用を目指した相変化デバイスの低消費電力動作に成功-GeTe/Sb2Te3超格子膜の電荷注入機構を発見、低消費電力動作を実証
 

2013年6月10日
超低電力デバイス技術研究組合
Low-power Electronics Association & Project (LEAP)

詳細 PDF[567KB]

概要

独立行政法人 新エネルギー・産業技術総合開発機構(理事長:古川一夫/以下、NEDOと略記)と超低電力デバイス技術研究組合(理事長:豊木則行/以下、LEAPと略記)は国立大学法人筑波大学との共同研究により、データセンター向け固体ストレージSSD(Solid State Drive)への適用を目指した、低消費電力で動作する相変化デバイスの動作実証に成功しました。
SSDの不揮発メモリには、現在、フラッシュメモリが用いられています。フラッシュメモリは多値記憶(2ビット記憶)により大容量化を達成していますが、高い内部電圧が必要なことと低いデータ転送速度を補うために消費電力が増大する等の課題があります。今後、データセンターに用いられる SSDにはこれまでにない高速処理能力が求められます。特に、アクセスが集中するストレージ階層に相変化デバイスを使用し、これまでにない高速、低電力、高信頼などの特性を新たにSSDに付加することが重要です。
今回、抵抗変化でデータを保持する相変化デバイスにおいて、GeTe/Sb2Te3超格子膜の電荷注入による動作の機構を見出しました。さらに、ばらつきの少ないGeTe/Sb2Te3超格子結晶膜を得ることで、従来の相変化デバイスと比較して1/2以下の電圧と1/3以下の電流での動作が可能となりました。開発した相変化デバイスを適用することで、これまでにない高速、低電力、高信頼などの特性をSSDに付加できます。さらに高性能化に伴ってチップ点数の削減による低コスト化などのシステムメリットをもたらすと同時に、データセンターの低電力化に貢献することが期待されます。今後、実用化を目指した集積化実証の研究開発を進めていきます。

計算科学研究センター 一般公開を行いました。(4/20)


第54回科学技術週間(4/15~21)期間中の4月20日(土)、2013年度筑波大学計算科学研究センター一般公開「新型スーパーコンピュータを見に行こう!!」を行いました。85名(うち高校生以下が23名)が来場され、40分間の見学ツアーなどを楽しんでいました。来場者は簡単なセンター紹介を受けた後、梅田宏明研究員(高性能計算システム研究部門)の解説を聞きながらスーパーコンピュータ「HA-PACS」を間近に見て、その大きさや空冷ファンの“騒音”に驚いていました。ツアー後半は、HA-PACSを使って天文学の研究を行う行方大輔研究員(宇宙物理分野)の話に聞き入りました。ツアーが終わっても次々と質問を投げかけた方、歴代スパコンの基板をしげしげと眺め続ける方、それぞれ楽しんだようです。