シリコン結晶中でレーザー光により励起される電子運動の実時間観測に成功

プレスリリース

2014年12月11日

国立大学法人筑波大学

[印刷用PDF 337KB]

研究成果のポイント

  1. 半導体中の電子が光によって励起する様子を実時間で観測することに世界で初めて成功しました。
  2. スーパーコンピュータを用いた理論解析により、電子が励起されるプロセスが量子トンネル現象により起きていることを明らかにしました。

国立大学法人筑波大学数理物質系の矢花一浩教授と大学院生の佐藤駿丞は、ルートヴィヒ・マクシミリアン大学ミュンヘン、カリフォルニア大学バークレー校、ローレンスバークレー国立研究所との共同研究により、半導体中の電子が光によって励起する様子を実時間で観測することに世界で初めて成功しました。最も基本的な半導体であるシリコンの結晶に極めて短いレーザー光を照射し、電子がバンドギャップを越えてどれくらい素早く励起するのかを、アト秒分光法(アトは10-18)を用いて観測したものです。

本研究において矢花教授らは、スーパーコンピュータを用いた理論解析を担当し、電子が励起されるプロセスが量子トンネル現象により起きていることを明らかにしました。この研究成果は2014年12月12日(日本時間)に、米科学誌『サイエンス』で公開されます。

1.背景

 半導体物質中の電子は、普段は原子に束縛されており、動いたり電流に寄与したりすることはできません。しかし、半導体に光が照射されると、一部の電子が光エネルギーを吸収し、束縛から解放されて(バンドギャップを越えて)物質中を移動できるようになります。これら自由に動くことができるキャリア電子により、半導体は導電性を持ち、電圧を加えれば電流が流れるようになるのです。この性質を利用すると、エレクトロニクスの中心素子であるトランジスタのように、光が照射されるときだけ電流が流れるスイッチとして働かせることが可能になります。

 光による導電性の変化は100年も前から知られていましたが、あまりに速く起こるため、その変化の様子を直接観測することはできませんでした。

2.研究手法と結果

 筑波大学、ルートヴィヒ・マクシミリアン大学ミュンヘン、カリフォルニア大学バークレー校、ローレンスバークレー国立研究所の研究者からなる国際研究チームは、半導体中の電子の励起過程を調べるために、カメラのフラッシュに似た瞬間的で強烈な光を使った「ストップウォッチ」技術を用いました。まず、レーザーから発生した可視光の非常に短くて強いパルス光をシリコン結晶に照射し、電子の励起を引き起こします。続いて、さらに短い数十アト秒のX線パルスを照射して、はじめのレーザーパルス光によって電子が励起する過程のスナップショットを撮影しました。

 従来、光が照射された半導体では、異なる時間スケールで起こる2つの現象があると考えられて来ました。最初に起こるのは、電子が光エネルギーを吸収して励起する過程です。この過程はあまりに速く起こるため、原子は動くことができません。本実験で、電子の励起によりシリコンのバンドギャップが、光の照射後450アト秒以下の極めて短い時間で変化することがわかりました。その後に起こるのは、電子が励起したことによって原子が再配置する過程で、これにより光エネルギーの一部が熱に変わります。本実験では、この過程が50~70フェムト秒(フェムトは10-15)の時間で起こることが観測されました。このように、2つの過程を明瞭に区別して測定することが可能となりました。

 実験では、ナノメートルの微小な世界で電子がどのように動いているのかを直接観測することができません。電子が励起されるメカニズムを理解するためには、計算機によるシミュレーションが有効です。
筑波大学数理物質系/計算科学研究センターの矢花一浩教授と大学院数理物質科学研究科博士後期課程1年の佐藤駿丞は、スーパーコンピュータを用いた第一原理計算によるシミュレーションで、レーザーパルス光により電子が励起される様子を時々刻々と調べ、実験で見られる励起プロセスの特徴を再現することに成功しました。そして、電子の励起が量子の世界で普遍的に見られる現象である量子トンネル過程で起きていることを明らかにしました。図1は、電子の密度分布が光の照射中、照射後に、どのように変化するかを計算した結果です。

 上記の実験と計算機シミュレーションにより、最も基本的な半導体であるシリコンにおいて、光の照射により極めて短い時間で電子がバンドギャップを越えて励起される様子を初めて明らかにしました。

図1 半導体に光を照射したときの電子密度分布の変化 シリコン結晶にレーザーパルス光を照射し(上)、電子密度分布の変化を追いました(下)。左は照射中、右は照射後の電子密度の変化を表しています。赤い領域は電子密度が増加したことを、青い領域は減少したことを示しています。

図1 半導体に光を照射したときの電子密度分布の変化
シリコン結晶にレーザーパルス光を照射し(上)、電子密度分布の変化を追いました(下)。左は照射中、右は照射後の電子密度の変化を表しています。赤い領域は電子密度が増加したことを、青い領域は減少したことを示しています。

3.今後の期待

 本研究の光実験技術により、これまであまりに速くて測定することができなかった固体物質中の電子の運動を直接撮影することが可能になりました。また、計算機シミュレーションの方法を用いることで、ナノメートルサイズの空間領域で起こる固体物質中の電子の運動を調べることができました。最先端の光科学と計算科学が協力することにより、物質中で起こる様々な超高速現象を解明していくことが可能になるでしょう。

掲載論文

M. Schultze, Krupa Ramasesha, C.D. Pemmaraju, S.A. Sato, D. Whitmore, A. Gandman, James S. Prell, L. J. Borja, D. Prendergast, K. Yabana, Daniel M. Neumark, and Stephen R. Leone, “Attosecond band gap dynamics in Silicon”, Science, 12/12/2014, DOI: 10.1126/science.1260311
(題目和訳:シリコンのアト秒バンドギャップ・ダイナミクス)


用語解説

※バンドギャップ

半導体や絶縁体において、電子は普段、動くことができない価電子帯にいます。ある値より大きいエネルギーを電子に与えると、動くことができる伝導帯に移動します。電子は、価電子帯と伝導帯の間のエネルギーを持つことは許されず、これらの二つの帯(バンド)の隙間をバンドギャップと呼びます。電子を価電子帯から伝導帯に移動させるために必要な最低のエネルギーを、バンドギャップ・エネルギーと呼びます。

問い合わせ先

矢花一浩(やばな・かずひろ)
筑波大学 数理物質系/計算科学研究センター 教授
TEL:029-853-4202
E-mail:yabana[at]nucl.ph.tsukuba.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL:029-853-6260 FAX:029-853-6260
E-mail:pr[at]ccs.tsukuba.ac.jp

関連ページ

Scientists measure speedy electrons in silicon(カリフォルニア大学バークレー校によるリリース)

アンドロメダ銀河の奇妙な暗黒物質 ― 宇宙の暗黒物質を記述する標準理論にほころびか ―

掲載情報:アストロアーツ(12/11)

プレスリリース

2014年12月10日

筑波大学計算科学研究センター

[印刷用PDF 493KB]

概要

筑波大学大学院生の桐原崇亘、研究員の三木洋平、准教授の森正夫らによる研究グループは、アンドロメダ銀河※1を取り巻く暗黒物質※2の分布が、標準理論で予言される分布から大幅に食い違っていることを解き明かしました。
我々から240万光年彼方に位置するアンドロメダ銀河では、今から約8億年前に起こった銀河の衝突の痕跡が発見されています。本研究グループは、この銀河衝突の様子を筑波大学計算科学研究センターのスーパーコンピュータを用いて忠実に再現することにより、アンドロメダ銀河を取り巻く暗黒物質の広がりを調べました。その結果、驚くべきことにアンドロメダ銀河の暗黒物質は、標準的な天体形成の理論から予言されている暗黒物質の分布とは、大きく異なる分布をしていることを世界で初めて突き止めました。このことは、これまで受け入れられてきた天体形成理論※3の修正のみならず、暗黒物質の性質そのものに対しても示唆を与える可能性があります。
本研究成果は、日本天文学会誌「Publications of the Astronomical Society of Japan」の2014年12月10日のオンライン版に掲載されました。

1.研究の背景

現在広く受け入れられている宇宙の天体形成理論では、小さい天体が互いの重力で集まり徐々に大きく成長していくことが示唆されています。そのような理論をもとにして、銀河や銀河団等の誕生・進化をシミュレーションした結果からは、観測的に見えている巨大な銀河には質量にして約10倍程度の暗黒物質が銀河の周りの分布し、その分布の広がりは観測される銀河のサイズの約10倍程度であることが分かっています。これまで、銀河の星の密度が高い領域では、星の集団的な運動から暗黒物質がどのような分布をしているのか研究されてきましたが、星やガスの密度が非常に小さい銀河の外側の部分では、最新の観測装置を用いても暗黒物質の分布を定量的に議論することは困難でした。

一方で、現在の標準理論では、銀河はより小さな銀河の衝突・合体を繰り返しながら進化してきたと考えられています。実際に、我々の天の川銀河やアンドロメダ銀河でも、銀河の衝突の痕跡が複数発見されており、詳細な観測がなされています。特に、アンドロメダ銀河では今から約8億年前に、質量にしてアンドロメダ銀河の1/400程度の小さな銀河の衝突が起こったことが理論、観測の両面からわかっています。そして、この銀河衝突によりアンドロメダ銀河の中心から伸びること約40万光年、幅2万光年にも及ぶ細長い棒状に広がった数億個以上の星の集団構造が出来上がり、実際に観測されています。巨大な銀河と小さい銀河との衝突現象を考える上で鍵となるのは、小さな銀河が巨大な銀河の周りを軌道運動する際に受ける巨大な銀河からの重力です。銀河が及ぼす重力は銀河の質量分布と密接に繋がっており、その大半を担っている暗黒物質の広がり方が最も重要となります。逆に、銀河の衝突を観測データをもとに、シミュレーションを駆使して忠実に再現することにより、暗黒物質の分布を再現することができるのです。

図1. 銀河衝突シミュレーション

図1. 銀河衝突シミュレーション

2.研究の成果

筑波大学数理物質科学研究科・博士後期課程1年の桐原崇亘氏と三木洋平研究員、森正夫准教授らによる研究グループは、アンドロメダ銀河に存在する巨大な銀河衝突の痕跡が銀河の外縁部の暗黒物質の分布を調べる良い指針となることを提案しました。そして、アンドロメダ銀河で起こった小さな銀河の衝突によって形成された巨大な痕跡を再現する数値シミュレーションを行うことで、アンドロメダ銀河の外縁での密度分布の様子を調べました。
衝突する小さな銀河を約25万体の粒子系として表現し、粒子間に働く重力相互作用を計算しながら、アンドロメダ銀河から受ける重力の影響も計算し、約10億年に及ぶ分布の進化を追いました(図1)。アンドロメダ銀河の暗黒物質の分布のモデルとして約80モデル変更した計算を行った結果、図2に示すように観測される構造をよく再現する暗黒物質の外側の密度分布は、これまで理論予言されてきた分布とずれており、遠方での密度が理論予言されているより急激に小さくなることを世界で初めて突き止めました。このことは、これまで受け入れられてきた標準的な天体形成理論に何らかの修正を必要とすることを意味しています。あるいは、暗黒物質の素粒子的な性質そのものに対しても何らかの示唆を与える可能性があります。大きなインパクトを与えるものとして期待できます。

図2. 暗黒物質の密度分布

図2. 暗黒物質の密度分布

3.今後の発展

同様な銀河衝突は、天の川銀河・アンドロメダ銀河に限らず、あらゆる巨大銀河で起こっています。高精度な観測と、大規模な数値シミュレーションを組み合わせることで、他の銀河でも銀河の密度分布が調べられます。本研究を足掛かりに暗黒物質のモデル・宇宙の構造形成のモデルに対する修正の必要性についても、新しい進展が得られるものと期待されます。


用語解説

※1 アンドロメダ銀河
我々の住む天の川銀河に最も近い、巨大な円盤をもつ銀河。地球からアンドロメダ銀河までの距離はおおよそ240万光年。

※2 暗黒物質
素粒子的には未だ直接検出はされていないが、我々の宇宙に存在する銀河や銀河同士の結びつきを説明する上で暗黒物質はほとんど必要不可欠なものとなっている。

※3 天体形成理論
我々の宇宙は、生まれたての頃ほとんど密度が一様でわずかな揺らぎが存在していた。その揺らぎが重力的な不安定性により成長し天体が形成されたと考えられている。そのような進化を暗黒物質を粒子として扱い、お互いの重力相互作用を膨張し続ける宇宙の中でシミュレーションされてきた。

問い合わせ先

森正夫(もり・まさお)
筑波大学 数理物質系/計算科学研究センター 准教授
TEL:029-853-6034
E-mail:mmori[at]ccs.tsukuba.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL:029-853-6260 FAX:029-853-6260
E-mail:pr[at]ccs.tsukuba.ac.jp

高温超伝導現象を説明する新しい理論を提案-BCS理論を超える標準理論となるか

ウエブリリース

2014年12月2日

国立大学法人筑波大学計算科学研究センター
国立大学法人東北大学大学院理学研究科

高温超伝導現象を説明する新しい理論を提案-BCS理論を超える標準理論となるか

概要

筑波大学計算科学研究センターの小泉裕康准教授と東北大学大学院理学研究科の立木 昌客員研究員(同大 名誉教授)は、高温超伝導現象を説明するための新しい理論を提案しました。これまで、超伝導現象の標準理論とされてきたのは1957年に発表されたBCS理論※1です。この理論は、およそ30~40K(-243~-233℃)以下の超伝導現象の説明に成功を収めてきました。しかし、液体窒素温度を超える高温領域で超伝導を示す銅酸化物が発見されたことで、BCS理論には限界があると認識されてきました。

この度、小泉准教授らはBCS理論に基づく交流ジョセフソン効果の予言と実験との間に矛盾があることを見いだしました。そして、銅酸化物超伝導を説明するために同准教授が2011年に提案した「スピン渦誘起ループ電流による超伝導理論」が、その矛盾を解消することを示しました。これは、「スピン渦誘起ループ電流による超伝導理論」が銅酸化物超伝導を説明するに留まらず、BCS理論を超える新しい超伝導の標準理論となる可能性を示しています。新しい理論は、金属以外の物質でも超伝導現象が起こることを予言するため、超伝導の新たな地平が広がることが期待されます。

この研究成果は、11月21日、学術誌Journal of Superconductivity and Novel Magnetismウエブ版で発表されました。

背景

(1) 銅酸化物超伝導

1986年にベドノルツとミューラーにより銅酸化物で超伝導現象が発見されると、これまで30~40K(-243~-233℃)以下に止まっていた超伝導転移温度の記録が急速に上昇し始めました。そして、液体窒素温度を超える超伝導転移温度(約-200℃以上)を持つ高温超伝導体の発見に至りました。ベドノルツとミューラーは、銅酸化物超伝導体の発見により、わずか1年後の1987年にノーベル物理学賞を受賞しています。

銅酸化物超伝導体は、現在の超伝導の標準理論であるBCS理論では説明できない超伝導体であることがわかっています。その超伝導機構は、発見から28年経った現在でも解明されていません。銅酸化物超伝導体の発見は、BCS理論の基礎を含め、超伝導現象ならびに電気伝導現象に新たな理論の構築を迫る転機となりました。

(2) 交流ジョセフソン効果

超伝導体は、電気抵抗ゼロで電流を流すことができる特徴のほかに、巨視的な量子現象という側面があります。巨視的とは、量子力学的な効果が原子よりも大きなスケールで生じており、その量子状態を記述する波動関数の効果が大きなスケールで観測されることを意味します。これを利用すると、微弱な磁場の測定、電圧の高精度測定、量子コンピューターの量子ビットとして応用などが可能となります。

超伝導体が示す巨視的な量子現象に「ジョセフソン効果※2」があります。これは2つの超伝導体の間に非常に薄い非超伝導体を挟んだジョセフソン接合が示す効果です(図1)。ジョセフソン効果には、直流効果、交流効果、磁場効果の3つがあります。

図1. ジョセフソン接合の模式図。2つの超伝導体SLとSRが非超伝導体Iで挟まれている。矢印は電流の向き、Vは電圧計。

交流ジョセフソン効果は、ジョセフソン接合間に電圧Vが現れたときに起こる現象です。英物理学者ブライアン・ジョセフソンは、このとき「ジョセフソン接合間に電圧Vを与えると、振動数2eV/hヘルツの交流が流れる」と予言しました。eは電子の電荷(約1.6×10−19 C)、hはプランク定数(約6.6×10−34 Js)です。この予言は、BCS理論に基づいています。BCS理論は、金属中の自由電子がクーパー対という電子2個の集団になることによって超伝導が生じるとする理論です。

ジョセフソンは、ジョセフソン接合の2つの超伝導体間をクーパー対が行き来するとして、振動数2eV/hを導きました。式中の2eは、クーパー対が電子2個からなり、電荷 —2eを持つことによります。この予言は、実験的には「ジョセフソン接合に直流を流した状態で振動数2eV/hの電場を与えると、ジョセフソン接合間に電圧Vが現れる」ことで実証されたと考えられていました。また、直流を流したとき自発的に振動数2eV/hヘルツを持つ電磁波が放出され、そのときジョセフソン接合間に電圧Vが生じる現象も確認されています。

しかし、小泉准教授が現在までの実験結果を調べてみると、驚くことがわかりました。ジョセフソンの予言「ジョセフソン接合間に電圧Vを与えると、振動数2eV/hヘルツの交流が流れる」現象は、実験的には検証されていませんでした。実験結果は、「ジョセフソン接合の非超伝導体部分に振動数2eV/hヘルツの電場が存在すると、接合間に電圧Vが発生する」ことを示していただけなのです。
ジョセフソン接合を流れる電流は常に直流です。超伝導や固体物理の代表的な教科書に、あたかも接合に交流が流れているとする記述がしばしば見かけられますが、それはジョセフソンの予言であって、実験で検証された事実ではなかったのです。

2.研究結果

ジョセフソンは、交流ジョセフソン効果を理論的に予言するにあたり、ジョセフソン接合にある2つの超伝導体を行き来する電流のみを考慮しました(図1で非超伝導体Iを通した電流の影響のみを考えたことに相当する)。超伝導体は、巨視的量子現象として巨視的な波動関数を持ちます。波動関数とは、量子状態を記述する複素関数で、大きさと位相を持ちます。ジョセフソン接合を電流が流れるためには、2つの超伝導体間の巨視的な波動関数に位相差があることが必要です。ジョセフソンの理論的予言では、その位相差を非超伝導体部分に存在する電場のみから計算しています。一方、実際の振動数2eV/h測定実験は、ジョセフソン接合に外部から直流電流が供給されている状況で行われます。この場合、巨視的な波動関数の位相差には、外部から供給される電流の影響も加わることになります。

そこで小泉准教授らは、外部からの直流電流の供給の効果を取り入れた計算を行いました(図2)。そして、実験で観測された振動数2eV/hは「超伝導電流を担う荷電粒子の電荷は-eであることを示す」という結論を得ました。これは、ジョセフソンの予言「超伝導電流を担う荷電粒子の電荷は-2e」と矛盾します。また、振動数2eV/hの交流が観測されない理由も、超伝導体内を流れる超伝導電流は常に直流であるためと説明できました。

図2.交流ジョセフソン接合のモデル。2つの超伝導体SLとSRが非超伝導体Iで挟まれている。SLに接合する端子LLからの直流電流の流入と、SRに接合するLRからの直流電流の流出、SLとSR間を流れる超伝導電流の影響を取り入れている。赤矢印は外部からの直流電流、黒矢印は超伝導電流。Vは電圧計、右のIは電流計。

3.今後の期待

今回の研究結果は、現在の超伝導理論の標準理論であるBCS理論に大きな修正を求めるものです。また、銅酸化物超伝導を説明するために小泉准教授らが提出した「スピン渦誘起ループ電流による超伝導理論」が、今回の研究結果と矛盾のない超伝導電流生成機構を与えることが証明されています。このことは、「スピン渦誘起ループ電流による超伝導理論」は、銅酸化物超伝導を説明するだけでなく、BCS理論を超える新しい超伝導標準理論となる可能性があることを示しています。この理論は、金属以外の物質でも超伝導が起こることを予言します。つまり、超伝導現象は金属以外の物質でも起こる非常に普遍的な現象であることを示しています。今回の研究結果は、銅酸化物よりも高い超伝導転移温度をもつ物質の開発に道を拓くかもしれません。

掲載論文

Hiroyasu Koizumi, Masashi Tachiki, “Supercurrent Generation by Spin-twisting Itinerant Motion of Electrons: Re-derivation of the ac Josephson Effect Including the Current Flow Through the Leads Connected to Josephson Junction’’ Journal of Superconductivity and Novel Magnetism, Nov., 2014

用語解説

※1 BCS理論
1957年に、バーディーン、クーパー、シュリーファーの3人によって提出され、超伝導に関する多くの現象を説明しました。3人はこの業績により、1972年ノーベル物理学賞を受賞しています。

※2 ジョセフソン効果
英物理学者ブライアン・ジョセフソンが1962年に理論的に予言、1973年にノーベル物理学賞を受賞しました。

問い合わせ先

小泉裕康(こいずみ・ひろやす)
筑波大学 数理物質系/計算科学研究センター 准教授
E-mail:koizumi.hiroyasu.fn [at] u.tsukuba.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL:029-853-6260 FAX:029-853-6260
E-mail:pr [at] ccs.tsukuba.ac.jp

東北大学大学院理学研究科・理学部 広報・アウトリーチ支援室
TEL:022-795-6708
E-mail:sci-koho [at] mail.sci.tohoku.ac.jp

K computer Recognized in Class 1 and 2 of the HPC Challenge Awards

November 19, 2014

RIKEN
University of Tsukuba
Fujitsu Limited

Top honors awarded for productivity in a high-performance supercomputer parallel programming language implementation and overall performance

RIKEN, the University of Tsukuba and Fujitsu today announced that they received top ranks in two of the four benchmarks at the 2014 HPC Challenge[1] Class 1 Awards, which evaluate the overall performance of supercomputers, for the performance of the K computer[2]. The first-place rankings were received in two benchmarks: (1) Global HPL, which measures the floating point rate of execution for solving a linear system of equations; and (2) EP STREAM (Triad) per system, which measures sustainable memory bandwidth and the corresponding computation rate for simple vector kernels. This marks the fourth consecutive year, from 2011 to 2014, that the K computer has ranked first in the HPC Challenge Class 1 Awards.

In addition, XcalableMP[3] and XcalableACC[4], which are high-performance supercomputer parallel programming languages developed by RIKEN and the University of Tsukuba, received award in the HPC Challenge(1) Class 2 Best Performance Award, which recognize the overall performance of a programming language. This is the second year running that XcalableMP has won this award.

The awards were announced on November 18, 2014, in New Orleans, Louisiana, at SC14, the International Conference for High Performance Computing, Networking, Storage and Analysis.

The HPC Challenge benchmarks are benchmark programs designed to evaluate the overall performance of supercomputers in terms of processing performance based on 28 frequently used computational patterns in the field of scientific computation. At the contest using the HPC Challenge benchmarks, which takes place once a year, there are two classes of awards: Class 1, which measures benchmark performance values, and Class 2, which measures the productivity of programming language implementations.

Among the HPC Challenge benchmarks, particularly important are (1) Global HPL; (2) EP STREAM (Triad) per system; (3) Global FFT; and (4) Global RandomAccess, and top rankings are awarded in each category in the HPC Challenge Class 1 Awards. RIKEN, the University of Tsukuba, and Fujitsu registered performance for each of these benchmarks in the HPC Challenge Class 1 Awards. The University of Tsukuba made especially important contributions to increasing the processing speed for Global FFT.

The HPC Challenge Class 2 Award is a contest for programming languages used in developing HPC applications. This award is designed to evaluate both programming language productivity and performance for four HPC Challenge benchmarks in the HPC Challenge Class 1 Awards.

The award-winning XcalableMP is a programming language that was jointly developed by the RIKEN Advanced Institute for Computational Science and the University of Tsukuba’s Center for Computational Sciences. XcalableACC, which simultaneously won the award, is an extension of the XcalableMP programming language that enables applications to be developed for supercomputers that are equipped with accelerators. In a performance evaluation of the HPC Challenge benchmarks of XcalableMP using the K computer, extraordinarily high productivity and performance was demonstrated. In addition, the performance of XcalableACC was evaluated using the University of Tsukuba’s HA-PACS[5]) supercomputer equipped with a GPU accelerator, and it, too, demonstrated exceptionally high productivity and performance.

Programming languages that can be used to develop applications in a short period of time while maintaining performance and that run on large-scale computation environments, such as the K computer, make it possible to accelerate the pace of research. As a result, they are in high demand by researchers both inside and outside Japan. The awards reveal both the high productivity and high performance of XcalableMP and XcalableACC, in addition to demonstrating the substantial effectiveness of programming languages for developing HPC applications.

The top three rankings achieved on the four benchmarks for the HPC Challenge Class 1 Awards for 2014 are as follows:

Global HPL Performance (TFLOP/s) System Institutional Facility
1st place 9,796 K computer RIKEN
2nd place 5,709 Mira Argonne National Laboratory
EP STREAM(Triad) per system Performance (TB/s) System Institutional Facility
1st place 3,857 K computer RIKEN
2nd place 1,426 Mira Argonne National Laboratory
Global FFT Performance (TFLOP/s) System Institutional Facility
1st place 226 Mira Argonne National Laboratory
2nd place 206 K computer RIKEN
Global RandomAccess Performance (GUPS) System Institutional Facility
1st place 2,021 Power 775 IBM
2nd place 472 K computer RIKEN
3rd place 418 Mira Argonne National Laboratory

For more information:

[1] HPC Challenge Awards
The HPC Challenge benchmarks are benchmark programs designed to evaluate the overall performance of supercomputers in terms of processing performance in 28 tests derived from frequently used computational patterns in the field of scientific computation. The HPC Challenge Awards are evaluated based on the HPC Challenge benchmarks. There are two classes of awards: Class 1, which measures benchmark performance values, and Class 2, which measures the productivity of programming language implementations. The Class 1 awards consist of the following four benchmarks, each of which evaluates the performance of key system components (CPU computational performance, memory access performance, network transmission performance).
– Global HPL: operating speed in solving large-scale simultaneous linear equations
– EP STREAM (Triad) per system: memory access speed under multiple loads
– Global FFT: total performance of Fast Fourier Transform
– Global RandomAccess: random memory access performance in parallel processing
HPC Challenge Class 2 Awards are given to programming languages used for developing HPC applications. Three benchmarks are selected from the four used in the Class 1 category, and both the productivity of the programming language and benchmark performance are evaluated for the implementation of these benchmarks. In addition, participants can choose to include up to two additional benchmarks besides the HPC Challenge benchmarks for consideration, and the award is determined based on the total score for the implementations including the additional benchmarks of Best Performance and Most Elegant Language or Most Elegant Implementation.

[2] K computer
The K computer, which was jointly developed by RIKEN and Fujitsu, is part of the High-Performance Computing Infrastructure (HPCI) initiative led by Japan’s Ministry of Education, Culture, Sports, Science and Technology (MEXT). The K computer’s availability for shared use began in September 2012. The “K” in K computer comes from the Japanese Kanji character “Kei” which means ten peta or 10 to the 16th power. In its original sense, “Kei” expresses a large gateway, and it is hoped that the system will be a new gateway to computational science.

[3] XcalableMP
A programming language that facilitates the development of parallel applications that run on supercomputers and other large-scale computational environments. With XcalableMP, it is possible to develop parallel applications that can achieve the same computational speeds as existing methods while using comparatively shorter code.
http://www.xcalablemp.org/

[4] XcalableACC
A programming language that is an extension of XcalableMP and OpenACC, the standard language for programming for accelerators. In addition to the conventional XcalableMP structure, it has a structure in which communication is conducted between accelerators, making it easy to develop applications that run on parallel computers that are equipped with accelerators. Development of the XcalableACC was supported by the JST/CREST program entitled “Research and Development on Unified Environment of Accelerated Computing and Interconnection for Post-Petascale Era” in the research area of “Development of System Software Technologies for Post-Peta Scale High Performance Computing.”

[5] HA-PACS
A supercomputer developed by the University of Tsukuba that is equipped with a GPU (Graphics Processing Unit) accelerator, which is the most representative type of accelerator. In the Green500 contest, which ranks supercomputers by how efficiently they can compute using the least amount of electrical power, HA-PACS ranked third in the world (as of June 2014) for its Tightly Coupled Accelerators (TCA).
https://www.ccs.tsukuba.ac.jp/eng/projects/ha-pacs/

Press Contacts
RIKEN Advanced Institute for Computational Science
Office for Research Communications
E-mail: aics-koho [at] riken.jp

University of Tsukuba
Bureau of Public Relations, Center for Computational Sciences
E-mail: pr [at] ccs.tsukuba.ac.jp

Fujitsu Limited
Public and Investor Relations Division
Inquiries: https://www-s.fujitsu.com/global/news/contacts/inquiries/index.html


About RIKEN
RIKEN is Japan’s flagship research institute devoted to basic and applied research. Over 2500 papers by RIKEN researchers are published every year in reputable scientific and technical journals, covering topics ranging across a broad spectrum of disciplines including physics, chemistry, biology, medical science and engineering. RIKEN’s advanced research environment and strong emphasis on interdisciplinary collaboration has earned itself an unparalleled reputation for scientific excellence in Japan and around the world. For more information, please see: http://www.riken.jp/en

About University of Tsukuba
The University of Tsukuba aims to establish free exchange and close relationship in both basic and applied sciences with educational and research organizations and academic communities in Japan and overseas. The university makes a contribution to the world through its educational system that seeks to make the most of students’ creativity and individuality http://www.tsukuba.ac.jp/english/ https://www.ccs.tsukuba.ac.jp/eng/

About Fujitsu
Fujitsu is the leading Japanese information and communication technology (ICT) company offering a full range of technology products, solutions and services. Approximately 162,000 Fujitsu people support customers in more than 100 countries. We use our experience and the power of ICT to shape the future of society with our customers. Fujitsu Limited (TSE: 6702) reported consolidated revenues of 4.8 trillion yen (US$46 billion) for the fiscal year ended March 31, 2014. For more information, please see: http://www.fujitsu.com

All company or product names mentioned herein are trademarks or registered trademarks of their respective owners. Information provided in this press release is accurate at time of publication and is subject to change without advance notice.

 

スーパーコンピュータ「京」でHPCチャレンジ賞クラス1、2を受賞 -スパコンの総合的な性能と並列プログラミング言語の生産性について高い評価-

掲載情報:日刊工業新聞(11/21)インターネットコム(11/20)

プレスリリース

2014年11月19日

独立行政法人理化学研究所
国立大学法人筑波大学
富士通株式会社

[印刷用PDF 245KB]

理化学研究所(理研、野依良治理事長)、筑波大学(永田恭介学長)と富士通(山本正已代表取締役社長)は、スーパーコンピュータの総合的な性能を評価するHPCチャレンジベンチマークをスーパーコンピュータ「京(けい)」[1]で測定した結果により、2014年「HPCチャレンジ賞[2]クラス1」の4部門中2部門で第1位を獲得しました。第1位を獲得したのは、①Global HPL(大規模な連立1次方程式を解く演算速度)②EP STREAM(Triad) per system(多重負荷時のメモリアクセス速度)の2部門です。「京」は「HPCチャレンジ賞クラス1」を2011年から今年2014年まで4年連続第1位を獲得しています。
さらに、理研と筑波大学が共同開発したスーパーコンピュータ用並列プログラミング言語「XcalableMP(エクスケーラブル・エム・ピー)[3] 」と「XcalableACC(エクスケーラブル・エー・シー・シー)[4]」が、プログラミング言語の生産性を評価する「HPCチャレンジ賞クラス2パフォーマンス賞」を受賞しました。XcalableMPは2年連続の受賞になります。
米国ニューオーリンズで開催中のHPC(ハイパフォーマンス・コンピューティング:高性能計算技術)に関する国際会議「SC14」で18日(日本時間19日)に発表されました。

HPCチャレンジベンチマークは、科学技術計算で多用される28項目の計算パターンによって、スーパーコンピュータの総合的な性能を多角的に評価するベンチマークプログラムです。年に1度行われているHPCチャレンジベンチマークを用いたコンテストには、ベンチマークの性能を競うクラス1と、ベンチマークを実装するプログラミング言語の生産性を競うクラス2があります。
HPCチャレンジベンチマークの中で特に重要な①Global HPL、②EP STREAM(Triad) per system、③Global FFT、④Global RandomAccessの4つについては、「HPCチャレンジ賞クラス1」として各部門の第1位が表彰されます。理研、筑波大学、富士通は、これらのベンチマークの性能を「HPCチャレンジ賞クラス1」に登録しました。特に、筑波大学はGlobal FFTの高速化に大きく貢献しています。
「HPCチャレンジ賞クラス2」は、HPCアプリケーションを実装するプログラミング言語を対象としたコンテストです。本賞では、「HPCチャレンジ賞クラス1」の 4つのHPCチャレンジベンチマークの実装に対して、プログラミング言語の生産性と性能の両方を評価します。
今回受賞した並列言語XcalableMPは、理研計算科学研究機構と筑波大学計算科学研究センターが共同で開発している並列プログラミング言語です。また、同時に受賞したXcalableACCは演算加速器を搭載したスーパーコンピュータに対してアプリケーションを開発できるようにXcalableMPを拡張した言語です。XcalableMPによって作成したHPCチャレンジベンチマークを「京」を用いて性能評価を行い、非常に高い生産性と性能を発揮することを示しました。さらに、XcalableACCにおいても演算加速器を搭載した筑波大学のスーパーコンピュータHA-PACS[5]を用いて性能評価を行い、同様に高い生産性と性能を発揮することを示しました。
「京」のように大規模な計算環境で動作するアプリケーションを、性能を保ったまま短時間で開発できるプログラミング言語は、研究を加速させることができるため、国内外の多くの研究者から待ち望まれています。本受賞はXcalableMPおよびXcalableACCの持つ高い生産性と性能を実証するものであり、HPCアプリケーションの開発に対してそれらの言語が極めて有効であることを示すものです。

2014年「HPCチャレンジ賞クラス1」4部門の上位は以下の通りです。

Global HPL 性能値(TFLOP/s) システム名 設置機関
1位 9,796 理研 計算科学研究機構
2位 5,709 Mira アルゴンヌ国立研究所
EP STREAM(Triad) per system 性能値(TB/s) システム名 設置機関
1位 3,857 理研 計算科学研究機構
2位 1,426 Mira アルゴンヌ国立研究所
Global FFT 性能値(TFLOP/s) システム名 設置機関
1位 226 Mira アルゴンヌ国立研究所
2位 206 理研 計算科学研究機構
Global RandomAccess 性能値(GUPS) システム名 設置機関
1位 2,021 Power 775 IBM
2位 472 理研 計算科学研究機構
3位 418 Mira アルゴンヌ国立研究所

関連リンク

・HPCチャレンジについて http://icl.cs.utk.edu/hpcc/index.html
・理研計算科学研究機構 http://www.aics.riken.jp/index.html
・筑波大学計算科学研究センター http://www.ccs.tsukuba.ac.jp/
・富士通『スーパーコンピュータ「京」』紹介サイト http://jp.fujitsu.com/about/tech/k/

補足説明

[1] スーパーコンピュータ「京(けい)」
文部科学省が推進する「革新的ハイパフォーマンス・コンピューティング・インフラ(HPCI)の構築」プログラムの中核システムとして、理研と富士通が共同で開発を行い、2012年9月に共用を開始した計算速度10ペタフロップス級のスーパーコンピュータ。「京(けい)」は理研の登録商標で、10ペタ(10の16乗)を表す万進法の単位であるとともに、この漢字の本義が大きな門を表すことを踏まえ、「計算科学の新たな門」という期待も込められている。

[2] HPCチャレンジ賞
HPCチャレンジベンチマークとは、科学技術計算で多用される計算パターンから抽出した28項目の処理性能によって、スーパーコンピュータの総合的な性能を多角的に評価するベンチマークプログラム。そのHPCチャレンジベンチマークを基に評価するのがHPCチャレンジ賞である。HPCチャレンジ賞にはベンチマークの性能値を競うクラス1と、プログラミング言語の実装における生産性と性能の両方の高さを競うクラス2がある。クラス1は以下の4つの部門で構成され、それぞれシステムを構成する主要な要素(CPUの演算性能、メモリへのアクセス性能、ネットワークの通信性能)の性能が評価される。
・Global HPL:大規模な連立1次方程式を解く演算速度
・EP STREAM(Triad) per system:多重負荷時のメモリアクセス速度
・Global FFT:高速フーリエ変換の総合性能
・Global RandomAccess:並列プロセス間でのランダムメモリアクセス性能
クラス2は、HPCアプリケーションを作成するプログラミング言語に対して与えられる。クラス1で用いられる4つのベンチマークから3つ以上を選択し、それらの実装に対するプログラミング言語の生産性とベンチマーク性能の両方を評価する。また、クラス1以外のベンチマークも最大2つまで任意に選択可能であり、全てのベンチマークの実装に対する総合評価によって決定され、パフォーマンス賞とエレガンス賞が授与される。

[3] XcalableMP(エクスケーラブル・エム・ピー)
大規模並列計算機で動作する並列アプリケーションを開発できるプログラミング言語。XcalableMPを用いることにより、計算速度を保ったまま、従来の方法と比較して簡易に並列アプリケーションの開発が可能になる。
http://www.xcalablemp.org/

[4] XcalableACC(エクスケーラブル・エー・シー・シー)
XcalableMPおよび演算加速器のためのプログラミングの標準規格であるOpenACCを拡張したプログラミング言語。従来のXcalableMPの構文に加え、演算加速器間の通信を行う構文などが追加されており、演算加速器を搭載した並列計算機で動作するアプリケーションを簡易に開発することができる。XcalableACCはJST-CREST研究領域「ポストペタスケール高性能計算に資するシステムソフトウェア技術の創出」、研究課題「ポストペタスケール時代に向けた演算加速機構・通信機構統合環境の研究開発」の支援を受け、開発が行われている。

[5] HA-PACS(エイチエー・パックス)
筑波大学が開発した、代表的な演算加速器であるGPU(Graphics Processing Unit)を搭載したスーパーコンピュータ。少ない電力で効率的に計算することを競うコンテストであるGreen500において、HA-PACSのTCA(Tightly Coupled Accelerators:密結合並列演算加速機構)部が世界第3位にランクインしている(2014年6月時点)。
https://www.ccs.tsukuba.ac.jp/research_project/ha-pacs/

報道担当・問い合わせ先

(問い合わせ先)
独立行政法人理化学研究所 計算科学研究機構 広報国際室
担当 岡田 昭彦
TEL:078-940-5625 FAX:078-304-4964
E-mail:aics-koho [at] riken.jp

(報道担当)
独立行政法人理化学研究所 広報室 報道担当
TEL:048-467-9272 FAX:048-462-4715
E-mail:ex-press [at] riken.jp

国立大学法人筑波大学 計算科学研究センター 広報室
TEL:029-853-6260 FAX:029-853-6260
E-mail:pr [at] ccs.tsukuba.ac.jp

富士通株式会社 広報IR室
TEL:03-6252-2174

第99回計算科学コロキウムを12月1日(月)10:00より行います。

第99回計算科学コロキウムを、12月1日(月)に開催します。
多数のご来聴をお願い致します。

日時:2014年12月1日(月)10:00-11:30
場所:筑波大学計算科学研究センター 国際ワークショップ室
題目: Programming Models and Runtime System Challenges in Exascale Applications
講師:Dr. Pavan Balaji, Argonne National Laboratory

概要:
As we move from the post-petascale era to the Exascale era, every layer of the software/hardware stack is facing unprecedented challenges that need to be addressed. In this talk, I’ll focus on some of the programming models and runtime system challenges that need to be addressed for Exascale. Instead of a typical bottom-up approach to the runtime system where the challenges and solutions are guided by what the hardware architecture provides, in this talk I’ll take a top-down approach by looking at what challenges applications pose as they move to their next generation of simulation capabilities. I’ll discuss applications from three different domains: computational chemistry, bioinformatics and nuclear physics and present their computational trends and the challenges they pose to programming models and runtime systems. Then I’ll briefly discuss some of the solutions we have been working on for these challenges.

世話人:朴 泰祐

第6回「学際計算科学による新たな知の発見・統合・創出」シンポジウム -HA-PACSとCOMAによる計算科学の発展と、分野融合への取り組み-

開催案内

主催 筑波大学 計算科学研究センター
日時 平成26年10月21日(火) 13:30~17:30、10月22日(水)9:30~16:00
会場 筑波大学大学会館 国際会議室 [MAP]
懇親会 10月21日(火)18:00~20:00 スープファクトリー [MAP]
参加費 シンポジウム参加無料、懇親会4,000円
参加登録 こちらから事前登録をお願いいたします。<[事前登録は締め切りました]/td>

sympo2014[ポスターPDF]

開催趣旨

筑波大学計算科学研究センターは、1992年に設立された計算物理学研究センターを前身として2004年に設置され、物理学・生命科学・地球科学などの科学の諸分野と計算機科学の研究者の協働により、最先端の大規模計算科学を推進しています。2010年には文部科学省共同利用・共同研究拠点「先端学際計算科学共同研究拠点」の認定を受け、学際共同利用プログラムを推進しています。

本センターでは、GPUを搭載したスパコンHA-PACS、そして本年度よりメニーコアを搭載したスパコンCOMA(PACS-IX)を導入し、学際共同利用に供しています。異なる分野の計算科学研究者の連携により新たな知の創出を目指して、計算基礎科学連携拠点(JICFuS)、宇宙生命計算科学連携拠点(CAB)に取り組んでいます。また、昨年東京大学情報基盤センターと共同で設置した最先端共同HPC基盤施設では、来年度より新たなスパコンの運用を開始する予定です。本シンポジウムでは、これらの取り組みの進捗と今後の展望について報告します。

2日目は、平成25年度に行われた学際共同利用プログラムの成果発表、及び平成26年度に進行している課題の中間発表を行います。

プログラム

10月21日(火)

13:30~13:50 開会挨拶
13:50~14:35 演算加速クラスタによる計算科学の推進
朴泰祐(筑波大学計算科学研究センター)
14:35~15:00 HA-PACS を用いた、多フレーバーSU(3)ゲージ理論の共形場理論探索について
石川健一(広島大学理学研究科)
15:00~15:25 階層型固有値解法のメニーコアクラスタ向け実装
櫻井鉄也(筑波大学計算科学研究センター)
15:25~15:50 大規模分子シミュレーションによる生命現象の解明
庄司光男(筑波大学計算科学研究センター)
休憩(15:50~16:20)
16:20~16:40 「計算基礎科学連携拠点(JICFuS)について」
藏増嘉伸(筑波大学計算科学研究センター)
16:40~17:00 「宇宙生命計算科学連携拠点(CAB)について」
梅村雅之(筑波大学計算科学研究センター)
17:00~17:30 「最先端共同HPC基盤施設(JCAHPC)について」
佐藤三久(筑波大学計算科学研究センター)
懇親会(18:00-20:00)

10月22日(水)

平成25年度成果報告/平成26年度中間報告
学際共同利用口頭発表1[座長:橋本幸男(筑波大学計算科学研究センター)]
9:30~9:55 佐々木健志(筑波大学計算科学研究センター)[BBILQCD/HALQCD]
「QCDによるバリオン間相互作用」
9:55~10:20 関澤一之(筑波大学数理物質科学研究科)[NUCLDFT]
「原子核ダイナミクスの微視的シミュレーション」
10:20~10:45 丸山豊(慶應義塾大学理工学部物理学科)[GEARISM]
「GPUによる3D-RISMとレプリカ交換法を結合したタンパク質のシミュレーションシステムの開発」
ポスターのショートトーク(各2分、34件)(10:45~12:00)
昼食(12:00~13:15)
学際共同利用ポスター発表(13:15~14:45)
学際共同利用口頭発表2[座長:小野倫也(筑波大学計算科学研究センター)]
14:45~15:10 鈴木パーカー明日香 (筑波大学計算科学研究センター)[RCM]
「領域気候モデルWRFによる高解像度将来予測情報の創出」
15:10~15:35 富樫智章(東京大学原子核科学研究センター)[MCSMHA/MCSM]
「モンテカルロ殻模型計算のマルチGPGPUへの適用と開発状況」
15:35~16:00 朴泰祐(筑波大学計算科学研究センター)[NUFUSE]
「核融合シミュレーションコードのGPU化と並列言語XcalableMPによる実装」

天文学と統計学の融合による、統計計算宇宙物理学の創出

掲載情報:マイナビニュース(10/3)

ウエブリリース

天文学と統計学の融合による、統計計算宇宙物理学の創出
-「手のひらから広がる100億光年先の触れる宇宙」を目指す、CRESTプロジェクト始動-

2014年10月1日
筑波大学計算科学研究センター

概要

東京大学カブリ数物連携宇宙研究機構、統計数理研究所、筑波大学、日本電信電話株式会社は、CREST平成26年度新規課題「広域撮像探査観測のビッグデータ分析による統計計算宇宙物理学」を10月1日から開始しました。国立天文台の「すばる望遠鏡」を用いて25兆ピクセルにおよぶ膨大な画像データを取得。最新の画像処理技術、機械学習と統計数理、さらに大規模コンピュータシミュレーションを駆使して画像データを解析し、宇宙のダークマター分布の3次元構造を明らかにします。
この解析過程で、宇宙探査によるビッグデータと情報統計学を融合させた新領域「統計計算宇宙物理学」の創出を目指します。また、筑波大との協働により可視化したカタログデータベースを構築し、広く一般に公開していきます。世界中の天文ファンが、100億光年先の宇宙をスマートフォンなどから楽しむことができる環境の実現を目指します。

※本研究課題は、科学技術振興機構の戦略的創造研究推進事業CRESTの研究領域「科学的発見・社会的課題解決に向けた各分野のビッグデータ利活用推進のための次世代アプリケーション技術の創出・高度化」(田中譲研究総括)において、平成26年度新規課題として採択されました。

ウエブリリース詳細(東京大学Kavli IPMU)

「超巨大ブラックホール研究推進連絡会」第2回ワークショップ(2014年11月3日、4日)

日時:2014年11月3日(月) 9:00-18:00、11月4日(火) 9:00-16:30
場所:筑波大学 計算科学研究センター ワークショップ室

【開催趣旨】
昨年、超巨大ブラックホール研究の各種情報交換を行うためのコンソーシアムとして、「超巨大ブラックホール研究推進連絡会」Supermassive Black Hole Research Consortium (SMBH-REC)を立ち上げ、第1回のキックオフワークショップを愛媛大学で開催いたしました。
本年は、高赤方偏移の巨大ブラックホール形成に焦点を当て,第2回のワークショップを開催いたします。

赤方偏移7を超えるクェーサーの発見は,1億太陽質量を超える巨大ブラックホールが8億年程度で誕生したことを示していますが、このような巨大ブラックホールが、どのように誕生したのかは明らかにされていません。
この問題の解明には、宇宙論的天体形成の枠組みの中で、初代ブラックホール形成と原始銀河中の巨大ブラックホール成長を明らかにすることが必要です。
本ワークショップでは、SMBHの起源と進化に関する観測と理論のレビュー、関連する招待講演をお願いしています。

皆様の奮ってのご参加,並びに講演の申し込みをお待ちしています。

レビュー講演
河野孝太郎(東京大学) 「SMBHの起源と進化:観測レビュー」
大向一行(東北大学) 「SMBHの起源と進化:理論レビュー」

招待講演者
秋山正幸(東北大学)
今西昌俊(国立天文台)
上田佳宏(京都大学) 
大須賀健(国立天文台)
柏川伸成(国立天文台)
谷川衝(理化学研究所)
田村陽一(東京大学)
長尾透(愛媛大学)
細川隆史(東京大学)
松岡良樹(国立天文台/プリンストン大)

【参加申し込み】
参加申込書送付先:ayw[at]ccs.tsukuba.ac.jp
締切:2014年9月30日

旅費補助につきましては確定しておりませんが、ご希望の場合には、必要事項を申込書に記入してください。

——————————————————–
 「超巨大ブラックホール研究推進連絡会」第2回ワークショップ 参加申込書
——————————————————–
氏名:
所属:
職名(学年):
Email:
参加日:  □11/3(月) □11/4(火)
発表の有無: 有 無
「有」の場合タイトル:
懇親会参加: 有 無
——————————————————–
旅費補助の希望: 有 無
「有」の場合
旅程: (例 11/2着-11/4発)
所属機関・部局: ○○大学 ○○研究科
所属機関住所:
所属機関TEL&FAX:
所属長氏名(研究科長氏名):
自宅住所:
——————————————————–

世話人
Alex Wagner(筑波大)、谷口義明(愛媛大)、長尾透(愛媛大)、冨永望(甲南大)、梅村雅之(筑波大)

第98回計算科学コロキウムを9月18日(木)11:00より行います。

第98回計算科学コロキウムを、9月18日(木)に開催します。
多数のご来聴をお願い致します。

日時:2014年9月18日(木)11:00-12:30
場所:CCS ワークショップ室
Title: DHARMA: Distributed asyncHronous Adaptive Resilient Management of Applications
講師:Dr. Keita Teranishi, Sandia National Laboratory

abstract:
Resilience at extreme-scale for high-performance computing (HPC) is now a widely recognized and established concern. As we approach massive billion-thread parallelism and rapidly increasing number of components on the path to exascale, the mean-time between failures (MTBF) will continue to shrink. To ensure forward progress is made as efficiently as possible (both time and energy), new programming model and runtime tools are needed.

To deal with the massive parallelism in the future systems, a number of many-task programming models are emerging as alternatives of MPI-based single-program multiple-data (SPMD) model. They tend to emphasize data-flow by launching a work as soon as the input data is available. The state of the art many-task programming models involve several techniques to optimize scheduling of the tasks as well as the placement of the data to improve load balancing, communication overhead and concurrency. However, these techniques become very challenging to implement once resilience becomes the center of interest.

With these concerns in mind, we propose DHARMA, Distributed asyncHronous Adaptive Resilient Management of Applications. We employ DHT to maintain the meta-data information of data and tasks to quickly recover from fail-stop node crashes. Our DHT allows a quick look-up for the entities of many task programming model including data and task as well as their duplications.

In the talk, we describe the architecture of DHARMA and its development using SST-macro simulator that allows us to debugging and performance analysis on future extreme scale systems.

This work is joint with Janine Bennett, Robert Clay, John Floren, Ken Franko, Saurabh Hukerikar, Samuel Knight, Hemanth Kolla, Greg Sjaardema, Nicole Slattengren, and Jermiah Wilke.

世話人:朴 泰祐

CCS HPCサマーセミナー2014を9/1(月)~9/2(火)に開催します。(2014年9月1日、2日)

日程:2014年9月1日(月)~9月2日(火)
時間:9:00~16:45(1日目は17:00~18:00にCOMA(PACS-IX)の見学会を実施)
場所:筑波大学計算科学研究センター 1階 ワークショップ室
定員:80名
URL :http://www2.ccs.tsukuba.ac.jp/workshop/HPCseminar/2014/
参加申し込み:上記のURLより登録をお願い致します(締め切り 8/28 (木))
参加費:無料

【開催主旨】 
計算科学を支える大規模シミュレーション、超高速数値処理のためのスーパーコンピュータの主力プラットフォームはクラスタ型の並列計算機となってきました。ところが、大規模なクラスタ型並列計算機は、高い理論ピーク性能を示す一方で、実際のアプリケーションを高速に実行することは容易なことではありません。
本セミナーはそのようなクラスタ型並列計算機の高い性能を十二分に活用するために必要な知識、プログラミングを学ぶことを目的としています。超高速数値処理を必要とする大学院生が主な対象ですが、興味をお持ちの方はどなたでもご参加下さい。

参加申し込み、詳細については以下のページをご覧ください。
http://www2.ccs.tsukuba.ac.jp/workshop/HPCseminar/2014/

「京」を使い世界最大規模の全球大気アンサンブルデータ同化に成功

プレスリリース

「京」を使い世界最大規模の全球大気アンサンブルデータ同化に成功
-天気予報シミュレーションの高精度化に貢献-

2014年7月23日
独立行政法人理化学研究所
独立行政法人科学技術振興機構

ポイント

・10,240個という世界最大規模の全球大気アンサンブルデータ同化を実現
・理化学研究所が開発した「EigenExa」を活用し、計算を大幅に高速化
・気象観測の影響が瞬時に1万km規模に及ぶ可能性を解明

要旨

理化学研究所(理研、野依良治理事長)は、天気予報シミュレーションの高精度化を目指し、スーパーコンピュータ「京」を使って、10,240個のアンサンブルで3週間分という世界最大規模の「全球大気のアンサンブルデータ同化」に成功しました。必要とされる計算量は、これまでの100個程度のアンサンブルを使った場合に比べて100万倍という大規模なものになります。これは、理研計算科学研究機構(平尾公彦機構長)データ同化研究チームの三好建正チームリーダーと、近藤圭一特別研究員、および大規模並列数値計算技術研究チームの今村俊幸チームリーダーの研究グループによる成果です。

スーパーコンピュータを使った天気予報を行う方法の1つに「アンサンブル予報」があります。アンサンブル予報は、風や気温などの時間変化を物理学の法則に基づきコンピュータで計算して将来の大気の状態を予測するシミュレーションを、並行して複数実行し、同等に確からしい「パラレルワールド(並行世界)」を作ります。この平均やばらつきから、確率的な天気予報を行います。

「アンサンブルデータ同化」は、アンサンブル予報で作られたパラレルワールドに実測データを加え、すべてのパラレルワールドを誤差の範囲内に制御します。これまでのアンサンブルデータ同化では、100個程度以下のアンサンブル(パラレルワールドの数)を用いていましたが、今回、これを世界最大規模の10,240個に増やし、アンサンブルデータ同化の計算を約8倍高速化、理論ピーク性能比44%超という極めて高い実行効率を達成することで、全球大気のアンサンブルデータ同化を3週間分実行することに成功しました。これまでは観測の影響を2,000~3,000 kmに限定する必要がありましたが、今回の成果により、例えば日本から1万km遠方の観測データが、瞬時に日本の大気状態の推定精度を向上する可能性が明らかとなり、天気予報シミュレーションの改善に貢献することが期待されます。

本研究成果は、米国の科学雑誌『Geophysical Research Letters』(8月15日第41号)に掲載されるに先立ち、オンライン版(7月24日付け:日本時間7月25日)に掲載予定です。

※アンサンブルとは、フランス語で「一緒に」「一揃い、全体」という意味。

プレスリリース詳細(理化学研究所)

スーパーコンピュータ「HA-PACS/TCA」が2期連続でGreen500の第3位を獲得

筑波大学計算科学研究センターのスーパーコンピュータ「HA-PACS/TCA」が、世界で最もエネルギー消費効率の良いスーパーコンピュータをランキングする「Green500」2014年6月版で、第3位を獲得しました。2013年11月に続き、2回連続でのランクインとなりました。

HA-PACS/TCAは、2012年2月に稼働開始したHA-PACSの拡張部で、2013年10月に導入されました。各計算ノードは、NVIDIA社の高性能GPUであるK20Xをノード当たり4台搭載しており、同システムはこれを64台結合した超高性能GPUクラスタです。
Green500は消費電力当たりのLINPACK測定性能「HPLベンチマーク(MFLOPS/W)」で評価され、HA-PACS/TCAは3518 MFLOPS/Wでした。HPL効率は76%と、GPUクラスタとしては極めて高い効率を達成しました。1位は東京工業大学のTSUBAME-KFC、2位はケンブリッジ大学のWilkesでした。

関連リンク

The Green500 List – June 2014
スーパーコンピュータ「HA-PACS/TCA」がGreen500の第3位を獲得|計算科学研究センター(2013年11月21日)

【受賞】石山智明研究員が平成26年度筑波大学若手教員特別奨励賞を受賞しました

筑波大学計算科学研究センターの石山智明研究員が、平成26年度筑波大学若手教員特別奨励賞を受賞しました。石山研究員が、平成26年度科学技術分野の文部科学大臣表彰 若手科学者賞を受賞した功績を称えたものです。
授賞式が6月19日に行われ、東 照雄副学長から筑波大学若手教員特別奨励賞の表彰楯が授与されました。また、副賞として30万円の研究費が支給されました。

くわしくは筑波大学ホームページをご覧ください。

【受賞】児玉祐悦教授、朴泰祐教授、佐藤三久教授がHEART2014にてBest Paper Awardを受賞しました

筑波大学計算科学研究センターの児玉祐悦教授、朴泰祐教授、佐藤三久教授と、東京大学情報基盤センターの塙敏博特任准教授が、Fifth International Symposium on Highly-Efficient Accelerators and Reconfigurable Technologies (HEART2014)にてBest Paper Awardを受賞しました。受賞対象となった論文は、「PEACH2: An FPGA-based PCIe network device for Tightly Coupled Accelerators」です。
本論文は、計算科学研究センターで推進しているHA-PACSプロジェクトのうち、密結合並列演算加速機構(TCA:Tightly Coupled Accelerators)を実現するために開発を行ったPEACH2チップのFPGA実装に関するもので、当センターの高性能計算システム研究部門の研究によるものです。授賞式は2014年6月10日(火)に行われました。

kodama heart2014_267
児玉祐悦教授(写真右)

著者:Y.Kodama, T.Hanawa, T.Boku and M.Sato
タイトル:”PEACH2: An FPGA-based PCIe network device for Tightly Coupled Accelerators”
会議:Fifth International Symposium on Highly-Efficient Accelerators and Reconfigurable Technologies (HEART2014)
開催日時:June 9-11, 2014
開催場所:東北大学、仙台、日本
受賞名:Best Paper Award

Cray Inc. announced news release about COMA(PACS-IX)

Cray Inc. announced news release about COMA(PACS-IX).

SEATTLE, WA — (Marketwired) — 05/20/14 — Global supercomputer leader Cray Inc. (NASDAQ: CRAY) today announced that the Center for Computational Sciences (CCS) at the University of Tsukuba in Japan has put another Cray® CS300™ cluster supercomputer into production — the second Cray CS300 system unveiled at the University in the last six months.

With the addition of the new Cray CS300 system, named “COMA (PACS-IX),” which stands for Cluster Of Many-core Architecture processors, and the previously announced High Accelerated Parallel Advanced system for Computational Science (HA-PACS) system, the University now has two petascale Cray cluster supercomputers.

Please see the website of Cray Inc. for details.

【授賞式】平成26年度科学技術分野の文部科学大臣表彰授賞式に、石井理修准教授、石山智明研究員が出席しました

平成26年度科学技術分野の文部科学大臣表彰において、筑波大学計算科学研究センターの青木愼也客員教授・石井理修准教授が科学技術賞研究部門を、石山智明研究員が若手科学者賞を受賞。授賞式が4月15日(火)、文部科学省3階講堂にて行われました。

科学技術賞研究部門
「量子色力学の第一原理計算に基づく核力の研究」
初田哲男・理化学研究所仁科加速器研究センター主任研究員
青木愼也・京都大学基礎物理学研究所教授/筑波大学数理物質系(計算科学研究センター)客員教授
石井理修・筑波大学数理物質系(計算科学研究センター)准教授

若手科学者賞
「高精度大規模計算によるダークマター微細構造の研究」
石山智明・筑波大学計算科学研究センター研究員

IMG_3028
科学技術賞の石井准教授(左)、若手科学者賞の石山研究員(右)

賞の詳細、受賞理由等については文部科学省ホームページ
報道発表「平成26年度科学技術分野の文部科学大臣表彰受賞者等の決定について」(平成26年4月7日)
をご覧ください。受賞者一覧は最下部にPDFにて掲載されています。

1ペタフロップスの性能を持つスーパーコンピュータ「COMA(PACS-IX)」を導入 メニーコアアーキテクチャプロセッサを用いた国内最大のクラスタに

掲載情報:日刊工業新聞(4/15)読売新聞(4/15)

プレスリリース

平成26年4月14日

国立大学法人筑波大学
クレイ・ジャパン・インク

[印刷用PDF 304KB]

1ペタフロップスの性能を持つスーパーコンピュータ「COMA(PACS-IX)」を導入
メニーコアアーキテクチャプロセッサを用いた国内最大のクラスタに

ポイント

  • ○ 1ペタフロップスのスーパーコンピュータ「COMA(PACS-IX)」を新規導入
  • ○ 従来の汎用CPUに加えて全393計算ノードに2基ずつのインテル Xeon Phi コプロセッサを搭載し、同プロセッサを採用したスパコンとして国内最高性能
  • ○ 「HA-PACS」と併せ、2台のペタフロップスマシンで最先端の計算科学研究を推進

概要

筑波大学計算科学研究センターは、ピーク演算性能1.001 ペタフロップス(毎秒1001兆回)の新型スーパーコンピュータ「COMA(PACS-IX)」(コマ、パックス・ナイン)を導入し、平成26年4月15日に運用を開始します。同センターとして「HA-PACS」に続く2台目のペタフロップス・システムです。

「COMA」は米Cray Inc.社によって提供された、最先端の超並列加速器クラスタ型スーパーコンピュータです。従来の汎用CPUに加え、全計算ノードに2基ずつの米Intel社製 インテルXeon Phiコプロセッサを備えています。計算ノード数は393台で、合計786基の同プロセッサを搭載。総ピーク演算性能1.001ペタフロップスは、インテルXeon Phiコプロセッサを採用したスーパーコンピュータとして国内最高性能となります。

「COMA」は、筑波大学が30年以上に渡って研究開発を続けてきた「PACSシリーズ」スーパーコンピュータの第9世代に相当し、「PACS-IX」の名称を併せ持ちます。計算科学研究センターは、平成25年10月に拡張されたGPUを演算加速装置として持つスーパーコンピュータ「HA-PACS」と併せ、2つの異なる演算加速装置を有するペタフロップス・スーパーコンピュータにより、最先端の計算科学研究を推進していきます。

COMA(PACS-IX)
筑波大学計算科学研究センターの新型スーパーコンピュータ「COMA(PACS-IX)」

1.背景

高性能汎用CPUの進歩により、超並列PCクラスタの性能は確実に増大していますが、今後ますます拡大する演算性能に対する要求を限られた電力及びスペースで満たすために演算加速装置※1が注目されています。これまで、PCクラスタ向けの代表的な演算加速装置はGPU※2でしたが、米Intel社が開発したインテルXeon Phiコプロセッサ※3は汎用CPUのアーキテクチャを踏襲しつつ、61個のCPUコアを1チップに搭載した新世代の演算加速装置です。GPUと同じように汎用バスであるPCI Expressバスを介してCPUに接続でき、GPUに比べてユーザがより簡便にプログラミングを行える特徴を持っています。

筑波大学計算科学研究センターでは、演算加速装置による低電力・高性能なスーパーコンピュータの研究を進めています。その一貫として、同センターでは、2012年よりインテル社がメニーコアプロセッサのアーキテクチャの評価のために開始した Intel MIC Beta Program に参加し、メニーコアプロセッサの性能評価と性能チューニングに関する研究を続けてきました。

GPUとメニーコアプロセッサという2種類の演算加速装置を超並列PCクラスタにそれぞれ適用することにより、その特性の違いを考慮しつつ、各種の計算科学アプリケーションの開発を進めます。先進的かつ大規模な科学技術計算を演算加速装置技術の下で実現するには、大規模システムを定常的に利用することが不可欠です。すでに「HA-PACS」で進められているGPUによる超並列システムの利用に加え、「COMA」によるメニーコアプロセッサを用いた超並列システムを用いることにより、より幅広いアプリケーションへの対応と、メニーコアプロセッサにおける性能チューニング技術についても研究を進めていきます。

また、筑波大学は東京大学と共同で「最先端共同HPC基盤施設(JCAHPC)」を設置し、数十ペタフロップス級の超大型スーパーコンピュータの導入を計画しています。メニーコアプロセッサ技術をその鍵の一つとなる研究と位置づけており、「COMA」はそのための様々な研究開発を行う実験システムとしての役割も担っています。

2.詳細

筑波大学計算科学研究センターは、素粒子・宇宙・生命などの研究をけん引する最先端の超並列演算加速器クラスタ型スーパーコンピュータ、大規模メニーコア実験システム「COMA」(Cluster Of Many-core Architecture processors)の導入を平成24年度から進め、平成26年4月15日より稼働を開始します。同システムは米Cray Inc.社により提供されました。

「COMA」は、コンパクトで先進的な計算ノードを393台結合した並列システムです。計算ノードは、米Intel社製の最新CPUであるインテル Xeon E5-2680 v2 プロセッサを2基と同社のメニーコアプロセッサであるインテルXeon Phi コプロセッサSE10Pを2基搭載しています。ノード単体のピーク演算性能は2.547テラフロップス(毎秒2兆5470億回)に達し、システム全体の総ピーク演算性能は1.001ペタフロップス(毎秒1001兆回)となります。

全ての計算ノードはInifniBand FDR※4による相互結合網で結ばれ、この結合網は全ノード間の通信を最大性能で実現するフルバイセクションバンド幅のFat-Tree構成を持ちます。また、総容量1.5ペタバイトの多重耐故障機能(RAID-6)構成を持つLustreファイルサーバが備えられ、同じInifiniBand FDRネットワークを介して全ての計算ノードから自由にアクセスすることができます。

インテルXeon Phiコプロセッサは、PCI Expressと呼ばれる標準バスによってCPUと結合され、計算の実行や並列処理におけるノード間通信等はCPUのメモリや結合網を用いて行われます。

3.アプリケーション・ソフトウエア開発

計算科学研究センターに所属するさまざまな科学分野の研究者が、「COMA」をいかした研究の展開を計画しています。

1) 素粒子理論分野

「強い相互作用における階層構造の諸性質解明」と「有限温度・有限密度QCDにおける相構造解析」の研究を推進します。前者はインテルXeon Phiコプロセッサを演算装置として直接利用し、後者は行列・行列積演算部分をインテル Xeon Phiコプロセッサでオフロード実行(演算が集中する部分のみをメニーコアプロセッサに処理させる)する予定です。

2) 宇宙物理学分野

天体形成に重要な役割を果たす重力多体計算、流体力学計算、輻射輸送計算をインテル Xeon Phiコプロセッサで高速化することで、より高精度な天体形成シミュレーションを行います。

3) 生命科学分野

量子化学計算プログラムNWChemで酵素反応のQM/MM※5計算を行い、国産の量子化学計算プログラムOpenFMOでインテルXeon Phiコプロセッサを利用して、タンパク質薬剤相互作用解析を行う予定です。また、分子動力学プログラムPlatypusによるタンパク質の折り畳みや構造変化の解析を行い、生命機能の解析を進めます。

他に物質科学分野では、高強度なレーザー光と物質の相互作用に対して電子ダイナミクスの第一原理シミュレーションを行い、フェムト秒・アト秒時間スケール(10-15~10-18秒)で起こる現象の解明や制御の方法を探索します。

さらに高性能計算技術として、ポストペタスケール規模の並列環境で高い性能を発揮することを目指した次世代型計算アルゴリズムの研究と、そのソフトウエア実装のための高性能化技術の開発も進めて行きます。これらの成果をもとに、各種のアプリケーションで活用するための基盤的なソフトウエアの整備を進める予定です。データ基盤の分野では、「COMA」の高い並列性を生かして、科学分野を含む多様なビッグデータの高度な分析に役立てて行きます。

4.運用

「COMA」は、平成26年2月末で運用満了したスーパーコンピュータ「T2K-Tsukuba」システムで展開された各種運用プログラムを引き継ぎます。計算科学研究センターが独自に進める「学際共同利用プログラム」において、全国の幅広い応用分野の研究者が無償で利用でき、また文部科学省が進める「HPCI戦略プログラム」に共同利用資源として提供されます。さらに、計算科学研究センターにおける「大規模一般利用プログラム」において全国の研究者が有償利用できます。

5.コメント

インテル株式会社常務執行役員ビジネス・デベロップメント事業本部長の平野浩介は、本発表に際し、以下のコメントを寄せています。

「インテルXeon Phi コプロセッサを搭載する筑波大学計算科学研究センターの新型スーパーコンピュータ「COMA(PACS-IX)」の導入を歓迎します。搭載されたインテル Xeon Phi コプロセッサは、最大61個のコアと 244 スレッドで構成され、最大 1.2 テラ FLOPS の演算性能を発揮します。COMA(PACS-IX)により筑波大学の最先端計算科学研究が加速することを期待しております。」

用語解説

※1 演算加速装置
汎用計算を行うCPUに対する拡張機構として、PCI Express等の汎用バスを介して接続される高性能演算装置。計算を自律的に行うことはできず、CPUから起動されることによりアプリケーションの一部または全部を高速に実行する。ただし、演算装置やアーキテクチャが高性能浮動小数点演算向けに特化され、必ずしも全てのアプリケーションプログラムを高速化するとは限らない。一般的に利用可能な演算加速装置の例としては、GPUやインテル社の提供するインテルXeon Phiコプロセッサ等がある。

※2 GPU
Graphics Processing Unitの略。本来PCサーバにおけるグラフィクス処理を目的として作られた専用プロセッサだが、近年はその高い演算性能とメモリバンド幅を利用した高性能計算への転用が活発化している。

※3 メニーコアプロセッサ
従来の汎用マルチコアCPUが1つのチップ上に十個程度のCPUコアを搭載していたのに対し、数十個(インテルXeon Phi コプロセッサでは61個)のCPUコアを搭載する新世代の演算加速型プロセッサ。プログラミングは汎用CPUと同じように、複数コアを同時利用する形でチップ内での並列処理を記述可能である。しかし、汎用CPUに比べ、各CPUコアは比較的周波数が低く演算制御部分が簡略化された構造を持つため、性能を引き出すためにはプログラミングに様々な工夫が必要とされる。

※4 InfiniBand FDR
高性能クラスタ型計算機で多用される高性能ネットワーク。Ethernetなどに比べて数十倍の通信性能を持ち、さらに数百~数千ノード規模のシステムをFat Treeと呼ばれるネットワーク構成で結合可能。

※5 QM/MM
原子の世界を支配する量子力学を用いた計算法。重要な中心部だけ量子力学計算を行い、それ以外は古典力学を用いたのがQuantum mechanics/ Molecular Mechanics(QM/MM)法。QM/MM法は、2013年ノーベル化学賞の受賞対象となった計算手法である。

関連情報

筑波大学計算科学研究センターホームページ http://www.ccs.tsukuba.ac.jp/
「COMA」の概要 https://www.ccs.tsukuba.ac.jp/wp-content/uploads/sites/14/2016/10/coma_outline.pdf

* Intel、インテル、Intel Xeon、Xeon Phiは、米国およびその他の国におけるIntel Corporationの商標です。
* その他の社名、製品名などは、一般に各社の商標または登録商標です。

<問い合わせ先>
梅村雅之(センター長)
筑波大学計算科学研究センター長/数理物質系教授
TEL 029-853-6485 E-mail:umemura[at]ccs.tsukuba.ac.jp
朴 泰祐(計算機システム運用委員長)
筑波大学計算科学研究センター/システム情報系教授
TEL 029-853-5518 E-mail:taisuke[at]cs.tsukuba.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL 029-853-6260、6487(センター代表) E-mail:pr[at]ccs.tsukuba.ac.jp

CCS – LBNL Collaborative Workshop

Date: April 10th (Thu) – 11th (Fri), 2014
Venue: International Workshop Room, Center for Computational Sciences, University of Tsukuba

DAY-1 (April 10th)

09:30-09:40 Welcome Address (Masayuki Umemura, CCS)
09:40-10:10 CCS Research Update (Masayuki Umemura, CCS)
10:10-10:40 LBNL Research Update (David Brown, LBNL)
10:40-11:10 HA-PACS/TCA: GPU direct communciation (Taisuke Boku, CCS)
11:10-11:30 Coffee Break
11:30-12:00 Simulating Hurricanes and Typhoons in a Global Climate Model: Results and Challenges (Michael Wehner, LBNL)
12:00-12:30 Overview for Urban Climate Study (Hiroyuki Kusaka, CCS)
12:30-14:00 Lunch Break
14:00-14:30 Lattice QCD Activities at CCS (Yoshinobu Kuramashi, CCS)
14:30-15:00 Large-scale Eigenvalue Calculations in Scientific Applications (Esmond Ng, LBNL)
15:00-15:30 A report on Feasibility Study on Future HPC Infrastructure (Mitsuhisa Sato, CCS)
15:30-15:50 Coffee Break
15:50-16:20 Dynamic Exascale Global Address Space Programming Environments (Costin Iancu, LBNL)
16:20-16:50 Research Activities of Astrophysics at CCS (Masao Mori, CCS)
16:50-17:20 The Lyman-alpha Forest in Cosmological Hydrodynamic Simulations (Casey Stark, LBNL)

We will have a welcome banquet from 19:00 on DAY-1, at Restaurant “Kisoji”. The restaurant is in walking distance with 15 min. from the hotel for LBNL guests.

DAY-2 (April 11th)

09:30-10:00 GPU-based acceleration of data mining algorithms (Toshiyuki Amagasa, CCS)
10:00-10:30 Analysis and Optimization of Gyrokinetic Toroidal Simulations on Emerging Multi- and Many-core Architectures (Khaled Ibrahim, LBNL)
10:30-11:00 Recent Activities of Biological Function Group for HA-PACS Project (Yasuteru Shigeta & Hiroaki Umeda, CCS)
11:00-11:20 Coffee Break
11:20-12:05 CCS-LBNL Researchers Only
Breakout Discussion for Research Collaboration (*)
Application-1, Application-2, HPC
12:05-12:35 CCS-LBNL Researchers Only
Plenary Discussion for Research Collaboration
12:35-12:45 Closing Remarks (Masayuki Umemura, CCS & David Brown, LBNL)

(*) Breakout discussion for research collaboration focuses on the topics and methods for future research collaboration between two organizations. To improve the efficiency of discussion, we will breakout into three groups: Application-1 (Fundamental Science and Numerical Analysis), Application-2 (Applied Science) and HPC (HPC Systems). The breakout discussion rooms are as follows:
Application-1: Meeting Room A
Application-2: Meeting Room C
HPC: International Workshop Room
After breakout discussion, we will gather at plenary room and summarize the future collaboration plan.

 

T2K オープンスパコン運用終了記念シンポジウムを5月30日(金)に行います。

T2Kオープンスパコン運用終了記念シンポジウム

日時:2014 年 5 月 30 日(金)13:30 ~ 17:50(懇親会:18:30 ~)
会場:東京大学工学部2号館(本郷)213号講義室
懇親会:東京大学山上会館 御殿(地階)(会費:3,000円)
参加費:シンポジウム参加無料(事前登録制)
主催:筑波大学計算科学研究センター、東京大学情報基盤センター、京都大学学術情報メディアセンター

開催趣旨

2008年6月2日、筑波、東京、京都で3つのスーパーコンピュータシステムが運用を開始しました。筑波大、東大、京大から構成される T2K Open Supercomputer Allianceの掲げる、「ハードウェアーキテクチャのオープン性」、「システムソフトウェアのオープン性」、「ユーザ・ニーズに対するオープン性」という3つの理念のもとに策定された「T2K オープンスパコン仕様」に基づくT2K 筑波、T2K 東大、T2K 京大です。
それから6年、2014年3月10日のT2K 東大運用終了を以てT2Kオープンスパコンはその使命を終えました。本シンポジウムでは、改めて、T2Kオープンスパコンとは何であったのかを振り返るとともに、T2Kがもたらした成果の検証、更に将来への展望について議論を実施します。

プログラム・参加登録はこちらから