Cray Inc. announced news release about COMA(PACS-IX)

Cray Inc. announced news release about COMA(PACS-IX).

SEATTLE, WA — (Marketwired) — 05/20/14 — Global supercomputer leader Cray Inc. (NASDAQ: CRAY) today announced that the Center for Computational Sciences (CCS) at the University of Tsukuba in Japan has put another Cray® CS300™ cluster supercomputer into production — the second Cray CS300 system unveiled at the University in the last six months.

With the addition of the new Cray CS300 system, named “COMA (PACS-IX),” which stands for Cluster Of Many-core Architecture processors, and the previously announced High Accelerated Parallel Advanced system for Computational Science (HA-PACS) system, the University now has two petascale Cray cluster supercomputers.

Please see the website of Cray Inc. for details.

【授賞式】平成26年度科学技術分野の文部科学大臣表彰授賞式に、石井理修准教授、石山智明研究員が出席しました

平成26年度科学技術分野の文部科学大臣表彰において、筑波大学計算科学研究センターの青木愼也客員教授・石井理修准教授が科学技術賞研究部門を、石山智明研究員が若手科学者賞を受賞。授賞式が4月15日(火)、文部科学省3階講堂にて行われました。

科学技術賞研究部門
「量子色力学の第一原理計算に基づく核力の研究」
初田哲男・理化学研究所仁科加速器研究センター主任研究員
青木愼也・京都大学基礎物理学研究所教授/筑波大学数理物質系(計算科学研究センター)客員教授
石井理修・筑波大学数理物質系(計算科学研究センター)准教授

若手科学者賞
「高精度大規模計算によるダークマター微細構造の研究」
石山智明・筑波大学計算科学研究センター研究員

IMG_3028
科学技術賞の石井准教授(左)、若手科学者賞の石山研究員(右)

賞の詳細、受賞理由等については文部科学省ホームページ
報道発表「平成26年度科学技術分野の文部科学大臣表彰受賞者等の決定について」(平成26年4月7日)
をご覧ください。受賞者一覧は最下部にPDFにて掲載されています。

1ペタフロップスの性能を持つスーパーコンピュータ「COMA(PACS-IX)」を導入 メニーコアアーキテクチャプロセッサを用いた国内最大のクラスタに

掲載情報:日刊工業新聞(4/15)読売新聞(4/15)

プレスリリース

平成26年4月14日

国立大学法人筑波大学
クレイ・ジャパン・インク

[印刷用PDF 304KB]

1ペタフロップスの性能を持つスーパーコンピュータ「COMA(PACS-IX)」を導入
メニーコアアーキテクチャプロセッサを用いた国内最大のクラスタに

ポイント

  • ○ 1ペタフロップスのスーパーコンピュータ「COMA(PACS-IX)」を新規導入
  • ○ 従来の汎用CPUに加えて全393計算ノードに2基ずつのインテル Xeon Phi コプロセッサを搭載し、同プロセッサを採用したスパコンとして国内最高性能
  • ○ 「HA-PACS」と併せ、2台のペタフロップスマシンで最先端の計算科学研究を推進

概要

筑波大学計算科学研究センターは、ピーク演算性能1.001 ペタフロップス(毎秒1001兆回)の新型スーパーコンピュータ「COMA(PACS-IX)」(コマ、パックス・ナイン)を導入し、平成26年4月15日に運用を開始します。同センターとして「HA-PACS」に続く2台目のペタフロップス・システムです。

「COMA」は米Cray Inc.社によって提供された、最先端の超並列加速器クラスタ型スーパーコンピュータです。従来の汎用CPUに加え、全計算ノードに2基ずつの米Intel社製 インテルXeon Phiコプロセッサを備えています。計算ノード数は393台で、合計786基の同プロセッサを搭載。総ピーク演算性能1.001ペタフロップスは、インテルXeon Phiコプロセッサを採用したスーパーコンピュータとして国内最高性能となります。

「COMA」は、筑波大学が30年以上に渡って研究開発を続けてきた「PACSシリーズ」スーパーコンピュータの第9世代に相当し、「PACS-IX」の名称を併せ持ちます。計算科学研究センターは、平成25年10月に拡張されたGPUを演算加速装置として持つスーパーコンピュータ「HA-PACS」と併せ、2つの異なる演算加速装置を有するペタフロップス・スーパーコンピュータにより、最先端の計算科学研究を推進していきます。

COMA(PACS-IX)
筑波大学計算科学研究センターの新型スーパーコンピュータ「COMA(PACS-IX)」

1.背景

高性能汎用CPUの進歩により、超並列PCクラスタの性能は確実に増大していますが、今後ますます拡大する演算性能に対する要求を限られた電力及びスペースで満たすために演算加速装置※1が注目されています。これまで、PCクラスタ向けの代表的な演算加速装置はGPU※2でしたが、米Intel社が開発したインテルXeon Phiコプロセッサ※3は汎用CPUのアーキテクチャを踏襲しつつ、61個のCPUコアを1チップに搭載した新世代の演算加速装置です。GPUと同じように汎用バスであるPCI Expressバスを介してCPUに接続でき、GPUに比べてユーザがより簡便にプログラミングを行える特徴を持っています。

筑波大学計算科学研究センターでは、演算加速装置による低電力・高性能なスーパーコンピュータの研究を進めています。その一貫として、同センターでは、2012年よりインテル社がメニーコアプロセッサのアーキテクチャの評価のために開始した Intel MIC Beta Program に参加し、メニーコアプロセッサの性能評価と性能チューニングに関する研究を続けてきました。

GPUとメニーコアプロセッサという2種類の演算加速装置を超並列PCクラスタにそれぞれ適用することにより、その特性の違いを考慮しつつ、各種の計算科学アプリケーションの開発を進めます。先進的かつ大規模な科学技術計算を演算加速装置技術の下で実現するには、大規模システムを定常的に利用することが不可欠です。すでに「HA-PACS」で進められているGPUによる超並列システムの利用に加え、「COMA」によるメニーコアプロセッサを用いた超並列システムを用いることにより、より幅広いアプリケーションへの対応と、メニーコアプロセッサにおける性能チューニング技術についても研究を進めていきます。

また、筑波大学は東京大学と共同で「最先端共同HPC基盤施設(JCAHPC)」を設置し、数十ペタフロップス級の超大型スーパーコンピュータの導入を計画しています。メニーコアプロセッサ技術をその鍵の一つとなる研究と位置づけており、「COMA」はそのための様々な研究開発を行う実験システムとしての役割も担っています。

2.詳細

筑波大学計算科学研究センターは、素粒子・宇宙・生命などの研究をけん引する最先端の超並列演算加速器クラスタ型スーパーコンピュータ、大規模メニーコア実験システム「COMA」(Cluster Of Many-core Architecture processors)の導入を平成24年度から進め、平成26年4月15日より稼働を開始します。同システムは米Cray Inc.社により提供されました。

「COMA」は、コンパクトで先進的な計算ノードを393台結合した並列システムです。計算ノードは、米Intel社製の最新CPUであるインテル Xeon E5-2680 v2 プロセッサを2基と同社のメニーコアプロセッサであるインテルXeon Phi コプロセッサSE10Pを2基搭載しています。ノード単体のピーク演算性能は2.547テラフロップス(毎秒2兆5470億回)に達し、システム全体の総ピーク演算性能は1.001ペタフロップス(毎秒1001兆回)となります。

全ての計算ノードはInifniBand FDR※4による相互結合網で結ばれ、この結合網は全ノード間の通信を最大性能で実現するフルバイセクションバンド幅のFat-Tree構成を持ちます。また、総容量1.5ペタバイトの多重耐故障機能(RAID-6)構成を持つLustreファイルサーバが備えられ、同じInifiniBand FDRネットワークを介して全ての計算ノードから自由にアクセスすることができます。

インテルXeon Phiコプロセッサは、PCI Expressと呼ばれる標準バスによってCPUと結合され、計算の実行や並列処理におけるノード間通信等はCPUのメモリや結合網を用いて行われます。

3.アプリケーション・ソフトウエア開発

計算科学研究センターに所属するさまざまな科学分野の研究者が、「COMA」をいかした研究の展開を計画しています。

1) 素粒子理論分野

「強い相互作用における階層構造の諸性質解明」と「有限温度・有限密度QCDにおける相構造解析」の研究を推進します。前者はインテルXeon Phiコプロセッサを演算装置として直接利用し、後者は行列・行列積演算部分をインテル Xeon Phiコプロセッサでオフロード実行(演算が集中する部分のみをメニーコアプロセッサに処理させる)する予定です。

2) 宇宙物理学分野

天体形成に重要な役割を果たす重力多体計算、流体力学計算、輻射輸送計算をインテル Xeon Phiコプロセッサで高速化することで、より高精度な天体形成シミュレーションを行います。

3) 生命科学分野

量子化学計算プログラムNWChemで酵素反応のQM/MM※5計算を行い、国産の量子化学計算プログラムOpenFMOでインテルXeon Phiコプロセッサを利用して、タンパク質薬剤相互作用解析を行う予定です。また、分子動力学プログラムPlatypusによるタンパク質の折り畳みや構造変化の解析を行い、生命機能の解析を進めます。

他に物質科学分野では、高強度なレーザー光と物質の相互作用に対して電子ダイナミクスの第一原理シミュレーションを行い、フェムト秒・アト秒時間スケール(10-15~10-18秒)で起こる現象の解明や制御の方法を探索します。

さらに高性能計算技術として、ポストペタスケール規模の並列環境で高い性能を発揮することを目指した次世代型計算アルゴリズムの研究と、そのソフトウエア実装のための高性能化技術の開発も進めて行きます。これらの成果をもとに、各種のアプリケーションで活用するための基盤的なソフトウエアの整備を進める予定です。データ基盤の分野では、「COMA」の高い並列性を生かして、科学分野を含む多様なビッグデータの高度な分析に役立てて行きます。

4.運用

「COMA」は、平成26年2月末で運用満了したスーパーコンピュータ「T2K-Tsukuba」システムで展開された各種運用プログラムを引き継ぎます。計算科学研究センターが独自に進める「学際共同利用プログラム」において、全国の幅広い応用分野の研究者が無償で利用でき、また文部科学省が進める「HPCI戦略プログラム」に共同利用資源として提供されます。さらに、計算科学研究センターにおける「大規模一般利用プログラム」において全国の研究者が有償利用できます。

5.コメント

インテル株式会社常務執行役員ビジネス・デベロップメント事業本部長の平野浩介は、本発表に際し、以下のコメントを寄せています。

「インテルXeon Phi コプロセッサを搭載する筑波大学計算科学研究センターの新型スーパーコンピュータ「COMA(PACS-IX)」の導入を歓迎します。搭載されたインテル Xeon Phi コプロセッサは、最大61個のコアと 244 スレッドで構成され、最大 1.2 テラ FLOPS の演算性能を発揮します。COMA(PACS-IX)により筑波大学の最先端計算科学研究が加速することを期待しております。」

用語解説

※1 演算加速装置
汎用計算を行うCPUに対する拡張機構として、PCI Express等の汎用バスを介して接続される高性能演算装置。計算を自律的に行うことはできず、CPUから起動されることによりアプリケーションの一部または全部を高速に実行する。ただし、演算装置やアーキテクチャが高性能浮動小数点演算向けに特化され、必ずしも全てのアプリケーションプログラムを高速化するとは限らない。一般的に利用可能な演算加速装置の例としては、GPUやインテル社の提供するインテルXeon Phiコプロセッサ等がある。

※2 GPU
Graphics Processing Unitの略。本来PCサーバにおけるグラフィクス処理を目的として作られた専用プロセッサだが、近年はその高い演算性能とメモリバンド幅を利用した高性能計算への転用が活発化している。

※3 メニーコアプロセッサ
従来の汎用マルチコアCPUが1つのチップ上に十個程度のCPUコアを搭載していたのに対し、数十個(インテルXeon Phi コプロセッサでは61個)のCPUコアを搭載する新世代の演算加速型プロセッサ。プログラミングは汎用CPUと同じように、複数コアを同時利用する形でチップ内での並列処理を記述可能である。しかし、汎用CPUに比べ、各CPUコアは比較的周波数が低く演算制御部分が簡略化された構造を持つため、性能を引き出すためにはプログラミングに様々な工夫が必要とされる。

※4 InfiniBand FDR
高性能クラスタ型計算機で多用される高性能ネットワーク。Ethernetなどに比べて数十倍の通信性能を持ち、さらに数百~数千ノード規模のシステムをFat Treeと呼ばれるネットワーク構成で結合可能。

※5 QM/MM
原子の世界を支配する量子力学を用いた計算法。重要な中心部だけ量子力学計算を行い、それ以外は古典力学を用いたのがQuantum mechanics/ Molecular Mechanics(QM/MM)法。QM/MM法は、2013年ノーベル化学賞の受賞対象となった計算手法である。

関連情報

筑波大学計算科学研究センターホームページ http://www.ccs.tsukuba.ac.jp/
「COMA」の概要 https://www.ccs.tsukuba.ac.jp/wp-content/uploads/sites/14/2016/10/coma_outline.pdf

* Intel、インテル、Intel Xeon、Xeon Phiは、米国およびその他の国におけるIntel Corporationの商標です。
* その他の社名、製品名などは、一般に各社の商標または登録商標です。

<問い合わせ先>
梅村雅之(センター長)
筑波大学計算科学研究センター長/数理物質系教授
TEL 029-853-6485 E-mail:umemura[at]ccs.tsukuba.ac.jp
朴 泰祐(計算機システム運用委員長)
筑波大学計算科学研究センター/システム情報系教授
TEL 029-853-5518 E-mail:taisuke[at]cs.tsukuba.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL 029-853-6260、6487(センター代表) E-mail:pr[at]ccs.tsukuba.ac.jp

CCS – LBNL Collaborative Workshop

Date: April 10th (Thu) – 11th (Fri), 2014
Venue: International Workshop Room, Center for Computational Sciences, University of Tsukuba

DAY-1 (April 10th)

09:30-09:40 Welcome Address (Masayuki Umemura, CCS)
09:40-10:10 CCS Research Update (Masayuki Umemura, CCS)
10:10-10:40 LBNL Research Update (David Brown, LBNL)
10:40-11:10 HA-PACS/TCA: GPU direct communciation (Taisuke Boku, CCS)
11:10-11:30 Coffee Break
11:30-12:00 Simulating Hurricanes and Typhoons in a Global Climate Model: Results and Challenges (Michael Wehner, LBNL)
12:00-12:30 Overview for Urban Climate Study (Hiroyuki Kusaka, CCS)
12:30-14:00 Lunch Break
14:00-14:30 Lattice QCD Activities at CCS (Yoshinobu Kuramashi, CCS)
14:30-15:00 Large-scale Eigenvalue Calculations in Scientific Applications (Esmond Ng, LBNL)
15:00-15:30 A report on Feasibility Study on Future HPC Infrastructure (Mitsuhisa Sato, CCS)
15:30-15:50 Coffee Break
15:50-16:20 Dynamic Exascale Global Address Space Programming Environments (Costin Iancu, LBNL)
16:20-16:50 Research Activities of Astrophysics at CCS (Masao Mori, CCS)
16:50-17:20 The Lyman-alpha Forest in Cosmological Hydrodynamic Simulations (Casey Stark, LBNL)

We will have a welcome banquet from 19:00 on DAY-1, at Restaurant “Kisoji”. The restaurant is in walking distance with 15 min. from the hotel for LBNL guests.

DAY-2 (April 11th)

09:30-10:00 GPU-based acceleration of data mining algorithms (Toshiyuki Amagasa, CCS)
10:00-10:30 Analysis and Optimization of Gyrokinetic Toroidal Simulations on Emerging Multi- and Many-core Architectures (Khaled Ibrahim, LBNL)
10:30-11:00 Recent Activities of Biological Function Group for HA-PACS Project (Yasuteru Shigeta & Hiroaki Umeda, CCS)
11:00-11:20 Coffee Break
11:20-12:05 CCS-LBNL Researchers Only
Breakout Discussion for Research Collaboration (*)
Application-1, Application-2, HPC
12:05-12:35 CCS-LBNL Researchers Only
Plenary Discussion for Research Collaboration
12:35-12:45 Closing Remarks (Masayuki Umemura, CCS & David Brown, LBNL)

(*) Breakout discussion for research collaboration focuses on the topics and methods for future research collaboration between two organizations. To improve the efficiency of discussion, we will breakout into three groups: Application-1 (Fundamental Science and Numerical Analysis), Application-2 (Applied Science) and HPC (HPC Systems). The breakout discussion rooms are as follows:
Application-1: Meeting Room A
Application-2: Meeting Room C
HPC: International Workshop Room
After breakout discussion, we will gather at plenary room and summarize the future collaboration plan.

 

T2K オープンスパコン運用終了記念シンポジウムを5月30日(金)に行います。

T2Kオープンスパコン運用終了記念シンポジウム

日時:2014 年 5 月 30 日(金)13:30 ~ 17:50(懇親会:18:30 ~)
会場:東京大学工学部2号館(本郷)213号講義室
懇親会:東京大学山上会館 御殿(地階)(会費:3,000円)
参加費:シンポジウム参加無料(事前登録制)
主催:筑波大学計算科学研究センター、東京大学情報基盤センター、京都大学学術情報メディアセンター

開催趣旨

2008年6月2日、筑波、東京、京都で3つのスーパーコンピュータシステムが運用を開始しました。筑波大、東大、京大から構成される T2K Open Supercomputer Allianceの掲げる、「ハードウェアーキテクチャのオープン性」、「システムソフトウェアのオープン性」、「ユーザ・ニーズに対するオープン性」という3つの理念のもとに策定された「T2K オープンスパコン仕様」に基づくT2K 筑波、T2K 東大、T2K 京大です。
それから6年、2014年3月10日のT2K 東大運用終了を以てT2Kオープンスパコンはその使命を終えました。本シンポジウムでは、改めて、T2Kオープンスパコンとは何であったのかを振り返るとともに、T2Kがもたらした成果の検証、更に将来への展望について議論を実施します。

プログラム・参加登録はこちらから

CCS – LBNL Collaborative Workshop(2014年4月10日、11日)

Date: April 10th (Thu) – 11th (Fri), 2014
Venue: International Workshop Room, Center for Computational Sciences, University of Tsukuba

DAY-1 (April 10th)

09:30-09:40 Welcome Address (Masayuki Umemura, CCS)
09:40-10:10 CCS Research Update (Masayuki Umemura, CCS)
10:10-10:40 LBNL Research Update (David Brown, LBNL)
10:40-11:10 HA-PACS/TCA: GPU direct communciation (Taisuke Boku, CCS)
11:10-11:30 Coffee Break
11:30-12:00 Simulating Hurricanes and Typhoons in a Global Climate Model: Results and Challenges (Michael Wehner, LBNL)
12:00-12:30 Overview for Urban Climate Study (Hiroyuki Kusaka, CCS)
12:30-14:00 Lunch Break
14:00-14:30 Lattice QCD Activities at CCS (Yoshinobu Kuramashi, CCS)
14:30-15:00 Large-scale Eigenvalue Calculations in Scientific Applications (Esmond Ng, LBNL)
15:00-15:30 A report on Feasibility Study on Future HPC Infrastructure (Mitsuhisa Sato, CCS)
15:30-15:50 Coffee Break
15:50-16:20 Dynamic Exascale Global Address Space Programming Environments (Costin Iancu, LBNL)
16:20-16:50 Research Activities of Astrophysics at CCS (Masao Mori, CCS)
16:50-17:20 The Lyman-alpha Forest in Cosmological Hydrodynamic Simulations (Casey Stark, LBNL)

We will have a welcome banquet from 19:00 on DAY-1, at Restaurant “Kisoji”. The restaurant is in walking distance with 15 min. from the hotel for LBNL guests.

DAY-2 (April 11th)

09:30-10:00 GPU-based acceleration of data mining algorithms (Toshiyuki Amagasa, CCS)
10:00-10:30 Analysis and Optimization of Gyrokinetic Toroidal Simulations on Emerging Multi- and Many-core Architectures (Khaled Ibrahim, LBNL)
10:30-11:00 Recent Activities of Biological Function Group for HA-PACS Project (Yasuteru Shigeta & Hiroaki Umeda, CCS)
11:00-11:20 Coffee Break
11:20-12:05 CCS-LBNL Researchers Only
Breakout Discussion for Research Collaboration (*)
Application-1, Application-2, HPC
12:05-12:35 CCS-LBNL Researchers Only
Plenary Discussion for Research Collaboration
12:35-12:45 Closing Remarks (Masayuki Umemura, CCS & David Brown, LBNL)

(*) Breakout discussion for research collaboration focuses on the topics and methods for future research collaboration between two organizations. To improve the efficiency of discussion, we will breakout into three groups: Application-1 (Fundamental Science and Numerical Analysis), Application-2 (Applied Science) and HPC (HPC Systems). The breakout discussion rooms are as follows:
Application-1: Meeting Room A
Application-2: Meeting Room C
HPC: International Workshop Room
After breakout discussion, we will gather at plenary room and summarize the future collaboration plan.

【受賞】青木愼也客員教授、石井理修准教授、石山智明研究員が平成26年度科学技術分野の文部科学大臣表彰を受けました

平成26年度科学技術分野の文部科学大臣表彰において、筑波大学計算科学研究センターの青木愼也客員教授・石井理修准教授が科学技術賞研究部門を、石山智明研究員が若手科学者賞を受賞しました。授賞式は4月15日(火)、文部科学省3階講堂にて行われます。

科学技術賞研究部門
「量子色力学の第一原理計算に基づく核力の研究」
初田哲男・理化学研究所仁科加速器研究センター主任研究員
青木愼也・京都大学基礎物理学研究所教授/筑波大学数理物質系(計算科学研究センター)客員教授
石井理修・筑波大学数理物質系(計算科学研究センター)准教授

若手科学者賞
「高精度大規模計算によるダークマター微細構造の研究」
石山智明・筑波大学計算科学研究センター研究員

賞の詳細、受賞理由等については文部科学省ホームページ
報道発表「平成26年度科学技術分野の文部科学大臣表彰受賞者等の決定について」(平成26年4月7日)
をご覧ください。受賞者一覧は最下部にPDFにて掲載されています。

必須アミノ酸「トレオニン」生合成の最終過程が明らかに-スーパーコンピュータで網羅的に反応経路を探索

掲載情報:QLifePro医療ニュース(3/26)

プレスリリース

2014年3月14日

国立大学法人 筑波大学
学校法人 大阪医科大学

[印刷用PDF 277KB]

必須アミノ酸「トレオニン」生合成の最終過程が明らかに
-スーパーコンピュータで網羅的に反応経路を探索

概要

筑波大学数理物質系の庄司光男助教と大阪医科大学総合教育講座の林 秀行教授らによる研究グループ(以下筑波大グループ)は、筑波大学計算科学研究センターのスーパーコンピュータ「T2K-Tsukuba」など※1を用いて「トレオニン」生合成の最終過程の反応経路を初めて解き明かしました。

トレオニンはヒトの体内で作り出すことができない必須アミノ酸です。植物や大部分の微生物はトレオニンを多段階の複雑な反応経路で合成しており、その最終過程では、トレオニン合成酵素による酵素反応が行われています。この反応には“生成物支援触媒”という特徴があり、生成物の1つであるリン酸イオンがトレオニン生成反応を飛躍的に増大させています。この特徴は実験的には証明されているのですが、実際にどのような経路で反応しているのかがわかっていませんでした。

トレオニン合成酵素が関わる複雑な反応機構を探るためには、スーパーコンピュータを用いた高精度量子力学計算法※2が有効です。筑波大グループは、高並列計算によって網羅的に反応中間体と反応経路の探索を行い、生成物支援触媒の仕組みを初めて明らかにしました。この研究成果は、国際論文誌「Journal of the American Chemical Society」ウエブ版に3月13日(現地時刻。日本時刻14日)付けで掲載されました。

1.背景

酵素は、生体内において生命現象に不可欠な化学反応を支えており、効率的に物質変換とエネルギー変換を行っています。また、様々な調節機構により情報伝達や反応制御を行っており、極めて洗練されたシステムを構築しています。このような酵素の仕組みを解明することは、生物学や化学だけではなく、農学、医薬品開発など多くの分野への応用が期待できるため極めて重要です。

多くの酵素反応のうち、加水分解酵素など比較的簡単な反応については解析が進み、電子レベルでの反応機構が議論されるようになっています。しかし、より複雑な酵素反応においてはまだその水準に達していません。

トレオニン合成酵素(ThrS:threonine synthase)は、トレオニン生合成の最終過程である ホスホホモセリンからトレオニンを生成する段階を触媒しています。ThrSの反応は実験的解明が進んでおり、多段階の位置特異的かつ立体選択的反応過程が含まれ、さらに反応副成物のリン酸イオンがその後の反応制御に関わる“生成物支援触媒”機構をもつことが明らかにされています※3。しかし、ThrSの反応には他に「補欠分子族」と呼ばれる分子が関わるため反応中間体の特定は難しく、これまでThrSの反応機構、とくに反応制御の分子メカニズムは明らかになっていませんでした。

2.研究手法と結果

酵素における反応機構を明らかにするには高精度量子力学計算法のひとつであるQM/MM法が有効です。しかし、トレオニン合成酵素反応では多くの不確定要素、たとえば活性中心におけるプロトン化状態、水素結合ネットワーク、水の存在様式などがあるため、理論計算による検証には非常に多くの計算と、それを現実的な時間で可能にする計算の高速化が必要とされていました。

筑波大グループはスーパーコンピュータ「T2K-Tsukuba」を用いて並列計算(256~1024並列)の効率化に取り組んだ結果、高速計算が実行できるようになりました。それにより、ThrSにおける反応特性決定過程に重要な反応におけるすべての反応中間体と反応経路について理論検証を行うことができました。トレオニン生成経路のCβ水酸化反応、Cαプロトン付加反応、イミノ基転移反応を明らかにし、副反応を抑えてトレオニン生成が特異的に進行することを説明しました。

計算により得られた自由エネルギーやUVスペクトルといった化学的性質は実験結果と非常に良く一致し、計算の妥当性が確認できました。さらに選択的なトレオニン生成が、リン酸イオンと生成物の間に作られる特定の水素結合によりもたらされていることを解明しました。

トレオニン合成酵素の計算モデル全系 反応が行われる場所の拡大図

図 左はトレオニン合成酵素の計算モデル全系。溶媒水(薄い紫)の中にトレオニン合成酵素が浮かぶ。右は反応が行われる場所の拡大図。重要な部分だけ、正確だが計算量が大きい量子力学計算を行い、それ以外は、正確さは欠けるが計算量が小さい古典力学計算を行う(QM/MM法)。

3.今後の期待

トレオニン合成酵素における生成物支援触媒の仕組みが明らかになったことで、酵素反応の学術的理解が進むのみならず、酵素や精密有機合成における効率的反応進行や主反応・副反応の制御に応用していく上で極めて重要な示唆を与えることができたと考えています。それにより、新薬開発への発展も期待されます。

また、スーパーコンピュータを利用することでリアリステックな計算モデルを用いることができ、実験結果と多くの対応がつけられるようになった点も極めて先進的です。今後はより多くの実験結果と比較検討していくことで、理論計算の正確さと理論的アプローチの有用性の向上に取り組みます。

近年、計算機性能は目覚ましく向上しています。計算科学的アプローチは、今後、より短時間でより膨大な探索を行うことが可能になります。生命現象が分子レベルで詳しく解明されていくのみならず、化学、材料、医療分野での革新的進展に貢献できると期待されます。

用語解説

※1 スーパーコンピュータ
主にT2K-Tsukubaを利用。ほかに筑波大学計算科学研究センターのHA-PACS、東京大学物性研究所のスーパーコンピュータ、東京大学情報基盤センターFX10を利用した。

※2 高精度量子力学計算法
原子の世界を支配する法則である量子力学を用いた計算法。計算モデル全体に適用すると計算量が膨大になるため、重要な中心部だけ量子力学計算を行い、それ以外は古典力学を用いたQuantum mechanics/ Molecular Mechanics(QM/MM)法が開発された。QM/MM法は、2013年ノーベル化学賞の受賞対象となった計算手法である。

※3 T. Murakawa, et. al, J. Biol. Chem., 286, 2274 (2011)

掲載論文

タイトル:A QM/MM study of the L-threonine formation reaction of threonine synthase: Implications into the mechanism of the reaction specificity
(タイトル和訳: トレオニン合成酵素におけるL-トレオニン生成反応のQM/MM計算-反応特異性の仕組みについて)

著者:Shoji, M.; Hanaoka, K.; Ujiie, Y.; Tanaka, W.; Kondo, D.; Umeda, H.; Kamoshida, Y.; Kayanuma, M.; Kamiya, K.; Shiraishi, K.; Machida, Y.; Murakawa, T.; Hayashi, H.,

掲載誌: the Journal of the American Chemical Society.

問い合わせ先

庄司光男(しょうじ・みつお)
筑波大学 数理物質系/計算科学研究センター 助教
E-mail:mshoji [at] ccs.tsukuba.ac.jp

林 秀行(はやし・ひでゆき)
大阪医科大学 総合教育講座化学教室 教授
E-mail:hayashi [at] art.osaka-med.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL:029-853-6260 FAX:029-853-6260
E-mail:pr [at] ccs.tsukuba.ac.jp

スーパーコンピュータ T2K-Tsukuba 運用終了

T2K-Tsukuba

計算科学研究センターが平成20年6月より運用を続けてきましたスーパーコンピュータT2K-Tsukubaは、5年9ヶ月の計画運用期間を満了し、平成26年2月28日に運用を終了しました。同システムは本センターがCP-PACS構築以来続けてきた、超並列型スーパーコンピュータによる大規模先進的計算科学の推進研究を、コモディティ技術をもって実現するべく導入された超並列PCクラスタです。

同システムは、当時最先端のquad-core processor(1つのCPUチップ内に4つのCPU core を内蔵)であるAMD社OpteronシリーズのBarcelona世代CPUをノード当たり4つ搭載し、16 coreで共有メモリを構築可能な先進的大規模PCクラスタでした。また、並列通信性能を大幅に増強するため、InfiniBand DDRリンクを4つ搭載し、演算性能と通信性能のバランスの取れた、汎用高性能計算用システムとして構築されました。総ノード数648台、総CPU core数10368基、総理論ピーク性能95TFLOPSで、平成20年6月時点のTOP500リストで日本国内第2位、同世界20位にランクされました。

さらに、同システムは筑波大学・東京大学・京都大学の三者間で結ばれた T2K Open Superomputer Alliance の下で、基本システム・アーキテクチャを共通のものとし、各サイトで開発されたプログラムコードの性能可搬性の実現、専用回線を使ったグリッド接続実験、さらにこの連携に基づく様々な計算機科学共同研究等、幅広い展開につながるマシンでもありました。

同システムは計算科学研究センターが展開する様々なスーパーコンピュータ共同利用プログラムである、学際共同利用プログラム、大規模一般利用プログラム、そして平成24年後半からは文部科学省が進めるHPCI (High Performance Computing Infrastructure) プログラムにおける共有リソースの一つとして、全国の様々な計算科学・計算工学・計算機科学の研究者に利用され、常に高い利用率で運用を続けました。

同システムの運用終了に際し、長期間に渡り同システムをご愛用頂きましたことを改めて感謝致します。T2K-Tsukuba が少しでも皆様の研究に貢献できたのであれば、大変嬉しく思います。ありがとうございました。

計算機システム運用委員会委員長
朴 泰祐

高校生がスーパーコンピュータを使って5×5魔方陣の全解を求めることに成功

掲載情報:日刊スポーツ/共同(2/28)朝日新聞(3/1)、茨城新聞(3/1)、読売新聞(3/2)、日経新聞(3/2)、東京新聞(3/2)

プレスリリース

平成26年2月28日

国立大学法人筑波大学

[印刷用PDF 496KB]

概要

筑波大学計算科学研究センターは、全国共同利用施設として、一般公募による「学際共同利用プログラム」※1を実施しています。平成25年度に、茨城県立並木中等教育学校4年次(高校1年)の杉﨑行優(すぎざき・ゆきまさ)君の申請が採択されました。杉﨑君は筑波大学計算科学研究センターの朴泰祐教授と共同研究を進めた結果、スーパーコンピュータ「T2K-Tsukuba」※2を使った並列計算により、5×5の魔方陣の全ての解を求めることに成功しました。
魔方陣とは、正方形のマス目に、縦・横・斜めの合計が同じになるよう数字を置いたものです。5×5の魔方陣の全解は2億7530万5224通りあることがすでにわかっています。杉﨑君は「枝刈り法」を改良した求解アルゴリズムを考案し、スパコンに並列計算させるためのプログラムを開発しました。朴教授は、並列データの収集や並列化に関する詳細なアドバイスを行いました。並列計算はT2K-Tsukubaの全648ノードのうち32ノードを使って行われ、最速で約2時間36分で全解を求めることができました。

1.魔方陣

魔方陣は、正方形の方陣(マス目)に、縦・横・斜めの和が同じになるよう数字を置いたものです。とくに、1からマス目の総数までの数字すべてを使ったものを指します。

魔方陣1 魔方陣2 魔方陣3
図1 魔方陣の例
マス目の数が3×3のとき、縦・横・斜めの和はすべて15になっており、解は対称のものを除くと1通りだけである。4×4では和は34で解は880通り、5×5では和は65で解は2億7530万5224通り(1970年代に発見)。6×6の解の総数はわかっていない。

2.スーパーコンピュータによる並列計算

(1) アルゴリズムの考案

魔方陣の求解は、すべての数字を「総当たり」で入れて正解かどうかを確かめていくのが基本です。しかし、たとえば5×5の場合、1列の和が65とわかっているため、1列の4マスまで埋まると残り1マスは自動的に求められ、これを総当たりから除くことができます。この考え方を「枝刈り法」といいます。
杉﨑君はこの枝刈り法をもとに、総当たりのマス目の数を25から14まで減らせることに気づきました(図2)。これは非常に重要で、総当たり数が14から15へたった1増えただけでも計算時間は数十倍になると見積もられています。今回は総当たりを14で行いましたが、これが最も少ないかどうかはわかりません。さらに減らせる可能性もあります。

image4
図2 枝刈り法をもとにした求解アルゴリズム
丸数字は総当たりで数字を入れる順番(1から25の数字そのものではない)、✓は自動的に求められるマスを表す。斜めのマスを優先的に埋めることで、自動的に求められるマスの個数をさらに増やすことができた。

(2) 並列プログラムの開発

並列型スーパーコンピュータのプログラミングでは、計算をいかに均等に各コアに振り分けるかが重要です。今回、5×5魔方陣の解を求めるにあたって、T2K-Tsukubaの512CPUコア(32ノード)を用いました。これは4.7TFLOPS(1秒間に4.7兆回の計算性能)に相当します。
魔方陣の解を求めるのに必要な計算を512コアに振り分けるために、マスタ・ワーカー方式を用いました。1コアをマスタに指定して全体の司令塔の役目を担わせます。それ以外の511コアはワーカーとしてマスタの指示に従って計算を行います。このとき、仕事の振り分け方が均等でないと、計算を早く終えてさぼっているコアが出てきてしまい、全体の計算時間が増えてしまいます。
実際の計算では、マスタがN番目(Nは0から14のいずれか)のマスまで総当たりをして、その後をワーカーに振り分け、各ワーカーはN+1番目のマスから総当たりを行います。このとき、Nの値が小さいとワーカーの「粒度」(仕事のバラつき)が大きくなってワーカーの計算時間にバラつきがでます(全体の計算時間は増える)。一方、Nの値が大きいと、粒度は小さくなってワーカーの計算時間が均等になっていきますが、マスタとワーカーの通信時間が増大するために、全体の計算時間はやはり増えてしまいます。以上のことから、Nには計算時間が最小になる最適な値が存在することになります。

3.結果

スーパーコンピュータT2K-Tsukubaを用いて並列計算を行い、5×5の魔方陣の全ての解2億7530万5224通りを求めることに成功しました。出力結果は約25GBになりました。
Nの値が3から8について計算を実行し、N=6のときに計算時間が最も短くなることがわかりました。5×5の魔方陣の全解を求めるのにかかった時間は約2時間36分でした(図3)。

図3
図3 N=3~8における実行時間
N=4~7の実行時間はわずかな差だが、N=6のときが最も短い。

また、N=3、6、8のときの各ワーカーの主要処理実行時間を調べたところ、N=3ではバラつきが大きく、N=6、8ではバラつきがほとんどないことがわかりました。また、同じくN=3、6、8のときの各ワーカーの総通信時間を調べ、N=3、6ではほぼ0時間、N=8では1時間以上かかったことが判明しました(図4)。

図4左 図4右
図4 各ワーカーの主要処理実行時間(左)と総通信時間(右)
主要処理実行時間は、N=3のときおよそ0時間から12時間とバラつきが大きかった。

4.今後の展望

筑波大学計算科学研究センターのスーパーコンピュータ「T2K-Tsukuba」は、2014年2月末で運用を終了します。2014年度からは、新たなスーパーコンピュータ「COMA」※3(こま)を導入し、「HA-PACS/TCA」との2台体制で、今後も学際共同利用プログラムを積極的に展開していきます。
杉﨑君と朴教授は引き続き、5×5魔方陣における並列計算の高速化を進めていきます。COMAの学際共同利用プログラム利用を目指して、アルゴリズムやプログラムの改良を行います。6×6魔方陣へのチャレンジは、現時点では不可能と判断しています。総当たり数を36から23まで減らすことができていますが、現在のプログラムでは150兆年かかると見積もられています。これはエクサスケールのスパコンでも54万年以上かかる計算で、事実上不可能です。

用語解説

※1 学際共同利用プログラム(平成26年度)
公募について(締切済) http://www.ccs.tsukuba.ac.jp/kyodoriyou/gakusai/koubo/

※2 スーパーコンピュータ「T2K-Tsukba」
2008年に稼働開始した648ノード、総演算性能95.4TFLOPS(1秒間に95.4兆回)の並列スーパーコンピュータシステム。筑波大、東大、京大の3機関で共通の仕様を用いているため「T2K」の名がついた。T2K-Tsukba は2014年2月末に運用を終了する。

※3 スーパーコンピュータ「COMA」
2014年度から導入されるメニーコア・スーパーコンピュータシステム。計算科学研究センターが開発してきたPACSシリーズの9代目(PACS-Ⅸ)。377ノードで総演算性能は960TFLOPS。そのうちCPU部分が151TFLOPS、61コアのメニーコアプロセッサ部分が809TFLOPS。

<問い合わせ先>
国立大学法人筑波大学 計算科学研究センター 広報室
TEL:029-853-6260 FAX:029-853-6260
E-mail:pr[at]ccs.tsukuba.ac.jp
※並木中等教育学校への直接の取材依頼はご遠慮ください。筑波大学計算科学研究センター広報室が窓口として対応いたします。

 

JAPAN-KOREA HPC WINTER SCHOOL

Date:
February 24th (Mon) – 27th (Thu), 2014

Venue:
International Workshop Room, Center for Computational Sciences, University of Tsukuba
1-1-1 Tennodai, Tsukubashi, Ibaraki 305-8577 Japan
http://www.ccs.tsukuba.ac.jp

Sponsored by:
Center for Computational Sciences, University of Tsukuba, Japan
National Institute of Supercomputing and Networking, Korea
IMG_1134


Agenda:

24th Feb.: SCHOOL DAY-1

09:00 – 10:30 Fundamentals on HPC and Parallel Processing
( Taisuke Boku, CCS )
10:45 – 12:15 Parallel Programming 1: OpenMP
( Mitsuhisa Sato, CCS )
14:15 – 15:45 Parallel Numerical Algorithm
( Hiroto Tadano, CCS )
16:00 – 17:30 Optimization 1: Computation Optimization
( Daisuke Takahashi, CCS )

25th Feb.: SCHOOL DAY-2

09:00 – 10:30 Parallel Programming 2: MPI
( Osamu Tatebe, CCS )
10:45 – 12:15 Parallel Processing Systems
( Yuetsu Kodama, CCS )
12:15 – 12:45 Site visit of HA-PACS
13:45 – 15:15 Optimization 2: Communication Optimization
( Osamu Tatebe, CCS )

26th Feb.: SCHOOL DAY-3 / MINI-WORKSHOP Part1

MINI-WORKSHOP Part1

09:00 – 10:30 Accelerated Computing 1: GPGPU Programming and Computing
( Hyungon Ryu, nVIDIA Korea )
10:45 – 12:15 Accelerated Computing 2: Many-core Processor Programming and Computing
( Hongsuk Yi, KISTI )
14:00 – 14:30 Phantom-GRAPE : high performance software library to accelerate N-body calculation with SIMD instruction set
( Kohji Yoshikawa, CCS )
14:30 – 15:30 Global Optimization by Conformational Space Annealing and its Applications to Biological Systems
(Jooyoung Lee, KIAS)
15:30 – 16:00 Understanding and control of quantum dynamics by pulsed lasers in an ultra-short time scale
( Tong Xiao-Min, CCS )
16:00 – 17:00 Developing a highly scalable molecular dynamics simulation program
( KwangJin Oh, KISTI )
17:00 – 17:30 Fock matrix preparation with GPGPU for fragment molecular orbital calculation
( Hiroaki Umeda, CCS )

27th Feb.: MINI-WORKSHOP Part2

09:00 – 09:30 Development of Block Krylov subspace methods for computing high accuracy solutions and their applications
( Hiroto Tadano, CCS )
09:30 – 10:30 EDISON: A Platform for Simulation based Learning of Computational Science and Engineering
( Ruth Lee, KISTI )
10:30 – 11:00 HA-PACS/TCA: Tightly Coupled Accelerators for Low-Latency Communication between GPUs
( Yuetsu Kodama, CCS )
11:00 – 11:30 KISTI application experiences with Intel Xeon Phi Coprocessor
( Hongsuk Yi, KISTI )

 

JAPAN-KOREA HPC WINTER SCHOOL(2014年2月24日-27日)

Date:
February 24th (Mon) – 27th (Thu), 2014

Venue:
International Workshop Room, Center for Computational Sciences, University of Tsukuba
1-1-1 Tennodai, Tsukubashi, Ibaraki 305-8577 Japan
http://www.ccs.tsukuba.ac.jp

Sponsored by:
Center for Computational Sciences, University of Tsukuba, Japan
National Institute of Supercomputing and Networking, Korea
IMG_1134


Agenda:

24th Feb.: SCHOOL DAY-1

09:00 – 10:30 Fundamentals on HPC and Parallel Processing
( Taisuke Boku, CCS )
10:45 – 12:15 Parallel Programming 1: OpenMP
( Mitsuhisa Sato, CCS )
14:15 – 15:45 Parallel Numerical Algorithm
( Hiroto Tadano, CCS )
16:00 – 17:30 Optimization 1: Computation Optimization
( Daisuke Takahashi, CCS )

25th Feb.: SCHOOL DAY-2

09:00 – 10:30 Parallel Programming 2: MPI
( Osamu Tatebe, CCS )
10:45 – 12:15 Parallel Processing Systems
( Yuetsu Kodama, CCS )
12:15 – 12:45 Site visit of HA-PACS
13:45 – 15:15 Optimization 2: Communication Optimization
( Osamu Tatebe, CCS )

26th Feb.: SCHOOL DAY-3 / MINI-WORKSHOP Part1

MINI-WORKSHOP Part1

09:00 – 10:30 Accelerated Computing 1: GPGPU Programming and Computing
( Hyungon Ryu, nVIDIA Korea )
10:45 – 12:15 Accelerated Computing 2: Many-core Processor Programming and Computing
( Hongsuk Yi, KISTI )
14:00 – 14:30 Phantom-GRAPE : high performance software library to accelerate N-body calculation with SIMD instruction set
( Kohji Yoshikawa, CCS )
14:30 – 15:30 Global Optimization by Conformational Space Annealing and its Applications to Biological Systems
(Jooyoung Lee, KIAS)
15:30 – 16:00 Understanding and control of quantum dynamics by pulsed lasers in an ultra-short time scale
( Tong Xiao-Min, CCS )
16:00 – 17:00 Developing a highly scalable molecular dynamics simulation program
( KwangJin Oh, KISTI )
17:00 – 17:30 Fock matrix preparation with GPGPU for fragment molecular orbital calculation
( Hiroaki Umeda, CCS )

27th Feb.: MINI-WORKSHOP Part2

09:00 – 09:30 Development of Block Krylov subspace methods for computing high accuracy solutions and their applications
( Hiroto Tadano, CCS )
09:30 – 10:30 EDISON: A Platform for Simulation based Learning of Computational Science and Engineering
( Ruth Lee, KISTI )
10:30 – 11:00 HA-PACS/TCA: Tightly Coupled Accelerators for Low-Latency Communication between GPUs
( Yuetsu Kodama, CCS )
11:00 – 11:30 KISTI application experiences with Intel Xeon Phi Coprocessor
( Hongsuk Yi, KISTI )

第97回計算科学コロキウムを2月24日(月)13:30より行います。

第97回計算科学コロキウムを、2月24日(月)に開催します。
多数のご来聴をお願い致します。

日時:2014年2月24日(月)13:30-15:00
場所:CCS 会議室A
Title: The Quest for Solving QCD: Simulating fundamental particle interactions on supercomputers
講師:Dr. Karl Jansen(NIC, DESY, Zeuthen)

abstract:
The strong interactions of elementary particles are described theoretically in the framework of Quantum Chromodynamics (QCD). The most promising way to solve QCD is given by numerical simulations using Monte Carlo Methods, in which the space-time continuum is replaced by a lattice. We shall demonstrate that since the invention of this approach by K. Wilson the conceptual, algorithmic and supercomputer developments have progressed so much that today realistic simulations of lattice-QCD become possible, bringing us close to a, at least, numerical solution of QCD. As one example, we will show results for the hadron spectrum. In addition, we will address the anomalous magnetic moment of the muon as a prime candidate for finding physics beyond the standard model.

世話人:金谷和至
素粒子理論研究室セミナーとの共同開催です。

筑波大学2013 BEST FACULTY MEMBER表彰式(2/12)

計算科学研究センター 素粒子物理学研究部門の石井理修准教授と、計算情報学研究部門データ基盤分野の北川博之教授が、筑波大学2013 BEST FACULTY MEMBERに選ばれました。

日 時:2月12日(火)15:00~17:00
場 所:筑波大学 大学会館ホール
式次第:15:00~15:30 表彰式
    15:30~17:00 表彰教員による講演

詳しくは大学ホームページをご覧ください。

教育部門で表彰を受ける北川博之教授
教育部門で表彰を受ける北川博之教授
講演を行う石井理修准教授
講演を行う石井理修准教授

宇川彰先生 筑波大学退職記念講演会とパーティーのご案内

拝啓

 永年にわたり筑波大学で素粒子物理学と計算科学を牽引し、大学運営と計算科学コミュニティー育成に多大な貢献をしてこられた宇川彰先生が、来る2014年3月末日をもって筑波大学を退職され、理化学研究所計算科学研究機構・副機構長に御栄転されることとなりました。そこで、退職記念講演会とパーティーを企画いたしましたので、ご案内申し上げます。
posterUkawa

記念講演会
 日時:2014年3月18日(火)14:00 開場、14:40~17:10
 場所:筑波大学会館ホール
    茨城県つくば市天王台 筑波大学 南地区 大学会館本館
    http://www.tsukuba.ac.jp/access/map_south.html

パーティー
 日時:2014年3月18日(火)18:00~21:00
 場所:オークラ フロンティア ホテル つくば アネックス1F
    昴・東の間
    茨城県つくば市吾妻1丁目1364-1  TEL.029-852-1112
    http://www.okura-tsukuba.co.jp
 会費:1万円(記念品代を含む)  当日会場にて

なお、準備の都合上、できるだけ3月10日(月)までに、ご出欠を電子メール等にて下記までお知らせいただきたいと存じます。

連絡先:〒305-8571 茨城県つくば市天王台1-1-1
筑波大学 数理物質系 物理学域 金谷和至
email: kanaya[at]ccs.tsukuba.ac.jp
fax: 029-853-4492

 宇川彰先生は、1977年に東京大学で博士号を取得され、コーネル大学原子核研究所、CERN、プリンストン大学物理学科のポスドク研究員、東京大学原子核研究所助教授を経て、1984年に筑波大学物理学系助教授に着任されました。1990年には教授に昇任され、1998年計算物理学研究センター長、2004年計算科学研究センター長を歴任されました。1994年には、「格子量子力学の大規模シミュレーションによる研究」により、仁科記念賞を、岩崎洋一先生、大川正典先生、福来正孝先生と共同受賞されました。その後、2007年からの学長特別補佐を経て、2009年4月に筑波大学副学長に就任され、2013年3月まで大学の運営に活躍されました。学外でも、スーパーコンピュータ「京」の開発と利活用をはじめとする計算科学全般の推進に向けて、文部科学省の多くの委員会委員や一般社団法人HPCIコンソーシアムの理事長を務められるなど、わが国における理学と計算科学の発展に尽力されました。

 記念講演会とパーティーは、先生の御退職にあたって、その御功績を称え、今後の一層の御活躍を願って、筑波大学の有志で企画いたしました。形式にはこだわらず、ご参加の皆さんに大いにご歓談いただく場にしたいと考えております。ぜひご参加いただき、私達と一緒に楽しんで下さいますよう、お願い申し上げます。

敬具

2014年2月
世話人一同  三明康郎、大田友一、梅村雅之、佐藤三久、朴泰祐、和田耕一、藏増嘉伸、石橋延幸、金信弘、金谷和至

計算科学研究センター 計算機システムT2K-Tsukubaログインサーバへの不正アクセスについて

計算科学研究センター 計算機システムT2K-Tsukubaログインサーバにおいて、外部から不正アクセスがあったことが、平成26年1月27日(月)に判明しました。

1月24日(金)、ログインサーバに一般ユーザアカウントを使って侵入が行われましたが、個人情報の流出など、他機関に波及するような被害が無いことは確認できています。また、T2K-Tsukubaスーパーコンピュータ本体への侵入もありません。判明後、ログインサーバ及びスパコン本体を停止し、原因を究明しています。

センターにおいては昨年11月より、T2K-Tsukubaログインノードから外部向けのsshアクセスポートを閉鎖しており、当ログインノードを踏み台とした被害拡大はありません。今回の事案につきましては、徹底的な原因究明の上、対策を講じていきます。

計算機ユーザならびに関係機関の皆様には、ご迷惑をお掛けしますことをおわび申し上げるとともに、問題解決に向け、ご協力をお願い申し上げる次第です。

平成26年2月7日

筑波大学 計算科学研究センター
センター長 梅村 雅之


システム・ログインサーバ及びスパコン本体を停止後、本インシデントの原因を究明の上、新たなセキュリティ強化の対策を講じて安全性を確認したのち、ユーザファイルの保全等のため、2月17日(月)14:30より運用を再開しましたが、予定していた運用期限を迎えましたので、2月28日17:00に本システムの運用を終了しました。

これまでの5年9ヶ月の長期に渡りT2K-Tsukubaを利用して頂きました多数の皆様に心よりお礼申し上げます。

平成26年3月4日

筑波大学 計算科学研究センター
センター長 梅村 雅之

問い合わせ先:
筑波大学計算科学研究センター広報室
TEL:029-853-6260(直通)、029-853-6487(センター事務)
Email:pr [at] ccs.tsukuba.ac.jp

エクサスケール時代の高性能計算システム

筑波大学計算科学研究センター ワークショップ
「エクサスケール時代の高性能計算システム」

 来年度より文部科学省による次世代スーパーコンピュータの開発計画が始まることになり、欧米でも次世代の計算システムとして Exascale Computing System の研究開発が始まろうとしています。Exascale Computing では、これまでの Petascale Computing に比べ、より一層のハードウェア/ソフトウェア/アプリケーションにおけるチャレンジが待っており、あらゆる面での Co-Design が求められます。このための様々な試みや共同研究が始まっており、今後5年程度を目処にシステムの実現を目指す研究が活性化されるものと期待されます。
 このような背景の下、筑波大学計算科学研究センターでは米国 Oak Ridge National Laboratory の Dr. Jeffrey Allen Nichols をお招きし、Exascale Computing に関する講演をして頂くことになりました。併せて、米国クレイ社による次世代超並列システムのための相互結合網技術に関する講演、また本年4月より本センターで稼働開始予定の次期スーパーコンピュータ COMA:PACS-IX (Cluster of Many-core Architecture Processors) の概要に関する紹介を行います。
 本ワークショップはどなたでも無料で参加頂けます(事前参加登録をお願いします)。次世代計算システム技術の最新動向とコモディティ技術ベースによる最先端計算システムに関する情報及び意見交換の場として、多数の皆様のご参加をお待ちしております。

日時:
平成26年1月30日(木)10:30~12:30

場所:
筑波大学 計算科学研究センター 国際ワークショップ室

参加登録:
参加登録は終了しました。

プログラム:

(1) 10:30~11:30 “Toward EXA Flops Era”
Jeffrey Allen Nichols
(Associate Laboratory Director, Computing and Computational Sciences,
Oak Ridge National Lavatory)
(2) 11:30~12:00 “Next generation HPC technology, the cost and scalability of interconnects”
Steve Lyness
VP Solution Engineering, Cray Cluster System division.
Cray Inc.
(3) 12:00~12:30 “計算科学研究センター次期スーパーコンピュータ COMA:PACS-IX”
朴 泰祐
筑波大学計算科学研究センター 副センター長

データセンター向けSSD への適用を目指した相変化デバイスの低消費電力動作に成功-“溶融しない”相変化で高速・低電力・1億回書き換え動作を実証

掲載情報:日経BP(12/10)、日刊工業新聞(12/11)

プレスリリース

データセンター向けSSD への適用を目指した相変化デバイスの低消費電力動作に成功-“溶融しない”相変化で高速・低電力・1億回書き換え動作を実証
 

2013年12月9日
超低電力デバイス技術研究組合
Low-power Electronics Association & Project (LEAP)

詳細PDF (701KB)

概要

超低電力デバイス技術研究組合(理事長:豊木則行、以下LEAPと略記)は国立大学法人筑波大学との共同研究により、データセンター向け固体ストレージSSD(Solid State Drive)への適用を目指した、相変化デバイスの高速・低電力・1億回動作に成功しました。
SSDの不揮発メモリには、現在、フラッシュメモリが用いられています。フラッシュメモリは多値記憶により大容量化を達成していますが、高い内部電圧が必要なことと低いデータ転送速度を補うために消費電力が増大する等の課題があります。今後、データセンターに用いられるSSDにはこれまでにない高速処理能力が求められます。特に、アクセスが集中するストレージ階層に相変化デバイスを使用し、これまでにない高速、低電力、高信頼などの特性を新たにSSDに付加することが重要です。
先のリリース(VLSI Tech.2013)では、抵抗変化でデータを保持する相変化デバイスにおいて、GeTe/Sb2Te3超格子膜の電荷注入による動作の機構を見出しました。今回は、書換動作後にGeTe/Sb2Te3超格子構造が保持されることを観測して、“溶融を伴わない”抵抗変化現象を実証しました。さらに、GeTe/Sb2Te3超格子結晶膜を高品質化することで、従来の相変化デバイスと比較して1/10以下の書き込み時間と書き込み電力、及び1億回以上の書換動作が可能となりました。開発した相変化デバイスを適用することで、これまでにない高速、低電力、高信頼などの特性をSSDに付加できます。さらに高性能化に伴ってチップ個数の削減による低コスト化などのシステムメリットをもたらすと同時に、データセンターの低電力化に貢献することが期待されます。今後、実用化を目指した集積化実証の研究開発を進めていきます。
本研究は、平成22 年度経済産業省産業技術研究開発委託費「低炭素社会を実現する超低電圧デバイスプロジェクト」に関する委託研究として実施ました。平成23 年度からは、独立行政法人新エネルギー・産業技術総合開発機構「低炭素社会を実現する超低電圧デバイスプロジェクト」に係る委託業務として実施しています。デバイス試作に関しては、独立行政法人産業技術総合研究所スーパークリーンルーム(SCR)を使用し、SCR運営室にご協力頂きました。

T2K-Tsukubaログインサーバへの不正アクセスについて:続報

筑波大学計算科学研究センター
平成25年11月29日

 T2K-Tsukubaログインサーバへの不正アクセスにより、全ユーザの暗号化されたssh公開鍵認証情報が取得された可能性があった件で、セキュリティ対策を完了しましたので、停止中のシステムを11/26に再稼働しました。再稼働後、しばらく状況を見守っておりましたが、現在のところ問題は発生しておりません。

 対策としては、公開鍵を全て更新し、ユーザに対してセキュリティレベル向上について具体的な指導を行いました。また、ログインサーバのOSを最新のLinuxに変更し、セキュリティ監視に関して万全の措置を施しました。

 スーパーコンピュータの運転が11/3から停止し、共同利用研究者の方々と関係機関の皆様にご迷惑をおかけしましたことを重ねてお詫びします。

問い合わせ先:
筑波大学計算科学研究センター広報室
TEL:029-853-6260(直通)、029-853-6487(代表)
Email:pr [at] ccs.tsukuba.ac.jp

関連記事
T2K-Tsukubaログインサーバへの不正アクセスについて

K computer Recognized in Class 1 and 2 of the HPC Challenge Awards

November 22, 2013

RIKEN
University of Tsukuba
Fujitsu Limited

[PDF 141KB]

Top honors awarded for productivity in a high-performance supercomputer parallel programming language implementation (a first for Japan) and overall performance

RIKEN, the University of Tsukuba and Fujitsu today announced that they were recognized in the 2013 HPC Challenge Awards. RIKEN and the University of Tsukuba received the prize in the HPC Challenge Class 2 Awards, which recognize the overall performance of a programming language. This recognition is based on performance results measured using the K computer for implementations of the high-performance supercomputer parallel programming language XcalableMP, which was jointly developed by RIKEN and the University of Tsukuba. This is the first time a Japanese organization has received the award.

Furthermore, RIKEN, the University of Tsukuba, and Fujitsu received top ranks in three of the four benchmarks at the 2013 HPC Challenge Class 1 Awards for the performance of the K computer. The first-place rankings were received in the following three benchmarks used for evaluating the all-around performance of a supercomputer: (1) Global HPL, which measures the floating point rate of execution for solving a linear system of equations; (2) EP STREAM (Triad) per system, which measures sustainable memory bandwidth and the corresponding computation rate for simple vector kernels; and (3) Global FFT, which measures the floating point rate of execution of double precision complex one-dimensional Discrete Fourier Transform.

With this, the K computer ranked first, for the third consecutive year from 2011 to 2013, in the HPC Challenge Class 1 Awards. The awards were announced on November 21, 2013 in Denver, Colorado at SC13, the International Conference for High Performance Computing, Networking, Storage and Analysis.

The HPC Challenge benchmarks are benchmark programs designed to evaluate the overall performance of supercomputers in terms of processing performance in 28 tests derived from frequently used computational patterns in the field of scientific computation. There are two classes of awards: Class 1, which measures benchmark performance values, and Class 2, which measures the productivity of programming language implementations.

The HPC Challenge Class 2 Award, the first to be received by a Japanese organization, is a contest for programming languages used in developing HPC applications. Among the 28 tests mentioned above, the award is designed to evaluate both programming language productivity and performance for four HPC Challenge benchmarks: Global HPL, which measures the floating point rate of execution for solving a linear system of equations; Global RandomAccess, which measures random memory access performance in parallel processing; EP STREAM (Triad) per system, which measures memory access speed under multiple loads; and Global FFT, which measures total performance of Fast Fourier Transform. Participants can also choose to include up to two additional benchmarks besides the HPC Challenge benchmarks for consideration, and the award is determined based on the total score for the implementations including the additional benchmarks.

The award-winning XcalableMP is a programming language that was jointly developed by the RIKEN Advanced Institute for Computational Science and the University of Tsukuba’s Center for Computational Sciences. The HPC Challenge benchmarks and the Himeno benchmark (a benchmark program to evaluate the performance of incompressible fluid analysis code) are the benchmarks that were implemented. The performance results of each of these benchmarks on K computer demonstrated that implementations using XcalableMP exhibit extremely high performance.

Programming languages that can be used to develop highly productive, high-speed applications that run on large-scale computation environments – such as K computer – make it possible to accelerate the pace of research. As a result, they are highly desirable by researchers both inside and outside Japan. The awards reveal both the high productivity and high performance of XcalableMP, in addition to demonstrating the substantial effectiveness of XcalableMP for developing HPC applications.

The K computer, which was developed jointly by RIKEN and Fujitsu as a part of the High-Performance Computing Infrastructure (HPCI) initiative led by Japan’s Ministry of Education, Culture, Sports, Science and Technology (MEXT), was opened to shared use in September 2012. The University of Tsukuba contributed extensively to increasing the computational speed for the Global FFT benchmark.

Additional Information

Press Contacts
RIKEN Advanced Institute for Computational Science
Office for Research Communications
Tel: +81-78-940-5623, 5624

University of Tsukuba
Public Relations Office, Center for Computational Sciences
pr [at] ccs.tsukuba.ac.jp

Fujitsu Limited
Public and Investor Relations Division
Inquiries: https://www-s.fujitsu.com/global/news/contacts/inquiries/index.html


About RIKEN
RIKEN is Japan’s flagship research institute devoted to basic and applied research. Over 2500 papers by RIKEN researchers are published every year in reputable scientific and technical journals, covering topics ranging across a broad spectrum of disciplines including physics, chemistry, biology, medical science and engineering. RIKEN’s advanced research environment and strong emphasis on interdisciplinary collaboration has earned itself an unparalleled reputation for scientific excellence in Japan and around the world. For more information, please see: http://www.riken.jp/

About University of Tsukuba
The University of Tsukuba aims to establish free exchange and close relationship in both basic and applied sciences with educational and research organizations and academic communities in Japan and overseas. The university makes a contribution to the world through its educational system that seeks to make the most of students’ creativity and individuality http://www.tsukuba.ac.jp/english/ https://www.ccs.tsukuba.ac.jp/eng/

About Fujitsu
Fujitsu is the leading Japanese information and communication technology (ICT) company offering a full range of technology products, solutions and services. Approximately 170,000 Fujitsu people support customers in more than 100 countries. We use our experience and the power of ICT to shape the future of society with our customers. Fujitsu Limited (TSE: 6702) reported consolidated revenues of 4.4 trillion yen (US$47 billion) for the fiscal year ended March 31, 2013. For more information, please see http://www.fujitsu.com.

All company or product names mentioned herein are trademarks or registered trademarks of their respective owners. Information provided in this press release is accurate at time of publication and is subject to change without advance notice.