「超巨大ブラックホール研究推進連絡会」第2回ワークショップ(2014年11月3日、4日)

日時:2014年11月3日(月) 9:00-18:00、11月4日(火) 9:00-16:30
場所:筑波大学 計算科学研究センター ワークショップ室

【開催趣旨】
昨年、超巨大ブラックホール研究の各種情報交換を行うためのコンソーシアムとして、「超巨大ブラックホール研究推進連絡会」Supermassive Black Hole Research Consortium (SMBH-REC)を立ち上げ、第1回のキックオフワークショップを愛媛大学で開催いたしました。
本年は、高赤方偏移の巨大ブラックホール形成に焦点を当て,第2回のワークショップを開催いたします。

赤方偏移7を超えるクェーサーの発見は,1億太陽質量を超える巨大ブラックホールが8億年程度で誕生したことを示していますが、このような巨大ブラックホールが、どのように誕生したのかは明らかにされていません。
この問題の解明には、宇宙論的天体形成の枠組みの中で、初代ブラックホール形成と原始銀河中の巨大ブラックホール成長を明らかにすることが必要です。
本ワークショップでは、SMBHの起源と進化に関する観測と理論のレビュー、関連する招待講演をお願いしています。

皆様の奮ってのご参加,並びに講演の申し込みをお待ちしています。

レビュー講演
河野孝太郎(東京大学) 「SMBHの起源と進化:観測レビュー」
大向一行(東北大学) 「SMBHの起源と進化:理論レビュー」

招待講演者
秋山正幸(東北大学)
今西昌俊(国立天文台)
上田佳宏(京都大学) 
大須賀健(国立天文台)
柏川伸成(国立天文台)
谷川衝(理化学研究所)
田村陽一(東京大学)
長尾透(愛媛大学)
細川隆史(東京大学)
松岡良樹(国立天文台/プリンストン大)

【参加申し込み】
参加申込書送付先:ayw[at]ccs.tsukuba.ac.jp
締切:2014年9月30日

旅費補助につきましては確定しておりませんが、ご希望の場合には、必要事項を申込書に記入してください。

——————————————————–
 「超巨大ブラックホール研究推進連絡会」第2回ワークショップ 参加申込書
——————————————————–
氏名:
所属:
職名(学年):
Email:
参加日:  □11/3(月) □11/4(火)
発表の有無: 有 無
「有」の場合タイトル:
懇親会参加: 有 無
——————————————————–
旅費補助の希望: 有 無
「有」の場合
旅程: (例 11/2着-11/4発)
所属機関・部局: ○○大学 ○○研究科
所属機関住所:
所属機関TEL&FAX:
所属長氏名(研究科長氏名):
自宅住所:
——————————————————–

世話人
Alex Wagner(筑波大)、谷口義明(愛媛大)、長尾透(愛媛大)、冨永望(甲南大)、梅村雅之(筑波大)

第98回計算科学コロキウムを9月18日(木)11:00より行います。

第98回計算科学コロキウムを、9月18日(木)に開催します。
多数のご来聴をお願い致します。

日時:2014年9月18日(木)11:00-12:30
場所:CCS ワークショップ室
Title: DHARMA: Distributed asyncHronous Adaptive Resilient Management of Applications
講師:Dr. Keita Teranishi, Sandia National Laboratory

abstract:
Resilience at extreme-scale for high-performance computing (HPC) is now a widely recognized and established concern. As we approach massive billion-thread parallelism and rapidly increasing number of components on the path to exascale, the mean-time between failures (MTBF) will continue to shrink. To ensure forward progress is made as efficiently as possible (both time and energy), new programming model and runtime tools are needed.

To deal with the massive parallelism in the future systems, a number of many-task programming models are emerging as alternatives of MPI-based single-program multiple-data (SPMD) model. They tend to emphasize data-flow by launching a work as soon as the input data is available. The state of the art many-task programming models involve several techniques to optimize scheduling of the tasks as well as the placement of the data to improve load balancing, communication overhead and concurrency. However, these techniques become very challenging to implement once resilience becomes the center of interest.

With these concerns in mind, we propose DHARMA, Distributed asyncHronous Adaptive Resilient Management of Applications. We employ DHT to maintain the meta-data information of data and tasks to quickly recover from fail-stop node crashes. Our DHT allows a quick look-up for the entities of many task programming model including data and task as well as their duplications.

In the talk, we describe the architecture of DHARMA and its development using SST-macro simulator that allows us to debugging and performance analysis on future extreme scale systems.

This work is joint with Janine Bennett, Robert Clay, John Floren, Ken Franko, Saurabh Hukerikar, Samuel Knight, Hemanth Kolla, Greg Sjaardema, Nicole Slattengren, and Jermiah Wilke.

世話人:朴 泰祐

CCS HPCサマーセミナー2014を9/1(月)~9/2(火)に開催します。(2014年9月1日、2日)

日程:2014年9月1日(月)~9月2日(火)
時間:9:00~16:45(1日目は17:00~18:00にCOMA(PACS-IX)の見学会を実施)
場所:筑波大学計算科学研究センター 1階 ワークショップ室
定員:80名
URL :http://www2.ccs.tsukuba.ac.jp/workshop/HPCseminar/2014/
参加申し込み:上記のURLより登録をお願い致します(締め切り 8/28 (木))
参加費:無料

【開催主旨】 
計算科学を支える大規模シミュレーション、超高速数値処理のためのスーパーコンピュータの主力プラットフォームはクラスタ型の並列計算機となってきました。ところが、大規模なクラスタ型並列計算機は、高い理論ピーク性能を示す一方で、実際のアプリケーションを高速に実行することは容易なことではありません。
本セミナーはそのようなクラスタ型並列計算機の高い性能を十二分に活用するために必要な知識、プログラミングを学ぶことを目的としています。超高速数値処理を必要とする大学院生が主な対象ですが、興味をお持ちの方はどなたでもご参加下さい。

参加申し込み、詳細については以下のページをご覧ください。
http://www2.ccs.tsukuba.ac.jp/workshop/HPCseminar/2014/

「京」を使い世界最大規模の全球大気アンサンブルデータ同化に成功

プレスリリース

「京」を使い世界最大規模の全球大気アンサンブルデータ同化に成功
-天気予報シミュレーションの高精度化に貢献-

2014年7月23日
独立行政法人理化学研究所
独立行政法人科学技術振興機構

ポイント

・10,240個という世界最大規模の全球大気アンサンブルデータ同化を実現
・理化学研究所が開発した「EigenExa」を活用し、計算を大幅に高速化
・気象観測の影響が瞬時に1万km規模に及ぶ可能性を解明

要旨

理化学研究所(理研、野依良治理事長)は、天気予報シミュレーションの高精度化を目指し、スーパーコンピュータ「京」を使って、10,240個のアンサンブルで3週間分という世界最大規模の「全球大気のアンサンブルデータ同化」に成功しました。必要とされる計算量は、これまでの100個程度のアンサンブルを使った場合に比べて100万倍という大規模なものになります。これは、理研計算科学研究機構(平尾公彦機構長)データ同化研究チームの三好建正チームリーダーと、近藤圭一特別研究員、および大規模並列数値計算技術研究チームの今村俊幸チームリーダーの研究グループによる成果です。

スーパーコンピュータを使った天気予報を行う方法の1つに「アンサンブル予報」があります。アンサンブル予報は、風や気温などの時間変化を物理学の法則に基づきコンピュータで計算して将来の大気の状態を予測するシミュレーションを、並行して複数実行し、同等に確からしい「パラレルワールド(並行世界)」を作ります。この平均やばらつきから、確率的な天気予報を行います。

「アンサンブルデータ同化」は、アンサンブル予報で作られたパラレルワールドに実測データを加え、すべてのパラレルワールドを誤差の範囲内に制御します。これまでのアンサンブルデータ同化では、100個程度以下のアンサンブル(パラレルワールドの数)を用いていましたが、今回、これを世界最大規模の10,240個に増やし、アンサンブルデータ同化の計算を約8倍高速化、理論ピーク性能比44%超という極めて高い実行効率を達成することで、全球大気のアンサンブルデータ同化を3週間分実行することに成功しました。これまでは観測の影響を2,000~3,000 kmに限定する必要がありましたが、今回の成果により、例えば日本から1万km遠方の観測データが、瞬時に日本の大気状態の推定精度を向上する可能性が明らかとなり、天気予報シミュレーションの改善に貢献することが期待されます。

本研究成果は、米国の科学雑誌『Geophysical Research Letters』(8月15日第41号)に掲載されるに先立ち、オンライン版(7月24日付け:日本時間7月25日)に掲載予定です。

※アンサンブルとは、フランス語で「一緒に」「一揃い、全体」という意味。

プレスリリース詳細(理化学研究所)

スーパーコンピュータ「HA-PACS/TCA」が2期連続でGreen500の第3位を獲得

筑波大学計算科学研究センターのスーパーコンピュータ「HA-PACS/TCA」が、世界で最もエネルギー消費効率の良いスーパーコンピュータをランキングする「Green500」2014年6月版で、第3位を獲得しました。2013年11月に続き、2回連続でのランクインとなりました。

HA-PACS/TCAは、2012年2月に稼働開始したHA-PACSの拡張部で、2013年10月に導入されました。各計算ノードは、NVIDIA社の高性能GPUであるK20Xをノード当たり4台搭載しており、同システムはこれを64台結合した超高性能GPUクラスタです。
Green500は消費電力当たりのLINPACK測定性能「HPLベンチマーク(MFLOPS/W)」で評価され、HA-PACS/TCAは3518 MFLOPS/Wでした。HPL効率は76%と、GPUクラスタとしては極めて高い効率を達成しました。1位は東京工業大学のTSUBAME-KFC、2位はケンブリッジ大学のWilkesでした。

関連リンク

The Green500 List – June 2014
スーパーコンピュータ「HA-PACS/TCA」がGreen500の第3位を獲得|計算科学研究センター(2013年11月21日)

【受賞】石山智明研究員が平成26年度筑波大学若手教員特別奨励賞を受賞しました

筑波大学計算科学研究センターの石山智明研究員が、平成26年度筑波大学若手教員特別奨励賞を受賞しました。石山研究員が、平成26年度科学技術分野の文部科学大臣表彰 若手科学者賞を受賞した功績を称えたものです。
授賞式が6月19日に行われ、東 照雄副学長から筑波大学若手教員特別奨励賞の表彰楯が授与されました。また、副賞として30万円の研究費が支給されました。

くわしくは筑波大学ホームページをご覧ください。

【受賞】児玉祐悦教授、朴泰祐教授、佐藤三久教授がHEART2014にてBest Paper Awardを受賞しました

筑波大学計算科学研究センターの児玉祐悦教授、朴泰祐教授、佐藤三久教授と、東京大学情報基盤センターの塙敏博特任准教授が、Fifth International Symposium on Highly-Efficient Accelerators and Reconfigurable Technologies (HEART2014)にてBest Paper Awardを受賞しました。受賞対象となった論文は、「PEACH2: An FPGA-based PCIe network device for Tightly Coupled Accelerators」です。
本論文は、計算科学研究センターで推進しているHA-PACSプロジェクトのうち、密結合並列演算加速機構(TCA:Tightly Coupled Accelerators)を実現するために開発を行ったPEACH2チップのFPGA実装に関するもので、当センターの高性能計算システム研究部門の研究によるものです。授賞式は2014年6月10日(火)に行われました。

kodama heart2014_267
児玉祐悦教授(写真右)

著者:Y.Kodama, T.Hanawa, T.Boku and M.Sato
タイトル:”PEACH2: An FPGA-based PCIe network device for Tightly Coupled Accelerators”
会議:Fifth International Symposium on Highly-Efficient Accelerators and Reconfigurable Technologies (HEART2014)
開催日時:June 9-11, 2014
開催場所:東北大学、仙台、日本
受賞名:Best Paper Award

Cray Inc. announced news release about COMA(PACS-IX)

Cray Inc. announced news release about COMA(PACS-IX).

SEATTLE, WA — (Marketwired) — 05/20/14 — Global supercomputer leader Cray Inc. (NASDAQ: CRAY) today announced that the Center for Computational Sciences (CCS) at the University of Tsukuba in Japan has put another Cray® CS300™ cluster supercomputer into production — the second Cray CS300 system unveiled at the University in the last six months.

With the addition of the new Cray CS300 system, named “COMA (PACS-IX),” which stands for Cluster Of Many-core Architecture processors, and the previously announced High Accelerated Parallel Advanced system for Computational Science (HA-PACS) system, the University now has two petascale Cray cluster supercomputers.

Please see the website of Cray Inc. for details.

【授賞式】平成26年度科学技術分野の文部科学大臣表彰授賞式に、石井理修准教授、石山智明研究員が出席しました

平成26年度科学技術分野の文部科学大臣表彰において、筑波大学計算科学研究センターの青木愼也客員教授・石井理修准教授が科学技術賞研究部門を、石山智明研究員が若手科学者賞を受賞。授賞式が4月15日(火)、文部科学省3階講堂にて行われました。

科学技術賞研究部門
「量子色力学の第一原理計算に基づく核力の研究」
初田哲男・理化学研究所仁科加速器研究センター主任研究員
青木愼也・京都大学基礎物理学研究所教授/筑波大学数理物質系(計算科学研究センター)客員教授
石井理修・筑波大学数理物質系(計算科学研究センター)准教授

若手科学者賞
「高精度大規模計算によるダークマター微細構造の研究」
石山智明・筑波大学計算科学研究センター研究員

IMG_3028
科学技術賞の石井准教授(左)、若手科学者賞の石山研究員(右)

賞の詳細、受賞理由等については文部科学省ホームページ
報道発表「平成26年度科学技術分野の文部科学大臣表彰受賞者等の決定について」(平成26年4月7日)
をご覧ください。受賞者一覧は最下部にPDFにて掲載されています。

1ペタフロップスの性能を持つスーパーコンピュータ「COMA(PACS-IX)」を導入 メニーコアアーキテクチャプロセッサを用いた国内最大のクラスタに

掲載情報:日刊工業新聞(4/15)読売新聞(4/15)

プレスリリース

平成26年4月14日

国立大学法人筑波大学
クレイ・ジャパン・インク

[印刷用PDF 304KB]

1ペタフロップスの性能を持つスーパーコンピュータ「COMA(PACS-IX)」を導入
メニーコアアーキテクチャプロセッサを用いた国内最大のクラスタに

ポイント

  • ○ 1ペタフロップスのスーパーコンピュータ「COMA(PACS-IX)」を新規導入
  • ○ 従来の汎用CPUに加えて全393計算ノードに2基ずつのインテル Xeon Phi コプロセッサを搭載し、同プロセッサを採用したスパコンとして国内最高性能
  • ○ 「HA-PACS」と併せ、2台のペタフロップスマシンで最先端の計算科学研究を推進

概要

筑波大学計算科学研究センターは、ピーク演算性能1.001 ペタフロップス(毎秒1001兆回)の新型スーパーコンピュータ「COMA(PACS-IX)」(コマ、パックス・ナイン)を導入し、平成26年4月15日に運用を開始します。同センターとして「HA-PACS」に続く2台目のペタフロップス・システムです。

「COMA」は米Cray Inc.社によって提供された、最先端の超並列加速器クラスタ型スーパーコンピュータです。従来の汎用CPUに加え、全計算ノードに2基ずつの米Intel社製 インテルXeon Phiコプロセッサを備えています。計算ノード数は393台で、合計786基の同プロセッサを搭載。総ピーク演算性能1.001ペタフロップスは、インテルXeon Phiコプロセッサを採用したスーパーコンピュータとして国内最高性能となります。

「COMA」は、筑波大学が30年以上に渡って研究開発を続けてきた「PACSシリーズ」スーパーコンピュータの第9世代に相当し、「PACS-IX」の名称を併せ持ちます。計算科学研究センターは、平成25年10月に拡張されたGPUを演算加速装置として持つスーパーコンピュータ「HA-PACS」と併せ、2つの異なる演算加速装置を有するペタフロップス・スーパーコンピュータにより、最先端の計算科学研究を推進していきます。

COMA(PACS-IX)
筑波大学計算科学研究センターの新型スーパーコンピュータ「COMA(PACS-IX)」

1.背景

高性能汎用CPUの進歩により、超並列PCクラスタの性能は確実に増大していますが、今後ますます拡大する演算性能に対する要求を限られた電力及びスペースで満たすために演算加速装置※1が注目されています。これまで、PCクラスタ向けの代表的な演算加速装置はGPU※2でしたが、米Intel社が開発したインテルXeon Phiコプロセッサ※3は汎用CPUのアーキテクチャを踏襲しつつ、61個のCPUコアを1チップに搭載した新世代の演算加速装置です。GPUと同じように汎用バスであるPCI Expressバスを介してCPUに接続でき、GPUに比べてユーザがより簡便にプログラミングを行える特徴を持っています。

筑波大学計算科学研究センターでは、演算加速装置による低電力・高性能なスーパーコンピュータの研究を進めています。その一貫として、同センターでは、2012年よりインテル社がメニーコアプロセッサのアーキテクチャの評価のために開始した Intel MIC Beta Program に参加し、メニーコアプロセッサの性能評価と性能チューニングに関する研究を続けてきました。

GPUとメニーコアプロセッサという2種類の演算加速装置を超並列PCクラスタにそれぞれ適用することにより、その特性の違いを考慮しつつ、各種の計算科学アプリケーションの開発を進めます。先進的かつ大規模な科学技術計算を演算加速装置技術の下で実現するには、大規模システムを定常的に利用することが不可欠です。すでに「HA-PACS」で進められているGPUによる超並列システムの利用に加え、「COMA」によるメニーコアプロセッサを用いた超並列システムを用いることにより、より幅広いアプリケーションへの対応と、メニーコアプロセッサにおける性能チューニング技術についても研究を進めていきます。

また、筑波大学は東京大学と共同で「最先端共同HPC基盤施設(JCAHPC)」を設置し、数十ペタフロップス級の超大型スーパーコンピュータの導入を計画しています。メニーコアプロセッサ技術をその鍵の一つとなる研究と位置づけており、「COMA」はそのための様々な研究開発を行う実験システムとしての役割も担っています。

2.詳細

筑波大学計算科学研究センターは、素粒子・宇宙・生命などの研究をけん引する最先端の超並列演算加速器クラスタ型スーパーコンピュータ、大規模メニーコア実験システム「COMA」(Cluster Of Many-core Architecture processors)の導入を平成24年度から進め、平成26年4月15日より稼働を開始します。同システムは米Cray Inc.社により提供されました。

「COMA」は、コンパクトで先進的な計算ノードを393台結合した並列システムです。計算ノードは、米Intel社製の最新CPUであるインテル Xeon E5-2680 v2 プロセッサを2基と同社のメニーコアプロセッサであるインテルXeon Phi コプロセッサSE10Pを2基搭載しています。ノード単体のピーク演算性能は2.547テラフロップス(毎秒2兆5470億回)に達し、システム全体の総ピーク演算性能は1.001ペタフロップス(毎秒1001兆回)となります。

全ての計算ノードはInifniBand FDR※4による相互結合網で結ばれ、この結合網は全ノード間の通信を最大性能で実現するフルバイセクションバンド幅のFat-Tree構成を持ちます。また、総容量1.5ペタバイトの多重耐故障機能(RAID-6)構成を持つLustreファイルサーバが備えられ、同じInifiniBand FDRネットワークを介して全ての計算ノードから自由にアクセスすることができます。

インテルXeon Phiコプロセッサは、PCI Expressと呼ばれる標準バスによってCPUと結合され、計算の実行や並列処理におけるノード間通信等はCPUのメモリや結合網を用いて行われます。

3.アプリケーション・ソフトウエア開発

計算科学研究センターに所属するさまざまな科学分野の研究者が、「COMA」をいかした研究の展開を計画しています。

1) 素粒子理論分野

「強い相互作用における階層構造の諸性質解明」と「有限温度・有限密度QCDにおける相構造解析」の研究を推進します。前者はインテルXeon Phiコプロセッサを演算装置として直接利用し、後者は行列・行列積演算部分をインテル Xeon Phiコプロセッサでオフロード実行(演算が集中する部分のみをメニーコアプロセッサに処理させる)する予定です。

2) 宇宙物理学分野

天体形成に重要な役割を果たす重力多体計算、流体力学計算、輻射輸送計算をインテル Xeon Phiコプロセッサで高速化することで、より高精度な天体形成シミュレーションを行います。

3) 生命科学分野

量子化学計算プログラムNWChemで酵素反応のQM/MM※5計算を行い、国産の量子化学計算プログラムOpenFMOでインテルXeon Phiコプロセッサを利用して、タンパク質薬剤相互作用解析を行う予定です。また、分子動力学プログラムPlatypusによるタンパク質の折り畳みや構造変化の解析を行い、生命機能の解析を進めます。

他に物質科学分野では、高強度なレーザー光と物質の相互作用に対して電子ダイナミクスの第一原理シミュレーションを行い、フェムト秒・アト秒時間スケール(10-15~10-18秒)で起こる現象の解明や制御の方法を探索します。

さらに高性能計算技術として、ポストペタスケール規模の並列環境で高い性能を発揮することを目指した次世代型計算アルゴリズムの研究と、そのソフトウエア実装のための高性能化技術の開発も進めて行きます。これらの成果をもとに、各種のアプリケーションで活用するための基盤的なソフトウエアの整備を進める予定です。データ基盤の分野では、「COMA」の高い並列性を生かして、科学分野を含む多様なビッグデータの高度な分析に役立てて行きます。

4.運用

「COMA」は、平成26年2月末で運用満了したスーパーコンピュータ「T2K-Tsukuba」システムで展開された各種運用プログラムを引き継ぎます。計算科学研究センターが独自に進める「学際共同利用プログラム」において、全国の幅広い応用分野の研究者が無償で利用でき、また文部科学省が進める「HPCI戦略プログラム」に共同利用資源として提供されます。さらに、計算科学研究センターにおける「大規模一般利用プログラム」において全国の研究者が有償利用できます。

5.コメント

インテル株式会社常務執行役員ビジネス・デベロップメント事業本部長の平野浩介は、本発表に際し、以下のコメントを寄せています。

「インテルXeon Phi コプロセッサを搭載する筑波大学計算科学研究センターの新型スーパーコンピュータ「COMA(PACS-IX)」の導入を歓迎します。搭載されたインテル Xeon Phi コプロセッサは、最大61個のコアと 244 スレッドで構成され、最大 1.2 テラ FLOPS の演算性能を発揮します。COMA(PACS-IX)により筑波大学の最先端計算科学研究が加速することを期待しております。」

用語解説

※1 演算加速装置
汎用計算を行うCPUに対する拡張機構として、PCI Express等の汎用バスを介して接続される高性能演算装置。計算を自律的に行うことはできず、CPUから起動されることによりアプリケーションの一部または全部を高速に実行する。ただし、演算装置やアーキテクチャが高性能浮動小数点演算向けに特化され、必ずしも全てのアプリケーションプログラムを高速化するとは限らない。一般的に利用可能な演算加速装置の例としては、GPUやインテル社の提供するインテルXeon Phiコプロセッサ等がある。

※2 GPU
Graphics Processing Unitの略。本来PCサーバにおけるグラフィクス処理を目的として作られた専用プロセッサだが、近年はその高い演算性能とメモリバンド幅を利用した高性能計算への転用が活発化している。

※3 メニーコアプロセッサ
従来の汎用マルチコアCPUが1つのチップ上に十個程度のCPUコアを搭載していたのに対し、数十個(インテルXeon Phi コプロセッサでは61個)のCPUコアを搭載する新世代の演算加速型プロセッサ。プログラミングは汎用CPUと同じように、複数コアを同時利用する形でチップ内での並列処理を記述可能である。しかし、汎用CPUに比べ、各CPUコアは比較的周波数が低く演算制御部分が簡略化された構造を持つため、性能を引き出すためにはプログラミングに様々な工夫が必要とされる。

※4 InfiniBand FDR
高性能クラスタ型計算機で多用される高性能ネットワーク。Ethernetなどに比べて数十倍の通信性能を持ち、さらに数百~数千ノード規模のシステムをFat Treeと呼ばれるネットワーク構成で結合可能。

※5 QM/MM
原子の世界を支配する量子力学を用いた計算法。重要な中心部だけ量子力学計算を行い、それ以外は古典力学を用いたのがQuantum mechanics/ Molecular Mechanics(QM/MM)法。QM/MM法は、2013年ノーベル化学賞の受賞対象となった計算手法である。

関連情報

筑波大学計算科学研究センターホームページ http://www.ccs.tsukuba.ac.jp/
「COMA」の概要 https://www.ccs.tsukuba.ac.jp/wp-content/uploads/sites/14/2016/10/coma_outline.pdf

* Intel、インテル、Intel Xeon、Xeon Phiは、米国およびその他の国におけるIntel Corporationの商標です。
* その他の社名、製品名などは、一般に各社の商標または登録商標です。

<問い合わせ先>
梅村雅之(センター長)
筑波大学計算科学研究センター長/数理物質系教授
TEL 029-853-6485 E-mail:umemura[at]ccs.tsukuba.ac.jp
朴 泰祐(計算機システム運用委員長)
筑波大学計算科学研究センター/システム情報系教授
TEL 029-853-5518 E-mail:taisuke[at]cs.tsukuba.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL 029-853-6260、6487(センター代表) E-mail:pr[at]ccs.tsukuba.ac.jp

CCS – LBNL Collaborative Workshop

Date: April 10th (Thu) – 11th (Fri), 2014
Venue: International Workshop Room, Center for Computational Sciences, University of Tsukuba

DAY-1 (April 10th)

09:30-09:40 Welcome Address (Masayuki Umemura, CCS)
09:40-10:10 CCS Research Update (Masayuki Umemura, CCS)
10:10-10:40 LBNL Research Update (David Brown, LBNL)
10:40-11:10 HA-PACS/TCA: GPU direct communciation (Taisuke Boku, CCS)
11:10-11:30 Coffee Break
11:30-12:00 Simulating Hurricanes and Typhoons in a Global Climate Model: Results and Challenges (Michael Wehner, LBNL)
12:00-12:30 Overview for Urban Climate Study (Hiroyuki Kusaka, CCS)
12:30-14:00 Lunch Break
14:00-14:30 Lattice QCD Activities at CCS (Yoshinobu Kuramashi, CCS)
14:30-15:00 Large-scale Eigenvalue Calculations in Scientific Applications (Esmond Ng, LBNL)
15:00-15:30 A report on Feasibility Study on Future HPC Infrastructure (Mitsuhisa Sato, CCS)
15:30-15:50 Coffee Break
15:50-16:20 Dynamic Exascale Global Address Space Programming Environments (Costin Iancu, LBNL)
16:20-16:50 Research Activities of Astrophysics at CCS (Masao Mori, CCS)
16:50-17:20 The Lyman-alpha Forest in Cosmological Hydrodynamic Simulations (Casey Stark, LBNL)

We will have a welcome banquet from 19:00 on DAY-1, at Restaurant “Kisoji”. The restaurant is in walking distance with 15 min. from the hotel for LBNL guests.

DAY-2 (April 11th)

09:30-10:00 GPU-based acceleration of data mining algorithms (Toshiyuki Amagasa, CCS)
10:00-10:30 Analysis and Optimization of Gyrokinetic Toroidal Simulations on Emerging Multi- and Many-core Architectures (Khaled Ibrahim, LBNL)
10:30-11:00 Recent Activities of Biological Function Group for HA-PACS Project (Yasuteru Shigeta & Hiroaki Umeda, CCS)
11:00-11:20 Coffee Break
11:20-12:05 CCS-LBNL Researchers Only
Breakout Discussion for Research Collaboration (*)
Application-1, Application-2, HPC
12:05-12:35 CCS-LBNL Researchers Only
Plenary Discussion for Research Collaboration
12:35-12:45 Closing Remarks (Masayuki Umemura, CCS & David Brown, LBNL)

(*) Breakout discussion for research collaboration focuses on the topics and methods for future research collaboration between two organizations. To improve the efficiency of discussion, we will breakout into three groups: Application-1 (Fundamental Science and Numerical Analysis), Application-2 (Applied Science) and HPC (HPC Systems). The breakout discussion rooms are as follows:
Application-1: Meeting Room A
Application-2: Meeting Room C
HPC: International Workshop Room
After breakout discussion, we will gather at plenary room and summarize the future collaboration plan.

 

T2K オープンスパコン運用終了記念シンポジウムを5月30日(金)に行います。

T2Kオープンスパコン運用終了記念シンポジウム

日時:2014 年 5 月 30 日(金)13:30 ~ 17:50(懇親会:18:30 ~)
会場:東京大学工学部2号館(本郷)213号講義室
懇親会:東京大学山上会館 御殿(地階)(会費:3,000円)
参加費:シンポジウム参加無料(事前登録制)
主催:筑波大学計算科学研究センター、東京大学情報基盤センター、京都大学学術情報メディアセンター

開催趣旨

2008年6月2日、筑波、東京、京都で3つのスーパーコンピュータシステムが運用を開始しました。筑波大、東大、京大から構成される T2K Open Supercomputer Allianceの掲げる、「ハードウェアーキテクチャのオープン性」、「システムソフトウェアのオープン性」、「ユーザ・ニーズに対するオープン性」という3つの理念のもとに策定された「T2K オープンスパコン仕様」に基づくT2K 筑波、T2K 東大、T2K 京大です。
それから6年、2014年3月10日のT2K 東大運用終了を以てT2Kオープンスパコンはその使命を終えました。本シンポジウムでは、改めて、T2Kオープンスパコンとは何であったのかを振り返るとともに、T2Kがもたらした成果の検証、更に将来への展望について議論を実施します。

プログラム・参加登録はこちらから

CCS – LBNL Collaborative Workshop(2014年4月10日、11日)

Date: April 10th (Thu) – 11th (Fri), 2014
Venue: International Workshop Room, Center for Computational Sciences, University of Tsukuba

DAY-1 (April 10th)

09:30-09:40 Welcome Address (Masayuki Umemura, CCS)
09:40-10:10 CCS Research Update (Masayuki Umemura, CCS)
10:10-10:40 LBNL Research Update (David Brown, LBNL)
10:40-11:10 HA-PACS/TCA: GPU direct communciation (Taisuke Boku, CCS)
11:10-11:30 Coffee Break
11:30-12:00 Simulating Hurricanes and Typhoons in a Global Climate Model: Results and Challenges (Michael Wehner, LBNL)
12:00-12:30 Overview for Urban Climate Study (Hiroyuki Kusaka, CCS)
12:30-14:00 Lunch Break
14:00-14:30 Lattice QCD Activities at CCS (Yoshinobu Kuramashi, CCS)
14:30-15:00 Large-scale Eigenvalue Calculations in Scientific Applications (Esmond Ng, LBNL)
15:00-15:30 A report on Feasibility Study on Future HPC Infrastructure (Mitsuhisa Sato, CCS)
15:30-15:50 Coffee Break
15:50-16:20 Dynamic Exascale Global Address Space Programming Environments (Costin Iancu, LBNL)
16:20-16:50 Research Activities of Astrophysics at CCS (Masao Mori, CCS)
16:50-17:20 The Lyman-alpha Forest in Cosmological Hydrodynamic Simulations (Casey Stark, LBNL)

We will have a welcome banquet from 19:00 on DAY-1, at Restaurant “Kisoji”. The restaurant is in walking distance with 15 min. from the hotel for LBNL guests.

DAY-2 (April 11th)

09:30-10:00 GPU-based acceleration of data mining algorithms (Toshiyuki Amagasa, CCS)
10:00-10:30 Analysis and Optimization of Gyrokinetic Toroidal Simulations on Emerging Multi- and Many-core Architectures (Khaled Ibrahim, LBNL)
10:30-11:00 Recent Activities of Biological Function Group for HA-PACS Project (Yasuteru Shigeta & Hiroaki Umeda, CCS)
11:00-11:20 Coffee Break
11:20-12:05 CCS-LBNL Researchers Only
Breakout Discussion for Research Collaboration (*)
Application-1, Application-2, HPC
12:05-12:35 CCS-LBNL Researchers Only
Plenary Discussion for Research Collaboration
12:35-12:45 Closing Remarks (Masayuki Umemura, CCS & David Brown, LBNL)

(*) Breakout discussion for research collaboration focuses on the topics and methods for future research collaboration between two organizations. To improve the efficiency of discussion, we will breakout into three groups: Application-1 (Fundamental Science and Numerical Analysis), Application-2 (Applied Science) and HPC (HPC Systems). The breakout discussion rooms are as follows:
Application-1: Meeting Room A
Application-2: Meeting Room C
HPC: International Workshop Room
After breakout discussion, we will gather at plenary room and summarize the future collaboration plan.

【受賞】青木愼也客員教授、石井理修准教授、石山智明研究員が平成26年度科学技術分野の文部科学大臣表彰を受けました

平成26年度科学技術分野の文部科学大臣表彰において、筑波大学計算科学研究センターの青木愼也客員教授・石井理修准教授が科学技術賞研究部門を、石山智明研究員が若手科学者賞を受賞しました。授賞式は4月15日(火)、文部科学省3階講堂にて行われます。

科学技術賞研究部門
「量子色力学の第一原理計算に基づく核力の研究」
初田哲男・理化学研究所仁科加速器研究センター主任研究員
青木愼也・京都大学基礎物理学研究所教授/筑波大学数理物質系(計算科学研究センター)客員教授
石井理修・筑波大学数理物質系(計算科学研究センター)准教授

若手科学者賞
「高精度大規模計算によるダークマター微細構造の研究」
石山智明・筑波大学計算科学研究センター研究員

賞の詳細、受賞理由等については文部科学省ホームページ
報道発表「平成26年度科学技術分野の文部科学大臣表彰受賞者等の決定について」(平成26年4月7日)
をご覧ください。受賞者一覧は最下部にPDFにて掲載されています。

必須アミノ酸「トレオニン」生合成の最終過程が明らかに-スーパーコンピュータで網羅的に反応経路を探索

掲載情報:QLifePro医療ニュース(3/26)

プレスリリース

2014年3月14日

国立大学法人 筑波大学
学校法人 大阪医科大学

[印刷用PDF 277KB]

必須アミノ酸「トレオニン」生合成の最終過程が明らかに
-スーパーコンピュータで網羅的に反応経路を探索

概要

筑波大学数理物質系の庄司光男助教と大阪医科大学総合教育講座の林 秀行教授らによる研究グループ(以下筑波大グループ)は、筑波大学計算科学研究センターのスーパーコンピュータ「T2K-Tsukuba」など※1を用いて「トレオニン」生合成の最終過程の反応経路を初めて解き明かしました。

トレオニンはヒトの体内で作り出すことができない必須アミノ酸です。植物や大部分の微生物はトレオニンを多段階の複雑な反応経路で合成しており、その最終過程では、トレオニン合成酵素による酵素反応が行われています。この反応には“生成物支援触媒”という特徴があり、生成物の1つであるリン酸イオンがトレオニン生成反応を飛躍的に増大させています。この特徴は実験的には証明されているのですが、実際にどのような経路で反応しているのかがわかっていませんでした。

トレオニン合成酵素が関わる複雑な反応機構を探るためには、スーパーコンピュータを用いた高精度量子力学計算法※2が有効です。筑波大グループは、高並列計算によって網羅的に反応中間体と反応経路の探索を行い、生成物支援触媒の仕組みを初めて明らかにしました。この研究成果は、国際論文誌「Journal of the American Chemical Society」ウエブ版に3月13日(現地時刻。日本時刻14日)付けで掲載されました。

1.背景

酵素は、生体内において生命現象に不可欠な化学反応を支えており、効率的に物質変換とエネルギー変換を行っています。また、様々な調節機構により情報伝達や反応制御を行っており、極めて洗練されたシステムを構築しています。このような酵素の仕組みを解明することは、生物学や化学だけではなく、農学、医薬品開発など多くの分野への応用が期待できるため極めて重要です。

多くの酵素反応のうち、加水分解酵素など比較的簡単な反応については解析が進み、電子レベルでの反応機構が議論されるようになっています。しかし、より複雑な酵素反応においてはまだその水準に達していません。

トレオニン合成酵素(ThrS:threonine synthase)は、トレオニン生合成の最終過程である ホスホホモセリンからトレオニンを生成する段階を触媒しています。ThrSの反応は実験的解明が進んでおり、多段階の位置特異的かつ立体選択的反応過程が含まれ、さらに反応副成物のリン酸イオンがその後の反応制御に関わる“生成物支援触媒”機構をもつことが明らかにされています※3。しかし、ThrSの反応には他に「補欠分子族」と呼ばれる分子が関わるため反応中間体の特定は難しく、これまでThrSの反応機構、とくに反応制御の分子メカニズムは明らかになっていませんでした。

2.研究手法と結果

酵素における反応機構を明らかにするには高精度量子力学計算法のひとつであるQM/MM法が有効です。しかし、トレオニン合成酵素反応では多くの不確定要素、たとえば活性中心におけるプロトン化状態、水素結合ネットワーク、水の存在様式などがあるため、理論計算による検証には非常に多くの計算と、それを現実的な時間で可能にする計算の高速化が必要とされていました。

筑波大グループはスーパーコンピュータ「T2K-Tsukuba」を用いて並列計算(256~1024並列)の効率化に取り組んだ結果、高速計算が実行できるようになりました。それにより、ThrSにおける反応特性決定過程に重要な反応におけるすべての反応中間体と反応経路について理論検証を行うことができました。トレオニン生成経路のCβ水酸化反応、Cαプロトン付加反応、イミノ基転移反応を明らかにし、副反応を抑えてトレオニン生成が特異的に進行することを説明しました。

計算により得られた自由エネルギーやUVスペクトルといった化学的性質は実験結果と非常に良く一致し、計算の妥当性が確認できました。さらに選択的なトレオニン生成が、リン酸イオンと生成物の間に作られる特定の水素結合によりもたらされていることを解明しました。

トレオニン合成酵素の計算モデル全系 反応が行われる場所の拡大図

図 左はトレオニン合成酵素の計算モデル全系。溶媒水(薄い紫)の中にトレオニン合成酵素が浮かぶ。右は反応が行われる場所の拡大図。重要な部分だけ、正確だが計算量が大きい量子力学計算を行い、それ以外は、正確さは欠けるが計算量が小さい古典力学計算を行う(QM/MM法)。

3.今後の期待

トレオニン合成酵素における生成物支援触媒の仕組みが明らかになったことで、酵素反応の学術的理解が進むのみならず、酵素や精密有機合成における効率的反応進行や主反応・副反応の制御に応用していく上で極めて重要な示唆を与えることができたと考えています。それにより、新薬開発への発展も期待されます。

また、スーパーコンピュータを利用することでリアリステックな計算モデルを用いることができ、実験結果と多くの対応がつけられるようになった点も極めて先進的です。今後はより多くの実験結果と比較検討していくことで、理論計算の正確さと理論的アプローチの有用性の向上に取り組みます。

近年、計算機性能は目覚ましく向上しています。計算科学的アプローチは、今後、より短時間でより膨大な探索を行うことが可能になります。生命現象が分子レベルで詳しく解明されていくのみならず、化学、材料、医療分野での革新的進展に貢献できると期待されます。

用語解説

※1 スーパーコンピュータ
主にT2K-Tsukubaを利用。ほかに筑波大学計算科学研究センターのHA-PACS、東京大学物性研究所のスーパーコンピュータ、東京大学情報基盤センターFX10を利用した。

※2 高精度量子力学計算法
原子の世界を支配する法則である量子力学を用いた計算法。計算モデル全体に適用すると計算量が膨大になるため、重要な中心部だけ量子力学計算を行い、それ以外は古典力学を用いたQuantum mechanics/ Molecular Mechanics(QM/MM)法が開発された。QM/MM法は、2013年ノーベル化学賞の受賞対象となった計算手法である。

※3 T. Murakawa, et. al, J. Biol. Chem., 286, 2274 (2011)

掲載論文

タイトル:A QM/MM study of the L-threonine formation reaction of threonine synthase: Implications into the mechanism of the reaction specificity
(タイトル和訳: トレオニン合成酵素におけるL-トレオニン生成反応のQM/MM計算-反応特異性の仕組みについて)

著者:Shoji, M.; Hanaoka, K.; Ujiie, Y.; Tanaka, W.; Kondo, D.; Umeda, H.; Kamoshida, Y.; Kayanuma, M.; Kamiya, K.; Shiraishi, K.; Machida, Y.; Murakawa, T.; Hayashi, H.,

掲載誌: the Journal of the American Chemical Society.

問い合わせ先

庄司光男(しょうじ・みつお)
筑波大学 数理物質系/計算科学研究センター 助教
E-mail:mshoji [at] ccs.tsukuba.ac.jp

林 秀行(はやし・ひでゆき)
大阪医科大学 総合教育講座化学教室 教授
E-mail:hayashi [at] art.osaka-med.ac.jp

報道担当:
筑波大学計算科学研究センター広報室
TEL:029-853-6260 FAX:029-853-6260
E-mail:pr [at] ccs.tsukuba.ac.jp

スーパーコンピュータ T2K-Tsukuba 運用終了

T2K-Tsukuba

計算科学研究センターが平成20年6月より運用を続けてきましたスーパーコンピュータT2K-Tsukubaは、5年9ヶ月の計画運用期間を満了し、平成26年2月28日に運用を終了しました。同システムは本センターがCP-PACS構築以来続けてきた、超並列型スーパーコンピュータによる大規模先進的計算科学の推進研究を、コモディティ技術をもって実現するべく導入された超並列PCクラスタです。

同システムは、当時最先端のquad-core processor(1つのCPUチップ内に4つのCPU core を内蔵)であるAMD社OpteronシリーズのBarcelona世代CPUをノード当たり4つ搭載し、16 coreで共有メモリを構築可能な先進的大規模PCクラスタでした。また、並列通信性能を大幅に増強するため、InfiniBand DDRリンクを4つ搭載し、演算性能と通信性能のバランスの取れた、汎用高性能計算用システムとして構築されました。総ノード数648台、総CPU core数10368基、総理論ピーク性能95TFLOPSで、平成20年6月時点のTOP500リストで日本国内第2位、同世界20位にランクされました。

さらに、同システムは筑波大学・東京大学・京都大学の三者間で結ばれた T2K Open Superomputer Alliance の下で、基本システム・アーキテクチャを共通のものとし、各サイトで開発されたプログラムコードの性能可搬性の実現、専用回線を使ったグリッド接続実験、さらにこの連携に基づく様々な計算機科学共同研究等、幅広い展開につながるマシンでもありました。

同システムは計算科学研究センターが展開する様々なスーパーコンピュータ共同利用プログラムである、学際共同利用プログラム、大規模一般利用プログラム、そして平成24年後半からは文部科学省が進めるHPCI (High Performance Computing Infrastructure) プログラムにおける共有リソースの一つとして、全国の様々な計算科学・計算工学・計算機科学の研究者に利用され、常に高い利用率で運用を続けました。

同システムの運用終了に際し、長期間に渡り同システムをご愛用頂きましたことを改めて感謝致します。T2K-Tsukuba が少しでも皆様の研究に貢献できたのであれば、大変嬉しく思います。ありがとうございました。

計算機システム運用委員会委員長
朴 泰祐

高校生がスーパーコンピュータを使って5×5魔方陣の全解を求めることに成功

掲載情報:日刊スポーツ/共同(2/28)朝日新聞(3/1)、茨城新聞(3/1)、読売新聞(3/2)、日経新聞(3/2)、東京新聞(3/2)

プレスリリース

平成26年2月28日

国立大学法人筑波大学

[印刷用PDF 496KB]

概要

筑波大学計算科学研究センターは、全国共同利用施設として、一般公募による「学際共同利用プログラム」※1を実施しています。平成25年度に、茨城県立並木中等教育学校4年次(高校1年)の杉﨑行優(すぎざき・ゆきまさ)君の申請が採択されました。杉﨑君は筑波大学計算科学研究センターの朴泰祐教授と共同研究を進めた結果、スーパーコンピュータ「T2K-Tsukuba」※2を使った並列計算により、5×5の魔方陣の全ての解を求めることに成功しました。
魔方陣とは、正方形のマス目に、縦・横・斜めの合計が同じになるよう数字を置いたものです。5×5の魔方陣の全解は2億7530万5224通りあることがすでにわかっています。杉﨑君は「枝刈り法」を改良した求解アルゴリズムを考案し、スパコンに並列計算させるためのプログラムを開発しました。朴教授は、並列データの収集や並列化に関する詳細なアドバイスを行いました。並列計算はT2K-Tsukubaの全648ノードのうち32ノードを使って行われ、最速で約2時間36分で全解を求めることができました。

1.魔方陣

魔方陣は、正方形の方陣(マス目)に、縦・横・斜めの和が同じになるよう数字を置いたものです。とくに、1からマス目の総数までの数字すべてを使ったものを指します。

魔方陣1 魔方陣2 魔方陣3
図1 魔方陣の例
マス目の数が3×3のとき、縦・横・斜めの和はすべて15になっており、解は対称のものを除くと1通りだけである。4×4では和は34で解は880通り、5×5では和は65で解は2億7530万5224通り(1970年代に発見)。6×6の解の総数はわかっていない。

2.スーパーコンピュータによる並列計算

(1) アルゴリズムの考案

魔方陣の求解は、すべての数字を「総当たり」で入れて正解かどうかを確かめていくのが基本です。しかし、たとえば5×5の場合、1列の和が65とわかっているため、1列の4マスまで埋まると残り1マスは自動的に求められ、これを総当たりから除くことができます。この考え方を「枝刈り法」といいます。
杉﨑君はこの枝刈り法をもとに、総当たりのマス目の数を25から14まで減らせることに気づきました(図2)。これは非常に重要で、総当たり数が14から15へたった1増えただけでも計算時間は数十倍になると見積もられています。今回は総当たりを14で行いましたが、これが最も少ないかどうかはわかりません。さらに減らせる可能性もあります。

image4
図2 枝刈り法をもとにした求解アルゴリズム
丸数字は総当たりで数字を入れる順番(1から25の数字そのものではない)、✓は自動的に求められるマスを表す。斜めのマスを優先的に埋めることで、自動的に求められるマスの個数をさらに増やすことができた。

(2) 並列プログラムの開発

並列型スーパーコンピュータのプログラミングでは、計算をいかに均等に各コアに振り分けるかが重要です。今回、5×5魔方陣の解を求めるにあたって、T2K-Tsukubaの512CPUコア(32ノード)を用いました。これは4.7TFLOPS(1秒間に4.7兆回の計算性能)に相当します。
魔方陣の解を求めるのに必要な計算を512コアに振り分けるために、マスタ・ワーカー方式を用いました。1コアをマスタに指定して全体の司令塔の役目を担わせます。それ以外の511コアはワーカーとしてマスタの指示に従って計算を行います。このとき、仕事の振り分け方が均等でないと、計算を早く終えてさぼっているコアが出てきてしまい、全体の計算時間が増えてしまいます。
実際の計算では、マスタがN番目(Nは0から14のいずれか)のマスまで総当たりをして、その後をワーカーに振り分け、各ワーカーはN+1番目のマスから総当たりを行います。このとき、Nの値が小さいとワーカーの「粒度」(仕事のバラつき)が大きくなってワーカーの計算時間にバラつきがでます(全体の計算時間は増える)。一方、Nの値が大きいと、粒度は小さくなってワーカーの計算時間が均等になっていきますが、マスタとワーカーの通信時間が増大するために、全体の計算時間はやはり増えてしまいます。以上のことから、Nには計算時間が最小になる最適な値が存在することになります。

3.結果

スーパーコンピュータT2K-Tsukubaを用いて並列計算を行い、5×5の魔方陣の全ての解2億7530万5224通りを求めることに成功しました。出力結果は約25GBになりました。
Nの値が3から8について計算を実行し、N=6のときに計算時間が最も短くなることがわかりました。5×5の魔方陣の全解を求めるのにかかった時間は約2時間36分でした(図3)。

図3
図3 N=3~8における実行時間
N=4~7の実行時間はわずかな差だが、N=6のときが最も短い。

また、N=3、6、8のときの各ワーカーの主要処理実行時間を調べたところ、N=3ではバラつきが大きく、N=6、8ではバラつきがほとんどないことがわかりました。また、同じくN=3、6、8のときの各ワーカーの総通信時間を調べ、N=3、6ではほぼ0時間、N=8では1時間以上かかったことが判明しました(図4)。

図4左 図4右
図4 各ワーカーの主要処理実行時間(左)と総通信時間(右)
主要処理実行時間は、N=3のときおよそ0時間から12時間とバラつきが大きかった。

4.今後の展望

筑波大学計算科学研究センターのスーパーコンピュータ「T2K-Tsukuba」は、2014年2月末で運用を終了します。2014年度からは、新たなスーパーコンピュータ「COMA」※3(こま)を導入し、「HA-PACS/TCA」との2台体制で、今後も学際共同利用プログラムを積極的に展開していきます。
杉﨑君と朴教授は引き続き、5×5魔方陣における並列計算の高速化を進めていきます。COMAの学際共同利用プログラム利用を目指して、アルゴリズムやプログラムの改良を行います。6×6魔方陣へのチャレンジは、現時点では不可能と判断しています。総当たり数を36から23まで減らすことができていますが、現在のプログラムでは150兆年かかると見積もられています。これはエクサスケールのスパコンでも54万年以上かかる計算で、事実上不可能です。

用語解説

※1 学際共同利用プログラム(平成26年度)
公募について(締切済) http://www.ccs.tsukuba.ac.jp/kyodoriyou/gakusai/koubo/

※2 スーパーコンピュータ「T2K-Tsukba」
2008年に稼働開始した648ノード、総演算性能95.4TFLOPS(1秒間に95.4兆回)の並列スーパーコンピュータシステム。筑波大、東大、京大の3機関で共通の仕様を用いているため「T2K」の名がついた。T2K-Tsukba は2014年2月末に運用を終了する。

※3 スーパーコンピュータ「COMA」
2014年度から導入されるメニーコア・スーパーコンピュータシステム。計算科学研究センターが開発してきたPACSシリーズの9代目(PACS-Ⅸ)。377ノードで総演算性能は960TFLOPS。そのうちCPU部分が151TFLOPS、61コアのメニーコアプロセッサ部分が809TFLOPS。

<問い合わせ先>
国立大学法人筑波大学 計算科学研究センター 広報室
TEL:029-853-6260 FAX:029-853-6260
E-mail:pr[at]ccs.tsukuba.ac.jp
※並木中等教育学校への直接の取材依頼はご遠慮ください。筑波大学計算科学研究センター広報室が窓口として対応いたします。

 

JAPAN-KOREA HPC WINTER SCHOOL

Date:
February 24th (Mon) – 27th (Thu), 2014

Venue:
International Workshop Room, Center for Computational Sciences, University of Tsukuba
1-1-1 Tennodai, Tsukubashi, Ibaraki 305-8577 Japan
http://www.ccs.tsukuba.ac.jp

Sponsored by:
Center for Computational Sciences, University of Tsukuba, Japan
National Institute of Supercomputing and Networking, Korea
IMG_1134


Agenda:

24th Feb.: SCHOOL DAY-1

09:00 – 10:30 Fundamentals on HPC and Parallel Processing
( Taisuke Boku, CCS )
10:45 – 12:15 Parallel Programming 1: OpenMP
( Mitsuhisa Sato, CCS )
14:15 – 15:45 Parallel Numerical Algorithm
( Hiroto Tadano, CCS )
16:00 – 17:30 Optimization 1: Computation Optimization
( Daisuke Takahashi, CCS )

25th Feb.: SCHOOL DAY-2

09:00 – 10:30 Parallel Programming 2: MPI
( Osamu Tatebe, CCS )
10:45 – 12:15 Parallel Processing Systems
( Yuetsu Kodama, CCS )
12:15 – 12:45 Site visit of HA-PACS
13:45 – 15:15 Optimization 2: Communication Optimization
( Osamu Tatebe, CCS )

26th Feb.: SCHOOL DAY-3 / MINI-WORKSHOP Part1

MINI-WORKSHOP Part1

09:00 – 10:30 Accelerated Computing 1: GPGPU Programming and Computing
( Hyungon Ryu, nVIDIA Korea )
10:45 – 12:15 Accelerated Computing 2: Many-core Processor Programming and Computing
( Hongsuk Yi, KISTI )
14:00 – 14:30 Phantom-GRAPE : high performance software library to accelerate N-body calculation with SIMD instruction set
( Kohji Yoshikawa, CCS )
14:30 – 15:30 Global Optimization by Conformational Space Annealing and its Applications to Biological Systems
(Jooyoung Lee, KIAS)
15:30 – 16:00 Understanding and control of quantum dynamics by pulsed lasers in an ultra-short time scale
( Tong Xiao-Min, CCS )
16:00 – 17:00 Developing a highly scalable molecular dynamics simulation program
( KwangJin Oh, KISTI )
17:00 – 17:30 Fock matrix preparation with GPGPU for fragment molecular orbital calculation
( Hiroaki Umeda, CCS )

27th Feb.: MINI-WORKSHOP Part2

09:00 – 09:30 Development of Block Krylov subspace methods for computing high accuracy solutions and their applications
( Hiroto Tadano, CCS )
09:30 – 10:30 EDISON: A Platform for Simulation based Learning of Computational Science and Engineering
( Ruth Lee, KISTI )
10:30 – 11:00 HA-PACS/TCA: Tightly Coupled Accelerators for Low-Latency Communication between GPUs
( Yuetsu Kodama, CCS )
11:00 – 11:30 KISTI application experiences with Intel Xeon Phi Coprocessor
( Hongsuk Yi, KISTI )

 

JAPAN-KOREA HPC WINTER SCHOOL(2014年2月24日-27日)

Date:
February 24th (Mon) – 27th (Thu), 2014

Venue:
International Workshop Room, Center for Computational Sciences, University of Tsukuba
1-1-1 Tennodai, Tsukubashi, Ibaraki 305-8577 Japan
http://www.ccs.tsukuba.ac.jp

Sponsored by:
Center for Computational Sciences, University of Tsukuba, Japan
National Institute of Supercomputing and Networking, Korea
IMG_1134


Agenda:

24th Feb.: SCHOOL DAY-1

09:00 – 10:30 Fundamentals on HPC and Parallel Processing
( Taisuke Boku, CCS )
10:45 – 12:15 Parallel Programming 1: OpenMP
( Mitsuhisa Sato, CCS )
14:15 – 15:45 Parallel Numerical Algorithm
( Hiroto Tadano, CCS )
16:00 – 17:30 Optimization 1: Computation Optimization
( Daisuke Takahashi, CCS )

25th Feb.: SCHOOL DAY-2

09:00 – 10:30 Parallel Programming 2: MPI
( Osamu Tatebe, CCS )
10:45 – 12:15 Parallel Processing Systems
( Yuetsu Kodama, CCS )
12:15 – 12:45 Site visit of HA-PACS
13:45 – 15:15 Optimization 2: Communication Optimization
( Osamu Tatebe, CCS )

26th Feb.: SCHOOL DAY-3 / MINI-WORKSHOP Part1

MINI-WORKSHOP Part1

09:00 – 10:30 Accelerated Computing 1: GPGPU Programming and Computing
( Hyungon Ryu, nVIDIA Korea )
10:45 – 12:15 Accelerated Computing 2: Many-core Processor Programming and Computing
( Hongsuk Yi, KISTI )
14:00 – 14:30 Phantom-GRAPE : high performance software library to accelerate N-body calculation with SIMD instruction set
( Kohji Yoshikawa, CCS )
14:30 – 15:30 Global Optimization by Conformational Space Annealing and its Applications to Biological Systems
(Jooyoung Lee, KIAS)
15:30 – 16:00 Understanding and control of quantum dynamics by pulsed lasers in an ultra-short time scale
( Tong Xiao-Min, CCS )
16:00 – 17:00 Developing a highly scalable molecular dynamics simulation program
( KwangJin Oh, KISTI )
17:00 – 17:30 Fock matrix preparation with GPGPU for fragment molecular orbital calculation
( Hiroaki Umeda, CCS )

27th Feb.: MINI-WORKSHOP Part2

09:00 – 09:30 Development of Block Krylov subspace methods for computing high accuracy solutions and their applications
( Hiroto Tadano, CCS )
09:30 – 10:30 EDISON: A Platform for Simulation based Learning of Computational Science and Engineering
( Ruth Lee, KISTI )
10:30 – 11:00 HA-PACS/TCA: Tightly Coupled Accelerators for Low-Latency Communication between GPUs
( Yuetsu Kodama, CCS )
11:00 – 11:30 KISTI application experiences with Intel Xeon Phi Coprocessor
( Hongsuk Yi, KISTI )

第97回計算科学コロキウムを2月24日(月)13:30より行います。

第97回計算科学コロキウムを、2月24日(月)に開催します。
多数のご来聴をお願い致します。

日時:2014年2月24日(月)13:30-15:00
場所:CCS 会議室A
Title: The Quest for Solving QCD: Simulating fundamental particle interactions on supercomputers
講師:Dr. Karl Jansen(NIC, DESY, Zeuthen)

abstract:
The strong interactions of elementary particles are described theoretically in the framework of Quantum Chromodynamics (QCD). The most promising way to solve QCD is given by numerical simulations using Monte Carlo Methods, in which the space-time continuum is replaced by a lattice. We shall demonstrate that since the invention of this approach by K. Wilson the conceptual, algorithmic and supercomputer developments have progressed so much that today realistic simulations of lattice-QCD become possible, bringing us close to a, at least, numerical solution of QCD. As one example, we will show results for the hadron spectrum. In addition, we will address the anomalous magnetic moment of the muon as a prime candidate for finding physics beyond the standard model.

世話人:金谷和至
素粒子理論研究室セミナーとの共同開催です。