計算科学研究センターの塩川 浩昭准教授が日本データベース学会2019年度上林奨励賞を受賞いたしました(受賞日:2020年6月26日)。
上林奨励賞はデータベース、メディアコンテンツ、情報マネージメント、ソーシャルコンピューティングに関する研究や技術に対して国際的に優れた貢献を行った若手研究者に対して贈られるものです。
学会HPはこちら
Center for Computational Sciences (CCS), University of Tsukuba, invites applications for full-time (non-tenured) faculty positions as described below. We would like to inform all institutes concerning about this field, and ask for your cooperation in recommending a suitable candidate for the position. Thank you for your support.
Position Title: Assistant professor with a fixed term appointment
Affiliation: Center for Computational Sciences, University of Tsukuba
Field of Expertise: Computational Materials Science including condensed matter physics, quantum chemistry, and molecular simulations.
Research: In our center, we seek a (non-tenured) assistant professor to develop the materials informatics (MI) method using classical molecular dynamics (MD) simulations, first-principles calculations, and machine learning (ML), and apply it to the semiconductor systems. The successful candidate will be a member of the Divisions of Life Science and Quantum Condensed Matter Physics. He/She will collaborate with researchers in the semiconductor engineering and informatics fields in Tsukuba Research Energy Center for Material Sciences (TREMS) and Center for Artificial Intelligence Research (C-AIR) as well as companies.
Starting date: October 1, 2020 or later, as soon as possible
Period: Until March 31st, 2021 (possible to renew until March 31st, 2023, upon evaluation of the progress)
Requirement: Applicants must have a doctoral degree.
Compensation
・Salary: Annual salary system (The annual salary will be determined based on the regulations of the University, taking into account the career of the employer.)
・Working hours: Discretionary labor system
・Holidays: Saturday, Sundays, national holidays, New Year’s holidays (Dec.29 Jan. 3), and holidays determined by the University.
Submissions: 1) Resume/CV (with photograph)
2) List of research activities including peer-reviewed papers, peer-reviewed proceedings, oral presentations at international conferences, competitive research funds (representative), awards, and so on.
3) Up to five reprints of major papers (at least four of which are within the last five years)
4) Summary of research to date (within 1 sheet of A4 paper)
5) Research and educational aspirations after assuming the position (about 1 sheet of A4 paper)
6) A list of two professional references with complete contact information.
Submission deadline: Friday, July 3, 2020 (JST).
Please write “Application for Assistant Professor Position in Materials Informatics” on the subject and send a zip file with a password for the documents (1-6) in the pdf format via e-mail to apply_2020_L01 [at]ccs.tsukuba.ac.jp ([at] should be replaced by @). The password is separately sent to shigeta[at]ccs.tsukuba.ac.jp ([at] should be replaced by @ as well).
Contact address: Yasuteru Shigeta
(Tel: +81-29-853-6496, Email: shigeta[at]ccs.tsukuba.ac.jp)
Miscellaneous: The Center for Computational Sciences has been approved as a Joint Collaborative Research Center by the Ministry of Education, Culture, Sports, Science and Technology. We promote interdisciplinary computational sciences, including joint use of our supercomputer systems. The University of Tsukuba conducts its personnel selection process in compliance with the Equal Employment Opportunity Act.
公募人員:助教(任期付)1名
所属組織:筑波大学計算科学研究センター
専門分野:当センターでは, 機械学習・深層学習, 分子シミュレーションや第一原理計算を用いてマテリアルズインフォマティクス技術の開発, および応用研究を実施する, 助教(任期付)を募集します。特に, 着任後は「生命科学研究部門」および「量子物性研究部門」のメンバー, および企業と共同し, 意欲的に半導体工学分野と連携して頂ける方を希望します。
着任時期:2020年10月1日以降, できるだけ早い時期
任期 :2021年3月31日まで(更新可・最長2023年3月31日まで)
応募資格:博士の学位を有する者
提出書類:1)履歴書(写真貼付)
2)業績リスト(査読付き学術論文、招待講演、外部資金の獲得状況)
3)主要論文別刷5編(うち4編以上は最近5年以内のもの)
4)これまでの研究の概要(A4用紙1枚程度)
5)着任後の研究と教育に関する抱負(A4用紙1枚程度)
6)照会者2名の連絡先、もしくは推薦書
公募締切:2020年7月3日(金)必着
応募方法:サブジェクトに「マテリアルズインフォマティクス助教公募」として、提出書類(上記1)-6)のpdfファイルを1つのファイルとして圧縮、パスワード付き)を添付し、下記の応募専用メールアドレスに応募ください。また、別途パスワードもお送りください。
提出書類送付先Email :apply_2020_L01[at]ccs.tsukuba.ac.jp ([at]を@に置き換える)
パスワード送付先Email :shigeta[at]ccs.tsukuba.ac.jp ([at]を@に置き換える)
【問合せ先】
重田 育照(Tel: 029-853-6496, Email:shigeta [at] ccs.tsukuba.ac.jp
)([at]を@に置き換える)
その他 :計算科学研究センターは,文部科学省共同利用・共同研究拠点に認定されており,計算機共同利用を含む学際計算科学を推進しています。筑波大学では男女雇用機会均等法を遵守した人事選考を行っています。
塩川 浩昭 准教授
計算情報学研究部門 データ基盤分野
膨大な量のデータを扱うビッグデータ解析では、解析にかかる時間がネックになります。塩川准教授は、限られた計算資源でビッグデータ解析を実現するための研究を進めています。
(2020.6.8 公開)
大量のデータ(ビッグデータ)から有用な情報を引き出す技術。それが、ビッグデータ解析です。例えば、大量のSNS上の情報からユーザーが欲しいと感じているサービスを把握したり、無数の実験や観測のデータから共通の法則を見出したりと、ビジネスでも学術研究の場面でも、ビッグデータ解析は広く活用されています。あなたのスマホ画面に興味のある広告が表示されたら、それもビッグデータ解析の結果かもしれません。
こうしたビッグデータ解析では、より大量のデータを扱うことが重要です。しかし、データ量が増えるということは、解析にかかる計算の量が増えるということであり、計算にかかる時間が増えることにつながります。「知りたいのは明日の天気なのに、予報のための計算に一週間かかる」というのでは困りますよね。
この課題の解決には、より賢く計算することで計算の高速化を進めることが必要です。
また、計算の高速化だけでなく省メモリ化もできれば、スーパーコンピュータ(スパコン)のような高性能の計算機がなくても、ビッグデータ解析が可能になります。
塩川准教授の研究では、普通のパソコンのような限られた計算資源で、大規模なデータ解析ができるようにするための賢い計算方法(アルゴリズム)の開発を行っています。
ビッグデータ解析の中でも、複数の点と点をつないだネットワークを分析して、関連の強いものをグループ化していくことを、グラフデータ分析といいます。
グラフデータ分析のアルゴリズムを賢くするために、塩川准教授の研究では、“データの中に同じモチーフ(基調構造)が繰り返し現れ、その出現頻度には偏りがある”という現象(Data Skewness)に着目しました。実際のデータは、一見複雑なネットワーク構造に見えても、triangle、tree、path、などの特定のモチーフが繰り返し現れています(図1)。これまでの方法では、こうした繰り返し部分も全て計算していましたが、同じ構造に同じ計算を繰り返していては時間がかかります。そこで、繰り返し構造が出てきたら一つの塊とみなして中まで細かく計算しない、というように余計な計算を減らし、本当に計算しなくてはいけないところに絞ったアルゴリズムを作ることで、精度を落とさずに計算を高速化することに成功しました。
新しく開発した方法では、デスクトップパソコンで30億件のTwitterデータを6.7秒で解析することに成功し、これまでの方法より約1,000倍の高速化を実現しました。計算が速くなったことで、これまでデスクトップパソコンでは計算できなかったようなデータ量を計算することも可能になりました。
ビッグデータ解析のアルゴリズムが高性能になることで、産業・医療・学術などさまざまな場面で、従来スパコンが必要だったような計算を誰もができるようになります。
例えば、たくさんのタンパク質を点、その相互作用を線とみなしたタンパク質相互作用ネットワークを分析することで、高効率に性質の似たタンパク質の探索ができるようになります。それによって、薬の候補や病気の原因となるタンパク質の探索が進み、創薬などの場面で活用されることが期待されます。こうした分析をより高効率にするために、塩川准教授の研究が役立てられています。
計算科学研究センターの取り組みを紹介する、CCS Reports! 第三弾。今回はCCSの人材育成の取り組みとして、デュアル・ディグリープログラム(DDプログラム)をご紹介します。現在DDプログラムに在籍する久米さんに、博士課程と修士課程それぞれの研究の内容や、両者を同時並行するプログラムの実態をインタビューします!(取材日:2016.12.27)
筑波大学のデュアル・ディグリープログラムは、博士後期課程の学生が専攻分野とは異なる関連分野の知識を身につけるために、博士後期課程に在籍しながら関連分野の博士前期課程(修士課程)でも学ぶことができるという教育プログラムです。 計算科学振興室長の北川先生によると、もともと、コンピュータ サイエンス専攻と生物・数理物質との間でDDプログラムが始まったのは、計算科学研究センターが働きかけたから、という経緯があるのだとか。 計算科学研究センターでは、物理学・地球環境・生物学などのサイエンス分野の博士後期課程に在籍しながら、コンピュータ科学・データ科学分野の博士前期課程(修士課程)で同時に学ぶDDプログラムを推進しています!
—- 久米さんはDDプログラムを活用して研究科2つに所属していらっしゃいますよね?
「生命環境科学研究科 生物科学専攻(博士後期課程2年)・システム情報科学研究科 コンピュータサイエンス専攻(修士課程2年)です。」(取材当時)
—- 博士を取るだけでも大変なのに、同時に別の専門で修士を取るのは、すごく大変そうですが、実際はどうなのでしょう?
「そうですね。僕はもともとDDプログラムを始めようと思い立つ前から比較的情報系に興味があって、情報系の授業もなんとかついていけるよ、くらいのベースの知識はあったので、そこまでの苦労はなかったかなと思います。DDプログラムに来たいという方は分野としての情報系にも興味があると思うので、下地はあるのかなと。
ただスケジュール的にはやっぱり厳しくなる時はありますね。生物の方(博士課程)は、授業はそんなにないんですが、情報のゼミにも出て、生物のゼミにも出て、情報の(修士の)授業にも出て・・・となるので、忙しくはあります。特に情報系は生物に比べてゼミの回数も多いので・・・」
—- 忙しそうですね。そもそも、なぜ、DDプログラムを?
「学部3年くらいの時に、実験実習でTAをしてくれた方がDDプログラムを受けていらしたので、それで知りました。まだその時は、自分が入ることまでは考えていなかったですけども。
そもそも、僕が生物学類に入った時が2000年代の後半で、次世代シーケンサ*1がかなり本格的に使われ始めた頃だったと思うんです。その時点で、かなりのデータが吐き出されていた。そういうビッグデータを扱うための知識が必要になってくるだろうな、そういう知識を身につけたいな、と思っていたんです。
学部3年の後半に研究室を選ぶんですけれど、ちょうどコンピュータ系に強いということで稲垣先生のところを訪問して、ビッグデータの扱いとかやってみたいと考えているんですけど、と相談しました。それで、卒業研究をしている間に、DDプログラムを受けてみては? という話も出たので、受けてみようかな、と・・・。」
*1 次世代シーケンサ:DNAを構成する塩基配列を読み取る装置をシークエンサーという。次世代シークエンサーは、それまでの第一世代シークエンサーとは原理が全く異なっており、一度の解析で膨大な配列データを読み取ることができるようになり、扱える遺伝情報の量が飛躍的に増えた。
—- もともと生物・情報の両方に興味があったんですね。では、DDプログラムを受けて良かったなと思うところはどこですか?
「やっぱり、データマイニングとか機械学習のプロの方と、直接議論をして意見を頂けるのが一番大きかったかなと思います。この分野は日進月歩でなかなか追いつくのは大変なんですけれど、極端なはなし、最新の技術や手法は論文を追いかければなんとか・・・もちろん時間はかかりますけど・・・知識としては得ることができます。
じゃあ研究で具体的に使う時に、果たしてその方法を使うのが妥当なのか? とか、学習手法として別のものの方が適しているんじゃないか、とか、そういうところになると、実際に専門の方から意見がもらえるのは大きいですね。
『最新のものを使っとけばいいんじゃないか』とか、思ってしまうところを、直接正していただいて、気づかなかったところまで知識を頂けるのは、かなり力になりましたし良かった点かなと思います。」
—- DDプログラムの制度についても聞かせてください。学費や院試について耳寄り情報をぜひ。
「DDプログラムは2つの研究科に入りますが、学費は片方分でいい、というような優遇措置があります。院試は、基本的には普通に大学院に入るのと同じです。ただDDプログラムの時は、修士と博士、両方の受け入れ教員に『DDプログラムを利用して院試を受ける』ことの承諾書をもらって提出する必要があります。しかもそれの締め切りが、大学院入試の出願の締め切りよりもかなり前で・・・僕はその締め切りに気がつくのがかなりギリギリだったんですよね。
確かにWebに掲載されているんだけれど、結構広い範囲を見ないといけないし周知もされていないし・・・僕は締め切り当日に慌てて承認をもらいました。試験もそうですけども、期限があるものはどれほど頑張っても取り返しがつかないので、情報収集をしっかりすることが大事です!」
*年度や研究科によっても締め切りなどが異なります。最新の情報を得るように注意してください。
久米さんがDDプログラムで実際にどんな研究を進めているのか、その研究の中身に迫ります!
—- 2つの学位をとるということで、それぞれ別の研究をされているんですよね?
「大きなテーマとしては同じなんですけども、やっている内容としては微妙に違いますね。博士課程の生物の方では、どちらかといえば生物そのものを扱ったウェットな研究をしています。タンパク質を扱ったり、あるいは生物自体の遺伝子組み換えをしようとしたりしていて・・・。でも今は修士のまとめの時期なので、生物そのものは扱わないドライの方の研究を主にやっています。」(取材当時)
—- 生き物そのものを扱う研究と、全く扱わない研究。求められるスキルが全然違いそうです。DDプログラムを始めてから、生物系の学会だけでなく情報処理系の学会でも発表の機会が増えたという久米さん。生物以外が専門の方向けに作ったスライドを元に、研究の話を説明していただきました。
「修士課程、博士課程での研究に共通するそもそもの大きなテーマというのが、『真核生物の進化を研究する』というものになります。その中でも、『真核生物がほとんど必ず持っているミトコンドリア』を研究しています。
ミトコンドリアはもともと、ある生物が他の生物であるバクテリアを取り込んだものだと言われています。このミトコンドリアがあるおかげで、生物はそれまでは毒であった酸素を効率の良いエネルギーとして使えるようになりました。つまり、ミトコンドリアの存在は生物の進化にとても大きな影響を与えたとして、少なくとも分子進化とか真核生物の進化の分野では注目されて扱われてきた材料なんです。」
「ただ、いざミトコンドリアを調べようとしても、これがなかなか難しくて。例えば、小さな細胞の中からさらに小さなミトコンドリアだけをきれいに取り出して、質量分析などでミトコンドリア内に何があるのか、どんなタンパク質があるのかなどを調べるとします。でも、そもそもミトコンドリアをきれいに取り出す方法が、限られた生き物、ヒトですとかマウスですとかといったモデル生物などでしか確立されていないんです。他の生き物でやろうとすると、ミトコンドリアをきれいに取り出す方法を作るところからやりましょう、となるので、とても時間がかかるんですね。
うちの研究室でも、最終的にはそれを実現しようと取り組んでいる学生がいますけども・・・。まずミトコンドリアを取り出す前段階として、研究したい真核生物だけを培養するというのに、たぶん数人で数年かかっています。」
—- というと?
「途中で先輩が卒業してしまって、別の学生が引き継いだりですね。そうやって数人で3年、4年かけて、やっと最初のステップである「研究したい真核生物だけを集める」ことができるわけです。」
—- うわー・・・。それでもまだミトコンドリアは取れていないですよね。
「次のステップとしてミトコンドリアだけをきれいに取ってくることになって、それにまた何年か。それがうまくできたとしても、ミトコンドリアのタンパク質解析をする段階でうまく解析できるかどうか。進化の研究としてはスポット的に1、2種類だけ見るわけにはいかず、もっと全体的にみないといけないのに、1つの種類に3年も4年もかけていたら、まぁ現実的じゃないな、と。」
—- たしかに・・・。
「そこで、じゃあ細胞全部をすりつぶして、その中から必要なミトコンドリアのタンパク質に関する情報だけを取ってこよう、と。機械学習*2の手法を使えば低コストに出来るんじゃないか、というアプローチが出てきます。」
*2 機械学習:コンピュータがあらかじめ与えられたデータセットからパターンを分析し、そのパターンに沿って新たに与えられたデータを判断するという技術。
—- それが、主にシステム情報科学研究科 コンピュータ サイエンス専攻(修士課程)で研究している内容ですね。ミトコンドリアのタンパク質を調べたいわけですよね。細胞をすり潰して分析機器にかけて・・・という “実験” はイメージできるのですが、ミトコンドリアに関連する必要な情報を機械学習で、というのはどうすれば実現できるのでしょうか?
「機械学習となると、何らかのパターンを学習させる必要があるんですけども、幸いにして使えるものがありそうだというのはわかっていました。タンパク質を構成しているアミノ酸の配列は、図のような文字列として表現できます。ミトコンドリアのタンパク質では、少なくとも文字列の最初のほうに特徴があるということが先行研究からわかっていました。このパターンを学習させることで、合致するもの、しないものを選別させることができるはずです。ただ、例によって、機械学習を使ってミトコンドリアタンパク質をより分ける先行研究では、ターゲットにされているのはモデル生物だけだったんです。」
—- ヒトやマウスといった限られた生き物ですね。久米さんが研究しているような生物では機械学習の研究も進んでいなかった、と。
「先行研究では、僕や真核生物の進化の研究をしている研究者がターゲットにしているような、広い生物種には力不足です。そこで、僕はモデル生物以外の “非モデル生物” でも、ミトコンドリアのタンパク質を機械学習で予測できるようにしようという研究をしています。ミトコンドリアの中には、ミトコンドリアDNAといってミトコンドリアに必要な遺伝情報をもっているものもいますが、僕が研究しているような真核生物ではミトコンドリアDNAが退縮していたり失われてしまっていたりして、ミトコンドリアで必要なタンパク質の遺伝子は細胞本体の核DNAにあります。ということは、核DNAの情報をもとに細胞内でつくられたミトコンドリアタンパク質は、ミトコンドリアまで輸送されているだろう、とあたりがつきますので、ミトコンドリアに運ぶための目印、シグナルがあるはずです。そうしたミトコンドリアに運ぶための目印を使って、機械学習でミトコンドリアタンパク質を選別できるわけです。」
—- その目印を探すだけでも大変そうですね。
「はい。1からその目印を考えるのは大変です。同じようなことをやっている先行研究はモデル生物ですでにあるので、使える部分はそれを利用したほうが良いと考えています。僕がまずやったこととしては主にトレーニングデータとして信頼性のあるデータを集めてくる、というところになりますね。」
—- 「これがAだよ」「これがBだよ」というラベルのついたデータを用意して、まずはそれでコンピュータにAとBのパターンを覚えてもらう、というのがトレーニングデータですね。答えが確実にわかっているデータのセット(トレーニングデータ)で学習したところに、答えがわからないデータを持ってきて、A or Bを判定してもらう・・・?
「そうですね。最終的な使われ方としては、そういうところを想定していますね。ただ、そのラベルのついたトレーニングデータというところが肝になってきます。非モデル生物の場合、ミトコンドリアのタンパク質とされているものの中には、ちゃんと実験でそれを示しているものと、予測ソフトを使ってたぶんミトコンドリアのタンパク質だろう、とされているものが混ざっていて、後者が結構多いんですね。なので、ちゃんとそこを区別しているデータベースや論文を探して、信頼できるラベルのついたデータを集める必要がありました。」
—- そうしてトレーニングデータが集まったら、あとはコンピュータに入力するだけ・・・なんてわけには、もちろんいかないんですよね・・・。
「先行研究で使われていた学習手法(サポートベクターマシン)よりも、もうちょっと多くの特徴量やデータ量に対応した学習手法の方が目的に適っているのではないか、という指摘も頂いたので、学習手法も変えて(Gradient boostingなどのアンサンブル学習法)研究しました。あとはひたすら、トレーニングデータで学習させて、判定のパフォーマンスを測定して、精度が上がるようにパラメータを調整していく、という作業になります。
機械学習の精度はROCカーブというもので性能評価をするんですけれども、結論としては、これまでのモデル生物を対象としたトレーニングデータで学習させたものに非モデル生物のデータを渡して判定させた際のパフォーマンス(イメージ図左端)よりも、非モデル生物を対象としたトレーニングデータで学習させたものに非モデル生物のデータを渡して判定させた際のパフォーマンス(真ん中)の方が、性能が向上しました。
非モデル生物にもバリエーションがあって、退化的なミトコンドリアをもつものとそうでないものがいたりします。こういう違いは、学習に使っている特徴の違いとしても現れます。なので、退化的なミトコンドリアをもつグループのデータを既存の機械学習で判定しようとするととても精度が落ちてしまいます。そこで退化的なミトコンドリアをもつグループのデータだけを選び出してきてトレーニングをしたら(イメージ図右端)、かなりいい結果が出るようになりました。」
—- ミトコンドリアがどういう状態なのかなど、あらかじめ自分の調べたいものと近いグループをトレーニングデータにすることで精度があげられるようになっているんですね。
「そうですね。こういう機械学習を使ってくれる人は生物を扱っている人なので、このタンパク質がミトコンドリアに行くか調べたい! という時に、そのタンパク質をもっていた生き物のことはあらかじめわかっていることが多いので、その生き物がどの生物群に属しているかは選択してもらうという使い方を想定しています。
これまでにトレーニングデータ用に集めてきた生物群がだいたい11、12セットあるんです。先ほどでた、退化的なミトコンドリアをもつものがこのうちの3つです。この3つをトレーニングデータに含めるか、含めないか、ですとか、トレーニングデータのセットによって調べたいものの精度が変わります。
今は、このセット全部の組み合わせを作って、どれを一緒にすると精度が上がるのかを調べています。11セット中の2個使う、3個使う、4個使う・・・など、1000通り以上ですね。特徴が違うものが入れば精度が下がりますし、傾向が似ているものが入る分には、データが増えた方が精度は上がります。」
—- ある程度、自分が調べたいものがわかっていればいいと思うんですが、例えば全然未知の、なんだかわからない生き物に使ってみるというのは難しいですか?
「それも今ちょうどやっていて、全くわからないものを調べる時にはどういうセットを使ったらいいのかというのも、組み合わせを作って調べています。やっぱり何か一つ作ろうと思うと、そこまで検証して根拠を示したものを作りたいですね。」
—- 本当に、生物の知識とデータ科学の知識を駆使した研究ですね。ちなみに、博士課程の研究は?
「博士課程では生き物そのものを扱った実験をしています。具体的には、ミトコンドリアに運ばれるようなタンパク質に蛍光ラベルをつけて、本当にミトコンドリアに運ばれているのかを観察しようとしています。これも退化的なミトコンドリアをもつグループで研究しているのですが・・・こちらの方は、まだあんまり結果がうまく出ているとはいえないので(笑)」
(写真: 暗幕の中で蛍光顕微鏡を操作する久米さん)
—- 光らせる方はうまくいっていない?
「光らせるところまでは行っているんですけれども・・・。これも最初の話と同じで、うまく光らせる技術が確立している生物はモデル生物など一部の限られた生物なんですね。幅広く色んな生き物を見ようと思うと、それぞれで技術の確立をしていかなくてはならないので、時間もかかり難しいですね。」
—- 例えば、機械学習の研究の成果がでてくれば、そうした難しい実験の数を減らしたりすることもできますか?
「そうですね。機械学習の研究と実際の実験は独立したアプローチとして捉える必要はなくて、機械学習による判定は実験をする際に “あたりをつける” のに使えますし、実験で新しいデータがでれば機械学習のトレーニングデータに組み込んで精度をあげることができるので、お互いの助けになると思います。」
—- 2つの研究がお互いの助けになって、研究がより進んで行くんですね。今後の研究にも期待しています! 久米さん、ありがとうございました。
デュアル・ディグリープログラムは、研究者または高度に専門的な業務の従事に必要な能力や学識の修得を目指す博士後期課程学生に、専攻分野とは異なる関連分野の学識を修得させるプログラムを提供し、深い専門性と広い学識に加えて高い適応力のある人材の育成を目的とします。計算科学研究センターでは、物理学・地球環境・生物学などのサイエンス分野の博士後期課程に在籍しながら、コンピュータ科学・データ科学分野の博士前期課程(修士課程)で同時に学ぶDDプログラムを推進しています。学生が在籍するのは研究科になりますので、募集要項や入試関連手続きはセンターではなく研究科で行われます。計算科学研究センターの「計算科学振興室」でも、DDプログラムに関する相談、サポートを受け付けています。対応している研究科などの詳細は、以下のページをご覧ください。
北川先生(計算科学振興室長)コメント:
「計算科学の分野では、物理・地球環境・生物といった科学の専門性と同時に、先端的な情報技術に精通しそれを実際に応用する能力を有することが重要です。両方の分野の知識や技術を体得し、複合的な視点から新たな計算科学を開拓できる人材を育成するために、センターでは今後もDDプログラムの推奨と支援を続けていきます。」
l DDプログラム問い合わせ先(センターに関連するもの): 計算科学振興室長 北川博之 教授kitagawa [at] ccs.tsukuba.ac.jp 広報・戦略室 pr [at] ccs.tsukuba.ac.jp |
久米慶太郎(くめ けいたろう)さん(生命環境科学研究科 生物科学専攻 博士後期課程2年/システム情報科学研究科 コンピュータ・サイエンス専攻 修士課程2年)
北川博之(きたがわ ひろゆき)教授
計算科学振興室 http://www.ccs.tsukuba.ac.jp/research/research_promotion/promotion-office
CCS Reports! 第二弾の後編は、ドイツ・フランクフルトで開催されたISC High Performance(2016年6月19日〜23日)の中の1セッション、HPC in Asia (ハイパフォーマンス・コンピューティング in アジア)にて、ポスター発表を行ったお二人の研究内容を紹介します。それぞれ、CCSで実際に動いている2台のスーパーコンピュータ、HA-PACS/TCAとCOMAに関する研究です。さっそく、スパコン研究の世界を覗いてみましょう! (2016.7.19)
ISC (International Supercomputing Conference) は、スーパーコンピュータ(スパコン)とスパコンを使った計算科学の国際学会で、毎年決まって6月にヨーロッパで開催されます(2015年は7月開催)。
計算科学研究センターは、東京大学情報基盤センターと共同運営する「最先端共同HPC基盤施設:JCAHPC」としてブースを出展し、今年稼働を開始するスーパーコンピュータOakforest-PACS(OFP)の紹介を行いました。(詳しくは「ISH High Performance 参加報告(前編)」をご覧ください。)
HPC in Asia (ハイパフォーマンス・コンピューティング in アジア)はISCの1セッションとして、アジアで行われているスパコン研究を世界の人々に紹介し、情報交換を行うことを目的に6月22日に開催されました。
HPC in Asia でポスター発表をした研究者へのミニインタビュー。まず一人目は、高性能計算システム研究部門の藤田典久研究員です。
藤田さんは、GPU*1間を直接通信する技術によって、具体的なアプリケーションの性能がどれだけ上がるのかを研究しています。
近年のスーパーコンピュータでは、計算性能向上のための1つの方法として、演算加速装置*2を持つものが増えています。演算加速装置を使うことで、CPUよりも高速で演算処理(計算)をすることができます。しかし、従来の環境では、演算加速装置(例えばGPU)のデータを他のノード*3に送るには、一度CPUを経由しなくてはならず、GPUからCPU、CPUから別のノードのCPU、そしてまたCPUからGPU・・・というようにデータ転送の回数が多くなってしまいます。通信が多いと、それだけ全体の計算に掛かる速度が遅くなってしまう・・・つまりは計算性能が落ちてしまう、ということ。
*1 GPU:Graphics Processing Unitの略。本来PCサーバにおけるグラフィックス処理を目的として作られた専用プロセッサだが、近年はその高い演算性能を利用した高性能計算への転用が活発化している。
*2 演算加速装置:汎用計算を行うCPUに対する拡張機構として、PCI Expressなどの汎用バスを介して接続される高性能演算装置。計算を自律的に行うことは不可能で、CPUから起動されることにより、アプリケーションの一部または全部を高速に実行する。一般的に利用可能な演算加速装置の例としては、GPUやメニーコアプロセッサなどがある。
*3 ノード:現在のスーパーコンピュータは、たくさんのコンピュータを高速ネットワークで繋いだ”並列型“が主流。1ノードが1コンピュータに相当。
計算を早くする演算加速装置なのに、通信のせいで全体性能が下がってしまったら、困るじゃないですか、藤田さん。
「計算科学研究センターでは、この問題への一つの解決策として、TCA(Tightly Coupled Accelerators) というコンセプトを提唱しています。TCAというのは、GPUとかメニーコアプロセッサといった演算加速装置の間を直接通信することによって、計算全体の性能をあげようという考え方です」
[HA-PACS/TCA]
計算科学研究センターのスーパーコンピュータ「HA-PACS/TCA」のTCAですね。
センターの見学で公開しているので、これを読んでいる人の中にも、「HA-PACS/TCA」を実際に見たことがある人もいるのではないでしょうか。藤田さんによると、「HA-PACS/TCA」の「TCA」部分は、この演算加速装置同士を直接通信させるというコンセプトの実験用環境として作られたもので、GPU同士の直接通信を可能にするPEACH2という機構が組み込まれています。1つのノードに、GPU間の直接通信をするPEACH2と従来型の通信をするInfiniBandネットワークという機構が対称になるように配置されているため、両者の比較をほぼ同じ状態でできるのが特徴なのだとか。この実験環境を使って、今回のポスター発表の研究も行われています。
PEACH2と従来型ネットワークのそれぞれで、異なるノードにあるGPU間の通信時間を比較したのがポスター左下のグラフです。縦軸が時間・横軸が送るデータの大きさで、時間が短い(縦軸の下の方)ほど、性能がいいことを示しています。グラフを見ると、PEACH2(青い線)の方が従来型(赤い線)よりも常に短い時間でデータを送っていますね。例えば、8Byteのデータを送った際には、PEACH2では2マイクロ秒(青い折れ線)、従来型通信だと4マイクロ秒(赤い折れ線)の時間がかかっていて、その差は約2倍。
「昔はもっと差があったんですけど、従来型のInfiniBandは製品として作られているので、どんどん新しい技術が使えて、徐々に追いつかれてきつつあるんです。でもまだ、PEACH2の優位面はあるな、と」
さすが日進月歩の世界。3年くらい前(「HA-PACS/TCA」の稼働は2013年)は、もう“昔”なんですね・・・。
左側の下から二番目のグラフでは、縦軸が一秒間にどれだけのデータを送れるか・横軸がデータの大きさで、上に行くほど性能がいいことになっているんですが、右の方に行くとPEACHI2(青い線)が従来型(赤い線)に負けちゃってます。これはなんですか?
「PEACH2にも苦しいところがあって、PEACH2はピークのバンド幅(1秒間に通信できるデータ量)が低いんです。1コネクションあたりのバンド幅が最大で4GB/s。対して、従来型のInfiniBandはだいたい倍の8GB/s。なので、メッセージ長を大きくしていくと、ピークのバンド幅が足りないのでPEACH2が負けてしまう、と。」
一度に送れるデータの量はPEACH2の方が少ないから、あまりデータが大きくなるとPEACH2の方が遅くなってしまうんですね。
「ただ・・・あ、ウィーク・スケーリングとストロング・スケーリングってわかりますか?」
わかりません! と正直に答えたら、クスッと笑われてしまいました・・・。藤田さんに教えていただいたので、図を入れて解説します。
ウィーク・スケーリングとは、1計算機にとっての計算の量(仕事量)はそのままに、計算機と問題サイズを大きくするもの。問題サイズはそのままに、計算機だけを増やすのがストロング・スケーリングです。
普通、計算機が2倍、問題サイズも2倍なら、性能は最初と変わらないように思いますよね? また、問題サイズをそのままに計算機を2倍にしたら、計算性能は2倍速くなりそうな気がします。ところが、そう簡単にいくことはまずないのだとか。
というのも、ただ計算機を増やすだけでは減らない“固定費”があるからなんです。固定費の例として藤田さんがあげたのは、やはり通信。例えばPEACH2では、8Byteのデータを送っても16Byteのデータを送っても、かかる時間は2マイクロ秒で同じ。この2マイクロ秒は、削ることのできない固定費、というわけです。
「一般的なアプリケーションでは、ストロング・スケーリングによって計算機あたりの仕事量が減ると、1通信あたりのデータサイズも減っていくので、PEACH2の「小さいデータを速く送る」特性が有利になってきます。今後はエクサスケール*4の計算機に向けて、ストロング・スケーリングできちんと性能を出すことが重要になりつつあるので、そこにPEACH2の存在意義があると思っています。」
藤田さん、ありがとうございました!
*4 エクサスケール:1秒間にエクサ(10の18乗)回の計算ができるような規模のスーパーコンピュータ。実現が期待されている。現在、世界で最も早いスーパーコンピュータ「神威 太湖之光」は93ペタフロップス(1秒間に93×10の13乗回の浮動小数演算ができる性能)をもつ。
インタビュー二人目は、高性能計算システム研究部門の朴教授のもとで研究を進めている、博士後期課程1年の廣川祐太さんです。
廣川さんは、原子核物理部門の矢花教授との共同研究で、電子ダイナミクスの第一原理計算をするアプリケーションARTED(アーテッド)を、メニーコアプロセッサ*5を搭載したシステムに最適化するためには何が必要か? というテーマで研究をしています。
*5 メニーコアプロセッサ: 従来の汎用マルチコアCPUが1つのチップ上に10個程度のCPUコアを搭載していたのに対し、数十個(COMAに搭載されているインテルXeon Phiコプロセッサでは61個)のCPUコアを搭載する新世代の演算加速型プロセッサ。性能を引き出すにはプログラミングに様々な工夫が必要とされる。
廣川さんの研究では、計算科学研究センターのスーパーコンピュータCOMAが使われています。COMAはCPUの他に、演算加速装置としてメニーコアプロセッサを搭載しているという特徴があります。CPUだけを使うこともできるし、演算加速装置を一緒に使うこともできる、という柔軟な使い方をされているCOMA。でも、廣川さんはそれでは「もったいない」といいます。
「COMAの性能が1ペタフロップス*6なのは、メニーコアプロセッサが840テラフロップス*6くらい、CPU側が160テラフロップスくらいあるためで、片方だけ使うとそれだけピーク性能がさがっちゃうんですよね。せっかくあるペタフロップス級の性能が全然出ない。」
*6 ペタフロップス・テラフロップス:計算機の処理性能の指標としてFLOPS(フロップス)があり、1秒間に何回の浮動小数点数演算ができるかを表す。ペタフロップス(Peta FLOPS)は1秒間に10の15乗回、テラフロップス(Tera FLOPS)は1秒間に10の12乗回の計算ができることを示す。
[COMA]
確かに、せっかく演算加速装置が搭載されているのだから、使わないともったいない気がします。けれど、廣川さんによると、2つのプロセッサ(CPUとメニーコアプロセッサ)の性質が違うので、どう一緒に使うかが難しいのだそう。二つの異なる性質をうまいこと使いこなして、一番性能がでる使い方をするにはどうしたらいいか? という研究が、今回の廣川さんのポスター発表です。
藤田さんの研究のように、2つのプロセッサ間の通信をどうするか? という研究だと思ったら、違うんですって。
「僕らのアプリケーション(ARTED)は、並列化が非常に簡単になっていて。通常、三次元の空間を格子状に分割すると分割面で通信が必要になるんですけど、このアプリケーションではそうした時間のかかる通信が非常にすくないんです。なので最初にやるべきことは、とにかく計算を速くすればいい。」
というわけで、第1段階は「とにかく計算を速くする」ための作業です。ARTEDのコード(プログラム)を、メニーコアプロセッサとCPUそれぞれの特性に合わせて修正します。コンパイラを使って自動でコードを修正する方法と、それをさらに手動で修正する方法によって、核となる計算を約8倍も速くすることができました。しかし、ここで次の問題が・・・。
アプリケーション全体の性能を評価する時、メニーコアプロセッサとCPUに単純に同じ量の仕事を割り当ててしまうと、両者の性能が違うために遅い方に引っ張られてしまうんです。
なので、第2段階は「一緒に始まって一緒に終わるような仕事の配分を見つけること」。例えば、メニーコアが速ければそちらにもう少し計算量を割り当てるというようにして、ちょうどよく一番性能が出そうな仕事の割り当てを見つけ、アプリケーション全体の性能評価をしたのだそう。結果は?
「全体性能としては、メニーコアプロセッサとCPUをバランス良く使うと、CPU単体よりも最大で2.16倍速い、という結果になりました。CPUだけを倍の数使うよりも、2つのプロセッサをまとめて使ったほうがまだ速いですよ、ということになります。」
今年稼働を開始するOakforest-PACS(OFP)も、京コンピュータの次世代機として開発がスタートしている日本の次世代スパコン:フラッグシップ2020(ポスト「京」コンピュータ)も、メニーコアプロセッサを搭載することが決まっています。スパコンが違っていても、メニーコアという仕組みを使う以上は共通する課題や似たような問題がでてくる、と廣川さんは言います。この研究のこれからの展開を伺うと、
「今のシステムだけではなくて、次世代で中心になるであろうメニーコアシステムに最適化するには、何が必要で何をしなくちゃいけないのか? という研究ですね。」
とのこと。先を見据えた研究ですね。今後の発展に期待してます!
廣川さん、ありがとうございました。
[写真:ポスターの説明をする藤田研究員と博士課程1年の廣川さん]
取材協力
- ・藤田典久(ふじた のりひさ)研究員
- ・廣川祐太(ひろかわ ゆうた)さん(博士課程1年)
合わせて「ISC High Performance 参加報告(前編)」もどうぞ。
・ISC2016
・最先端HPC基盤施設(JCAHPC)
・プレスリリース「最先端共同HPC基盤施設の活動を開始 筑波大学と東京大学によるスーパーコンピュータ共同開発、共同運営・管理」
・プレスリリース「最先端共同HPC基盤施設がスーパーコンピュータ システム(ピーク性能25PFLOPS)の導入を決定 ―次世代メニーコア型プロセッサを搭載―」
計算科学研究センターの取り組みを紹介する、CCS Reports! 第二弾。今回は、2016年6月19日〜23日にかけて、ドイツ・フランクフルトで開催されたISC High Performance の様子をレポートします。今年12月稼働予定のスーパーコンピュータについてもちょこっとご紹介。後編では、ポスター発表を行ったお二人の研究ミニインタビューもあります!(後編:もうしばらくお待ちください) (2016.7.7)
ISC (International Supercomputing Conference) は、スーパーコンピュータ(スパコン)とスパコンを使った計算科学の国際学会で、毎年決まって6月にヨーロッパで開催されます(2015年は7月開催)。この分野では、毎年11月にアメリカで開催される”SC”に次ぐ、二番目に大きなイベント。今年の参加者数は3,000人を超え、出展ブース数は約150とのこと。
世界のスパコン性能ランキングであるTOP500や、省エネ性能ランキングGreen500が発表される場でもあります。TOP500は、1993年から毎年6月のISCと11月のSCで発表されてきており、今回のISCでは、第47回目のTOP500リストが公表されました。
[写真:ISCエキシビション会場]
筑波大学計算科学研究センター(CCS)では、毎年アメリカで開催される“SC” (スーパーコンピュータ分野の世界最大の学会)にブースを出展しています。今年は、ヨーロッパ版SCとも言われるISCに東大と合同でブースを出展しました。もう少し正確に言うと、CCSと東京大学情報基盤センター(ITC)が共同で運営する「最先端共同HPC基盤施設(JCAHPC)」という組織としてのブース出展です。(JCAHPCの詳細はこちら)
[写真:JCAHPCのブースの様子]
わたしたちのブースの今回の目玉は、2016年12月に稼働開始するスーパーコンピュータOakforest-PACS(OFP)です。OFPは、JCAHPCが調達・運用をするスパコンで、ピーク性能は25PFLOPS(ペタフロップス)*1。現在日本で最も速いスパコン「京」が10.62PFLOSなので、OFPが稼働を開始すれば、稼働時点で国内最高性能のシステムになると見込まれています。ISC High Performanceでは、このOFPの性能に関するポスターと、実際にOFPに搭載される予定のノード*2の展示を行いました。
*1ペタフロップス:計算機の処理性能の指標として、1秒間に実行可能な浮動小数点数演算回数(実数演算回数)が用いられる。これをFLOPS(Floating-point Operations Per Second)という。PFLOPS (Peta FLOPS, ペタフロップス) = 1015FLOPSであり、1PFLOPSは一秒間に千兆回の計算ができることを意味する。
*2ノード:現在のスーパーコンピュータは、たくさんのコンピュータを高速ネットワークで繋いだ“並列型”が主流。1ノードが1コンピュータに相当。
[写真:OFPのノード]
上の写真がOFPのノードです。これ1つで、一般的なパソコンの約300倍の計算性能があります。OFPにはこのノードがなんと8,208台も搭載されます。
OFPの核とも言えるプロセッサには、米国インテル・コーポレーション社が開発した最新のメニーコア型プロセッサ、次世代 Intel Xeon Phi™ (開発コード名:Knights Landing)が採用されています。このことが、ISC参加者の関心を大いに引きつけていました。というのも、この“最新”のプロセッサ、ISC期間中にその正確な性能情報がようやく公開になったくらい新しいんです。私たちのブースのポスターも、情報解禁になってからデータを追加したほど。
[写真:情報解禁後に追加で貼られたデータ。あとから貼ってありますが、印刷ミスではありません!]
最新のプロセッサを搭載したOFPがどんな作りになっているのか、どんな研究に使われるのか、参加者からの質問は尽きることがありません。中には、今回展示したOFPのノードを見て、その小ささに驚く方も。実際、非常に高密度に設計されていることもOFPの特徴の1つなのです。
[様々な国の研究者や企業関係者が、OFPの詳しい説明を聞くために足を止めます。]
ところで、今こうしてネットを見ている皆さんのパソコンは、使っているうちに熱くなること、ありませんか? スパコンも、非常に高密度に回路が組まれているため、電源を入れるととても熱くなります。スパコンを冷やすためには、大型の空調システムを入れたり水を循環させたり、非電導性の液体に基板ごと浸けてしまったりと、様々な冷却方法が使われますが、OFPでは水を循環させてCPUを冷やすシステムと冷気を通してメモリなどを冷やすシステムの二つを採用しています。ノードの写真に見える黒くて太い二本のチューブが、水の循環用パイプ。写真の左側で、二本のチューブそれぞれに青と赤のラインが入っているのがわかるでしょうか?
[写真:OFPのノード(上と同じ画像です)]
青いラインの入った方から水が入り、右側の丸いオレンジ色のロゴが入ったあたりで熱を受け取り、赤いラインの入ったチューブから熱くなった水が出て行く仕組みです。まさに、スパコンの心臓部のための“動脈・静脈”のようですよね。
今回のISCでは、3日間に亘るエキシビションの期間中に100人を超える方がJCAHPCのブースに立ち寄ってくれました。今年の12月には本格的に稼働開始するOFP。この最新スパコンからどんな研究成果がでてくるのか、これからも目が離せません! CCS広報でもOFP関連の記事を予定していますので、どうぞお楽しみに。
ISCで行われるのはエキシビションだけではありません。多くの学会で行われるような研究発表・ポスター発表も含め、様々な情報交流の場が設けられています。
その1つに、HPC in Asia (ハイパフォーマンス・コンピューティング in アジア)という集まりがあります。アジアで行われているスパコンの研究や取り組みを世界の人々に紹介し、情報交換や共同研究のきっかけ作りなどを行う会合で、今年で6年目を迎えます。CCSの朴教授は、このHPC in Asia で6年間(最初からずっと!)、主催者を務めてきました。今年でその大役に一区切りをつけ、次のオーガナイザーにバトンタッチするとのこと。お疲れ様です。
[写真:開会の挨拶をする朴教授]
[写真:HPC in Asia セッション会場とポスター発表会場]
HPC in Asia では、オーストラリア、日本、韓国、台湾、中国、シンガポール、インド(発表順)のスパコンの状況について、各国の研究者から紹介がありました。今年のTop500の一位にランクインした「神威 太湖之光(中国)」や、韓国が次に導入予定のスパコンについて、シンガポールに新設された国立スーパーコンピューティング・センターについて、日本のポスト「京」コンピュータや先述のOFPについてなど、興味深い話題が次々紹介され、参加者はスライドの写真を撮ったりメモを取ったりと、熱心に聞き入っていました。
所変わってHPC in Asia のポスター会場では、コーヒー片手にポスターを介してあちこちで議論が飛び交っていました。どんな研究の話をしていたのか、計算科学研究センターからISCに参加した藤田研究員と廣川さん(博士後期課程1年)にミニインタビューをしてきたので、後編ではインタビューを中心に研究の内容をお届けします!(後編:もうしばらくお待ちください)
[写真:ポスターの説明をする藤田研究員と博士課程1年の廣川さん]
取材協力
- ・朴泰祐(ぼく たいすけ)教授
- ・高橋大介(たかはし だいすけ)教授
- ・藤田典久(ふじた のりひさ)研究員
- ・廣川祐太(ひろかわ ゆうた)さん(博士課程1年)
後編はこちらからどうぞ
「ISC High Performance 参加報告(後編)HA-PACS/TCA と COMA それぞれの研究を紹介します!」
・ISC2016
・最先端HPC基盤施設(JCAHPC)
・プレスリリース「最先端共同HPC基盤施設の活動を開始 筑波大学と東京大学によるスーパーコンピュータ共同開発、共同運営・管理」
・プレスリリース「最先端共同HPC基盤施設がスーパーコンピュータ システム(ピーク性能25PFLOPS)の導入を決定 ―次世代メニーコア型プロセッサを搭載―」
関東平野唯一の独立峰、筑波山。日本百名山にも数えられるこの山の男体山山頂には、長い歴史をもつ気象観測施設があります。2016年、筑波山神社と筑波大学計算科学研究センターによる共同気象観測所として生まれ変わったこの施設。いったい何を観測しているの? どう活用されているの? 計算科学やスーパーコンピュータとの関係は? CCS Reports! 第一弾は、筑波山と CCS の関係に迫るべく、地球環境科学研究部門の日下博幸教授にお話を伺いました。
(取材日:2016.4.15)
筑波山山頂で気象観測が始められたのは、1893年(明治26年)。現在の気象庁にあたる、中央気象台の冬季観測から始まりました。その後、1902年(明治35年)に通年の観測が開始されて以降、2001年(平成13年)12月に、気象庁のアメダス(地域気象観測システム)観測地点の統廃合によって閉鎖されるまで、継続した気象観測が行われてきました。2006年からは、筑波大学の学内プロジェクトとして観測が再開し、2012年に計算科学研究センターの研究プロジェクト「筑波山プロジェクト」として引き継がれました。
2016年3月末に、名称を「筑波山神社・筑波大学計算科学研究センター共同気象観測所」と改め、観測機器を更新して観測を続けています。
(詳しくは「筑波山プロジェクト」のページをご覧ください)
———— 2016年3月末に、筑波山(男体山)山頂にある気象観測所(正式名称:筑波山神社・筑波大学計算科学研究センター共同気象観測所)の観測機器が新しくなりました。筑波山ではどんな観測をしているのですか?
測っているのは、気温、地温、湿度、気圧、日射、降水量です。普段は風向、風速も観測していますが、これは今、観測器の調整中なので、データ公開を控えています。
———— 観測機器が新しくなったことで、何か変わったことはあるのでしょうか?
より良くなった、とかですよね? 基本的にないですね。
———— あれ? そうなんですか?
精度も変わってないです。むしろ精度を維持することが、もっとも重要なんです。
よく、こういう観測機器を設置したり、リニューアルしたというと、「こんな良いことが増えました」みたいな感じで言われるけれど、この場合はそうじゃなくて。気候変動の監視だとか、天気予報のためのデータとして、なくなっては困るので、維持することが大事なんです。
今、日本中で気象観測所は減らされているんです。どんどん減っていく中で、筑波山のデータは貴重だから、無くしたくない。だから、観測機器の更新をしたりして、精度を維持して観測を続ける取り組みをしているわけです。
筑波山では、もともと気象庁が観測を続けていました。だから、気象庁の観測とかなり近いレベル、同じ測器、同じ精度を目指しています。そういう意味では、昔の気象庁の時代よりは精度が良くなっている観測項目もありますね。今の気象庁の精度に遜色ないレベルで観測をしています。
———— なるほど。観測そのものや精度を維持することが大事なんですね。しかし、大事な観測地点なら、なぜ気象庁は閉めてしまったのでしょうか・・・?
それは・・・、当時の気象庁の方にしかわらかないですね。ただ、山に登って毎日通勤とか、メンテナンスするのが大変だとか、予算・人員のコスト面の問題もあったかもしれないですね。
———— そうですよね・・・。今回の観測機器リニューアルも大変そうでした。
気象庁では、気象庁が取った観測データを使って、スーパーコンピュータで数値計算(シミュレーション)をして天気予報をしています。それ自体には、筑波山の観測データは入っていません。一方で、気象庁が出した数値予報(シミュレーション結果)を見ながら天気予報をする気象予報士の人たちは、筑波山の気象データがすごく大事だと言います。他の閉まってしまった観測地点に比べても、筑波山は重要だと考えている人もいます。
(写真:2016年3月に新しくなった日射計)
というのも、関東平野では筑波山のような高いところは他にないので、筑波山は上空の大気の状態をリアルタイムで知ることができる貴重な観測地点なんです。例えば関東上空の気温情報は、関東で降るのが雨になるのか、雪になるのか、という雨雪の判断に非常に大事なんです。だから、予報士の方たちは筑波山の気象データを重視しているんですね。
———— 身近な天気予報にも大事なんですね。他に、100年以上続く気象観測の積み重ねがある、ということも貴重なんですよね。
気候変動の研究をする場合は、筑波山のデータは100年前と今の観測データを直接比較することができるので、貴重ですね。地球温暖化と言われているけれど、どれくらい気温は上がっているのか? など、観測データで研究できますから。筑波大の前任者は、筑波山の観測データを気候変動の研究に活用していました。今もデータを公開しているので、過去の気候と現在の気候を比較する研究に活用してもらえます。
僕はどちらかというと、今とっているデータを使っていて、関東地方で発生するいろいろな気象現象の仕組みを理解する、というように基礎研究に使っていますね。
———— 日下先生は計算科学研究センターの所属ですが、筑波山の気象観測データは、スーパーコンピュータや計算科学とも関係があるんですか?
まず、スパコンでシミュレーションするといっても、大前提としてそのシミュレーションが“適切”でないといけないわけですよね。つまり、シミュレーションの結果が観測の結果と合っていないといけません。気象学では、シミュレーションモデルが観測の結果を再現できるか、をちゃんと検証することがとても大事なんですけど、このモデルの検証の時に、観測データと照らし合わせることが非常に重要なんです。その時に、地上のデータだけ合っていてもダメで、上空の状態も合っていないとダメなんですね。
上空の状態を知る方法として、普通は“高層ゾンデ”といって、大きな風船のようなものを上げて測るんですけど、それって1日2回しかやらないんです。1日2回つくばで気象庁が観測しているんですけど、これだけだと、関東平野に12時間ごとのぽつんぽつんとしたデータがあるだけです。12時間の間に急激な変化があったら、それはわからない。気象は時事刻々と変化していきますから、シミュレーションが現実と合っているかどうかを検証するのに、ぽつんぽつんじゃ、ちょっと足りないんですよね。筑波山では上空の気象データを取り続けているので、シミュレーションの検証に使えるわけです。
もう一つは、斜面温暖帯※1とかサーマル※2とかを研究する時には、その場所の大気の状態がわかっていないと計算ができません。シミュレーションに初期条件を与えるのにも、筑波山の観測データを使っていますね。
※1斜面温暖帯:山の麓よりも山腹の方が、気温が高くなる現象。日下研究室では、斜面温暖帯の形成要因の解明を目指して、筑波山の斜面温暖帯の観測や数値シミュレーションを行っている。
※2サーマル:上昇気流の一つ。筑波山周辺では古くからサーマルが知られ、この上昇気流を利用したパラグライダーやハンググライダーのようなスカイスポーツが盛んに行われている。日下研究室では、サーマルの発生傾向や構造を解析している。
———— シミュレーション用のプログラムに観測データを初期値として入れて、シミュレーションを走らせる。それで出てきた結果も、観測データと合わせて検証する、ということですか?
そういうことですね。シミュレーションの結果が外れていっちゃうかもしれないですからね。初期条件は観測データを与えているけど、モデルは完璧じゃないから、時間とともに実際に起きている現象から外れていっちゃうかもしれない。間違ったモデル、間違ったデータで研究をしたら話にならないので、モデルが現状をちゃんと再現できているかどうか、観測値できちんと確認する必要があるんです。
(図:2016年4月17-18日の筑波山頂の気温の推移, 観測値)
———— えーと・・・、観測データをもとにシミュレーションをしてみて、シミュレーション結果を観測データと照合して、結果が合っている・合っていないとなった時に、「研究」はどの部分になるのでしょう?
普通は、観測データをもとに、なぜ雪が降ったのかとか、なぜ斜面温暖帯ができたのか、を類推するけど、観測データは四次元的に密にはないですよね。四次元、ていうのは、空間三次元と時間変化なわけだけど。例えばゾンデなら、時間方向に1日2点しかない。アメダスのデータだと地上の点しかない。観測データは限定されるわけです。かなりね。その限られた観測だけからでは、大気の四次元的な構造を推定するのには限界がありますよね。パズルでいうなら、ポツ、ポツ、とピースがあって、そこから全体を類推するくらい難しい。
じゃあシミュレーションはどうかというと、シミュレーションだと四次元データを完全に取ることができるので、一見「パーフェクトだ!」という感じがします。けど、今度は「そのシミュレーション・四次元データは本当にあっているのか?」というのがあって、シミュレーションデータだけから「この時はこうだったから雪になった」と類推するのも危ないんですね。間違えるかもしれない。
だから、シミュレーションデータと観測データを合わせることで、シミュレーションで描いた全体像に観測の断片的な情報を照らし合わせて、断片的にあっているから、まぁ全体的にもあっているだろう、と判断する。そうして初めて、使える四次元データが出来上がるわけです。気象学の研究はここからが勝負ですよ。
———— え! ここからですか!
ここからです。観測データやシミュレーションデータが集まったところで、じゃあそれらのデータを詳しく分析してみましょう、なぜ雪が降ったのか? なぜ斜面温暖帯ができたのか? その要因は? となっていく。
———— 観測データがあって、シミュレーションができるようになったところで、例えば、「雪になる要因は湿度かもしれない」といって湿度の値を変えてシミュレーションしてみる、というようなこともするのでしょうか?
そうですね。あるいは、山をなくしてみるとか、都市化を進めてみるとか、ね。でも、そういう対照実験や比較実験をやるためにも、まず現状をちゃんと再現できている必要がある。あっていないモデルでシミュレーションをしても誰も信じられない。あっている、あっていないの判断は、やっぱり観測でしかできないですね。
———— 筑波山で観測している上空の気温データが首都圏の雨雪判断に大事、というお話があったのですが、山の上と下ではそんなに気温が違うのですか? 山の上は標高が高いから涼しい、とか・・・?
山の上の気温が低いというのはその通りなのですが、地上と同じような時間変化をしているかと言われると、必ずしもそうではありません。山頂の気温の変化と、地上の、例えば下妻市やつくば市の気温変化は、全然違う動きをすることがあります。
関東山地というのがあって・・・、これがすごく面白くて、まさに筑波山の観測データが必要な理由の一つなんですけど。関東平野があって、群馬、栃木、秩父とかの山々がありますよね。そうすると、山にブロックされて平野に冷気が溜まったりするんです。空気が冷たいので、暖かい空気が南風とか東風としてぶわーっと吹いてきたときに、冷気の上にふーっと、乗り上げるんですよ。そうすると、上の方は暖かくて下の方がかなり冷たい。そういうことが起きるんですね。
(図:関東平野の大気構造のイメージ)
筑波山は関東平野にぽつんとあります。筑波山の上の方は暖気で、つくば市は冷気に入っていたりする。筑波山の観測データを見ると、そういう大気の構造がわかります。これが結構重要で、地上だけ見ていると気温が低いから「雪だろうな」と思っても、割と上空は暖かくて雨になったりすることもあるんですよね。
———— 確かに。こんなに寒いのに、なんで雨なんだろう、ていう日ありますね。
ありますよね。なかなか複雑なことが起こるんですよ。太平洋側から暖かい空気が入ってきたときに、関東平野の中程で暖かい空気と冷たい空気の境目ができたりとかね。山側では雪が降っているけど、海よりでは雨とか。
(図:関東平野に冷気が溜まっている状態のイメージ)
この研究は民間の気象会社である、株式会社ウェザーニューズと共同研究しています。ウェザーニューズとしては、最終的に関東の雨雪を精度よく当てたい。そのためには、数値予報モデルの精度を上げることも大事なんだけれど、どうして“ここ”では雪で、“こっち”は雨になるのか? どうしてここにラインができるのか? 時間とともに雪の分布が変化するのはなぜか? という基礎的なことを明らかにするのがやっぱり大事なんです。だから、研究室のシミュレーション技術とウェザーニューズに所属する気象予報士の方々の経験・知識を合わせて、降雨・降雪という現象を解明しようとしています。
この降雨降雪予測の研究には、WRF(領域気象モデル)という数値気象モデルを使っています。アメリカの米国大気研究センター(NCAR)と米国海洋大気庁予測センター(NCEP)で開発された数値モデルです。このモデルは並列計算に対応しているので、計算科学研究センターのスーパーコンピュータCOMAを使って計算(シミュレーション)をしています。さっき、山に遮られて関東平野に冷気が溜まるという話をしましたけど、山があることが冷気の溜まる要因の一つになっている、というのもWRFを使ったシミュレーションで比較実験をしてわかったことです。関東で雪の降るメカニズムはだいぶわかってきましたけど、基礎研究としてまだまだやることがありますね。
(写真:計算科学研究センターのスーパーコンピュータCOMA)
———— 筑波山の気象観測データが、まだまだ必要ということですね。
筑波山の観測データを使った研究は、他にもいろいろあります。サーマルや斜面温暖帯の研究にも使っているし、研究だけでなく、天気予報をする予報士の人たちが、シミュレーションによる数値予報と合わせて観測データを使っている。気候変動の研究者も、過去から現在までのデータを使ってます。
今までも、観測データはWebで一般公開していましたけど、これからはもう少しデータを見やすくしたいと思っています。TX(つくばエクスプレス)も通ったし、筑波山に行く方も増えているでしょうから、そういう人にも重要なデータになるはずですよね。これまで以上にデータを活用してもらえれば、と期待しています。
今回のポイント!
- ・ 筑波山の気象観測データは、関東の雨雪予報(天気予報)、地球規模の気候変動研究、つくばや関東でおこる気象現象の解明に使われている
- ・ 観測は精度を維持して続けることに意味がある
- ・ 気象の研究では、シミュレーションモデルの妥当性の検証や、シミュレーションに初期条件を与えるために観測データが必須
- ・ 気象データは公開しているので、一般の方にも活用してもらいたい!
・筑波山プロジェクト
・「筑波山神社と筑波大学計算科学研究センター、筑波山山頂で共同気象観測をスタート」
宍戸英彦助教、北原 格教授、亀田能成教授らのグループが、2020年1月24日にITS奨励発表賞を受賞しました。
受賞テーマは以下の通りです。
著者:小河原 洸貴, 宍戸 英彦, 北原 格, 亀田 能成
タイトル:類似画像検索における歩行位置推定能力の実地検証
詳細はこちら (外部ページ)
宍戸英彦助教、北原 格教授、亀田能成教授らのグループが、MVE賞を受賞しました。MVE賞はメディアエクスペリエンス・バーチャル基礎研究会で発表された論文から選ばれるベストペーパー賞です。
受賞テーマは以下の通りです。
著者:大西 衝, 宍戸 英彦, 北原 格, 亀田 能成
タイトル:ヒヤリハット事例の仮想立ち合いにおける注視点を用いた安心感評価
詳細はこちら(EiC 外部ページ)
大阪医科大学、大阪大学、量子科学技術研究開発機構、茨城大学、筑波大学らの研究グループは、大強度陽子加速器施設(J-PARC)、物質・生命科学実験施設(MLF)の茨城県生命物質構造解析装置(iBIX)を用いた実験により、銅アミン酸化酵素の高分解能中性子結晶構造解析に成功しました。本酵素は、これまでに中性子結晶構造解析が行われた中で最も大きなタンパク質(分子量:70,600)であり、小型タンパク質を主なターゲットとしてきた中性子結晶構造解析の適用範囲を大きく広げました。得られた構造からは、三方向からの酸素原子との相互作用により宙に浮いているかのようにみえる水素イオン(非局在化したプロトン)や、特異な補酵素構造など、水素原子核の位置が精密に決定されることにより初めて解明された重要な知見が得られました。
追記(2020.5.7):2020年5月5日(米国時間)に論文が公開されました。
DOI: 10.1073/pnas.1922538117
最先端共同HPC基盤施設のOakforest-PACSが新型コロナウイルス感染症(COVID-19)の治療薬設計に関する研究に使用されました。
詳細は、以下のリンクをご参照下さい。
プレスリリース:新型コロナウイルス感染症(COVID-19)の治療薬設計に役立つウイルスタンパク質と治療薬候補化合物の相互作用データを公開
筑波大学CCSのCygnusおよびJCAHPCのOakforest-PACSの2台のスーパーコンピュータは新型コロナウィルス対応研究に協力します。
詳細は以下のHPCIのページをご確認ください。
Researchers led by the University of Tsukuba identify two novel dinoflagellates containing relic nuclei from endosymbiont algae, making them perfect models for studying organellogenesis
Tsukuba, Japan – Many algae and plant species contain photosynthetic membrane-bound organelles called plastids that are actually remnants of a free-living cyanobacterium. At some point in evolutionary history, a cyanobacterium was engulfed by an ancestral alga, trapping it forever as a host-controlled endosymbiont in a process called organellogenesis. All modern algae and plants are the descendants of this ancestral alga containing the first plastid. But as if by karmic intervention, some of these algae were themselves engulfed during secondary endosymbiotic events, generating what are known as complex algae.
In most cases, endosymbionts lose large portions of their genomes as well as most other cellular components except plastids during organellogenesis. However, in rare cases, the relic endosymbiont nucleus is retained within the host cell, forming a nucleomorph. While researchers know that endosymbiont genes are integrated into the host genome, there are currently only a few model systems in which to study the process of organellogenesis, meaning that it is still somewhat of a mystery.
However, in a study published last month in PNAS, researchers led by the University of Tsukuba reported an exciting discovery that may shed light on the process of organellogenesis.
The team discovered two novel dinoflagellates, strains MGD and TGD, containing nucleomorphs that were undergoing endosymbiont-host DNA transfer. In cryptophytes and chlorarachniophytes, the only other algal groups known to contain nucleomorphs, all DNA transfer events have ceased, implying that organellogenesis at the genetic level is complete. This has made it impossible to discover the closest relatives of the endosymbiotic algae or to determine how their genomes are altered during the transition process.
“Morphologically, MGD and TGD were obviously distinct, which was supported by molecular phylogenetic analyses,” says senior author Professor Yuji Inagaki. “However, both strains contained green alga-derived plastids with nucleus-like structures containing DNA.”
Even though the researchers showed that the endosymbiotic algae had already been transformed into plastids, gene sequence analysis suggested that DNA transfer from the nucleomorph to the host genome was still in progress in both MGD and TGD. Given the relatively intact state of the endosymbiont genomes, the researchers successfully identified the origins of the algae to the genus level.
“Genomic analysis of these novel dinoflagellates showed that they are both nucleomorph-containing algal strains carrying plastids derived from endosymbiotic green algae, most likely of the genus Pedinomonas,” explains Professor Inagaki.
“Based on the level of integration of the endosymbiont and host genomes in MGD and TGD, we concluded that the process of organellogenesis is less advanced in these strains than that in cryptophytes and chrorarachniophytes. This important distinction will allow us to use these organisms as models to better understand the process of organellogenesis.”
The article, “Dinoflagellates with relic endosymbiont nuclei as models for elucidating organellogenesis,” was published in Proceedings of the National Academy of Sciences of the United States of America at DOI: 10.1073/pnas.1911884117.
計算科学研究センターが運用するスーパーコンピュータの運用状況をお知らせするページです。
最新の運用状況は「CCS_SC_Operation-status」のTwitterアカウント(@ccs_sc_op)でも確認可能です。
Cygnus: 通常運用中
Info:
2023/3/30 9:00 ~ 2023/3/31 17:00 年度末メンテナンス
Pegasus:通常運用中
Info:
2023/3/13 9:00 ~ 12:00 緊急メンテナンス
2023/3/28 9:00 ~ 2023/3/29 17:00 年度末メンテナンス
最終更新日:2023.3.9
筑波大学計算科学研究センターでは、高性能メニーコアクラスタOakforest-PACS(Intel Xeon Phi、ピーク性能25 PFLOPS)及びCygnus(GPU+FPGA混合搭載型アクセラレータクラスタ、ピーク性能2.5 PFLOPS)の2台のスーパーコンピュータを運用しております。
Oakforest-PACSは最先端共同HPC基盤施設として東京大学情報基盤センターと共同運用するIntel Xeon Phi(Knights Landing, Intel Xeon Phi 7250P)をメインプロセッサとする超並列メニーコアクラスタです。また、CygnusはGPUに加えFPGAを演算加速・通信加速用デバイスとして搭載した初めての共用大規模複合型演算加速クラスタです。
筑波大学計算科学研究センターでは全国共同利用機関として、各システムにおいて全ノードの20%(Oakforest-PACSについては筑波大割り当てリソース分の20%)を目安とした計算機資源を、有償の一般利用に供することと致します。2020年度(2020年4月1日から2021年3月31日まで)の一般利用を募集しますので、希望される方は以下の一般利用のページをご確認の上、ご応募下さい。
一般利用
査読付き論文
査読無し論文
招待講演
一般講演
招待講演
その他の発表
招待講演
招待講演