令和4年度 年次報告会(2023年2月24日)

日時:2023年2月24日(金) 8:30~18:00
会場:Zoom

計算科学研究センター 令和4年度年次報告会を行います。

プログラム

発表時間は、新任者(*印)は15分、それ以外の方は12分です(質疑応答、交代時間含む)

セッション1 (8:30-9:51 座長:萩原聡)

8:30      *清水 則孝                    (原子核物理研究部門)

8:45       *福島 肇                    (宇宙物理研究部門)

9:00       *Kowit Hengphasatporn(生命科学研究部門)

9:15        多田野 寛人                (高性能計算システム研究部門)

9:27        Tong Xiao-Min            (量子物性研究部門)

9:39        Alexander Wagner       (宇宙物理研究部門)

セッション2  (9:51-11:15 座長:福島肇)

9:51         中務 孝        (原子核物理研究部門)

10:03       森 正夫             (宇宙物理研究部門)

10:15       日野原 伸生             (原子核物理研究部門)

10:27       中山 卓郎           (生命科学研究部門)

10:39       日下 博幸           (地球環境研究部門)

10:51       萩原 聡        (量子物性研究部門)

11:03       小林 諒平       (高性能計算システム研究部門) 

セッション3  (11:15-12:39 座長:小林諒平)

11:15       藏増 嘉伸      (素粒子物理研究部門)

11:27       矢島 秀伸      (宇宙物理研究部門)

11:39       田中 博                 (地球環境研究部門)

11:51       大谷 実                 (量子物性研究部門)

12:03       堀江 和正       (計算情報学研究部門)

12:15       北原 格       (計算情報学研究部門)

12:27       原田 隆平      (生命科学研究部門)

セッション4    (12:39-14:15 座長:佐藤駿丞)

12:39       宍戸 英彦       (計算情報学研究部門)

12:51       吉川 耕司          (宇宙物理研究部門)

13:03       稲垣 祐司               (生命科学研究部門)

13:15       矢花 一浩               (量子物性研究部門) 

13:27       松枝 未遠               (地球環境研究部門)

13:39       高橋 大介               (高性能計算システム研究部門) 

13:51       前島 展也                 (量子物性研究部門)

14:03       塩川 浩昭                (計算情報学研究部門)

セッション5    (14:15-15:39 座長:庄司光男

14:15        大須賀 健          (宇宙物理研究部門)

14:27        吉江 友照          (素粒子物理研究部門)

14:39        小泉 裕康          (量子物性研究部門)

14:51        堀 優太           (生命科学研究部門)

15:03       Doan Quang van   (地球環境研究部門)

15:15        朴 泰祐              (高性能計算システム研究部門)

15:27        天笠 俊之           (計算情報学研究部門)

セッション6     (15:39-16:39 座長:堀優太)

15:39         Savong Bou          (計算情報学研究部門)

15:51         石塚 成人             (素粒子物理研究部門)

16:03          佐藤 駿丞            (量子物性研究部門)

16:15          庄司 光男            (生命科学研究部門) 

16:27          藤田 典久            (高性能計算システム研究部門)

セッション7 (16:39-17:44 座長:Savong Bou)

16:39          大野 浩史        (素粒子物理研究部門)

16:51          梅村 雅之        (宇宙物理研究部門)

17:03          重田 育照        (生命科学研究部門)

17:15          額田 彰           (高性能計算システム研究部門)

17:27          亀田 能成        (計算情報学研究部門)   

17:39          朴 泰祐               (センター長)

 

スーパーコンピュータPegasusの理論ピーク性能を公開

Intel社の最新CPU、第4世代Xeonスケーラブル・プロセッサの製品発表に伴い、2022年12月に試験稼働を開始したスーパーコンピュータPegasusの理論ピーク性能が公開となりました。
Pegasusは120ノードの計算ノードで構成され、全体の理論ピーク性能は6.5 PFlopsとなります。

Pegasusについて詳しくはこちらをご覧ください。

 

 

The theoretical peak performance of the Pegasus supercomputer is released

With the product launch of Intel’s latest CPU, the 4th generation Xeon scalable processor, the theoretical peak performance of the Pegasus supercomputer, which began test operation in December 2022, is now available.
Pegasus will consist of 120 compute nodes with an overall theoretical peak performance of 6.5 PFlops.

For more information, please see the following link.

Supercomputers

【受賞】原田准教授が第 50 回 構造活性相関シンポジウムSAR Presentation Awardを受賞

原田准教授が、2022年11月10-11日にオンラインで開催された第 50 回 構造活性相関シンポジウム(主催:日本薬学会・構造活性相関部会)において優秀発表賞(SAR Presentation Award)を受賞しました。
 
発表タイトル:化合物の膜透過プロセスを紐解く自由エネルギー計算手法の開発
著者:原田隆平, 森田陸離, 重田育照
 
 
 
 

[ウェブリリース] 薬剤の膜透過メカニズムを解明する計算手法を提案

2022年12月28日
筑波大学 計算科学研究センター

概要

病気の原因となるタンパク質に薬剤が結合し作用するためには、薬剤が生体外から様々なステップを踏んで生体内へ取り込まれる必要があります。中でも、細胞膜を通り抜けて細胞内に侵入する過程は重要であり、この膜透過メカニズムの解明は効率よくはたらく薬剤をデザインする上で重要です。膜透過のプロセスを精度良く調べるための計算科学的手法として、分子動力学計算(MD)に期待がかけられています。MDは薬剤がどのように膜を透過するのかを原子レベルで解明する可能性を持ちます。しかし、薬剤が膜透過するプロセスをMDで観察するには秒(100 s)以上の時間スケールを必要とするのに対して、現状のMDでは長くてもマイクロ秒(10-6 s)程度のシミュレーションを行うのが限界です。そこで本研究では、計算手法を工夫することにより現実的な計算コストで膜透過のプロセスを観察することに成功しました。それにより、膜透過性を定量的に示す膜透過係数を精度良く見積もることができました。

研究内容と成果

MDで観測可能な時間の間に薬剤はごく低い確率で膜を透過します。そのため従来の手法では、長時間のMDを行って運良く膜透過プロセスが観察されるのを待つしか無く、不確実性が高く効率も良くないという問題がありました。私達のグループでは、これまで開発してきたオリジナルの計算手法(PaCS-MD(注1)、OFLOOD(注2))を活用することで、MDの問題点の解決を目指しました。これらの計算手法は①短い時間のMDを繰り返し行い、②良い初期状態を抽出する、という特徴があります。本手法では、良い初期状態、つまり膜透過しそうな構造を選び出して短時間MDを繰り返すことによって、従来の手法では観察困難な膜透過プロセスを効率よく抽出することができます。
実際に計算性能を評価するために7種類の薬剤について膜透過プロセスを抽出しました。この時、多数の短時間MDを統計的に処理することによって膜透過の効率を定量的に示す膜透過係数を算出したところ、7種類すべての薬剤について実験値と計算値が高い一致を示しました。このことから、私達の開発した手法を適用することにより現実的な計算コストで薬剤の膜透過プロセスを抽出でき、同時に膜透過係数を精度良く見積もることができることが示されました。

今後の展開

予測される研究展開としては、中分子医薬の開発に貢献することが期待できます。環状ペプチド(注3)をはじめとする中分子医薬品は、薬効が高く製造コストが低いという多くの利点を持つことから次世代の医薬品として期待されています。環状ペプチドは従来の医薬品と比べてフレキシブルな構造をとるため、分子のダイナミクスによる影響を観測できるMDを利用することで、膜透過プロセスを詳細に理解することができます。これにより膜透過性が高い環状ペプチドの評価とそのメカニズムを調べることができれば、実験に先立って創薬設計の指針を提供することができ、中分子医薬品の発展に大きく貢献することが期待されます。

図1:薬剤の膜透過プロセスは、分子シミュレーションによって評価できる。
図1:薬剤の膜透過プロセスは、分子シミュレーションによって評価できる。

 

図2:本研究で開発した計算手法の概略図。計算コストを必要とする従来法と比較して、膜透過プロセスを効率的に抽出できる。
図2:本研究で開発した計算手法の概略図。計算コストを必要とする従来法と比較して、膜透過プロセスを効率的に抽出できる。

 

用語解説

注1)PaCS-MD:短時間のMDを繰り返しながら、最適な構造を選び続けることで効率よくタンパク質の構造変化を抽出する計算手法

注2)OFLOOD:短時間のMDを繰り返しながら、未知の構造(外れ値)を探索し続けることで多様な構造を抽出する計算手法

注3)環状ペプチド:タンパク質はアミノ酸が直鎖としてつながったものであるが、アミノ酸が環状につながった化合物。生体内での安定性が高く、標的への特異性が高いことから代表的な中分子医薬品として注目されている。

研究資金

本研究は、科研費(21K06094)、住友財団(基礎科学研究助成)、筑波大学計算科学研究センター学際共同利用プログラムによって実施されました。

掲載論文情報

【題 名】 Free-energy Profiles for Membrane Permeation of Compounds Calculated Using Rare-Event Sampling
【著者名】 Ryuhei Harada, Rikuri Morita, Yasuteru Shigeta
【掲載誌】 Journal of Chemical Information and Modeling
【掲載日】 2022年12月28日
【DOI】      DOI: 10.1021/acs.jcim.2c01097
https://pubs.acs.org/doi/10.1021/acs.jcim.2c01097

 

プレスリリース全文はこちら

 

 

 

The University of Tsukuba announces plans for a New Big Memory Supercomputer “Pegasus” featuring upcoming 4th Gen Intel Xeon Scalable Processors, NVIDIA H100 PCIe GPU and Intel Optane Persistent Memory

 

Highlights

  • Plans to build with 4th Gen Intel Xeon Scalable processors (formerly codenamed Sapphire Rapids), NVIDIA H100 Tensor Core GPU with PCIe and 51TFlops of extreme performance, and Intel Optane persistent memory (codenamed Crow Pass) will strongly drive big data and AI
  • The world’s first system with NVIDIA H100 GPUs connected via PCIe Gen5
  • The first system announced in Japan that will utilize NVIDIA Quantum-2 400Gb/s InfiniBand networking

 

Tsukuba, Japan – December 22, 2022 – The Center for Computational Sciences at the University of Tsukuba announces plans for a new big memory supercomputer Pegasus manufactured by NEC.  The new supercomputer will be one of the first systems in the world to introduce 4th Gen Intel Xeon Scalable processors (formerly codenamed Sapphire Rapids), Intel Optane persistent memory (codenamed Crow Pass), and the NVIDIA H100 Tensor Core GPU with 51TFlops of breakthrough acceleration.

NVIDIA H100 PCIe GPU is the latest GPU announced in March, 2022 with a theoretical peak performance of 51 TFlops in double precision floating point operations.  Pegasus is the first to offer the latest high-bandwidth PCIe Gen5 connection to H100 GPU. Networking utilizes the latest NVIDIA Quantum-2 400 Gb/s InfiniBand networking platform with advanced in-network computing acceleration engines. Utilizing the world’s newest technology such as the Memory bandwidth and I/O bandwidth increased by DDR5 and PCIe Gen5, the University of Tsukuba will strongly support HPC, big data and AI.

To drive big data analytics and ultra-large scale AI, not only high computing performance is required, but also high-bandwidth large memory and ultra-fast storage systems; Pegasus has introduced H100 GPUs, DDR5 memory, and persistent memory to solve this problem. The H100 GPU is 2.7 times faster in computing performance than the current A100 GPU, and DDR5 memory provides twice the memory bandwidth of conventional DDR4 memory. The Center of Computational Sciences has been offering solutions with Intel Xeon processors and Intel Optane persistent memory since 2020 to research partners.  Based on previous generations of Intel Optane persistent memory, allowing direct access to persistent data structures has potential to significantly improve application performance.  In addition, unlike DRAM, persistent memory does not require refresh to retain data, thus dramatically reducing power consumption compared to DRAM of the same capacity.  Moreover, memory expansion with persistent memory enables calculations with memory sizes that exceed DRAM capacity, and the performance of computational science applications remains largely unchanged.

The effectiveness of compute accelerators (GPUs) in HPC, data-driven science, and AI-driven science has already been demonstrated, and Pegasus has been designed to incorporate state-of-the-art CPUs, GPUs, memory, and persistent memory, connected via a state-of-the-art network.

Pegasus consists of 120 compute nodes, and the overall theoretical peak performance of the GPU part alone exceeds 6.1 PFlops. The Center for Computational Sciences at the University of Tsukuba, as a Joint Usage / Research Center, will make Pegasus available to users around the world through various usage programs such as Interdisciplinary Collaborative Use, HPCI Collaborative Use, and General Use, thereby contributing to the further development of computational science.

 

“Big data and AI applications are one of the most important research topics in addition to the high performance computational sciences which we have been focusing on so far. Introducing a new machine with a large-capacity memory system and high-performance AI processing should be our new tools to expand our research field toward excellent data science,” said Taisuke Boku, Director of the Center for Computational Sciences, the University of Tsukuba.

 

“Data-driven and AI-driven science requires large memory size and storage performance, but memory capacity per CPU core has decreased for a decade,” said Osamu Tatebe, professor at the Center for Computational Sciences, the University of Tsukuba.  “That is why we introduce NVIDIA H100 PCIe GPU, DDR5, and persistent memory in compute nodes to accelerate large-scale data analysis and big data for better cost performance, power consumption, and application performance.  Also, we foster new fields of large-scale data analysis, new applications of big data AI, and system software research.”

 

“NEC is very honored to announce that the Center for Computational Sciences at the University of Tsukuba adopted NEC LX-Series as their new supercomputer,” said Yasuo Mogaki, Managing Director, NEC Advanced Platform Division.  “This system is World’s first system that delivers revolutionary acceleration applying Intel’s next generation Xeon CPU, Optane memory and NVIDIA’s H100 GPU.  NEC will contribute to advanced computational science by combining our technological capabilities.”

 

“We are very excited that the University of Tsukuba plans to build their new supercomputer with the upcoming 4th Gen Intel Xeon Scalable processor and Optane persistent memory 300 series, showcasing the value that Intel Architecture brings to high performance computing” said Don Cunningham, Vice President & General Manager, Data Center and AI Group at Intel.

 

“As supercomputing enters the era of exascale HPC and AI, NVIDIA enables researchers to tackle massive challenges using NVIDIA H100 GPUs,” said Ian Buck, vice president of Hyperscale and HPC at NVIDIA. “The selection by the University of Tsukuba will enable researchers to deliver the same AI performance with 3.5x more energy efficiency and 3x lower total cost of ownership.”

 

“It is our great pleasure to support the innovative Pegasus project at Tsukuba University. We look forward to working with the team at Tsukuba University towards better integrating emerging memory architectures and node-local persistent storage solutions with global shared storage” said Robert Triendl, President of DataDirect Networks Japan, Inc.

 

Planned Specifications

System name

Pegasus

Manufacture

NEC

Total performance

> 6.1 PFlops

Number of nodes

120

Interconnects

Full bisection fat-tree network interconnected by the NVIDIA Quantum-2 InfiniBand platform

Parallel file system

7.1PB DDN EXAScaler (40 GB/s throughput)

Compute node

CPU

4th Gen Intel Xeon Scalable processor formerly codenamed Sapphire Rapids (48c)

GPU

NVIDIA H100 Tensor Core GPU with PCIe Gen5 (51 TFlops in FP64 Tensor Core, 80GB HBM2E, 2 TB/s)

Memory

128GiB DDR5 (282 GB/s)

Persistent memory

Intel Optane persistent memory (codenamed Crow Pass)

SSD

2 x 3.2TB NVMe SSD (7 GB/s)

Networking

NVIDIA Quantum-2 InfiniBand platform (200 Gb/s)

 

About the Center for Computational Sciences, the University of Tsukuba

For more information, go to www.ccs.tsukuba.ac.jp

 
*Intel, the Intel logo, and other Intel marks are trademarks of Intel Corporation or its subsidiaries.

ビッグメモリスーパコンピュータPegasusの試験稼働開始 〜第4世代Intel Xeon、NVIDIA H100 PCIe GPU、Intel不揮発性メモリを搭載〜

2022年12月22日
国立大学法人 筑波大学

概要

筑波大学計算科学研究センターは、新たなスーパコンピュータPegasus(ペガサス)の試験稼働の開始を発表しました。演算性能、メモリ帯域幅注1)、メモリサイズを大きく向上させ、計算科学のみならずビッグデータ解析、超大規模AI分野を強力に推進します。
Pegasusに搭載される演算加速装置(GPU)は、倍精度浮動小数点演算注2)における理論ピーク性能が51 TFlops注3)(従来よりも2.7倍高速)であり、CPU(中央演算処理装置)と高帯域幅のPCIe Gen5注4)により世界で初めて接続されます。DDR5メモリ注5)(従来よりも約2倍高速)、不揮発性メモリ注6)を搭載し、大容量メモリまたは超高速ストレージとしての利用が可能です。また、ネットワークについても最新の400Gbpsネットワークプラットフォームを利用します。
Pegasusは120ノードの計算ノードで構成され、全体の理論ピーク性能はGPU部分だけでも6.1 PFlopsを超えます。筑波大学計算科学研究センターは、共同利用・共同研究拠点として、学際共同利用、HPCI注7)共同利用、一般利用などの各種利用プログラムにより、Pegasusを全世界のユーザに提供し、さらなる計算科学の発展に寄与します。

 プレスリリース全文はこちら

仕様 

システム名称

Pegasus

製造

NEC

全体性能

> 6.1 PFlops

ノード数

120

ネットワーク

NVIDIA Quantum-2 InfiniBandプラットフォームによるフルバイセクションファットツリーネットワーク

並列ファイルシステム

7.1PB DDN EXAScaler (帯域幅40 GB/s)

計算ノード

CPU

第4世代Intel Xeonスケーラブルプロセッサ(旧コードネームSapphire Rapids)(48コア)

GPU

NVIDIA H100 PCIe GPU (FP64テンソルコア演算51 TFlops、80GB HBM2E、2 TB/s)

メモリ

128GiB DDR5 (282 GB/s)

不揮発性メモリ

Intel Optane不揮発性メモリ(コードネームCrow Pass)

SSD

2 x 3.2TB NVMe SSD (7 GB/s)

ネットワーク

NVIDIA Quantum-2 InfiniBandプラットフォーム (200 Gbps)

 

本スーパコンピュータについてのコメント 

筑波大学計算科学研究センター長 朴泰祐教授
「ビッグデータやAIは、これまで注力してきた高性能計算科学と並ぶ重要な研究テーマの一つです。大容量メモリと高性能なAI処理機能を備えた新型マシンを導入することで、優れたデータサイエンスに向けて研究領域を拡大するための新たなツールとなるはずです。」

筑波大学計算科学研究センター高性能計算システム運用開発室長 建部修見教授
「データ駆動型科学やAI駆動型科学では、これにより、消費電力を抑えつつコストパフォーマンスに優れながら、高帯域の大容量メモリ、超高速ストレージの要求を満たすことができ、アプリケーション性能の向上が図れます。 また、不揮発性メモリを活用した大規模データ解析の新分野、ビッグデータ・AIの新用途、システムソフトウェア研究なども育成していきます。」

NEC先端プラットフォーム事業部門マネージングディレクター 茂垣泰夫氏
「この度、筑波大学計算科学研究センター様がビッグメモリスーパコンピュータシステムとして、当社のLXシリーズを導入いただきまして、大変光栄です。今回のシステムは、Intelの次期 Xeon CPU、次期 Optane 不揮発性メモリ、NVIDIAの最新GPUからなる、画期的なアクセラレーションを実現する世界初のシステムであり、当社が持つ技術力を結集して、先進的な計算科学に貢献してまいります。」

IntelデータセンタAIグループVP兼GM ドンカニングハム氏
「筑波大学が、今後発売予定の第4世代インテルXeonスケーラブルプロセッサとOptane不揮発性メモリ300シリーズで新しいスーパコンピュータの構築を計画していることを大変うれしく思っております。これはIntelアーキテクチャが高性能コンピュータにもたらす価値を実証しています。」

NVIDIAハイパースケールとHPC VP イアンバック氏
「エクサスケールHPCとAIの時代に突入する中、NVIDIAはNVIDIA H100 GPUを使用して研究者が大規模な課題に取り組むことを可能にします。筑波大学が採用したことで、研究者は同じAIパフォーマンスを3.5倍のエネルギー効率と3倍の総所有コスト削減で実現できるようになります。」

株式会社データダイレクト・ネットワークス・ジャパン 代表取締役社長 ロベルト・トリンドル氏
「この度DDNは筑波大学計算科学研究センター様の革新的なPegasusプロジェクトをご支援できることを大変光栄に思います。
筑波大学のチームの皆様と協力して、新しいメモリアーキテクチャとローカルノードにおける永続的メモリなどを利用するストレージソリューションをグローバルな共有ストレージとより良い統合を目指すことを楽しみにしています。」

 

 

 

 

研究トピックス「超伝導の新しい理論の提案 そして量子コンピュータへ」と「謎の粒子ニュートリノの質量解明に迫る2重ベータ崩壊」を公開

計算科学研究センター(CCS)に所属する教員・研究員の研究をわかりやすく紹介する「研究者に聞く− 研究トピックス」に「Vol.8 超伝導の新しい理論の提案 そして量子コンピュータへ」と「Vol.9 謎の粒子ニュートリノの質量解明に迫る2重ベータ崩壊」を公開しました。

「研究者に聞く− 研究トピックス」

量子物性研究部門 の小泉准教授の研究を紹介しています。

超伝導の新しい理論の提案 そして量子コンピュータへ

原子核物理研究部門 の日野原助教の研究を紹介しています。

謎の粒子ニュートリノの質量解明に迫る2重ベータ崩壊

謎の粒子ニュートリノの質量解明に迫る2重ベータ崩壊

日野原 伸生 助教

原子核物理研究部門

日野原助教は、原子核物理研究部門の研究者です。先生は、2011年から渡米し海外での研究生活も長く、国際的でグローバルな研究のネットワークを構築しています。原子核物理の研究とは、原子の中心にある陽子や中性子が集団でいるときの複雑な状態を調べることを目的としています。この物理の応用としては、原子力発電、放射性廃棄物をできるだけ寿命を短くする研究、そして放射線治療などがあげられます。原子核物理は、宇宙から現実の生活まで実に幅広い重要性と、応用の可能性がある魅力的な基礎物理なのです。その中で今回取り上げるのは、素粒子のひとつであるニュートリノに関する理論研究です。キーワードは、「2重ベータ崩壊」。何やらすごそうな研究の一端を紹介します。

(2022.11.1 公開)

 

ニュートリノの質量解明に向けた基礎物理

私たちも、身の回りの物質も、すべて素粒子からできています。

では皆さん、「ニュートリノ」という素粒子をきいたことがありますか。日本人のノーベル賞受賞者である、故小柴昌俊先生(2002年受賞2020年逝去)と梶田隆章先生(2015年受賞)が取り組んでいたこのニュートリノは、放射線などで有名な放射性元素と深く関係しています。

ベータ崩壊(注1という現象は、中性子が崩壊するもので、その際にニュートリノが放出されます。ただしニュートリノは非常に透過性が高い粒子で、日常も宇宙から常に降り注いでいますが、私たちにはなんの影響もありません。なんと私たちの身体にも毎秒1兆個ものニュートリノが貫通しているんですって。

そんなちょっと不思議なニュートリノですが、質量の謎が素粒子の未解決テーマとして残っています。質量階層性問題(注2というもので、簡単に言うと、3種類あるニュートリノ同士の質量モデルの候補が2つあり、どちらが正しいのか絞りきれない状況にあります。最後の決定打が観測的に得られていないのです。そこで重要になるのが、ニュートリノが関係する2重ベータ崩壊という現象です。さきほどのベータ崩壊を同時に2回起こすことに相当します。

図1:ゲルマニウムの元素が崩壊していく様子を描いています。ベータ崩壊は崩壊した先の原子のエネルギーが高いので崩壊は起きず、二重ベータ崩壊が起こる場合の一例です。

 

ニュートリノの質量に制限をつける仕組み!

日野原助教は、ニュートリノがマヨラナ粒子(注3であると仮定したときの、2重ベータ崩壊について、専門用語の説明だけではなかなかわかりにくいテーマですが、ある原子核の崩壊について計算し、それを実験と照らし合わせると、ニュートリノの質量がわかるという原理を用いています(図2)。

図2:半減期と質量の関係を表している。数式中の色分けした四角は、青が半減期の逆数、黄色が位相因子、緑が行列要素、最後のオレンジ色がニュートリノの質量を表している

 

日野原助教は、基本的にこの数式の原子核行列要素、つまり簡単にいうと原子核の崩壊によってある原子核が他の原子核へと変わる確率(崩壊における遷移確率)を計算しています。この原子核行列要素と、「放射性元素の半減期」を比較することで、数式の残りの部分である、「ニュートリノの質量」に制限をつけることができるという仕組みです。

元素は、中央にある原子核の内部に、陽子と中性子を複数もっています。ある陽子の数に対して、中性子の数だけが違うものを同位体(注4といいます。これらは質量が異なります。たとえばゲルマニウムの安定同位体には、5種類あり、それぞれ陽子数は32で同じですが、中性子の数が38、40、41、42、44と異なります。このうち、最後のものはもっとも不安定ですが、10の21乗年(注5というケタ外れに長い時間(宇宙の現在の年齢よりもはるかに長い)をかけて2重ベータ崩壊をします。

一見、このような長い半減期を測定するのは困難に思えます。これに対して世界中で測定する元素の量をふやすなど様々な工夫をすることで、実現しようとしています。

ニュートリノがマヨラナ粒子でなくても起きる二重ベータ崩壊は実験で測定されており、日野原先生の計算した結果が、図3です。原子核行列要素の計算として、計算値と実験値の比較が載っています。

多少のばらつきはありますが、よく実験を再現する結果が得られています。今後はこれらのばらつきの原因を突き止めてより精密な値を計算したいと意気込んでいます。

図3:ニュートリノを2つ放出する二重ベータ崩壊の原子核行列要素の理論計算値と実験値の比較です。測定された半減期から導出された実験値(黒)とパラメータを変えた様々な理論計算値の範囲(赤色・水色)を示しており、右側の質量数の大きい原子核では理論計算で実験値が説明できていますが、左側の質量数の小さい原子核では理論計算値とのずれが見られます

 

用語

1)ベータ崩壊:中性子が陽子に崩壊する現象として、ベータ線という高速の電子と、反電子ニュートリノを放出する現象。

2)質量階層性問題:ニュートリノには、3つの種類があり、それぞれの質量(正確には質量固有状態)が混ざり合っているという不思議な性質を持っています。しかしこの質量固有状態のそれぞれの質量の値がわかっていません。3つのうちどれがもっとも軽く、どれが重いのかという順番もわかっていません。これを質量階層性問題と言って、素粒子標準理論の最後の課題として残っています。

3)マヨラナ粒子:素粒子はフェルミオンという物質を構成する粒子が代表的です。たとえばクォークや電子です。これらはディラック方程式というものに従っています。この理論では、粒子とその相方である反粒子という別の粒子が、異なる振る舞いをします。しかし近年、ニュートリノの不思議な性質を研究する上で、ニュートリノは粒子・反粒子が同じ、特殊な状態にあるのではないかという仮説がでてきました。この仮説に基づいて、粒子と反粒子が同じである素粒子をマヨラナ粒子といいます。

4)同位体:(ラジオ)アイソトープともいいます。放射性元素の種類の説明でよく登場します。原子番号が同じ(つまり陽子数が同じ)で、質量数が異なるもの(つまり中性子数が異なるもの)をさします。

5)10の21乗年:大きい数字の対応を列記します。10の12乗=1兆、10の15乗=1000兆、10の18乗=100京、10の21乗(英語では1ゼタ)=10垓、となるので、10の21乗年は10垓年

さらに詳しく知りたい人へ

2022 EPCC-CCS ワークショップ

*今年の EPCC-CCS workshop は、3年ぶりに対面での開催となります。
今年の開催地はエジンバラ大学EPCCです。

Date: December 14th (Wed) – 15th (Thu), 2022

Venue: EPCC, the University of Edinburgh

 

DAY 1 40 George Square Lecture Theatre A
start end CCS/EPCC Speaker Title
10:00 10:30 EPCC   EPCC Introduction/UK Exascale project
10:30 11:00 CCS Taisuke Boku CCS Research Activity Update
11:00 11:15 BREAK    
11:15 11:45   Osamu Tatebe Persistent Memory Supercomputer Pegasus for Data-driven and AI-driven Science
11:45 12:15   Adrian Jackson Filesystem performance on persistent memory hardware
12:15 13:45 LUNCH    
13:45 14:15   David Henty Parallel I/O performance on ARCHER2
14:15 14:45   Quang Van Doan New normal of local climate under global warming: an application of high-resolution climate modeling
14:45 15:15   Andrew Turner HPC-JEEP: HPC system energy and power monitoring for Net Zero infrastructure
15:15 15:30 BREAK    
15:30 16:00   Ryuhei Harada Developements of Efficient Molecular Simulation Methods for Elucidating Biological Function of Protein
16:00 16:30   Yuji Ingaki A factor that hinders the accurate phylogenetic inferences: The monophyly of Archaeplastida as a case study.
16:30 17:00   George Beckett Survey Astronomy in the Big Data Era with LSST

 

DAY 2 Bayes Centre Room G.03
start end CCS/EPCC    
9:30 10:00 CCS, on-line Alexander Wagner The extreme physics of galaxy evolution: CFD simulations of relativistic jets and radiation interacting with highly compressible astrophysical gases
10:00 10:30 CCS, on-line Kazuhiro Yabana Development and applications of SALMON: first-principles computations in optical science
10:30 10:45 BREAK    
10:45 11:15   Nick Brown FPGA AI engines for stencil based codes
11:15 11:45      
11:45 12:15      
12:15 13:30 LUNCH    
13:30 16:00 Visit to the ACF    

2022 EPCC-CCS Workshop

This year’s EPCC-CCS workshop will be the first in-person in three years!

Date: December 14th (Wed) – 15th (Thu), 2022

Venue: EPCC, the University of Edinburgh

 

DAY 1 40 George Square Lecture Theatre A
start end CCS/EPCC Speaker Title
10:00 10:30 EPCC   EPCC Introduction/UK Exascale project
10:30 11:00 CCS Taisuke Boku CCS Research Activity Update
11:00 11:15 BREAK    
11:15 11:45   Osamu Tatebe Persistent Memory Supercomputer Pegasus for Data-driven and AI-driven Science
11:45 12:15   Adrian Jackson Filesystem performance on persistent memory hardware
12:15 13:45 LUNCH    
13:45 14:15   David Henty Parallel I/O performance on ARCHER2
14:15 14:45   Quang Van Doan New normal of local climate under global warming: an application of high-resolution climate modeling
14:45 15:15   Andrew Turner HPC-JEEP: HPC system energy and power monitoring for Net Zero infrastructure
15:15 15:30 BREAK    
15:30 16:00   Ryuhei Harada Developements of Efficient Molecular Simulation Methods for Elucidating Biological Function of Protein
16:00 16:30   Yuji Ingaki A factor that hinders the accurate phylogenetic inferences: The monophyly of Archaeplastida as a case study.
16:30 17:00   George Beckett Survey Astronomy in the Big Data Era with LSST

 

DAY 2 Bayes Centre Room G.03
start end CCS/EPCC    
9:30 10:00 CCS, on-line Alexander Wagner The extreme physics of galaxy evolution: CFD simulations of relativistic jets and radiation interacting with highly compressible astrophysical gases
10:00 10:30 CCS, on-line Kazuhiro Yabana Development and applications of SALMON: first-principles computations in optical science
10:30 10:45 BREAK    
10:45 11:15   Nick Brown FPGA AI engines for stencil based codes
11:15 11:45      
11:45 12:15      
12:15 13:30 LUNCH    
13:30 16:00 Visit to the ACF    

Job opening of Assistant professor with a fixed term appointment (Deadline Dec.5th JST)

Division of Computational Informatics, Center for Computational Sciences (CCS), University of Tsukuba invites a full-time (non-tenured) faculty position as described below.

[Title]
Assistant professor with a fixed-term appointment

[Research field]
Database, data engineering, and big data technology

[Content of work]
The Database Group, Division of Computational Informatics, Center for Computational Sciences (CCS), University of Tsukuba, has been conducting a research project entitled “A Verifiable Data Ecosystem” as a part of JST CREST “Society 5.0 System Software” area.  In this project, we study and develop a verifiable data ecosystem that supports data and its reliability/lineage and makes it possible to verify arbitrary data for system software in Society 5.0 in a collaboration of six research groups in five universities in Japan.

We invite applications from database and data engineering researchers, including big data and data mining, who are interested in doing research and development about the techniques for metadata management, including reliability and lineage, in this project.

[Starting date]
As soon as possible after a hiring decision is made (negotiable).

[Terms of employment]
Full-time, possible to renew annually on March 31 until 2027, upon evaluation of the progress. The annual salary will be determined based on the regulations of the University, taking into account the employee’s career.

[Qualifications]
An applicant needs to have a Doctoral Degree or Ph. D at the start of employment.

[Application materials]
(1) Curriculum Vitae (with a photograph and email address)
(2) List of research activities (The list must be categorized into refereed journals, refereed conferences/workshops, books, other presentations, patents, awards, and competitive research funds. List all authors of co-authored papers/books.  For the five major papers (cf. item (6)), it is recommended to denote the impact factor, the number of citations, the acceptance rate, etc.)
(3) Summary of research activities (up to about 1000 words)
(4) Research plan after the appointment (up to about 1000 words)
(5) Contact information of two references (name, affiliation, and email address)
(6) Reprints of five major papers published within the last five years (one may be published earlier than five years.)
(7) Self-declaration on specific categories (the prescribed form can be downloaded from https://www.ccs.tsukuba.ac.jp/reqdocuments/ )
(8) Consent for the handling and extraterritorial transfer of personal data in accordance with the EU-General Data Protection Regulation (GDPR) (*Submit this form only if you are a resident of the member
 countries of the European Economic Area or the United Kingdom, the prescribed form can be downloaded from https://www.ccs.tsukuba.ac.jp/reqdocuments/ )

[Selection process]
After screening the application documents, qualified applicants will be invited to an online interview in Japanese or English.

[Deadline for application]
23:59 (JST), December 5, 2022.

[Who to make contact]
Prof. Toshiyuki Amagasa
Center for Computational Sciences, University of Tsukuba
Phone: +81-29-853-6497, e-mail: amagasa_AT_cs.tsukuba.ac.jp
(Replace “_AT_” by “@”.)

[Where to submit]
Put the documents (1)-(5)/(7)-(8) in a single encrypted PDF file, and please submit it along with the PDF files of (6) as attachments to an email addressed to:
 koubo-dcidb _AT_ ccs.tsukuba.ac.jp (Replace “_AT_” by “@”.)
Please send the PDF’s password to the email address described in “[Who to make contact]”.
– Please write “Application for Assistant Professor Position in Database Group” in the subject.
– Please contact “[Who to make contact]” before submission if the file size exceeds 10MB.
– Please contact “[Who to make contact]” if you do not receive any response within two days after submission.

[Miscellaneous]
1) The personal information in the application documents will be used solely for selection. After the selection, all the personal information will be properly deleted.
2) The Center for Computational Sciences has been approved as a Joint Collaborative Research Center by the Ministry of Education, Culture, Sports, Science and Technology. We promote interdisciplinary
 computational sciences, including joint use of our supercomputer systems. The University of Tsukuba conducts its personnel selection process in compliance with the Equal Employment Opportunity Act.
3) The University of Tsukuba has established “University of Tsukuba Security Export Control Regulations” based on “Foreign Exchange and Foreign Trade Act”, and conduct strict examination when employing foreign nationals, persons from foreign universities, companies, government agencies, etc., or persons who fall under a specific category.

計算情報学研究部門(データ基盤分野)助教(任期付)公募 (締切12月5日)

1. 募集人員
助教(任期付) 1名

2. 専門分野
データベース,データ工学およびビッグデータ基盤技術

3. 職務内容
 筑波大学計算科学研究センター*1 計算情報学研究部門データ基盤分野では,JST CREST「S5基盤ソフト」領域採択課題「検証可能なデータエコシステム」を推進中です.本プロジェクトでは,Society5.0のための基盤ソフトウェア技術として,データに付随する信頼度やリネージュ(来歴)をサポートし,任意のデータを検証可能なデータエコシステムの研究開発を,国内5大学の6研究グループで連携して行います.
 本公募では,ビッグデータ・データマイニングを含むデータベース・データ工学の研究領域を専門とし,本プロジェクトにおいて,信頼度やリネージュを含むメタデータの管理・運用のための技術開発および実証実験に積極的に取り組んでいただける方を求めます.
*1 計算科学研究センター https://www.ccs.tsukuba.ac.jp

4. 着任時期
決定後できるだけ早い時期(応相談)

5. 任期
年度更新,最長2028年3月31日まで

6. 応募資格
博士の学位を有し(着任時期までに取得見込みも可),専門分野において優れた研究業績をお持ちで,上記職務に熱意を持って取り組んでいただける方.

7. 待遇
年俸制(給与等雇用条件は本学の規定による).候補者の職務経験等を加味し,本学規程に基づいて号俸を決定します.

8. 提出書類:
以下の (1)-(6) を電子メールの添付ファイルで提出して下さい.
(1) 履歴書(写真貼付,連絡先と電子メールアドレスを明記)
(2) 研究業績一覧(査読付き学術雑誌論文,査読付き国際会議論文,著書,その他の研究発表,特許,受賞,外部資金獲得実績等に分類したリスト.論文等の共著者名はすべて記入.
なお主要論文(5編以内, (6)参照)については,インパクトファクタ,引用数,採択率等の情報をできるだけ記載すること.)
(3) これまでの研究実績の概要(1,500字程度)
(4) 着任後の研究計画と自己アピール(1,500字程度)
(5) 意見を求めうる方2名の氏名・所属・連絡先
(6) 主要論文別刷(5編以内,うち4編以上は最近5年以内のもの)
(7) 特定類型自己申告書
 本学所定様式 https://www.ccs.tsukuba.ac.jp/reqdocuments/
(8) EU―般データ保護規則(GDPR)に基づく個人データの取扱い及び域外移転に関する同意書(※欧州経済領域の構成国及び英国在住者のみ)
 本学所定様式 https://www.ccs.tsukuba.ac.jp/reqdocuments/

9. 選考方法
提出書類に基づいた書面選考を実施し、通過者は日本語または英語でオンライン面接を行います。

10. 応募締切
2022年12月5日(月)必着

11. 照会先
筑波大学 計算科学研究センター計算情報学研究部門 教授 天笠俊之
Tel: 029-853-6497 / E-mail: amagasa _AT_ cs.tsukuba.ac.jp
(_AT_ を @ に置き換えてください.)

12. 応募書類送付先
提出書類の (1)-(5), (7)-(8) を一つのPDFファイルにまとめパスワードをかけ,(6) の各論文のPDFファイルとともに電子メールの添付ファイルとして,
 koubo-dcidb _AT_ ccs.tsukuba.ac.jp (_AT_ を @ に置き換えてください.)
までお送りください.PDFファイルのパスワードは,「11. 照会先」までにお送りください.
・メールの件名は,「データ基盤分野応募書類」としてください.
・ファイルサイズの合計が10MBを超える場合は,事前に照会先までご相談ください.
・メール送信後,二日以内に受領確認のメールが届かない場合は照会先までご連絡ください.

13. その他
(1) 応募書類に含まれる個人情報は,本人事選考のみに使用し,他の目的には一切使用しません.選考終了後はすべての個人情報を適切に破棄します.
(2) 計算科学研究センターは,文部科学省共同利用・共同研究拠点に認定されており,計算機共同利用を含む学際計算科学を推進しています.筑波大学では男女雇用機会均等法を遵守した人事選考を行っています.
(3) 本学では、「外国為替及び外国貿易法」に基づき、「国立大学法人筑波大学安全保障輸出管理規則」を定め、外国人、外国の大学・企業・政府機関等出身者又は特定類型該当者の雇用に際し厳格な審査を実施しています。

超伝導の新しい理論の提案 そして量子コンピュータへ

小泉 裕康 准教授

量子物性研究部門

超伝導という現象を教科書的に説明するとき、BCS理論という理論が使われます。しかしこの理論には、証明がされていない、実験と矛盾するなどの問題点も含まれています。小泉准教授は全く別の観点から、より矛盾のない理論の構築に取り組んでいます。 

(2022.10.24 公開)

 

超伝導を説明する全く新しい理論

超伝導とは電気抵抗ゼロで電流が流れる現象のことで、1911年に初めて発見されました。その発見から40年以上経った1957年、バーディーン、クーパー、シュリーファーという3人の物理学者によって、超伝導を説明するBCS理論が提案されました。それぞれの頭文字をとったこの理論によって、3人は1972年のノーベル物理学賞を受賞しています。しかし、BCS理論には登場当初からいくつかの問題点が指摘されていました。特に1986年に液体窒素温度を超える高温領域で超伝導を示す物質として銅酸化物が発見されたことで、BCS理論では説明しきらない超伝導現象があることがわかってきました。

例えばBCS理論では、互いに逆方向のスピンを持つ2つの電子がまるで1つの電子のように振る舞う“クーパー対”が形成されると考えます。このクーパー対の流れである超伝導電流は、電気抵抗なしで流れることができ、言い換えればこのクーパー対の形成こそが超電流のメカニズムであるということになります。超伝導状態から常伝導状態(電流が流れる際に電気抵抗がある状態)へ移行するときには、電子対が破壊されて普通の電子となり、熱が発生するはずです。ところが、実験では超伝導電流は熱を発生せずに消失することが証明されています。

現在主流のBCS理論が実験結果と矛盾することから、超伝導現象には未知のメカニズムが隠されている可能性が高いと考えられます。

小泉先生は、こうした問題点を解決するべく新しい理論の研究を続けてきました。そのうちの一つが、ベリー位相と呼ばれる量子力学的効果を取り入れた理論です。

 

ループ電流の研究、そして量子コンピュータへの発展

小泉先生は、数式で表された理論とすでに証明されている実験との整合性を考察し、新しい実験結果を予言するという理論物理学的な手法で研究を進めています。BCS理論で実験と矛盾していた「熱」の発生について解決すべく、超伝導のもつエネルギーの他に磁場のもつエネルギーがどのように作用するのかを検討したところ、ある種のスピン軌道相互作用1)によって波動関数2)の位相が変化することで多数のループ電流が発生することを導き出しました。このループ電流の集まりが超伝導状態を生み出すと考えることで、これまでのBCS理論では解決できなかったさまざまな問題が説明可能になりました。

図1 標準理論と小泉先生の提唱した新理論の違いを示す概念図

 

ループ電流は文字通り、環状に流れ続ける電流です。特にここでは、時計回りは-1、反時計回りは+1の整数に対応した電流(トポロジカルに保護された電流、と言います)を考えます。こうした電流は、電流のもつ運動エネルギーと外から侵入する磁場のエネルギーが同じになったとき、整数が0となり、熱を発生せずに消失します。この理論によって、BCS理論で課題となっていた「熱」の発生を伴わずに超伝導電流を消失させることが可能になりました。

銅酸化物高温超伝導体では、ループ電流が存在することが実験からも示唆されています。このループ電流が小泉先生の新理論におけるループ電流にあたるのか、実験での証明が待たれます。

 

 

 


【用語】

1)スピン軌道相互作用:電子の持つスピン角運動量と軌道角運動量という二つの物理量の相互作用。

2)波動関数:原子、分子、素粒子などの状態を表すのに用いられる座標の関数。

 

さらに詳しく知りたい人へ

  • 最新の論文
    Schrödinger representation of quantum mechanics, Berry connection, and superconductivity  (シュレディンガー表示による量子力学、ベリー接続、超伝導)
    【著者名】 Hiroyasu Koizumi
    【掲載誌】 Physics Letters A
    【DOI】 https://doi.org/10.1016/j.physleta.2022.128367

 

 

The 30th Anniversary Symposium of the Center for Computational Sciences at the University of Tsukuba [Abstracts]

Preparing for Post-Exascale Computing
Jeffrey S. Vetter (Oak Ridge National Laboratory) 
DOE has just deployed its first Exascale system, so now is an appropriate time to revisit our Exascale predictions from a decade ago. What predictions did we get right, wrong, or omit entirely? Likewise, it is also an appropriate time to start preparing for Post-Exascale Computing. We are seeing a Cambrian explosion of new technologies during this this ‘golden age of architectures;’ however, we are also experiencing a major challenge in preparing software and applications for this new era. In fact, we expect that software will need to be redesigned to exploit these new capabilities and provide some level of performance portability across these diverse architectures. In this talk, I will revisit Exascale predictions, survey these Post-Exascale technologies, and discuss their implications for both system design and software.

 

High Precision Physics from High Performance Computing
Norman H. Christ (Department of Physics, Columbia Univ.)
Experimental measurements at high precision or of rare processes offer information at the frontier of particle physics. Confronting these experimental results with the predictions of the Standard Model may provide the key to understanding today’s outstanding mysteries of Nature from the excess of particles over anti- particles in the Universe to the origin of the Higgs particle’s mass. We will describe some of the current challenging lattice QCD calculations that attempt to make these predictions — some with a precision now below 1% which include the effects of both quantum chromodynamics and electromagnetism.

 

Machine learning and quantum computing in physics research and education
Morten Hjorth-Jensen (University of Oslo/Michigan State Univ.)
Advances in machine learning methods provide tools that have broad applicability in scientific research. These techniques are being applied across the diversity of physics research topics, spanning essentially all fields of physics.  
Combined with recent advances in quantum computing and quantum  technologies, there is a great potential for advances that will facilitate scientific discoveries and societal applications. In this talk I will try to emphasize research directions that focus on solving quantum mechanical many-body problems using both machine learning algorithms as well as algorithms from quantum computing. I will also try to outline how to improve our basic physics education by introducing machine learning and quantum computing algorithms in our undergraduate and graduate physics education. 

 

Computics approach to development of the next-generation semiconductor science
OSHIYAMA Atsushi (Nagoya University)
Computics is a word I have made to express interdisciplinary collaboration between materials science and computer science (http://computics-material.jp/index-e.html). I will explain such efforts to develop a real-space scheme of the density-functional-theory (DFT) calculations and also a neural-network-assisted DFT scheme which shows the linear scaling to the system size N. These schemes are applied to the issues in semiconductor science. In this talk, I will discuss the physics and chemistry of the lattice vacancy in silicon nitride which is speculated but not yet clarified to be a principal element of the flash memory. An important role of the floating electron state peculiar in sparse materials is emphasized.

 

Persistent Memory Supercomputer Pegasus for Data-driven and AI-driven Science
TATEBE Osamu (Univ. Tsukuba)
This talk introduces a new Pegasus persistent memory supercomputer for data-driven and AI-driven science.  It will be the world’s first system to introduce next generation Xeon CPU, next generation Optane persistent memory and H100 Tensor Core GPU connected with InfiniBand NDR networks.  Each compute node has more than 2 TB memory space to strongly support large-scale data analysis in Big Data and AI.  This talk also introduces research activities of caching file system exploiting the node-local persistent memory.  It provides highly scalable file data and metadata performance, and accelerates the storage performance of HPC applications and data analysis in Python without any modification of the code.

 

Simulating the Evolution of the Universe and the Emergence of its Non-linear, Multi-scale, Interconnected Structures
Andreas Burkert (Ludwig-Maximilians Universität München)
Recent observations and numerical simulations have revolutionized our understanding of the evolution of the Universe. We now know that all structures in the Universe are intimately coupled by a universal cosmic flow of matter that starts in the cosmic web and that ends in protoplanetary disks and planets. Dark matter dominates the cosmic web the largest structure in the Universe with dimensions of millions of light years. The cosmic web, in turn, results from tiny quantum fluctuations within the Big Bang. Galaxies form at its nodes and are fed by gas inflows from the web. This inflow regulates galaxy evolution and generates a new web-like structure, the filamentary molecular interstellar medium. In these filaments dense cores of molecular gas form that condense into stars. Gas flows from the filaments penetrate deep into the collapsing cores and feed gas directly into protoplanetary disks, triggering planet formation. In my talk I will discuss progress and open puzzles in understanding our multi-scale, interconnected Universe.

 

Using and developing bioinfomatics in deep level phylogenomic reconstructions
Matthew Brown (Mississippi State University)
Recent advances of both sequencing technologies and sequence library production have revolutionized the fields of genomics and transcriptomics. With these new technologies, we are now able to examine the expression profiles of cell types at developmental stages. We are also able to use single cell RNAseq to robustly examine the evolutionary positions of organisms that are rare and or difficult to culture. Here I detail the methodologies, pitfalls, costs, and benefits associated with the production of such data. I also provide several case studies of the use of this technology for both types of experiments. We apply these ultra-low input RNAseq methods to phylogenomically examine the deep relationships of many protistan supergroups using a new bioinformatic tool called PhyloFisher, which will be explained. Additionally, with these methods, we examine the developmental pathways using expression profiling of discrete developmental stages of life cycle of aggregatively multicellular amoebae and sporocarpic amoebae that make fruiting bodies individually. Using time-lapse microscopy as well as the methods in single/few cell transcriptomics, we are now able to begin to unlock the developmental program in these slime molds. Here we begin to unravel the developmental program of these disparate taxa to examine if these organisms use underlying homologous.

 

Developing Climate Resilient Cities: From Heat Islands to Digital Twins
Dev Niyogi (University of Texas at Austin, USA)
Cities are complex systems that house more than half of the humanity and are also major emitters of greenhouse emissions. Additionally cities are disproportionately impacted by climatic extremes.  In this changing climate how should we design future cities that are resilient to climatic shocks and how can we use computational approaches to aid that process? Using examples of urban heat island mapping, to rainfall extremes, this presentation will lay the foundation for development of urban digital twins that can aid knowledge co-production, and bridge urban climate with urban planning and engineering solutions for equitable, socioeconomic outcomes.

 

Data Science for the Study of History: from Statistics to Machine Learning 
Chuan XIAO (Osaka University)
Nowadays, data science is an indispensable research methodology for a variety of research fields. While computational methods have been applied to natural sciences for centuries, interest in applying data science to social sciences has grown rapidly in the last few decades, mainly in the name of cliodynamics, quantitative history, and digital history. This talk focuses on the case of using data science in the study of history. I first review the evolution of the use of data science methods in historical research, from early attempts that employed preliminary statistical approaches to the mathematical modeling era, and then to recent advances featuring machine learning technologies. Then, I outline the challenges and future directions in this transdisciplinary area. In particular, the opportunities of using knowledge bases, text mining, and natural language processing techniques will be discussed.