LLZO粒界のLi-rich仮説を“支持”できた。だからこそGPUで仮説検証を高速に回す価値がある¶
結論だけ先に:今回の検証は、
- 「LLZOの粒界(GB)がLi-richになりやすい」傾向は“見えた(仮説を支持する方向)”(Li濃度ピーク比 ≈ 3.14×、過剰面密度 Γ ≈ 15.0 #/nm²)
- 「過剰に入れたLiがGBへ“吸い込まれる”」挙動は“見えなかった(少なくとも今回条件では未支持)”(w=±2.0 Å の2GB帯で、過剰Liの平均 7.29/100、一様分布期待 10.02 に対して 0.73×)
という 誠実な落とし所になりました。
そして重要なのは、この「見えた/見えなかった」を“数日”で切り分けられる計算パイプラインが、電池メーカーのR&Dにとって価値になる点です。
Quantum ESPRESSO(DFT)→ Allegro/NequIP(MLポテンシャル)→ LAMMPS(大規模MD)を、4GPU/8GPUの単一サーバーで“回る形”にしておくと、「次の一手」までの意思決定が速くなります。
H200 NVLで“同じ検証ループ”を回したい方へ(最短で見積もり)
- 対象:LLZO / QE / DeepMD / LAMMPS / NequIP / Allegro(学習・推論・最適化)
- 納品物:動く環境 + 入力ファイル雛形 + 実行手順(Runbook) + 再現チェック
- 相談テンプレ(コピペOK)
①目的(学習/推論) ②原子数(目安) ③目標(ns/day or steps/day) ④予算レンジ
背景:なぜ「粒界Li-rich」が気になるのか¶
固体電解質LLZOでは、粒界がイオン輸送・界面反応・局所的な応力/欠陥と絡み合い、結果として短絡(dendrite)に繋がる“弱点”になり得ると言われます。
その中でも頻出の仮説が「粒界がLi-richになり、局所的にLiが集まる」ことです。
ただし、研究・開発の現場では次の2つが混ざりやすい:
- “もともとのLi”が粒界に偏る(平衡偏析)
- “過剰に供給されたLi”が粒界に吸い寄せられる(非平衡/供給依存)
この2つは、dendrite機構に対する意味合いが違います。
今回の検証は、まず (1) と (2) を分離して見ることを狙いました。
計算パイプライン:QE + Allegro + LAMMPS を「1台で回す」意味¶
今回の流れを、製造業のR&D向けに“実務っぽく”言い換えるとこうです。
- Quantum ESPRESSO(DFT):参照データ(energy/force)を作る
- Allegro/NequIP(MLポテンシャル):DFT精度を保ちつつMD速度へ落とす(学習・コンパイル)
- LAMMPS(MD):10k〜100k原子級で、偏析・拡散・時間発展を見る
ここでGPUが効くのは主に (A) 学習と (B) MD計算(推論)です。
さらに、「環境が組めている」「レシピが揃っている」ことが、再現性とスループットに直結します。
今回も、学習側の
unitsと LAMMPS 側のunitsが噛み合わないと挙動が破綻する、という典型的な地雷を踏みました。
逆に言えば、こういう“落とし穴”を短時間で潰せるのが、バンドル+Runbook(手順書)の価値です。
検証A:ベース系(Liのみ可動)で「GB Li-rich」は見えた(仮説を支持する方向)¶
Li濃度プロファイル(700K)¶
- 粒界位置 z0 ≈ 37.5 Å(Li密度ピークから推定)
- バルク平均密度 ρ_bulk ≈ 0.02160 #/ų
- ピーク密度 ρ_peak ≈ 0.06781 #/ų
- ピーク比(ρ_peak/ρ_bulk)≈ 3.14×
- GB帯(±2Å)平均 ρ_gb ≈ 0.04719 #/ų(≈ 2.18×)
- 過剰面密度 Γ ≈ 15.0 #/nm²
要するに:粒界付近にLiが“濃い”領域が現れる、という点はこのモデル・条件では明確です。

拡散(MSD)も「GB起点の方が速い」傾向¶
短時間(~17.5 ps)の線形フィットですが、MSDからの拡散係数は
- 全体D ≈ 3.348e-06 cm²/s
- GB近傍スタートD ≈ 6.030e-06 cm²/s
- バルクスタートD ≈ 1.935e-06 cm²/s
- 比(GB/bulk)≈ 3.12×

と、“粒界はLiが多いだけでなく動きも違う”示唆があります。
ただし 統計(時間・独立試行)が不足しているので、ここは後述の「次の実験」で固める位置付けです。
検証B:「過剰Liを入れたらGBに集まるか?」は見えなかった(少なくとも今回条件では未支持)¶
まず、やったこと¶
- 700K平衡後の構造を出発点に
- 過剰Liを +100(GB近傍を避けて挿入)
- 2つのGB面(z0 と z0+Lz/2)を同時にカウント
- w=±2.0 Å の“GB帯”に入った過剰Li数を時系列で追跡
- 合計 100 ps(= 400000 steps 相当)まで延長
観測された量(最後の50ps平均)¶
- GB0帯の平均:4.94 ± 0.83 atoms
- GB2帯の平均:2.35 ± 0.57 atoms
- 2GB合計:7.29 ± 1.08 atoms
- バルク側(それ以外):92.71 ± 1.08 atoms
一方、もし過剰Liが“場所に関係なく一様”なら、2GB帯に入る期待値は
- 一様分布期待:10.02 atoms
です。
実測の enrichment(Ngb/期待)は
- 0.73×

で、1を下回る(=むしろGB帯に“少ない”)という結果でした。
また、時系列のトレンド(最後の50psで線形フィット)も
- slope ≈ 0.046 atoms/ps
と小さく、「時間とともに吸い込まれて増え続ける」とまでは言えません。
ここまでの“結論”をどう解釈するか(電池R&Dの意思決定向け)¶
今回「見えた(仮説を支持する方向)」こと¶
- このLLZOモデル・条件(700K、固定フレームワークなど)では、粒界近傍のLi密度が高い(Li-rich)
→ これは 材料設計上の“局所状態”としての粒界の重要性を支持
今回「見えなかった(少なくとも今回条件では未支持)」こと¶
- 過剰Liを入れたときに、GBが“吸い込み口”になって短時間で集める
→ 少なくとも 100ps・今回の挿入条件では 支持されない
つまり:dendriteと繋げるなら「次の仮説」が必要¶
過剰LiがGBに吸い込まれないなら、dendrite機構は
- 電子伝導(還元・局所金属化)
- 欠陥(空孔・クラック)や応力集中
- 界面反応/空間電荷層
- Liの供給境界条件(化学ポテンシャル制御、電場、濃度勾配)
など、“供給+駆動力”込みで考える必要があります。
とはいえ「未支持」は失敗ではない:GPUで仮説を潰せる価値が売りになる¶
電池メーカーの開発では、
「仮説が正しいこと」より、「仮説を早く判定して次へ進めること」の方がROIに効くことが多いです。
今回のように、
- モデル学習 → コンパイル → LAMMPS実行 → 解析(Li密度、MSD、GBカウント)
- そして“次の仮説”へ
というループを GPUで高速に回すこと自体が、
研究の生産性(=最終的な開発スピード)を押し上げます。
提案:H200 NVL 4GPU/8GPU × QE + Allegro + LAMMPS “バンドル”の価値¶
1) すぐ動く環境(依存地獄を避ける)¶
- Quantum ESPRESSO / LAMMPS / NequIP-Allegro / 解析スクリプト一式
- 推奨ドライバ・CUDA・MPI・PyTorchの整合性込み
2) Runbook(手順書)=再現できる手順書¶
- 「学習→MD→解析→図化→要約JSON」までが ワンパスで再現できる
- 社内展開で強い:担当が変わっても回る
3) 4GPU/8GPUを“使い切る”運用レシピ¶
- MPI × GPU割り当て
- 推論(MD)と学習のリソース配分
- 同一条件でseed違いを回して統計を取るテンプレ
次の一手(おすすめの追加検証)¶
ここから先は、「支持」を強くし、「未支持」の理由を切り分ける方向がおすすめです。
- 独立試行(seed違い)を2–3本
- 温度スイープ(例えば 500/700/900K)
- w依存(±1, ±2, ±3, …Å)と Γ(excess)再評価
- 供給境界条件:過剰Liを“もっと多く”入れる/入れる位置を変える
- フレームワークも動かす(欠陥・緩和が効くか)
- (将来的に)電場・濃度勾配や 電子状態の影響へ段階的に拡張
まとめ¶
- 粒界Li-richは見えた(仮説を支持する方向):GB近傍にLi濃度ピーク(~3.1×)
- 過剰LiのGB吸い込みは見えなかった(少なくとも今回条件では未支持):2GB帯で enrichment ~0.73×(100ps)
- だからこそ、GPUで仮説検証のループを回す価値が前面に出る
- QE + Allegro + LAMMPS をバンドルし、Runbook付きで再現可能にすると、電池R&Dの意思決定が速くなる
次のアクション(30秒)¶
このテーマでPoC/再現を進めるなら
- いまの系サイズ(原子数)と「学習 or 推論」を教えてください
- こちらから 推奨構成(H200 NVL 4GPU/8GPUなど) と 納品スコープ(環境/手順/再現チェック) を返します
- 必要なら、入力ファイル雛形(LAMMPS/Allegro ほか)も同梱して最短で回せる状態にします