數值模擬與機器學習技術應用於材料開發(上)

 

刊登日期:2023/2/5
  • 字級

紀喆允、郭力維、劉禹辰、吳明修、胡永毅、許文東 / 成功大學材料系
 
新材料的開發是費時費工且高成本的工作,從開發出來到導入產業使用需耗時十餘年。對產業來說,更換新的材料有時候幾乎是整條產線需要重新建立,原因在於更換成品某部位的材料,除該部位的製程需要做改變外,與該部位相鄰部件的材料和部件結構也可能需要做調整。因此,除非是有突破性的改善,否則絕不輕易引入新的材料。然而,此種趨勢隨著計算材料科技的進步,以及電腦計算速度大幅提升,已經有了轉變。結合最新的計算材料科學技術以及機器學習技術,可以從關鍵部位的材料出發,到整體成品的性質直接做分析,大幅縮短新材料開發到應用的時間和成本。本文簡介新材料開發的最新技術流程,並以機器學習應用在電解液開發以及多物理(數值模擬)技術應用於碳化矽長晶爐開發為例,做詳細說明。最後並點出第一原理計算、計算熱力學、多物理(數值模擬)計算以及機器學習是材料開發最重要的四大工具。
 
【內文精選】
以機器學習法開發新的電解液分子
開發的過程可分成數個階段進行,以逐層過濾的概念,針對需求性質的重要性逐層過濾,從而找出最適分子。對電解質分子而言,還原電位(RP)及氧化電位(OP)是兩個最重要的性質,RP與OP決定了電解質在電池中的工作電壓。因為若電解質的RP及OP大於兩個電極之電位區間,就不會發生氧化還原反應,此類電解質即具有開發的潛力。所以第一階段,先利用機器學習技術,從蒐集到的資料庫中,訓練出一個模型,該模型能夠根據分子的結構預測其還原電位及氧化電位,然後再利用官能基組合或修飾主分子的概念,藉由程式任意組合出各式分子,將前述訓練好的模型,由龐大數目的組合分子中篩選出理想的電解質分子。
 
2. 分子設計
人工神經網絡( Artificial Neural Networks),為一種從分子結構預測性質的機器學習模型。以下有三種常見的神經網絡,包括Feedforward Neural Networks(NN)、Recurrent Neural Networks (RNN)、及Convolution Neural Networks (CNN),以不同分子表示法的描述符作為模型的輸入,透過上述的各類神經網絡,可組合成性質預測器(Property Predictor),即為機器學習模型的架構。
 
3. 性質預測器架構
本文使用的方法為利用已知的資料庫(Materials Project),以分子結構為輸入,OP/RP為輸出,訓練出一套機器學習模型的分子性質預測器,能夠從分子結構預測該分子的OP及RP。一共建立了四種性質預測器,分別由不同的分子描述符及不同的神經網絡為其架構。
► 第一種模型,其描述符為ECFPNUM,模型為多層的Feedforward Neural Networks。在研究中,我們進行了多項測試,決定ECFPNUM的隱藏層數目為3層,以及Bits數目升高到2,048時會大幅減少誤差。最終,將此模型命名為ECFPNUM-NN。
 第二種模型, 其描述符由ECFP與SYBYL結合而成,模型套用ECFPNUM-NN的結構,在此命名為ECFP&SYBYL-NN。
 第三種模型以二進位碼圖像化(OnehotEncoding)的SMILES作為分子描述符,其模型結構含有3層隱藏層,且每層有雙向250 Gated Recurrent Units (GRU),最後由1層將每個神經網絡連接。對此模型命名為SMILES-GRU,如圖四。
 
圖四、二進位碼圖像化(One-hot Encoding)SMILES-GRU機器學習模型之架構圖
圖四、二進位碼圖像化(One-hot Encoding)SMILES-GRU機器學習模型之架構圖
 
 第四種模型以二進位碼圖像化的SMILES作為描述符,其模型結構含有Filter Size 2×2×2和Convolution Kernels 15×17×20之一維3層的CNN,最終再由5層將每個神經網絡連接。對此模型命名為SMILES-CNN。
 
4. 模型比較
使用二進位碼圖像化SMILES的SMILES-GRU,相較其他模型在預測OP有較好且突出的預測表現。然而在預測RP方面,SMILES-GRU預測結果並無特別明顯的好。這四種模型依照預測表現優異的排序為SMILES-GRU> ECFP&SYBYL-NN > ECFPNUM-NN >SMILES-CNN。
 
除此之外,結果也顯示以兩個模型分別預測OP與RP會稍微提升預測的表現。而在訓練過程中,有無事先Normalizing OP/RP於模型的輸出,幾乎不影響預測的結果,但卻可以有效地減少模型訓練的時間。
 
由上述測試可知,SMILES-GRU有著較低的MAE和RMSE,然而從圖十可觀察到,SMILES-GRU的訓練時間遠高於其他模型。因此,將訓練時間納入考慮的話,SMILES-GRU並非一個有效率的模型,因為相較於其他模型,SMILES-GRU的誤差僅僅好一些,但訓練時間卻高過其他模型近十倍 ---以上為部分節錄資料,完整內容請見下方附檔。
 
圖十、四種模型之機器學習模型,在相同的隱藏層數設定下,所需的訓練時間
圖十、四種模型之機器學習模型,在相同的隱藏層數設定下,所需的訓練時間
 
★本文節錄自《工業材料雜誌》434期,更多資料請見下方附檔。

分享