隨著越來(lái)越多的數(shù)據(jù)可用,通過(guò)使用高性能計(jì)算和高通量實(shí)驗(yàn),機(jī)器學(xué)習(xí)(ML)已被證明具有加速科學(xué)研究和技術(shù)發(fā)展的潛力。目前,材料科學(xué)采用數(shù)據(jù)驅(qū)動(dòng)的方法仍處于早期階段,ML模型的預(yù)測(cè)和內(nèi)部流程應(yīng)提供一定程度的可解釋性,允許識(shí)別潛在的模型問(wèn)題或限制并揭示可能導(dǎo)致科學(xué)見(jiàn)解的意外相關(guān)性。
在此,美國(guó)麻省理工學(xué)院Felipe Oviedo、英國(guó)盧瑟福阿普爾頓實(shí)驗(yàn)室Keith T. Butler等人總結(jié)了可解釋性ML技術(shù)在材料科學(xué)和化學(xué)中的應(yīng)用,并討論了這些技術(shù)如何改善科學(xué)研究的成果。首先,作者定義了ML中兩種可解釋性,即“interpretability”和“explainability”的基本概念,并通過(guò)提供該領(lǐng)域的示例使其具體化?!癐nterpretability”是指模型的整個(gè)工作流程可以被人類(lèi)理解;“Explainability”是指模型可以生成解釋?zhuān)ㄍㄟ^(guò)檢查模型或使用其他一些事后方法(外部解釋?zhuān)┑取?/span>
作者展示了與一般應(yīng)用相比,科學(xué)ML中的可解釋性如何具有額外的限制?;贛L中的正式定義,作者制定了科學(xué)問(wèn)題中模型解釋的可解釋性、完整性和科學(xué)有效性之間的基本權(quán)衡。在這些權(quán)衡的背景下,作者討論了如何構(gòu)建可解釋的ML模型,包括模型提供了哪些見(jiàn)解及有哪些缺點(diǎn)等。
圖1. 一些ML中的關(guān)鍵概念及權(quán)衡
進(jìn)一步,作者展示了許多可解釋ML在各種實(shí)驗(yàn)和模擬研究中的應(yīng)用示例,包括第一性原理計(jì)算、物理化學(xué)表征、材料開(kāi)發(fā)及與復(fù)雜系統(tǒng)的集成。作者根據(jù)感興趣的科學(xué)研究的性質(zhì)和限制,討論了這些案例中可解釋性的不同影響和用途。此外,作者還總結(jié)了材料科學(xué)中可解釋ML的各種挑戰(zhàn),包括模型解釋缺乏置信區(qū)間或誤差分布、解釋沒(méi)有強(qiáng)有力的因果保證或抵抗共同影響的彈性等。
特別是,作者強(qiáng)調(diào)了通過(guò)純粹可解釋ML模型來(lái)推斷因果關(guān)系或達(dá)到泛化的風(fēng)險(xiǎn)及對(duì)模型解釋的不確定性估計(jì)的需要。最后,作者展示了其他領(lǐng)域中可解釋ML的發(fā)展,可能有利于材料科學(xué)問(wèn)題的可解釋性。為ML模型添加可解釋性通常不需要比構(gòu)建模型本身更多的技術(shù)知識(shí),希望該綜述將激發(fā)對(duì)ML模型的深入研究。
圖2. 從物理或化學(xué)數(shù)據(jù)中直接提取知識(shí)及其應(yīng)用展示
Interpretable and Explainable Machine Learning for Materials Science and Chemistry, Accounts of Materials Research 2022. DOI: 10.1021/accountsmr.1c00244
原創(chuàng)文章,作者:v-suan,如若轉(zhuǎn)載,請(qǐng)注明來(lái)源華算科技,注明出處:http://m.xiubac.cn/index.php/2023/10/07/45afb0dcb1/