近日,研究人員發(fā)現(xiàn),經(jīng)過微調(diào)后的類ChatGPT系統(tǒng)展現(xiàn)出在化學研究領(lǐng)域的驚人天賦,能夠精確預測分子和材料的特性或反應的產(chǎn)率。這一發(fā)現(xiàn)為化學實驗室?guī)砹藦姶蟮男鹿ぞ?,無需復雜的機器學習模型即可獲得深入的化學見解。
大型語言模型(LLM)是在大量文本集合上訓練的人工神經(jīng)網(wǎng)絡(luò),通過統(tǒng)計預測來生成響應。為了探索LLM在化學領(lǐng)域的應用潛力,計算化學家Kevin Jablonka及其團隊對GPT-3進行了微調(diào)。他們首先從文獻中收集有關(guān)化合物或材料的信息,并將其格式化為問答形式。然后,將這些數(shù)據(jù)發(fā)送到OpenAI,以添加到LLM的訓練集中。經(jīng)過微調(diào)的系統(tǒng)能夠回答有關(guān)原始化合物或材料的預測問題,即使這些化合物或材料并未明確包含在輸入數(shù)據(jù)中。
研究團隊測試了微調(diào)后的GPT-3在回答有關(guān)“高熵”合金查詢方面的能力。高熵合金由大致等量的兩種或多種金屬制成,其金屬如何混合一直是個謎。然而,經(jīng)過微調(diào)的GPT-3能夠正確猜測其中一種合金中的金屬如何排列。此外,當要求系統(tǒng)回答有關(guān)訓練數(shù)據(jù)中未包含的“未知”材料的問題時,其準確性與更專業(yè)的化學機器學習工具相當,甚至與計算機模擬的結(jié)果相當。
研究人員還證明了,當他們微調(diào)GPT-3的開源版本GPT-J時,可以獲得類似的結(jié)果。這意味著預算較少的實驗室也能夠開發(fā)自己的版本,而無需付費或?qū)で笊虡I(yè)幫助。這一技術(shù)的民主化使得更多化學家能夠受益于機器學習的力量。
化學工程師Andrew White表示,該技術(shù)能夠僅根據(jù)化合物的化學式進行預測,這一事實非常令人驚訝。他已經(jīng)在自己的新項目中使用了這種方法,例如基于微調(diào)LLM設(shè)計新催化劑。White認為,這是他們在開展新項目時嘗試的第一種方法。
盡管該方法需要人類收集信息并準備LLM輸入,但Jablonka及其團隊的目標是設(shè)計未來的版本,能夠自動從現(xiàn)有文獻中挖掘文本并實現(xiàn)這一步驟。這一進步將為化學研究帶來更高效、更便捷的解決方案,推動科學領(lǐng)域的快速發(fā)展。
總之,經(jīng)過微調(diào)后的類ChatGPT系統(tǒng)展現(xiàn)出在化學研究領(lǐng)域的驚人天賦,為化學實驗室提供了強大的新工具。這一技術(shù)的民主化將使得更多化學家能夠受益于機器學習的力量,推動化學領(lǐng)域的快速發(fā)展。未來,隨著技術(shù)的不斷進步和完善,我們期待看到更多創(chuàng)新應用的出現(xiàn)。
原創(chuàng)文章,作者:小丸子,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/629505.html