原始文章

這項研究用大型語言模型和遷移學習,成功設計出高不對稱因子、窄帶發射且手性可調的人工圓偏振磷光材料。這方法能在資料少時,幫助選擇合成材料並指導實驗。團隊做出的薄膜表現優異,還能依需求調整發光波長。這技術對多色顯示和資訊加密等應用很有潛力。 PubMed DOI


站上相關主題文章列表

預先訓練並微調的大型語言模型(LLMs)在預測無機化合物的合成可行性和選擇無機合成的前驅物方面非常有效。相較於專門的機器學習模型,微調後的LLMs表現優異,使用者需要的專業知識、成本和時間也較少。這種方法將成為未來化學機器學習研究的重要參考,同時也是實驗化學家的實用工具。 PubMed DOI

最近,人工智慧和自動化的進展正在徹底改變催化劑的發現與設計,從傳統的試錯方法轉向更高效的高通量數位方法。這一變化主要受到高通量信息提取、自動化實驗、實時反饋和可解釋機器學習的驅動,促成了自駕實驗室的誕生,加速了材料研究的進程。近兩年,大型語言模型的興起也為這個領域帶來了更大的靈活性,改變了催化劑設計的方式,標誌著學科的革命性轉變。 PubMed DOI

小分子的設計對於藥物發現和能源儲存等技術應用非常重要。隨著合成化學的發展,科學界開始利用數據驅動和機器學習方法來探索設計空間。雖然生成式機器學習在分子設計上有潛力,但訓練過程複雜,且生成有效分子不易。研究顯示,預訓練的大型語言模型(LLMs)如Claude 3 Opus能根據自然語言指示創建和修改分子,達到97%的有效生成率。這些發現顯示LLMs在分子設計上具備強大潛力。 PubMed DOI

大型語言模型(LLMs)在藥物傳遞材料設計中展現潛力。我們使用Hugging Face的Transformers套件,透過BigBird、Gemma和GPT NeoX等架構進行預訓練和微調,並結合化學家的指導進行優化。研究結果顯示,整合化學見解對於提升模型性能至關重要。我們設計了光響應藥物傳遞分子,並探討了人類反饋在強化學習中的角色。最終,我們建立了一個高效的設計流程,但缺乏專門數據集仍是挑戰。 PubMed DOI

這項研究提出了一種新方法來訓練大型語言模型(LLMs)進行材料建模,解決了實驗數據不足的問題。研究者利用基於物理的訓練流程生成大量合成數據,建立穩固的初始模型,然後再用有限的實驗數據進行微調。訓練分為兩個階段:先用豐富但準確性較低的合成數據進行預訓練,再用稀缺的實驗數據微調。這種方法在聚合物可燃性指標的建模中顯示出有效性,特別是在圓錐量熱計數據不足的情況下,突顯了預訓練的重要性。 PubMed DOI

這項研究探討了機器學習在預測假想晶體結構可合成性上的應用,特別是微調過的大型語言模型(LLMs)。這些模型在訓練時使用人類可讀的結構描述,表現與傳統卷積圖神經網絡相當。透過正標籤-未標籤學習模型及結構的文本嵌入表示,預測準確性更佳。此外,LLM能生成清晰的解釋,幫助化學家理解影響合成的因素,並優化無法合成的結構,協助設計新材料。 PubMed DOI

大型語言模型在材料科學的應用大幅推進了新材料的開發。我們提出了一個新框架,利用這些模型來優化合成特定性質的量子點材料的實驗程序。這個方法結合了合成協議生成模型和性質預測模型,並基於開源的大型語言模型進行微調,使用我們的合成數據進行訓練。 過程中,首先生成針對特定性質的合成協議,然後用性質預測模型驗證其有效性。我們的實驗中產生了六種合成協議,其中三個成功改善了多項性質,顯示出我們框架在合成規劃中的有效性及多目標優化的潛力。 PubMed DOI

**重點摘要:** 大型語言模型(LLMs)可以協助非專業人士設計奈米光子元件,例如多層薄膜和超表面,透過對話互動來模擬光學反應並產生最佳化設計。將LLMs用相關資料進行微調後,能進一步提升它們依照需求產生設計的能力,讓奈米光子設計變得更快速、更容易上手。 PubMed DOI

這篇研究探討不同提示設計(prompt engineering)對ChatGPT等大型語言模型,從科學文獻摘要中提取資訊準確度的影響。以白色磷光材料為例,結果顯示精心設計的提示能大幅提升模型在科學任務上的可靠性與效能,並提供實用建議給使用者參考。 PubMed DOI

這項研究用大型語言模型(LLM)設計新型二氧化碳捕捉分子,並結合DFT計算篩選潛力材料。結果顯示,LLM不只產生可行分子,還提出創新設計方法,證明AI能有效輔助化學研究,提升碳捕捉材料的開發效率。 PubMed DOI