原始文章

這篇論文探討將大型語言模型(LLMs)整合進基因改進(GI)框架的可能性,並基於先前的研究,結合Gin Java GI工具包與OpenAI LLMs,生成JCodec工具的程式碼編輯。研究評估了三種不同的LLMs和提示,涵蓋五個真實軟體專案。結果顯示,LLMs生成的編輯雖然數量較少,但成功編譯和通過測試的機率較高,OpenAI模型達77%的成功率。簡單提示的效果優於複雜提示。質性分析指出LLM編輯的常見失敗點,顯示LLMs在GI搜尋過程中有潛力,但仍需克服有效性挑戰。 PubMed DOI


站上相關主題文章列表

研究使用大型語言模型(LLMs)探討基於知識的基因優先順序和選擇,專注於與紅血球特徵相關的血液轉錄模組。結果顯示,OpenAI的GPT-4和Anthropic的Claude在LLMs中表現最佳。研究找出了模組M9.2的頂尖基因候選者,顯示LLMs在基因選擇上的潛力,有助於提升生物醫學知識的應用價值。 PubMed DOI

預先訓練的大型語言模型(LLMs)在改善程式碼生成方面取得重大進展,尤其在生物資訊領域。BioCoder基準評估LLMs在生成生物資訊專用程式碼的表現,包括各種生物資訊任務。研究指出,長提示和領域知識對成功表現至關重要,並展示了訓練數據集對模型性能的提升。所有測試資源可在GitHub上找到。 PubMed DOI

大型語言模型(LLMs)正在改變科學界,尤其是生物醫學領域。生物學的重點在於理解生物序列,這與自然語言處理的目標相似。基因組語言模型(gLMs)專門針對DNA序列訓練,能幫助我們更好地理解基因組及DNA元素的互動,進而揭示複雜的生物功能。這篇評論強調了gLMs在適應性預測、序列設計和轉移學習等方面的潛力,但在創建有效的gLMs時仍面臨挑戰,特別是對於大型且複雜的基因組物種。還討論了gLMs開發和評估時需考慮的重要因素。 PubMed DOI

這項研究分析了不同大型語言模型(LLMs)在識別遺傳疾病時的表現,對比了開源模型(如Llama-2-chat和Vicuna)與封閉源模型(如ChatGPT-4)。結果顯示,開源模型的準確率在54%-68%之間,而ChatGPT-4則高達89%-90%。研究還指出,臨床醫生和一般民眾的提問對模型表現有顯著影響,且使用列表型提示能提升準確性。整體而言,這項研究揭示了LLMs在醫療領域的潛力與挑戰。 PubMed DOI

這項研究探討大型語言模型(LLMs)在診斷罕見遺傳疾病中的應用,特別是基於表型的基因優先排序。研究比較了五種LLMs,結果顯示GPT-4的表現最佳,能在前50個預測中準確識別17.0%的診斷基因,但仍低於傳統方法。雖然較大的模型通常表現較好,先進技術如檢索增強生成並未提升準確性,但精緻的提示改善了任務完整性。整體而言,這些發現顯示LLMs在基因組分析中的潛力與限制,對臨床應用有重要影響。 PubMed DOI

這項研究評估了七個大型語言模型在生成程式碼的表現,發現GPT-4表現最佳,明顯超越其他模型如Gemini Ultra和Claude 2。GPT-4的程式碼生成效果隨提示策略不同而變化,最佳策略下在程式設計比賽中超越85%的人類參賽者。它在程式碼翻譯、錯誤學習及生成高效程式碼方面表現優異,並能處理多種程式設計任務。這些結果顯示,GPT-4可能成為程式碼生成和軟體開發的重要工具,並促進基於最佳提示策略的程式設計助手的發展。 PubMed DOI

大型語言模型(LLMs)正在改變生物醫學科學,特別是在理解生物序列方面。基因組語言模型(gLMs)專注於DNA序列,能幫助預測基因組中重要的功能區域、設計新DNA序列,並促進轉移學習。儘管如此,開發有效的gLMs仍面臨挑戰,如數據質量、模型架構及評估指標等。解決這些問題對於gLMs在複雜生物系統中的應用至關重要。 PubMed DOI

這項研究提出了一個新框架,結合大型語言模型(LLMs)和遺傳演算法(GAs),用來優化酶的設計,解決蛋白質序列及功能的複雜挑戰。研究人員透過大量蛋白質序列數據,找出影響酶結構和功能的氨基酸關係,並利用遺傳演算法有效搜尋能提升催化性能的酶序列。測試結果顯示,生成的酶突變體在90%的案例中超越野生型酶,並維持相似的結構特徵,顯示這種方法的有效性,推進了生物催化劑設計的計算方法。 PubMed DOI

在生物學的數據分析領域,專家短缺影響了對複雜生物過程的理解及新療法的開發。為了解決這個問題,我們推出了名為 mergen 的 R 套件,利用大型語言模型(LLMs)來生成和執行數據分析代碼。研究人員只需用簡單文字描述分析目標,系統便能透過提示和反饋改善代碼生成。我們的評估顯示,雖然 LLMs在某些任務上有效,但在複雜分析中仍有挑戰。自我修正機制顯著提升了可執行代碼的生成比例,對於複雜度等級 2 和 3 的任務分別提高了 22.5% 和 52.5%。這項研究增進了對 LLM 能力的理解,並提供了實用的整合見解。 PubMed DOI

這篇論文探討預訓練的大型語言模型(LLMs)與進化演算法(EAs)之間的相似性,指出兩者都涉及生成與精煉解決方案。作者在微觀層面上分析了關鍵的平行之處,如標記、個體表示、適應度及位置編碼的形成,以及變壓器中的繁殖機制。接著,作者檢視現有的跨學科研究,找出挑戰,特別是在進化微調和將LLMs整合進EAs的領域。這些研究結果旨在增進對LLMs進化機制的理解,並提出改善人工智慧代理能力的方法。 PubMed DOI