原始文章

這項研究旨在改善從基因測序中提取病原微生物的知識,特別是透過宏基因組下一代測序(mNGS)。傳統方法耗時且容易受主觀影響,因此研究人員開發了一種自動化的問答(QA)模型。 關鍵步驟包括創建名為MicrobeDB的新數據集,涵蓋618篇論文的3,161個樣本和224種病原微生物。透過微調模型和數據增強,最終在測試集上達到88.39%的精確匹配和93.18%的F1分數,顯示出高準確性。這項研究為臨床解釋mNGS結果提供了有價值的自動化方法。 PubMed DOI


站上相關主題文章列表

研究指出,ChatGPT 4.0協助病理學家和實驗室主任回答問題時,準確性高、完整性佳,還能節省時間。專家評分結果顯示,大部分回答不需額外工作。這個工具被視為安全且省時,特別適合回答醫療提供者的問題。在各病理學領域中表現一致,ChatGPT 4.0可能成為病理學家重要的資源。 PubMed DOI

生物醫學資料庫增加快速,分析資料對生物學和醫學至關重要。現有工具常難以完整處理條目或像人類一樣修正錯誤。大型語言模型(LLMs)如ChatGPT提供了新的查詢資料庫方式,但在擴展規模時會有挑戰。ChIP-GPT是基於GPT模型Llama微調的,能高精確度從序列讀取存檔中提取元數據。它能處理打字錯誤和缺失標籤,適應各種資料庫和問題。 PubMed DOI

研究使用GPT-4等大型語言模型回答病人的實驗室檢驗問題,結果顯示GPT-4回答通常更準確、相關、有幫助且安全。但在醫學背景下解釋不足及偶爾不準確。提升回答方法包括提示工程、擴充、檢索增強生成和評估。 PubMed DOI

病患常覺得實驗室檢驗報告難懂,常上網求助。研究發現,使用GPT-4等大型語言模型回答問題更準確、有幫助、相關且安全。但仍需改進處理不準確和缺乏個人化的問題。改進策略包括即時調整、擴充、檢索和評估回應品質。 PubMed DOI

藥物基因組學在精準醫療中扮演重要角色,但因醫師和病人對此認識不足,實施進展緩慢。大型語言模型(如GPT-4)有潛力提供即時醫療資訊,但也可能產生不準確的內容,對臨床造成風險。我們進行了測試,評估聊天機器人在藥物基因組學上的表現,結果顯示雖然新模型表現較好,但仍未達臨床應用標準。我們的基準將成為未來進步的重要資源。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4.0 和 Google Gemini 在回答乙型肝炎病毒(HBV)相關問題的表現。醫療專業人員對其準確性進行評分,並評估可讀性。 主要發現包括: - 所有 LLM 在主觀問題上得分高,ChatGPT-4.0 準確性最高。 - 在客觀問題上,ChatGPT-4.0 準確率為 80.8%,優於其他兩者。 - ChatGPT-4.0 在診斷上表現佳,Google Gemini 在臨床表現強勁。 - 所有 LLM 的可讀性分數高於標準八級,對一般讀者來說可能過於複雜。 結果顯示,LLMs,特別是 ChatGPT-4.0,可能成為有關 HBV 的資訊工具,但不應取代醫生的個人化建議。 PubMed DOI

這段文字探討大型語言模型(LLMs)如ChatGPT在生物資訊學,特別是基因組學中的限制,提到資料檢索不佳、幻覺及序列操作錯誤等問題。為了解決這些挑戰,作者提出NagGPT作為LLMs與資料庫的橋樑,幫助精煉查詢並提高資訊準確性。此外,還介紹了Genomics Fetcher-Analyzer,這個自訂GPT能讓ChatGPT生成並執行Python程式碼,進行生物資訊學任務,並使用各種基因組資料庫的資料。整體目的是增強ChatGPT在生物資訊學的功能,提升事實準確性和遵循指示的能力。 PubMed DOI

你的專案專注於提升大型語言模型(LLMs)在基因組學的表現,特別是透過整合變異註解數據。你成功將1.9億條準確的變異註解整合進GPT-4o,讓使用者能查詢特定基因變異並獲得詳細解釋。雖然微調有助於提升表現,但檢索增強生成(RAG)在數據量和成本效益上更具優勢。這項研究不僅提高了變異解釋的可及性,也為未來基因組學的AI系統發展樹立了榜樣,展現了LLMs的潛力。公開數據集可依需求分享。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT 3.5、ChatGPT 4.0和Gemini,對自體免疫疾病臨床問題的回答效果。共提出46個問題,並由專家根據五個質量維度進行評估。結果顯示,ChatGPT 4.0在所有維度上表現優於其他兩者,平均得分為199.8,顯示其在相關性、正確性、完整性、有用性和安全性方面的顯著優勢。整體而言,ChatGPT 4.0在提供準確且有用的醫療資訊上,顯示出更高的效能,顯示大型語言模型在醫療服務中的潛力。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT、Gemini 和 Meta AI—在微生物學課程高階問題的表現。研究從大學考試中彙編了60個問題,並由三位教職員評估AI的回應。結果顯示,ChatGPT在大多數能力上優於其他模型,特別是在MI 2、3、5、6、7和8方面;Gemini在MI 1和4方面表現較好,而Meta AI的得分最低。質性評估指出,ChatGPT的回應更詳細,Gemini有時缺少關鍵點,Meta AI則較為簡潔。總體來看,ChatGPT和Gemini在醫學微生物學的複雜問題上表現優於Meta AI。這是首次在微生物學教育中比較這三個LLMs。 PubMed DOI