LLM 相關三個月內文章 / 第 155 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討了GPT-4在評估藥物對肝臟、心臟和腎臟健康的毒性時的可靠性,並將其結果與FDA藥物標籤的專家評估進行比較。研究使用了兩種提示方式:一般提示和專家提示。結果顯示,專家提示的準確率(64-75%)高於一般提示(48-72%),但兩者的表現都只是中等。這提醒我們在公共健康應用中使用GPT-4時需謹慎,並建議採用檢索增強生成(RAG)等先進框架來提升其可靠性。 相關文章 PubMed DOI

這封研究信探討了不同檔案格式如何影響ChatGPT-4在日本國家護理考試中的表現。它強調建立標準化報告協議的重要性,以改善人工智慧在護理教育和實踐中的整合。透過針對這些因素進行研究,旨在提升AI工具在支持護理專業人員和教育系統方面的有效性。 相關文章 PubMed DOI

大型語言模型(LLMs)與人形機器人的結合,能顯著提升機器人透過自然互動學習的能力。首先,LLMs幫助機器人理解人類語言,促進更流暢的互動。其次,機器人能透過對話學習情境行為,並根據反饋調整行動。此外,LLMs提供社交知識,幫助機器人理解情感與社交規範。它們還能作為知識庫,讓機器人動態學習新概念。最後,透過模擬與角色扮演,機器人能在安全環境中練習複雜的社交互動。 相關文章 PubMed DOI

這篇論文回顧了深度學習的最新進展,特別是大型語言模型(LLMs)在微生物組和宏基因組研究中的影響。它指出微生物的蛋白質和基因組序列可視為「生命的語言」,讓研究人員能透過LLMs從複雜的生態系中獲得見解。文章探討了深度學習和語言模型的應用,包括問題定義、數據集需求及語言建模技術的整合,主要涵蓋蛋白質/基因組語言建模、病毒組學語言建模、生物合成基因簇預測及宏基因組研究的知識整合。 相關文章 PubMed DOI

這項研究評估了兩個人工智慧語言模型,ChatGPT 和 BingAI Precise,在回答全國研究生入學考試(NEET-PG)練習題的表現。研究顯示,兩者都達到及格分數,但 BingAI 在準確性上持續優於 ChatGPT。統計分析確認了它們的正確答案率有顯著差異。結論指出,這兩個模型可作為醫學執照考試的學習輔助工具,未來若能在影像解讀上改進,將進一步強化其在教育和臨床環境中的應用。 相關文章 PubMed DOI

在結構化資訊擷取(IE)領域,確保輸出符合語義和語法約束非常重要。傳統的編碼-解碼架構難以達成這些要求,因此研究者開始探索受語法約束的解碼方法。本研究檢視了微調的Longformer和Flan-T5模型在臨床試驗摘要中提取結構化資料的效果。結果顯示,受語法約束的解碼顯著提升了2型糖尿病和青光眼數據集的F1分數,而指標生成器則對性能造成負面影響。未來研究可探討大型語言模型的大小對這些解碼方法的影響。 相關文章 PubMed DOI

一項2024年初的調查針對428名美國大學學生,探討他們對聊天機器人心理健康支持的看法。結果顯示,雖然近一半的學生使用過聊天機器人,但只有5%是為了心理健康支持,抑鬱或焦慮者中這一比例稍高,達8%。整體上,學生對傳統心理健康服務的態度較正面,對聊天機器人的支持則較中立,主要因為對其有效性存疑。研究建議需進一步探討聊天機器人的效果,以增強公眾信任和使用率。 相關文章 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4.0 和 Google Gemini 在回答乙型肝炎病毒(HBV)相關問題的表現。醫療專業人員對其準確性進行評分,並評估可讀性。 主要發現包括: - 所有 LLM 在主觀問題上得分高,ChatGPT-4.0 準確性最高。 - 在客觀問題上,ChatGPT-4.0 準確率為 80.8%,優於其他兩者。 - ChatGPT-4.0 在診斷上表現佳,Google Gemini 在臨床表現強勁。 - 所有 LLM 的可讀性分數高於標準八級,對一般讀者來說可能過於複雜。 結果顯示,LLMs,特別是 ChatGPT-4.0,可能成為有關 HBV 的資訊工具,但不應取代醫生的個人化建議。 相關文章 PubMed DOI

這項研究旨在利用現代數據技術提升中醫病例記錄的可及性與分析能力。研究分析了679份來自新安醫學王仲期醫師的病例,涵蓋41種疾病,並建立了模式層來整合數據與可視化。透過大型語言模型(LLM),自動識別病例中的關鍵資訊,並建立中醫病例知識圖譜。開發的查詢系統在性能評估中表現優異,顯示結合LLM與知識圖譜能顯著提升中醫資訊檢索的效率與準確性,未來將擴展數據集與精進查詢系統。 相關文章 PubMed DOI

這篇文章探討了ChatGPT在診斷常見心律不整的潛力,研究分析了20,000名心律異常病患的電子病歷。結果顯示,ChatGPT的敏感度達93%、特異度89%、正確預測值91%及負確預測值92%。ROC曲線分析的AUC為0.743,顯示其診斷表現相當優秀。研究指出,ChatGPT的診斷能力與臨床專家相當,顯示其在輔助臨床決策及改善病人結果方面的潛力。 相關文章 PubMed DOI