LLM 相關三個月內文章 / 第 95 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

2024年10月研究發現,ChatGPT幫高血壓和高LDL患者設計的飲食菜單,和地中海飲食、DASH飲食指引其實不太符合,得分都偏低。雖然AI會建議減重、運動、少鹽等,但很少提到植物固醇,也沒提到戒菸或酒精。整體來說,ChatGPT的建議還算OK,但菜單內容還不夠貼近專業指引。未來若給AI更明確、個人化的指令,效果可能會更好。 相關文章 PubMed DOI 推理

**重點整理:** 作者利用GPT-3.5產生的基因嵌入(gene embeddings),來捕捉基因體資料中的生物學資訊。他們開發了新的假說檢定方法,把這些由大型語言模型(LLM)得到的資訊納入分析,讓這些檢定在實際基因體研究中,比傳統方法更有統計效力。 相關文章 PubMed DOI 推理

這項研究發現,有加提示的ChatGPT-4o在台灣牙醫師國考口腔病理選擇題表現最佳,正確率達90%,比未加提示的ChatGPT-4o(88.6%)和ChatGPT-4(79.6%)都高。新版模型在「找出不同選項」題型特別突出,但在圖片和病例題上三者差不多。整體來說,有加提示的ChatGPT-4o最適合牙醫學生準備口腔病理學。 相關文章 PubMed DOI 推理

**重點整理:** 這項研究發現,DeepSeek-R1 語言模型在根據文字病歷描述診斷口腔疾病時,準確率高達 91.6%,表現優於 ChatGPT-4o 和人類醫師。雖然 DeepSeek-R1 無法判讀影像,但在以文字資訊輔助口腔醫學診斷方面,展現出很大的潛力。 相關文章 PubMed DOI 推理

這項研究比較七款AI聊天機器人在土耳其牙科專科考試補綴牙科題目的表現。ChatGPT-4表現最好,正確率75.8%,特別擅長知識型題目;Gemini AI最差,正確率46.1%。所有AI在案例型題目上都較弱。結果顯示,AI可輔助牙科教育,但面對複雜臨床情境還需加強。 相關文章 PubMed DOI 推理

ChatGPT-3.5 在456題波蘭醫學實驗室遺傳學考題中,整體正確率59%,計算題表現最好(71%),臨床案例題最差(37%)。簡單題正確率63%,複雜題43%。多次測驗結果穩定,但在複雜專業推理上仍有限,暫不適合用於醫學遺傳學教育或考試。 相關文章 PubMed DOI 推理

研究發現,ChatGPT雖然能正確回答部分輸血醫學的基礎問題,但在複雜或新穎主題上常出現錯誤甚至危險的答案,且錯誤內容表達得很有自信,容易誤導學生。約三分之一回答未通過專家審查,因此目前不建議用ChatGPT作為輸血醫學的學習工具。 相關文章 PubMed DOI 推理

這篇文章介紹ELEVATE-GenAI框架和檢查清單,這是首套專為健康經濟與療效研究(HEOR)中應用大型語言模型(LLMs)設計的標準化報告指引。該框架涵蓋十個重點面向,並以兩個實例說明其實用性。雖然有助提升研究透明度與可重現性,但還需更多測試來優化和推廣。 相關文章 PubMed DOI 推理

這項研究比較四款大型語言模型在外科考題上的表現,發現 ChatGPT 4o 答對率最高(81.3%),其他模型較低。雖然 Gemini 和 Perplexity 內部答案一致,但不同模型間差異大,各專科表現也不同。整體來說,這些 AI 對外科教育有潛力,但可靠性不足,高風險考試時要小心使用。 相關文章 PubMed DOI 推理

這篇研究提出 iALP 方法,結合 ProtT5 語言模型和 GLU,有效辨識過敏原蛋白,準確率高達 0.957,表現比現有方法更好。iALP 工具可在 GitHub 下載,未來有助於提升過敏預防和治療策略。 相關文章 PubMed DOI 推理