LLM 相關三個月內文章 / 第 22 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究發現,ChatGPT回答眼瞼手術常見問題時,內容大致正確且有幫助,但用詞偏高中程度,部分病患可能覺得難懂。不同問題類型的可讀性差不多。總結來說,ChatGPT能提供實用資訊,但答案不一定完全正確,也未必人人都看得懂。 相關文章 PubMed DOI 推理

這項研究比較四款熱門免費大型語言模型在檢查健康研究報告是否遵守PRISMA 2020和PRIOR指引的表現。結果發現,所有模型在PRISMA 2020的判斷上都高估了合規情況,準確度不如人類專家;但在PRIOR指引上,ChatGPT表現和專家差不多。這是首篇針對此任務的比較研究,未來還需更多探討AI在健康研究審查的應用。 相關文章 PubMed DOI 推理

這項研究比較了 ChatGPT-4、DeepSeek 和 Gemini 在回答閱讀障礙和計算障礙問題時的表現。三款 AI 都能給出高品質、實用的答案,但 ChatGPT-4 在計算障礙方面最穩定,DeepSeek 在閱讀障礙上最可靠。整體來說,三者表現差異不大,但相關資訊還是需要專業人士確認。 相關文章 PubMed DOI 推理

Epi-PRS 是新一代多基因風險分數,運用大型語言模型分析全基因體定序資料,能預測細胞類型特異的表觀基因組訊號,包含罕見和調控性變異。這方法可捕捉非線性與調控效應,提升疾病風險預測準確度。實驗顯示,Epi-PRS 在乳癌、第二型糖尿病等疾病的預測表現都比傳統方法更好,能提供更精確、易懂的個人化醫療風險評估。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT 4o針對不同國家提問的oJIA治療問題,回答內容在正確性上差不多,但用詞和重點會因地區而異。整體來說,答案不太好讀,專家對是否符合指引的看法也不一致,顯示AI醫療資訊評估有難度。提醒大家,使用LLM產生的醫療資訊時要特別小心,尤其要注意地區差異。 相關文章 PubMed DOI 推理

GenAIE 計畫運用像 ChatGPT 這類生成式 AI,為英國弱勢族群(特別是受刑人和緩刑人)提供個人化教育訓練,目標是降低再犯率,減少社會成本。由倫敦大學學院和 MegaNexus 推動,已服務超過 5 萬人、累積近 60 萬小時學習,展現 AI 在社會公益上的正面影響。 相關文章 PubMed DOI 推理

一項針對822位醫師的研究發現,醫師罹患喉咽逆流(LPR)的比例比一般人高,主要和輪班、不規律飲食、不健康習慣及長工時有關,年齡和性別影響不大。研究也提出新模型可評估個人風險,建議改善排班、飲食和壓力管理,有助降低LPR發生率。 相關文章 PubMed DOI 推理

cGSA 是新一代 AI 基因集分析工具,運用大型語言模型,能針對特定疾病情境,精準排序相關路徑,減少雜訊和重複結果。實驗證明,cGSA 比傳統方法更有效,讓研究人員更容易找出有意義的生物學假說。 相關文章 PubMed 推理

這項研究用88份真實MRI肝臟病灶報告,測試多款大型語言模型的分類能力。結果發現,Claude 3.5 Sonnet準確率最高,勝過GPT-4o等其他模型。雖然LLM有潛力協助醫療診斷,但臨床應用前還需更多驗證,嚴謹測試也很重要。 相關文章 PubMed DOI 推理

這項研究發現,目前免費的AI工具(如ChatGPT、Bard、SmallSEO)在偵測科學論文抄襲上效果有限,尤其對AI重寫過的內容幾乎無法辨識。也就是說,AI不僅難以抓出抄襲,還能幫助抄襲內容規避偵測,現階段並不可靠。 相關文章 PubMed DOI 推理