LLM 相關三個月內文章 / 第 31 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究比較了市面上熱門的多模態大型語言模型(像是 ChatGPT-4.5、o4-mini-high 和 Google Gemini 2.5 Pro)在判讀小孩手部X光、預測骨齡的準確度,並和放射科醫師做對照。雖然 Gemini 2.5 Pro 表現最好,但所有模型的誤差都很大(平均差2到3年),結果也不穩定,現階段還不適合臨床使用,未來還需要大幅改進。 相關文章 PubMed DOI 推理

自從ChatGPT問世後,成人重建專科進修申請的自傳用AI生成的比例大增,從0.4%暴增到15.1%。國際和非美國申請者用AI的情況比美國本地申請者還多。這顯示未來需要更透明的規範、明確的AI使用指引,也要重新檢討自傳在選才上的意義。建議其他專科和機構也應該進行類似研究。 相關文章 PubMed DOI 推理

這項研究發現,ScholarGPT 在搜尋和摘要解剖學教育研究時,比 ChatGPT 表現更好,尤其在複雜搜尋下更明顯。不過,兩者都常出錯,結果也有偏向,目前還不夠可靠,暫時無法真正協助研究人員回顧相關文獻,但未來若改進,有機會更實用。 相關文章 PubMed DOI 推理

AI(像ChatGPT這類大型語言模型)正改變急診醫學,提升資料處理和決策效率。不過,模型錯誤、偏誤、透明度不足及倫理問題仍是挑戰。實際應用展現潛力,但責任歸屬、法規標準及人類監督等議題,還需妥善處理,才能確保AI在臨床上安全又負責任地運用。 相關文章 PubMed DOI 推理

這項研究評估德語AI聊天機器人(用GPT-4和檢索增強技術)回答乳癌患者問題的表現。結果顯示,機器人大多能提供清楚、正確且安全的資訊,但有時細節不夠或有過時建議。整體來說,這類AI有助於乳癌患者獲得個人化資訊並促進溝通,但仍需持續監督和定期更新,確保資訊正確安全。 相關文章 PubMed DOI 推理

這項研究比較 ChatGPT-4o 和 DeepSeek-v3 在中英文氣喘衛教的表現。兩者都能給出高品質、臨床相關的答案。DeepSeek-v3 在資訊完整性和更新度較好,特別適合需要詳細臨床資訊時使用;ChatGPT-4o 則說明更清楚、易懂,適合一般衛教。兩者都能協助病人自我管理,但不能取代醫師。未來 AI 工具應加強臨床推理和資訊更新,並需人工監督以確保安全。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4o 回答肺癌放射治療相關問題時,內容大致正確且有幫助,但用詞偏艱深,病人閱讀上有困難。醫師認為答案有參考價值但不夠完整,病人則對資訊的可信度和實用性信心較低。雖未發現明顯錯誤,整體來說,ChatGPT-4o 有潛力輔助衛教,但建議加強可讀性與完整性,並需醫師審核。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT在解釋化學性眼傷時,答案大致正確且符合醫療指引,但有時會漏掉重要細節,語言也偏艱深,對健康知識較少的人不太友善。若能用更簡單的說法,並補充指引內容,會更理想。整體來說,ChatGPT有潛力做病人衛教,但還需優化。 相關文章 PubMed DOI 推理

這項研究發現,GPT-4o在建議臨床檢查時表現穩定且精確度不錯,但有時會漏掉必要檢查(召回率偏低)。不同問法或案例複雜度對結果影響不大。雖然有潛力協助醫師,但還需加強,特別是確保不遺漏重要檢查。未來應結合臨床實務和在地指引,並納入醫師意見來優化。 相關文章 PubMed DOI 推理

研究發現,內科住院醫師編輯大型語言模型(LLM)產生的住院過程摘要時,所需修改比編輯醫師自己寫的還少。主治醫師認為LLM產生的摘要完整性較高,精簡和連貫度差不多,但虛構內容較多。整體來說,經過編輯後,LLM產生的摘要品質不輸醫師手寫,顯示醫師搭配LLM撰寫出院摘要是可行的,但要小心虛構內容。 相關文章 PubMed DOI 推理