LLM 相關三個月內文章 / 第 23 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇論文提出一套結合區塊鏈和大型語言模型的健康保險詐欺偵測系統,能安全儲存醫療紀錄並用AI分析詐欺行為。系統支援自然語言查詢,偵測準確率高達99%,速度快又安全,且已開源,方便業界應用。 相關文章 PubMed DOI 推理

MDKG 是由 AI 建構的精神疾病知識圖譜,把分散的精神健康資料整合成一個網絡,涵蓋超過一千萬筆關聯(其中一百萬筆是新發現)。它包含人口統計和共病等細節,有助於加快專家審查,提升精神疾病預測,對精神醫學研究和臨床應用都很有幫助。 相關文章 PubMed DOI 推理

研究人員用眼動追蹤和反應時間等線上閱讀測量,來研究語境對單字處理的影響。雖然量化語境影響不容易,但現在可以用大型語言模型(LLMs)來估算單字出現機率,進而算出熵和驚異度這些指標。這些指標能反映閱讀難度,研究也會檢驗它們是否能預測人類閱讀行為。這篇綜述整理了LLM指標在解釋閱讀數據上的表現,並討論其研究意義。 相關文章 PubMed DOI 推理

SREDH/AI CUP 2023 競賽評估 LLM 在病理報告去識別化和日期標準化的表現,頂尖隊伍 macro-F1 分數都超過 0.8。微調 LLM(特別是低秩適應)能提升效果,但超大型模型容易過度擬合。資料增強、訓練策略和混合方法都很重要。醫療應用 LLM 時,需兼顧效能與隱私、法律和倫理規範。 相關文章 PubMed DOI 推理

這項研究比較了市面上熱門的多模態大型語言模型(像是 ChatGPT-4.5、o4-mini-high 和 Google Gemini 2.5 Pro)在判讀小孩手部X光、預測骨齡的準確度,並和放射科醫師做對照。雖然 Gemini 2.5 Pro 表現最好,但所有模型的誤差都很大(平均差2到3年),結果也不穩定,現階段還不適合臨床使用,未來還需要大幅改進。 相關文章 PubMed DOI 推理

自從ChatGPT問世後,成人重建專科進修申請的自傳用AI生成的比例大增,從0.4%暴增到15.1%。國際和非美國申請者用AI的情況比美國本地申請者還多。這顯示未來需要更透明的規範、明確的AI使用指引,也要重新檢討自傳在選才上的意義。建議其他專科和機構也應該進行類似研究。 相關文章 PubMed DOI 推理

這項研究發現,ScholarGPT 在搜尋和摘要解剖學教育研究時,比 ChatGPT 表現更好,尤其在複雜搜尋下更明顯。不過,兩者都常出錯,結果也有偏向,目前還不夠可靠,暫時無法真正協助研究人員回顧相關文獻,但未來若改進,有機會更實用。 相關文章 PubMed DOI 推理

AI(像ChatGPT這類大型語言模型)正改變急診醫學,提升資料處理和決策效率。不過,模型錯誤、偏誤、透明度不足及倫理問題仍是挑戰。實際應用展現潛力,但責任歸屬、法規標準及人類監督等議題,還需妥善處理,才能確保AI在臨床上安全又負責任地運用。 相關文章 PubMed DOI 推理

這項研究評估德語AI聊天機器人(用GPT-4和檢索增強技術)回答乳癌患者問題的表現。結果顯示,機器人大多能提供清楚、正確且安全的資訊,但有時細節不夠或有過時建議。整體來說,這類AI有助於乳癌患者獲得個人化資訊並促進溝通,但仍需持續監督和定期更新,確保資訊正確安全。 相關文章 PubMed DOI 推理

這項研究比較 ChatGPT-4o 和 DeepSeek-v3 在中英文氣喘衛教的表現。兩者都能給出高品質、臨床相關的答案。DeepSeek-v3 在資訊完整性和更新度較好,特別適合需要詳細臨床資訊時使用;ChatGPT-4o 則說明更清楚、易懂,適合一般衛教。兩者都能協助病人自我管理,但不能取代醫師。未來 AI 工具應加強臨床推理和資訊更新,並需人工監督以確保安全。 相關文章 PubMed DOI 推理