LLM 相關三個月內文章 / 第 71 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

**重點整理:** 美國頂尖醫院的大多數神經外科病人衛教資料(PEMs)寫得太難,超過一般美國人(大約國中二年級程度)的閱讀能力。利用ChatGPT-4,可以快速把這些資料改寫得更容易懂,提升健康識讀能力,同時又不會犧牲正確性。 相關文章 PubMed DOI 推理

這項初步研究用大型語言模型打造的模擬病人平台,訓練外科住院醫師的文化敏感度。16位醫師參與後覺得互動真實、臨床相關性高,對練習文化敏感溝通很有幫助,尤其在疼痛管理上。大家比較喜歡用文字互動,建議未來加強病人細膩度和語音真實感。整體來說,這個工具很有潛力,適合推廣到外科教育訓練。 相關文章 PubMed DOI 推理

這篇論文提出一個結合6層RoBERTa和膠囊網路的輕量級模型,能有效且快速偵測社群媒體上的心理疾病文字。模型運算成本低、準確率高,適合即時或資源有限的應用。研究也用LIME提升預測解釋性,整體表現優於傳統大型語言模型。 相關文章 PubMed DOI 推理

這項研究發現,經過系統訓練後,骨科住院醫師用 ChatGPT 寫作,寫作技巧、語言和結構都有明顯進步。不過,AI 對原創性和批判性思考沒幫助,所以 ChatGPT 應該當作輔助工具,不能取代醫學教育裡的人為指導和研究訓練。 相關文章 PubMed DOI 推理

這篇文章回顧ChatGPT在科學寫作和生醫研究的應用,強調人工幻覺、抄襲、倫理、偏見和錯誤等問題。雖然ChatGPT能幫助學術寫作,但內容不一定可靠,需人工審查。作者提出SMF框架來評估其應用與風險,建議納入研究訓練課程,提升品質並認識AI限制。 相關文章 PubMed DOI 推理

這項研究發現,當人們知道訊息是AI寫的時候,特別是在情感敏感的情境下,會覺得這些訊息比較沒創意、不真誠、道德價值也較低。即使把AI包裝得像人,效果也只是暫時的,一旦揭露真相,評價就會下降。這顯示AI在處理高情感需求的溝通上,還是有明顯侷限。 相關文章 PubMed DOI 推理

生成式AI正改變糖尿病照護,能產生合成資料、模擬血糖與胰島素變化,並協助開發個人化數位工具,有助解決資料不足和個體差異問題。不過,模型穩定性、資料需求、可解釋性和倫理等挑戰仍待克服。本文回顧生成式AI在糖尿病醫療的現況與未來發展。 相關文章 PubMed DOI 推理

這篇系統性回顧指出,ChatGPT等大型語言模型在心血管疾病照護上,主要用於病人衛教,能提供大致正確的資訊,但偶爾會有錯誤。雖然在臨床決策支援上有潛力,但還不適合用於個人化診斷或治療。整體來說,LLMs適合當作病人補充資訊的工具,未來發展空間很大。 相關文章 PubMed DOI 推理

這項研究發現,精心設計的提示,特別是「guided-thinking Tree-of-Thought(ToT)」策略,能大幅提升GPT-4o在主動脈瓣狹窄治療建議的準確度,最高達94%,而且結果跟專家很接近。反觀簡單的zero-shot提示,效果就差很多。整體來說,ToT策略讓AI在複雜臨床決策上表現更好,但AI還是偏好較保守、低侵入性的治療建議。 相關文章 PubMed DOI 推理

這項研究開發了一套用大型語言模型(LLM)自動從心臟超音波報告中擷取重點資料的方法。團隊用合成報告訓練並微調小型LLM(HeartDX-LM),在多家醫院資料中,擷取臨床資訊的準確率高達98.7%。這技術能把醫師寫的自由文字報告轉成結構化資料,方便後續分析和臨床應用。HeartDX-LM模型已開放下載。 相關文章 PubMed DOI 推理