LLM 相關三個月內文章 / 第 24 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究發現,ChatGPT-4o 回答肺癌放射治療相關問題時,內容大致正確且有幫助,但用詞偏艱深,病人閱讀上有困難。醫師認為答案有參考價值但不夠完整,病人則對資訊的可信度和實用性信心較低。雖未發現明顯錯誤,整體來說,ChatGPT-4o 有潛力輔助衛教,但建議加強可讀性與完整性,並需醫師審核。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT在解釋化學性眼傷時,答案大致正確且符合醫療指引,但有時會漏掉重要細節,語言也偏艱深,對健康知識較少的人不太友善。若能用更簡單的說法,並補充指引內容,會更理想。整體來說,ChatGPT有潛力做病人衛教,但還需優化。 相關文章 PubMed DOI 推理

這項研究發現,GPT-4o在建議臨床檢查時表現穩定且精確度不錯,但有時會漏掉必要檢查(召回率偏低)。不同問法或案例複雜度對結果影響不大。雖然有潛力協助醫師,但還需加強,特別是確保不遺漏重要檢查。未來應結合臨床實務和在地指引,並納入醫師意見來優化。 相關文章 PubMed DOI 推理

研究發現,內科住院醫師編輯大型語言模型(LLM)產生的住院過程摘要時,所需修改比編輯醫師自己寫的還少。主治醫師認為LLM產生的摘要完整性較高,精簡和連貫度差不多,但虛構內容較多。整體來說,經過編輯後,LLM產生的摘要品質不輸醫師手寫,顯示醫師搭配LLM撰寫出院摘要是可行的,但要小心虛構內容。 相關文章 PubMed DOI 推理

這項研究發現,無論是網路還是AI生成的逆行性環咽肌功能障礙(RCPD)衛教資料,內容都偏難懂,實用性和協助治療決策的品質也不夠好。研究建議,未來應提供更清楚、容易執行且品質更高的病患資訊。 相關文章 PubMed DOI 推理

這項研究用生成式AI和機器學習,從錄音訪談自動評估思覺失調症的負性症狀,分析影像和音訊來看表達,逐字稿則評估動機和愉悅感。AI評分和臨床醫師高度一致,顯示這技術能讓評估更準確有效率,對臨床很有幫助。 相關文章 PubMed DOI 推理

這篇綜述分析38篇研究,探討AI和大型語言模型在護理教育的應用,像是模擬訓練、預測分析和教學輔助等。AI有助於個人化學習和表現預測,但目前還有倫理疑慮,且缺乏長期成效的證據。未來需要更多研究來評估AI的長期影響及學生實際使用情形。 相關文章 PubMed DOI 推理

這篇論文提出用大型語言模型和RAG技術,從文獻自動生成有結構、含引用的科學綜述草稿。實驗發現,資料越多元,綜述品質越高,但AI草稿還缺乏批判性和原創性。方法已在特定主題驗證,也適用於其他領域。論文同時討論未來改進、倫理、作者歸屬及AI過度產生綜述的風險,強調AI寫作的優勢與挑戰。 相關文章 PubMed DOI 推理

低社經家庭常因資源有限,難以獲得良好燒燙傷照護,轉而依賴網路資訊。本研究發現,ChatGPT提供的燒燙傷照護資訊比Google更正確,也更能回應經濟負擔和醫療可近性的需求。雖然兩者可讀性差不多,但ChatGPT在社經議題的回應上表現較佳,顯示AI有助於縮小健康資訊落差,但還需更多研究驗證。 相關文章 PubMed DOI 推理

這篇論文討論數位分身(以個人為基礎的AI代理人)如何影響我們的價值觀和自我認同。作者認為,這些AI不只是工具,還可能成為我們的社交夥伴,進而改變我們是怎樣的人。最後提醒,這類技術普及前,應該先審慎思考其影響。 相關文章 PubMed DOI 推理