原始文章

這項研究比較了AI支援的搜尋引擎與傳統醫院內部網路在急診醫生檢索臨床資訊的效果。研究分為兩階段,第一階段觀察10位醫生使用內部網路,第二階段則觀察另一組10位醫生使用AI搜尋引擎。結果顯示,AI組醫生的臨床經驗較多,搜尋次數較少但每次花的時間多了43秒。兩組的滿意度相似,AI搜尋引擎的淨推薦值為20。研究認為AI搜尋引擎有潛力改善臨床指導,未來應針對不同用戶群體進行進一步研究。 PubMed DOI


站上相關主題文章列表

這項研究探討了緊急情境中的分診決策,對比醫療專業人員與人工智慧(AI)模型的表現。研究發現,醫療人員的準確率(30.7%)高於AI模型(25.5%),顯示人類專業知識在分診中仍然更可靠。研究涉及50個虛擬病人情境,參與者使用土耳其衛生部的顏色編碼系統進行分類。雖然AI能快速分析數據,但在此情境下表現不如人類。作者建議結合AI與人類專業知識,以提升分診系統的效率。 PubMed DOI

這項研究分析了執業醫生與五年級醫學生對人工智慧(AI)的看法與經驗。調查顯示,26.67%的醫生和13.33%的學生未使用過AI。學生對AI的有效性評價普遍高於醫生,尤其在教育和工作經驗上。雖然兩組人員都使用AI來檢索資訊,但學生對AI在教育和實踐中的應用持較開放態度。儘管認同AI的優勢,雙方對其準確性和可靠性仍有疑慮。研究建議需進一步探討AI在醫學課程中的整合及相關倫理問題。 PubMed DOI

人工智慧在醫療領域的應用,像是OpenEvidence這種工具,提供即時醫學文獻存取,對醫學教育和臨床實踐有很大幫助。它能協助醫學生在實習時快速搜尋臨床指導和治療方法,簡化決策過程。不過,OpenEvidence在精確搜尋特定文章和作者時會遇到困難,且內容策展不夠透明。與ChatGPT和UpToDate相比,它在某些進階功能上有所不足。這篇社論指出,改善透明度和擴大證據整合將提升其在基於證據的醫學教育中的有效性。 PubMed DOI

本研究探討AI模型(如GPT-3.5和GPT-4)在急診科生成病症鑑別診斷的表現,並與急診科醫師的準確性進行比較。結果顯示,ChatGPT-4的準確率為85.5%,略高於ChatGPT-3.5的84.6%和醫師的83%。特別是在腸胃主訴方面,ChatGPT-4的準確性達87.5%。研究顯示AI模型在臨床決策中具潛在應用價值,建議未來進一步探索AI在醫療中的應用。 PubMed DOI

這項研究評估了幾個大型語言模型(LLM)聊天機器人,包括Google、Bard、GPT-3.5和GPT-4,對於慢性健康狀況的病人教育效果。研究針對高血壓、高脂血症、糖尿病、焦慮和情緒障礙等五個常見健康問題進行評分。結果顯示,GPT-3.5和GPT-4在內容的全面性和質量上表現優於Bard和Google,但後者的回應更易讀。整體來看,這項研究建議LLM工具在健康查詢中可能比傳統搜尋引擎提供更準確的信息,適合用於病人教育。 PubMed DOI

這篇系統性回顧分析30項比較LLM和醫師臨床診斷的研究,發現LLM診斷準確率雖不錯,但多數研究有偏誤,且準確度還不及醫師。不過,若小心運用,未來LLM有望成為醫療智慧助理。 PubMed DOI

這項研究比較SCAI大型語言模型和傳統網路搜尋的資訊查詢效果。參與者分別用兩種方式完成任務並給予回饋。結果顯示,SCAI在資訊完整性、效率和易用性上表現更佳。研究也透過操作流程和使用者評分,評估SCAI作為新型資訊工具的實用價值。 PubMed DOI

最新研究發現,OpenAI 的 o1 LLM 在急診臨床決策上表現跟醫師差不多,診斷和收治判斷準確率都超過九成,甚至在異常檢驗判讀上還拿到滿分。相比之下,Claude-3.5-Sonnet 和 Llama-3.2-70B 在治療計畫上表現較弱。整體來說,o1 有機會成為急診醫療現場的專業決策輔助工具。 PubMed DOI

這項研究發現,ChatGPT-4o寫病史的品質跟住院醫師差不多,但速度快很多(只要40秒,醫師要15分鐘)。雖然AI有助提升效率和品質,但資料安全和隱私問題還沒解決,實際應用前還需要更多研究,特別是在複雜病例和不同臨床環境下的表現。 PubMed DOI

這項研究發現,DeepSeek-R1 AI 能有效協助加護病房住院醫師診斷複雜重症,讓診斷正確率從 27% 提升到 58%,AI 自己的正確率則是 60%。有 AI 幫忙時,住院醫師不只診斷更準確,速度也更快,鑑別診斷品質也提升。整體來說,這類 AI 未來很有機會成為加護病房醫師的重要幫手。 PubMed DOI