原始文章

這項研究發現,ChatGPT-4o寫病史的品質跟住院醫師差不多,但速度快很多(只要40秒,醫師要15分鐘)。雖然AI有助提升效率和品質,但資料安全和隱私問題還沒解決,實際應用前還需要更多研究,特別是在複雜病例和不同臨床環境下的表現。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT模型和病理學住院醫師在診斷疾病上的表現,結果顯示ChatGPT在描述和診斷方面表現一致,但不及醫師。然而,當提供正確描述時,ChatGPT在診斷上有潛力。儘管目前ChatGPT不如醫師,但未來可能成為病理診斷的有用輔助工具。 PubMed DOI

研究比較了ChatGPT、GPT-3.5和GPT-4在急診科環境中的診斷能力。結果顯示,GPT-4在內科緊急情況的診斷上比GPT-3.5和住院醫師表現更好,尤其在心血管、內分泌和消化系統疾病方面。這顯示GPT-4有潛力成為急診科中有用的診斷工具。 PubMed DOI

這項研究比較了ChatGPT-4生成的精神科出院摘要與住院醫師撰寫的摘要質量。研究結果顯示,人類撰寫的摘要在整體質量上明顯優於AI生成的,平均評分分別為3.78和3.12。人類摘要在大多數評估項目中表現更佳,且評分者偏好人類版本。AI摘要在40%的案例中出現幻覺,且內容錯誤率較高。雖然AI生成的摘要在簡潔性和正式性上有一定表現,但仍需改進,未來可作為醫生修訂的參考。 PubMed DOI

人工智慧(AI)在醫療領域的應用對醫學實踐影響深遠,尤其在教育、診斷和治療方面。本研究評估了OpenAI的ChatGPT在卡塔爾急診醫學住院醫師考試中的表現,並與住院醫師的成績進行比較。結果顯示,ChatGPT在所有考試類別中均表現優於住院醫師,但高年級住院醫師的及格率卻下降,顯示考試成績與實際技能之間的脫節,可能與COVID-19疫情對教育的影響有關。總體而言,ChatGPT在急診醫學領域展現出強大的理論知識,顯示其作為醫學教育輔助工具的潛力。 PubMed DOI

這項研究評估了ChatGPT在西班牙神經科專科考試中的表現,特別是版本3.5和4,並與人類醫生進行比較。考試包含80道多選題,結果顯示人類醫生中位數得分為5.91,32人未通過。ChatGPT-3.5得分3.94,正確率54.5%,排名第116;而ChatGPT-4得分7.57,正確率81.8%,排名第17,超越許多人類專家。研究顯示,ChatGPT-4在醫學知識評估中有顯著進步,顯示其在專業醫學教育中的潛在價值。 PubMed DOI

這項研究探討大型語言模型(LLMs),如ChatGPT,在臨床環境中進行病史採集和文檔記錄的能力。研究比較了ChatGPT 3.5和4.0版本在模擬臨床情境中的表現,結果顯示ChatGPT-4.0在病歷文檔質量上有顯著改善,且與初級住院醫師的表現相當。雖然人類的整體質量仍優於機器,但ChatGPT-4.0在醫療記錄方面展現出良好能力,顯示LLMs在臨床實踐中的潛力與限制。人類專業知識仍然對高品質病人互動至關重要。 PubMed DOI

這項研究探討了使用ChatGPT-4o作為虛擬病人,協助醫學實習生的臨床訓練。研究在艾登阿德南門德雷斯大學進行,21名六年級醫學生參與,透過問卷、訪談和觀察收集數據。結果顯示,實習生的自我評估與實際表現正相關,但在問題解決和臨床推理上存在明顯差距,且時間壓力加劇不安感。儘管面臨技術問題,實習生對AI輔助訓練表示滿意,並願意參加類似訓練。研究建議ChatGPT-4o可成為提升臨床技能的有效工具。 PubMed DOI

本研究探討AI模型(如GPT-3.5和GPT-4)在急診科生成病症鑑別診斷的表現,並與急診科醫師的準確性進行比較。結果顯示,ChatGPT-4的準確率為85.5%,略高於ChatGPT-3.5的84.6%和醫師的83%。特別是在腸胃主訴方面,ChatGPT-4的準確性達87.5%。研究顯示AI模型在臨床決策中具潛在應用價值,建議未來進一步探索AI在醫療中的應用。 PubMed DOI

這項研究評估了ChatGPT 4.0在識別德國神經學報告錯誤的效果,並與人類專家比較。分析了十份報告,每份有十個語言錯誤和一個重要內容錯誤。結果顯示,使用第一個提示時,AI的準確率為35%,而第二個提示則達到75%。AI的處理速度明顯快於人類,第一個提示平均102.4秒,第二個209.4秒,人類則需374秒。研究指出,AI能有效協助醫療報告撰寫,且提示設計對結果影響重大。 PubMed DOI

這項研究發現,AI輔助護理紀錄(用ChatGPT 4.0)能讓護理人員省下約40%紀錄時間,且在完整性、易用性和流暢度上表現不錯。不過,準確性和實用性還有待加強。整體來說,生成式AI有潛力提升護理紀錄效率,但還需要再優化才能更好應用在臨床現場。 PubMed DOI