原始文章

這項初步研究發現,ChatGPT 3.5回答腦血管問題時,比醫師更完整、有同理心,正確率也差不多,但用詞較艱深,一般人可能看不懂。未來可考慮結合AI和醫師意見,幫助病患更好溝通。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4在介入放射學程序潛在併發症資訊的準確性、可靠性和可讀性。兩位經驗豐富的醫師使用5點李克特量表對25個程序的回應進行評分,結果顯示評分一致性高(ICC達0.928)。可讀性評估顯示資訊通常達到大學水平,但可讀性較低。整體而言,ChatGPT-4在提供準確資訊方面表現良好,未出現幻覺,顯示其在病人教育上有潛力,但仍需高健康素養以理解這些資訊。 PubMed DOI

本研究評估六款生成式AI聊天機器人在鎖骨骨折管理教育中的效果,包括ChatGPT 4、Gemini 1.0等。雖然可讀性分數無顯著差異,但Microsoft Copilot和Perplexity的回答質量明顯優於其他模型。整體來看,這些AI模型在病患教育中表現良好,特別是Microsoft Copilot和Perplexity,適合用於提供鎖骨骨折相關資訊。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究評估了兩個AI聊天機器人,ChatGPT 3.5和Perplexity,針對Dravet症候群的問題回答表現。從醫療專業人員和照顧者收集了96個問題,並由癲癇專家評分。 主要發現包括:ChatGPT 3.5的準確率為66.7%,而Perplexity為81.3%。兩者在治療問題上表現不佳,完整性方面,ChatGPT 3.5為73.4%,Perplexity為75.7%。ChatGPT 3.5能修正55.6%的錯誤,Perplexity則為80%。可讀性上,Perplexity優於ChatGPT 3.5。研究顯示AI在醫療資訊提供上有潛力,但仍需改善。 PubMed DOI

這項研究評估了手部手術相關的線上醫療資訊,並比較了Google、ChatGPT-3.5和ChatGPT-4.0的回應。研究針對腕隧道症候群、網球肘和富血小板血漿用於拇指關節炎三個問題進行分析。 主要發現包括: 1. **可讀性**:Google的回應較易讀,平均在八年級水平,而ChatGPT則在大學二年級水平。低共識主題的可讀性普遍較差。 2. **可靠性與準確性**:ChatGPT-4的可靠性與3.5相似,但低共識主題的可讀性較低,準確性差異不大。 3. **覆蓋範圍**:ChatGPT-4和Google在疾病原因和程序細節的覆蓋上有所不同,但在解剖學和病理生理學上相似。 總結來說,雖然ChatGPT能提供可靠的醫療資訊,但可讀性較差,醫療提供者需注意其局限性。 PubMed DOI

這項研究比較了ChatGPT-3.5、Copilot和Gemini三款聊天機器人,發現它們回答根管再治療相關問題時,內容都太難懂,超過一般病人能輕鬆理解的程度。雖然Gemini表現最好,但還是沒達到理想的衛教標準,顯示這些AI工具未來還需要加強,才能真正幫助病人了解醫療資訊。 PubMed DOI

這項研究發現,GPT-4o在回答有關惡性大腦中動脈梗塞減壓顱骨切除術的家屬常見問題時,正確性和清楚度不錯,但內容不夠完整、缺乏參考資料,且用詞較難懂。雖然能提供部分有用資訊,但在衛教實用性上還有待加強。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

這項研究發現,ChatGPT 3.5雖然能提供遠端肱二頭肌肌腱修復手術的相關資訊,品質算不錯,但缺乏來源、用詞太艱深,病患可能看不懂。醫師建議大家用ChatGPT查醫療資訊時要特別小心,內容不一定正確或容易理解。 PubMed DOI

這項研究發現,ChatGPT在回答硬脊膜外類固醇注射相關問題時,整體來說資訊正確且清楚,尤其是針對一般性問題。不過,AI在展現同理心方面表現有限,有時也會離題。未來若要在臨床上廣泛應用,還需要更精確的提問設計和更多研究來確保病人安全。 PubMed DOI