原始文章

這項研究探討了人工智慧(AI)如何幫助一般醫師(GPs)進行關於死亡的開放性討論。研究使用ChatGPT-4o模擬醫療溝通場景,讓GP與臨終病人及其照顧者進行諮詢。結果顯示,ChatGPT成功創建了一個七步驟的討論場景,但未明確使用「臨終」或「死亡」等詞彙,也忽略了文化和宗教因素。總結來說,ChatGPT-4o可作為GPs學習進行敏感討論的有用工具,無需高端技術資源。 PubMed DOI


站上相關主題文章列表

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI

最近生成式人工智慧的進展,特別是像ChatGPT這類工具,顯示出在醫療保健中提升決策支持、教育和病人參與的潛力。不過,必須進行徹底評估以確保其臨床使用的可靠性和安全性。2023年的一項回顧分析了41篇學術研究,強調了ChatGPT在醫學領域的有效性,並指出其表現因專科和語言環境而異。雖然展現了潛力,但仍需克服一些挑戰。總體而言,持續改進對於成功整合至醫療保健至關重要,以改善病人護理結果。 PubMed DOI

人工智慧(AI)如ChatGPT-4正在改變醫療保健,特別是在脊椎轉移的治療決策上。本研究評估了ChatGPT-4在五個脊椎轉移案例中的表現,並與五位經驗豐富的脊椎外科醫生進行比較。結果顯示,ChatGPT的建議在73%的案例中與醫生一致,但多數建議偏向一般性,缺乏具體臨床指導。這顯示出AI在複雜醫療決策中的潛力與限制,未來需進一步研究以提升其應用效果。 PubMed DOI

人工智慧(AI)在醫療領域的應用帶來了機會與挑戰,尤其在倫理和專業問題上。本研究評估了ChatGPT 3.5和4.0在處理醫療情境中的表現,使用了273道來自不同題庫的問題。結果顯示,GPT-3.5的正確回答率普遍低於醫學生的平均水平,而GPT-4在某些題庫中表現較佳。雖然GPT-4在倫理和人際互動方面顯示潛力,但人類的推理能力仍然優於AI,未來需持續發展AI系統以提升其在醫療中的有效性。 PubMed DOI

這項研究探討了聊天機器人在臨終關懷中的應用,透過詢問ChatGPT、Bard和Bing來定義相關術語。六位醫生評估了這些回應的準確性、全面性和可信度。結果顯示,ChatGPT在準確性和全面性上表現較佳,但可信度普遍偏低,且可讀性不佳。這強調了臨床醫師監督的重要性,以避免在臨終關懷中出現錯誤資訊。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究發現,ChatGPT-4和4O在放射腫瘤科的文字型臨床問題上表現不錯,能提供實用建議,但遇到複雜或技術性高的情境就不太可靠。特別是在判讀鼻咽癌MRI影像時,ChatGPT-4O完全無法正確分期。總結來說,ChatGPT適合輔助一般臨床決策,但影像判讀還不行,使用時要特別小心。 PubMed DOI

這項研究發現,醫學生用 ChatGPT 當虛擬標準化病人練習問診,覺得方便又彈性,對學習有幫助。不過,缺乏表情和情感互動、設計提示有難度,是目前的缺點。大家對 AI 的信任度有提升,但還是認為無法完全取代真人 SP。建議醫學教育要教 prompt engineering,並持續優化 AI。 PubMed DOI

這項研究比較GPT-4和中國腫瘤科醫師回答癌症病患問題的表現。結果顯示,GPT-4在病患衛教的答案較完整,正確性和安全性也不輸醫師,但在醫療決策上正確率較低,偶爾還會出現危險錯誤。醫師和病患對同理心的感受也不同。總結來說,GPT-4適合用於衛教,但在醫療決策上仍需醫師把關。 PubMed DOI

這項研究發現,讓醫學生用 ChatGPT 扮演「標準化病人」練習溝通,能提升他們面對困難情境的信心,學生覺得這種方式安全又方便,回饋也很詳細。不過,AI 在情感表現和技術上還有待加強,不同學校學生的接受度也不一樣。由於樣本少、沒對照組,結果僅供參考,未來還需更大規模的客觀研究。 PubMed DOI