原始文章

這項研究探討GPT生成的回應在病人入口網站的有效性,並與真實醫生的回應進行比較。研究發現,GPT的回應在同理心和可讀性上得分較高,但在相關性和準確性上差異不顯著。雖然可讀性較佳,但差異不大,讓人質疑其臨床意義。總體來說,研究建議GPT的訊息在某些方面可與醫療提供者相當,但仍需進一步研究其在醫療流程中的應用及病人對AI溝通的態度與倫理考量。 PubMed DOI


站上相關主題文章列表

這項研究探討生成式人工智慧,特別是像ChatGPT這樣的大型語言模型(LLMs),如何為從急診部轉至家庭的病人創建個性化的出院指示。研究發現,傳統出院指示常常耗時且缺乏個性化,因此使用GPT-4生成了五個虛構急診案例的出院指示。調查結果顯示,受訪者對GPT生成的指示評價較高,特別是在回診注意事項上,顯示LLMs能提升出院指示的清晰度和相關性,並改善醫療文檔流程,減輕醫療人員負擔。 PubMed DOI

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI

這項研究探討了人工智慧,特別是ChatGPT,如何與人類編碼結合,分析LGBTQ+患者的醫療經驗反饋。研究者希望透過這種混合方法,找出關鍵主題,如肯定性護理、醫療提供者的教育及溝通挑戰。雖然ChatGPT加速了編碼過程,但人類監督仍然對維持數據的完整性和上下文準確性非常重要。這種創新方法不僅提升了對患者反饋的分析,還提供了改善患者與醫療提供者互動的寶貴見解,並且是首個在此背景下結合AI與人類分析的研究。 PubMed DOI

一項2023年的研究探討了GPT-4在回答挪威語健康問題的表現,並與醫生的回答進行比較。研究使用了192個問題,並由344位醫療專業人員評估GPT-4的答案。結果顯示,GPT-4在同理心、資訊品質和幫助程度上都顯著優於醫生的回答,所有類別的p值均小於0.001。這顯示人工智慧可能成為醫療專業人員撰寫健康詢問回應的有力工具。 PubMed DOI

這項研究評估了GPT-4和BioMistral 7B兩個大型語言模型在回答罕見疾病病人詢問的表現,並與醫生的回應進行比較。結果顯示,GPT-4的表現優於醫生和BioMistral 7B,回應被認為正確且具同理心。BioMistral 7B的回應則部分正確,而醫生的表現介於兩者之間。專家指出,雖然LLMs能減輕醫生負擔,但仍需嚴格驗證其可靠性。GPT-4在溝通上表現佳,但需注意回應的變異性和準確性。 PubMed DOI

這篇論文探討如何利用大型語言模型(LLMs),像是ChatGPT-4,來改善醫療溝通,讓病人能選擇喜歡的溝通風格。研究基於Emanuel和Emanuel的四種溝通模式:父權式、資訊式、詮釋式和審議式,旨在滿足病人的需求與偏好。不過,論文也提到潛在風險,如可能加深偏見及LLMs的說服性,可能導致病人與醫療提供者之間的互動出現意外操控。 PubMed DOI

本研究探討了ChatGPT在長期鴉片類藥物治療中對患者教育的潛力。專家小組選定十三個常見問題,並讓GPT-4.0模擬醫生回答。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,但準確性中等,尤其在耐受性和依賴管理等技術性問題上較弱。這顯示出AI工具在患者教育中的輔助價值,但也強調了持續改進和專業訓練的必要性,醫療專業人士與AI開發者的合作對於提升教育質量至關重要。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究發現,ChatGPT在模擬腫瘤科病例下,能用結構化提示產生高品質的醫師和病人信件,內容正確、完整又相關,且沒有安全疑慮。病人信件也寫得清楚易懂,適合一般人閱讀。雖然偶爾有小錯誤,但多數人願意接受AI信件。建議未來可和真人信件進一步比較。 PubMed DOI

這項研究比較GPT-4和中國腫瘤科醫師回答癌症病患問題的表現。結果顯示,GPT-4在病患衛教的答案較完整,正確性和安全性也不輸醫師,但在醫療決策上正確率較低,偶爾還會出現危險錯誤。醫師和病患對同理心的感受也不同。總結來說,GPT-4適合用於衛教,但在醫療決策上仍需醫師把關。 PubMed DOI