原始文章

這項研究探討GPT生成的回應在病人入口網站的有效性,並與真實醫生的回應進行比較。研究發現,GPT的回應在同理心和可讀性上得分較高,但在相關性和準確性上差異不顯著。雖然可讀性較佳,但差異不大,讓人質疑其臨床意義。總體來說,研究建議GPT的訊息在某些方面可與醫療提供者相當,但仍需進一步研究其在醫療流程中的應用及病人對AI溝通的態度與倫理考量。 PubMed DOI


站上相關主題文章列表

研究比較了AI工具ChatGPT和皮膚科醫師對患者問題的回應,結果顯示大家都偏好醫師的回答。醫師的回應在品質、易讀性、準確性、詳盡性和同理心方面表現更好。儘管如此,AI工具仍可用於初稿和教育材料。 PubMed DOI

自2020年以來,虛擬患者與醫師溝通增加,對基層醫療醫師幸福感有影響。生成式人工智慧(GenAI)的患者訊息或許能減輕工作負擔、提升溝通品質。紐約大學朗格尼醫療中心研究顯示,PCP對GenAI起草持正面看法,特別是溝通風格。GenAI回應被認為比HCP更具同理心,可能因語言使用較主觀積極。GenAI有助增進患者-醫護人員溝通,但對健康或英語能力較低患者可讀性仍有挑戰。 PubMed DOI

人工智慧技術在病患照護上有很大潛力,尤其在診斷、精神疾病治療和認知測試解讀等方面。雖然進展顯著,但仍需進一步研究其在醫療中的優缺點。一項研究比較了人工智慧(Chat-GPT 3.5)和臨床醫師對癡呆症相關問題的回答,結果顯示人工智慧在易懂性和深度上表現更佳,平均評分為4.6/5,而臨床醫師則為4.3、4.2和3.9。儘管人工智慧的回答質量高,但仍需注意錯誤資訊和數據安全等問題。總之,人工智慧在醫療溝通上有潛力,但需謹慎對待其限制。 PubMed DOI

這項研究評估了ChatGPT在回應泌尿科病人訊息的有效性,結果顯示其回應中有47%適合用於病人溝通。分析指出,對於簡單問題,56%的回應被認為可接受;但對於較複雜的問題,只有34%被認可。評估標準包括準確性、完整性、有幫助性、可理解性及潛在傷害。總體來看,雖然ChatGPT能協助管理病人訊息,減輕醫療團隊負擔,但表現會因問題複雜度而異。隨著技術進步,預期其回應品質會進一步提升。 PubMed DOI

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI

這項研究比較了AI語言模型ChatGPT與專家醫生在健康建議的有效性和安全性。研究涵蓋100個健康問題,結果顯示: 1. **同理心與實用性**:患者認為ChatGPT在同理心(4.18對2.7)和實用性(4.04對2.98)上表現更佳。 2. **正確性**:ChatGPT的正確性得分(4.51對3.55)也優於專家。 3. **潛在危害**:專家指出AI的有害建議比例較低,但患者對這些風險的認知不足。 4. **性別差異**:女性對同理心的評價高於男性。 總體而言,ChatGPT在協助患者解決健康問題上表現出色,但患者需謹慎識別潛在風險。 PubMed DOI

這項研究評估了ChatGPT在回答乳房重建問題上的有效性,並與醫療提供者進行比較。研究指出整形外科中病患與醫師溝通的挑戰,並探討了像ChatGPT這樣的人工智慧工具在改善互動上的潛力。 研究中向ChatGPT3、ChatGPT4、整形外科醫生及高級實踐提供者提出十個問題,評估其回應的準確性、同理心和可讀性。結果顯示,ChatGPT在同理心上得分較高,但可讀性低於醫療提供者,準確性則無顯著差異。 總體而言,研究建議ChatGPT可增強整形外科病患溝通,特別在同理心方面,但可讀性問題需改善,以達最佳效果。 PubMed DOI

這項研究評估了生成式預訓練變換器(GPT)在阿茲海默症(AD)管理中的表現。研究提出十四個問題,並向GPT-3.5和GPT-4詢問,還收集了四位神經科醫師的回應。結果顯示,神經科醫師的平均得分為3.9,而GPT的得分為4.4,且80%的高評價回應來自GPT。英文回應的可理解性和滿意度高於中文,家屬對GPT和醫師的評分無顯著差異。總體來看,GPT能有效提供AD相關的教育資訊,可能改善醫療管理和患者結果。 PubMed DOI

這項研究探討了OpenAI的ChatGPT 3.5和GPT 4.0在生成針對病人的臨床筆記時的表現,針對2型糖尿病、重度抑鬱症和懷疑腸癌三種病症進行分析。主要發現包括:生成的筆記比原始的更長,且使用了更多的代名詞;可讀性要求較高,特別是ChatGPT 3.5;同理心表現更佳;醫學準確性方面,ChatGPT 4.0的評價較高。總體來看,雖然增強了情感和同理心,但語言複雜性也提高,可能影響醫學準確性。 PubMed DOI

一項2023年的研究探討了GPT-4在回答挪威語健康問題的表現,並與醫生的回答進行比較。研究使用了192個問題,並由344位醫療專業人員評估GPT-4的答案。結果顯示,GPT-4在同理心、資訊品質和幫助程度上都顯著優於醫生的回答,所有類別的p值均小於0.001。這顯示人工智慧可能成為醫療專業人員撰寫健康詢問回應的有力工具。 PubMed DOI