原始文章

這項研究發現,ChatGPT在回答硬脊膜外類固醇注射相關問題時,整體來說資訊正確且清楚,尤其是針對一般性問題。不過,AI在展現同理心方面表現有限,有時也會離題。未來若要在臨床上廣泛應用,還需要更精確的提問設計和更多研究來確保病人安全。 PubMed DOI


站上相關主題文章列表

研究比較OpenAI的ChatGPT 3.5和Google的Bard在回答腰椎融合手術問題時的表現,結果顯示兩者回答品質高,但在手術風險、成功率和手術方法等特定問題上表現較差。評分者間一致性不高,Bard在同理心和專業性方面稍遜。未來需加強大型語言模型在醫學教育和醫療溝通的應用。 PubMed DOI

這項研究探討了人工智慧聊天機器人ChatGPT在麻醉學領域回應病人問題的效果。研究將ChatGPT的回應與認證麻醉醫師的回應進行比較,使用100個虛構臨床情境的麻醉問題。結果顯示,ChatGPT的整體質量評分與麻醉醫師相似,但同理心評分較高。不過,ChatGPT在科學共識一致性上表現不佳,且潛在傷害的比率較高。研究結論指出,雖然ChatGPT在醫療領域有潛力,但仍需改進以降低風險,並建議進一步研究其在複雜臨床情境中的有效性。 PubMed DOI

生成式 AI 工具如 ChatGPT 在醫療查詢中越來越受歡迎,特別是在解答髕腱病相關問題上。一項研究評估了 ChatGPT-4 的表現,收集了 48 個問題並由專家評估其回應。結果顯示,只有 33% 的回應準確,但 75% 是全面的。治療相關問題的準確率僅 17%。回應的可讀性達到大學水平,且可理解性良好(83%),但可行性較低(60%)。總體而言,ChatGPT-4 提供了豐富資訊,但準確性不足,且對於低學歷者不易理解。 PubMed DOI

這項研究評估了AI工具,特別是ChatGPT 3.5和4.0,在提供低背痛患者教育的效果。結果顯示,ChatGPT 4.0在回應質量上明顯優於3.5,得分分別為1.03和2.07,且可靠性得分也較高。兩者在心理社會因素的問題上表現不佳,顯示出臨床醫生在這類情感敏感問題上的監督是必要的。未來發展應著重提升AI在心理社會方面的能力。 PubMed DOI

脊髓刺激(SCS)是一種有效的慢性疼痛治療方法,但患者常有疑問。本研究探討ChatGPT對SCS常見問題的回答在可靠性、準確性和可理解性方面的表現。研究選擇了十三個問題,並由專業醫師和非醫療人士評估。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,準確性也達到95%。總結來說,ChatGPT可作為患者教育SCS的輔助工具,尤其在一般性問題上,但對於技術性問題則可能較為困難。 PubMed DOI

這項研究調查了三款AI聊天機器人—ChatGPT、Gemini和Perplexity—在回答有關疼痛的常見問題時的可讀性、可靠性和回應質量。全球超過30%的人口面臨慢性疼痛,許多人會在就醫前尋找健康資訊。研究發現,這三款聊天機器人的可讀性均超過六年級水平,其中Gemini最佳。質量方面,Gemini得分較高,而Perplexity在可靠性評估中表現較好。總體來說,這些聊天機器人的回應難以閱讀,且可靠性和質量較低,無法取代專業醫療諮詢,建議改善可讀性並加強專家監督。 PubMed DOI

本研究探討了ChatGPT在長期鴉片類藥物治療中對患者教育的潛力。專家小組選定十三個常見問題,並讓GPT-4.0模擬醫生回答。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,但準確性中等,尤其在耐受性和依賴管理等技術性問題上較弱。這顯示出AI工具在患者教育中的輔助價值,但也強調了持續改進和專業訓練的必要性,醫療專業人士與AI開發者的合作對於提升教育質量至關重要。 PubMed DOI

這項研究發現,ChatGPT-4o能正確回答分娩硬膜外止痛相關問題,內容也很實用易懂,但用詞偏艱深,約高中到大學程度。雖然它能提供可靠資訊,但建議優化提問方式,讓回答更貼近病人、方便理解。 PubMed DOI

這項初步研究發現,ChatGPT 3.5回答腦血管問題時,比醫師更完整、有同理心,正確率也差不多,但用詞較艱深,一般人可能看不懂。未來可考慮結合AI和醫師意見,幫助病患更好溝通。 PubMed DOI

這項研究發現,ChatGPT在解釋膝關節置換手術及術後照護時,比DeepSeek更準確、讓人更滿意。不論病人還是骨科醫師,都比較推薦ChatGPT。顯示ChatGPT有機會成為病人衛教和減輕手術焦慮的好幫手。未來可再研究AI怎麼融入臨床,對治療結果有什麼影響。 PubMed DOI