原始文章

本研究探討了ChatGPT在長期鴉片類藥物治療中對患者教育的潛力。專家小組選定十三個常見問題,並讓GPT-4.0模擬醫生回答。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,但準確性中等,尤其在耐受性和依賴管理等技術性問題上較弱。這顯示出AI工具在患者教育中的輔助價值,但也強調了持續改進和專業訓練的必要性,醫療專業人士與AI開發者的合作對於提升教育質量至關重要。 PubMed DOI


站上相關主題文章列表

生成式人工智慧系統如ChatGPT在臨床環境中對治療物質使用障礙(SUDs)有潛力。本研究探討其在回答相關問題的有效性,透過線上康復論壇收集提問,並使用ChatGPT和Meta的LLaMA-2生成回應。雖然臨床醫師評價這些回應為高品質,但研究中發現了一些危險的錯誤資訊,如忽略自殺意念和提供不正確的求助熱線。這些結果顯示在醫療環境中使用此類人工智慧的風險,強調需進一步保障措施和臨床驗證。 PubMed DOI

最近有關人工智慧(AI)聊天機器人的討論,特別是ChatGPT,在病人教育方面顯示出潛力,尤其是慢性疼痛管理。一項研究比較了ChatGPT生成的病人資訊與傳統病人資訊手冊(PILs),評估可讀性、情感語調、準確性等。結果顯示,傳統PILs的可讀性較高,但AI生成的文本情感較正面。準確性和易懂性方面兩者相當。研究強調,雖然AI能有效傳遞資訊,但保持可讀性和以病人為中心的焦點仍然重要,結合AI工具與證據實踐對病人教育至關重要。 PubMed DOI

這項研究探討了人工智慧聊天機器人ChatGPT在麻醉學領域回應病人問題的效果。研究將ChatGPT的回應與認證麻醉醫師的回應進行比較,使用100個虛構臨床情境的麻醉問題。結果顯示,ChatGPT的整體質量評分與麻醉醫師相似,但同理心評分較高。不過,ChatGPT在科學共識一致性上表現不佳,且潛在傷害的比率較高。研究結論指出,雖然ChatGPT在醫療領域有潛力,但仍需改進以降低風險,並建議進一步研究其在複雜臨床情境中的有效性。 PubMed DOI

這項研究評估了ChatGPT在醫療查詢中的可靠性,透過18個開放式問題來檢視其回應的一致性、品質和準確性。結果顯示,ChatGPT在「什麼」問題上表現較好,但在「為什麼」和「如何」問題上則不理想,出現計算錯誤和不正確的單位等問題,甚至有些引用文獻是虛構的。研究結論認為,ChatGPT目前不適合用於醫療學習者或專業人士,因為其回應不一致且參考資料不可靠,可能影響臨床決策。 PubMed DOI

生成式 AI 工具如 ChatGPT 在醫療查詢中越來越受歡迎,特別是在解答髕腱病相關問題上。一項研究評估了 ChatGPT-4 的表現,收集了 48 個問題並由專家評估其回應。結果顯示,只有 33% 的回應準確,但 75% 是全面的。治療相關問題的準確率僅 17%。回應的可讀性達到大學水平,且可理解性良好(83%),但可行性較低(60%)。總體而言,ChatGPT-4 提供了豐富資訊,但準確性不足,且對於低學歷者不易理解。 PubMed DOI

這項研究探討了使用GPT-4生成式人工智慧模型,為懷孕的鴉片類藥物使用障礙患者提供可靠的治療資訊。經過微調後,模型的回應在安全性、準確性和相關性方面表現良好,兩位高級護理師評估的30段對話中,有96.7%的回應符合標準。質性分析顯示出增強連結的四個子主題,特別是在以客戶為中心的溝通上。雖然模型有效識別鴉片類藥物使用障礙,但在公開使用前仍需進一步測試。 PubMed DOI

這項研究評估了AI工具,特別是ChatGPT 3.5和4.0,在提供低背痛患者教育的效果。結果顯示,ChatGPT 4.0在回應質量上明顯優於3.5,得分分別為1.03和2.07,且可靠性得分也較高。兩者在心理社會因素的問題上表現不佳,顯示出臨床醫生在這類情感敏感問題上的監督是必要的。未來發展應著重提升AI在心理社會方面的能力。 PubMed DOI

這項研究評估了GPT-4在回答疼痛管理相關的臨床藥理學問題上的表現。醫療專業人員提出了有關藥物相互作用、劑量和禁忌症的問題,GPT-4的回應在清晰度、詳細程度和醫學準確性上獲得了高評價。結果顯示,99%的參與者認為回應易懂,84%認為信息詳細,93%表示滿意,96%認為醫學準確。不過,只有63%認為信息完整,顯示在藥物動力學和相互作用方面仍有不足。研究建議開發專門的AI工具,結合即時藥理數據庫,以提升臨床決策的準確性。 PubMed DOI

脊髓刺激(SCS)是一種有效的慢性疼痛治療方法,但患者常有疑問。本研究探討ChatGPT對SCS常見問題的回答在可靠性、準確性和可理解性方面的表現。研究選擇了十三個問題,並由專業醫師和非醫療人士評估。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,準確性也達到95%。總結來說,ChatGPT可作為患者教育SCS的輔助工具,尤其在一般性問題上,但對於技術性問題則可能較為困難。 PubMed DOI

這項研究調查了三款AI聊天機器人—ChatGPT、Gemini和Perplexity—在回答有關疼痛的常見問題時的可讀性、可靠性和回應質量。全球超過30%的人口面臨慢性疼痛,許多人會在就醫前尋找健康資訊。研究發現,這三款聊天機器人的可讀性均超過六年級水平,其中Gemini最佳。質量方面,Gemini得分較高,而Perplexity在可靠性評估中表現較好。總體來說,這些聊天機器人的回應難以閱讀,且可靠性和質量較低,無法取代專業醫療諮詢,建議改善可讀性並加強專家監督。 PubMed DOI