原始文章

這項研究比較GPT-4和中國腫瘤科醫師回答癌症病患問題的表現。結果顯示,GPT-4在病患衛教的答案較完整,正確性和安全性也不輸醫師,但在醫療決策上正確率較低,偶爾還會出現危險錯誤。醫師和病患對同理心的感受也不同。總結來說,GPT-4適合用於衛教,但在醫療決策上仍需醫師把關。 PubMed DOI


站上相關主題文章列表

這項研究比較了AI語言模型ChatGPT與專家醫生在健康建議的有效性和安全性。研究涵蓋100個健康問題,結果顯示: 1. **同理心與實用性**:患者認為ChatGPT在同理心(4.18對2.7)和實用性(4.04對2.98)上表現更佳。 2. **正確性**:ChatGPT的正確性得分(4.51對3.55)也優於專家。 3. **潛在危害**:專家指出AI的有害建議比例較低,但患者對這些風險的認知不足。 4. **性別差異**:女性對同理心的評價高於男性。 總體而言,ChatGPT在協助患者解決健康問題上表現出色,但患者需謹慎識別潛在風險。 PubMed DOI

這項研究探討AI聊天機器人對骨肉瘤患者護理的影響,分析其風險與好處。研究者向三個聊天機器人提出與診斷、治療和康復相關的問題,並根據五個指標評估其回答。結果顯示,聊天機器人在相關性和平衡性方面表現良好,但在數據基礎、完整性和事實準確性上得分較低。GPT-4在同理心方面得分最高,但在治療和康復問題的可行性較低。整體而言,雖然AI有潛力,但在準確性和可及性上仍有待改善,影響其臨床應用。 PubMed DOI

這項研究評估了五款AI聊天機器人對口腔癌問題的回應,包括Bing、GPT-3.5、GPT-4、Google Bard和Claude。經過專家評估,GPT-4獲得最高質量分數(17.3),而Bing最低(14.9)。Bard在可讀性上表現最佳,GPT-4和Bard在同理心及引用準確性方面也表現突出。整體來看,GPT-4提供的回應質量最高,但大多數聊天機器人在同理心和準確引用上仍有待加強。 PubMed DOI

自2023年以來,ChatGPT-4在醫療領域取得顯著進展,特別是在分析電子病人報告結果(ePROs)方面,對癌症病人的症狀監測及早期介入至關重要。本研究探討了ChatGPT-4分析三十位癌症病人四週的ePRO數據的可行性,並模擬醫療專業人員提供建議。結果顯示,ChatGPT-4在數據準確性和同理心方面表現良好,改善了醫護溝通並減輕了壓力。未來研究將著重於增強AI在癌症護理中的應用,促進醫病共同決策。 PubMed DOI

這項研究評估了AI聊天機器人LilyBot(基於ChatGPT-4)對卵巢癌問題的回答準確性,並與婦科腫瘤學專家進行比較。研究人員從線上病患論壇收集問題,請十位專業人士回答,然後由八位獨立醫療專業人員評估這些回答。結果顯示,LilyBot在回答的正確性和完整性上均優於專業人士,尤其在免疫療法和基因療法方面表現突出。這顯示像LilyBot的AI聊天機器人能有效提供卵巢癌的可靠臨床資訊。 PubMed DOI

這項研究發現,ChatGPT在模擬腫瘤科病例下,能用結構化提示產生高品質的醫師和病人信件,內容正確、完整又相關,且沒有安全疑慮。病人信件也寫得清楚易懂,適合一般人閱讀。雖然偶爾有小錯誤,但多數人願意接受AI信件。建議未來可和真人信件進一步比較。 PubMed DOI

這項研究比較了 ChatGPT 和 ERNIE Bot 在中英文乳癌資訊上的表現。結果顯示,英文版 ChatGPT 答案最準確、最實用,特別適合一般病患提問。不過,兩款 LLM 在專業問題上表現都不佳,且常缺乏佐證資料。目前還不適合完全依賴 LLM 做臨床決策,資料安全和法律風險也需注意,未來還要進一步研究。 PubMed DOI

這項研究發現,雖然ChatGPT-4o和腫瘤委員會在治療建議上各自有高度一致性,但兩者的建議常常不同。醫師普遍較認同腫瘤委員會的決策,且這差異有統計意義。顯示目前AI還無法取代專家處理複雜癌症個案的臨床判斷。 PubMed DOI

這項研究比較四款免費AI聊天機器人回答肝癌相關問題的表現,發現它們雖然能提供大致正確且無偏見的資訊,但在資料來源、治療細節和說明清楚度上有差異。AI回答可作為參考,但仍需專業醫師把關,不能取代醫療建議。 PubMed DOI

這項研究發現,GPT-4在乳癌和婦科癌症治療建議上表現尚可,乳癌案例與專家意見一致率最高達84%。雖然經過多次提示後表現有提升,但在正確性、完整性及手術、基因檢測建議上仍有限制。未來AI可輔助臨床決策,但專家把關還是很重要。 PubMed DOI