原始文章

這項研究發現,ChatGPT-4o 回答子宮內膜異位症相關問題的表現,和人類專家差不多,品質、正確性和安全性都不輸專家。雖然專家多能分辨 AI 回答,但 AI 仍有潛力協助病人獲取健康資訊。未來還需進一步研究 AI 在臨床應用的風險與接受度。 PubMed DOI


站上相關主題文章列表

這項研究評估了三款生成式AI聊天機器人—Chat GPT-4、Claude和Bard—在回答子宮內膜異位症問題的準確性。九位婦產科醫生對十個常見問題的回答進行評分,結果顯示Bard平均得分3.69,Chat GPT 4.24,Claude 3.7。雖然這些機器人的回答大多正確,但仍不夠全面,Chat GPT的表現最佳。研究強調持續評估這些聊天機器人的必要性,以確保能提供準確且全面的資訊,並指出隨著生成式AI在醫療領域的普及,進一步研究的重要性。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究評估了AI聊天機器人LilyBot(基於ChatGPT-4)對卵巢癌問題的回答準確性,並與婦科腫瘤學專家進行比較。研究人員從線上病患論壇收集問題,請十位專業人士回答,然後由八位獨立醫療專業人員評估這些回答。結果顯示,LilyBot在回答的正確性和完整性上均優於專業人士,尤其在免疫療法和基因療法方面表現突出。這顯示像LilyBot的AI聊天機器人能有效提供卵巢癌的可靠臨床資訊。 PubMed DOI

這項研究發現,ChatGPT-4o在協助乳房疾病手術規劃時,雖然能給出清楚且結構良好的建議,但在手術細節和風險評估上還不夠完善,且回答內容需要較高的閱讀理解能力。現階段它只能當作輔助工具,無法取代專業醫師,未來還需更多開發和專家驗證才能臨床應用。 PubMed DOI

這項研究比較GPT-4和中國腫瘤科醫師回答癌症病患問題的表現。結果顯示,GPT-4在病患衛教的答案較完整,正確性和安全性也不輸醫師,但在醫療決策上正確率較低,偶爾還會出現危險錯誤。醫師和病患對同理心的感受也不同。總結來說,GPT-4適合用於衛教,但在醫療決策上仍需醫師把關。 PubMed DOI

這項研究比較了三款AI(ChatGPT Plus、Copilot、Perplexity)在回答神經內分泌腫瘤管理問題的表現。ChatGPT Plus在清楚度上表現最好,但所有AI在複雜臨床問題上仍有困難。雖然AI有潛力成為資訊工具,但正確性不一,仍需醫師把關,確保病患溝通安全。 PubMed DOI

這項研究比較DeepSeek-V3和ChatGPT-4o在回答腹腔鏡膽囊切除術常見病人問題的表現。由兩位外科醫師評分後,發現DeepSeek-V3在適切性、正確性和易讀性都勝出,顯示它在這類病人衛教上可能更有優勢。 PubMed DOI

這項研究發現,ChatGPT在回答硬脊膜外類固醇注射相關問題時,整體來說資訊正確且清楚,尤其是針對一般性問題。不過,AI在展現同理心方面表現有限,有時也會離題。未來若要在臨床上廣泛應用,還需要更精確的提問設計和更多研究來確保病人安全。 PubMed DOI

這項研究發現,GPT-4在乳癌和婦科癌症治療建議上表現尚可,乳癌案例與專家意見一致率最高達84%。雖然經過多次提示後表現有提升,但在正確性、完整性及手術、基因檢測建議上仍有限制。未來AI可輔助臨床決策,但專家把關還是很重要。 PubMed DOI

這項研究發現,AI大型語言模型在婦產科診斷上,整體表現比住院醫師更好,尤其在時間壓力大或不同語言時更明顯。最強的AI模型診斷準確率高達88%,而住院醫師平均只有65%,且年資越高表現越好。AI對資淺醫師幫助最大,能大幅提升診斷正確率。整體來說,AI有助於提升婦產科訓練和臨床診斷的準確性與穩定性。 PubMed DOI