原始文章

這項研究評估了婦科腫瘤學中醫生與AI聊天機器人(如ChatGPT和Bard)對常見臨床問題的回答質量。研究中,五位醫生和兩個AI平台回答了十個問題。結果顯示,醫生的回答在76.7%的情況下被評為最佳,明顯優於ChatGPT(10%)和Bard(13.3%)。醫生的準確率為86.7%,而AI的準確率則分別為60%和43%。這顯示醫生的回答質量和準確性高於AI,並提醒大家在尋求醫療建議時要謹慎使用AI。 PubMed DOI


站上相關主題文章列表

研究發現,人工智慧聊天機器人在回答患者問題時,提供較高品質和同理心回應,優於醫師表現。機器人回應更詳盡且更貼心,有助於減輕醫護人員負擔,減少倦怠感。未來應深入研究人工智慧在臨床上的應用,以及對患者的影響。 PubMed DOI

研究用DISCERN標準評估AI聊天機器人對常見癌症問題回答的品質,發現ChatGPT比Bing AI表現較好。AI在醫療上有潛力,但仍需改進,尤其在癌症等重要領域,以避免給患者和家人帶來誤解或壓力。 PubMed DOI

研究比較了AI工具ChatGPT和皮膚科醫師對患者問題的回應,結果顯示大家都偏好醫師的回答。醫師的回應在品質、易讀性、準確性、詳盡性和同理心方面表現更好。儘管如此,AI工具仍可用於初稿和教育材料。 PubMed DOI

研究發現AI聊天機器人在回答癌症患者問題時表現優異,比腫瘤學家更具同理心且易懂。這顯示機器人有潛力提供良好的回應,但仍需進一步研究其對患者護理的全面影響。 PubMed DOI

生成式人工智慧模型如ChatGPT在醫療保健領域廣泛應用,提供快速回答臨床問題。研究比較了ChatGPT對意大利醫學腫瘤學會(AIOM)有關卵巢癌指南的回應,發現AIOM指南得分較高。這顯示人工智慧模型需與指南保持一致,專家指南在臨床決策中仍不可或缺。人工智慧模型仍有改進空間。 PubMed DOI

一項研究評估了聊天機器人ChatGPT在卵巢癌管理方面的表現,並與國家綜合癌症網絡(NCCN)的指引進行比較。研究生成了10個問題,涵蓋風險因素、手術及醫療管理等。結果顯示,NCCN的準確且完整回答為48%,未提示的GPT為64%,經過提示的GPT為66%。GPT-4在風險因素和手術管理上表現優於NCCN,但在醫療管理上較弱。雖然不準確回答比例低,但使用聊天機器人時仍需謹慎。 PubMed DOI

人工智慧(AI)正在改變醫療流程,像ChatGPT這樣的自我學習系統在治療建議上展現潛力。本研究評估了ChatGPT在30例乳腺癌病例中的表現。結果顯示,腫瘤科醫生對其建議的評價為足夠,尤其在HER2治療方面準確性較高。然而,在複雜病例和術後情境中仍面臨挑戰。為提升AI的有效性,需精煉輸入數據並解決倫理問題,確保治療時間表的準確性。持續研究對於提高AI準確性及安全整合至病人護理中至關重要。 PubMed DOI

這項研究評估了 ChatGPT 和 Google Bard 兩個大型語言模型在婦科癌症管理問題上的表現。結果顯示,這兩個模型對於一些常見問題的回答大多準確,如子宮頸癌篩檢和 BRCA 相關問題。然而,面對更複雜的案例時,它們的表現較差,常缺乏對地區指導方針的了解。儘管如此,這些模型仍能提供病人和照護者在管理和後續步驟上的實用建議。結論指出,LLMs 雖無法取代專業醫療建議,但可作為輔助工具,提供資訊和支持。 PubMed DOI

這項研究探討了人工智慧聊天機器人ChatGPT在麻醉學領域回應病人問題的效果。研究將ChatGPT的回應與認證麻醉醫師的回應進行比較,使用100個虛構臨床情境的麻醉問題。結果顯示,ChatGPT的整體質量評分與麻醉醫師相似,但同理心評分較高。不過,ChatGPT在科學共識一致性上表現不佳,且潛在傷害的比率較高。研究結論指出,雖然ChatGPT在醫療領域有潛力,但仍需改進以降低風險,並建議進一步研究其在複雜臨床情境中的有效性。 PubMed DOI

子宮頸癌和乳腺癌對女性健康影響深遠,常因污名化和錯誤資訊導致診斷延遲。為評估ChatGPT對這些癌症的回答準確性,進行了一項線上調查,並與十位醫生的回答進行比較。結果顯示,ChatGPT在準確性上表現優於醫生,但在一致性和可讀性方面仍有待加強。整體而言,ChatGPT在提供初步資訊上具潛力,但未來需改善其可靠性和一致性,以更好地協助有健康問題的個體。 PubMed DOI