原始文章

這項研究評估了幾款自然語言處理聊天機器人(如ChatGPT、Gemini和Bing)對冠狀動脈疾病(CAD)問題的回答準確性。每個機器人回答了五十個問題,並由兩位心臟科醫生評分。結果顯示,ChatGPT的正確回答達86%,而Gemini和Bing分別為68%和60%。在重現性方面,ChatGPT得分88%,Gemini為84%,Bing則是70%。總體來看,ChatGPT在提供CAD資訊的準確性和可靠性上表現最佳,顯示其在患者教育上的潛力。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4o在急性心臟病案例中的表現,並與心臟科醫生和急診醫生進行比較。結果顯示,ChatGPT-4o和心臟科醫生的準確性均達100%,而急診醫生較低。ChatGPT-4o反應最快,且在準確性和完整性上得分最高。研究顯示,ChatGPT-4o的表現優於人類醫生,顯示其在臨床決策支持上的潛力,但人類監督仍然對安全整合AI進醫療至關重要。 PubMed DOI

這項研究首次評估了ChatGPT和Gemini聊天機器人在提供病毒性肝炎資訊的準確性與可靠性。研究共分析176個問題,結果顯示兩者的平均分數相近(3.55對3.57),且正確回答比例也相似(71.0%對78.4%)。在CDC問題上,兩者的正確率都很高,但在國際指導方針問題上則表現不佳。整體而言,雖然在CDC和社交媒體問題上表現良好,但在指導方針的準確性上仍有待加強。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT 4.0、Claude 3.0和Gemini Pro—以及Google在回答腎臟移植後常見問題的表現。研究使用5點李克特量表評估回應質量,並透過病人教育材料評估工具(PEMAT)檢視可理解性和可行性。結果顯示,回應質量高(中位分數4),可理解性良好(中位72.7%),但可行性較差(中位20%)。可讀性較難,Claude 3.0提供最可靠的回應,而ChatGPT 4.0則在可理解性上表現突出。Google在各項指標上未能超越這些聊天機器人。 PubMed DOI

這項研究比較了ChatGPT和Google Gemini在回答周邊動脈疾病(PAD)相關問題的表現。共評估72個常見問題和63個基於歐洲心臟病學會指導方針的問題。結果顯示,ChatGPT在準確性和滿意度上優於Google Gemini,分別有70.8%和69.8%的回答獲得最高評分GQS 5,而Google Gemini則為55.6%和50.8%。不過,Google Gemini的回應速度較快。總體來看,ChatGPT在準確性和滿意度上表現更佳。 PubMed DOI

本研究探討了ChatGPT和Google Gemini兩個人工智慧工具在創建有關肥胖、高血壓和高三酸甘油脂血症的患者教育指南的有效性。結果顯示,ChatGPT生成的內容較長,但在可讀性和可靠性上與Google Gemini相似。雖然Google Gemini的易讀性得分稍高,但差異不顯著。總體而言,這兩個工具都能有效滿足患者的教育需求,適應不同的內容長度和複雜度。 PubMed DOI

這篇回顧評估了AI聊天機器人ChatGPT和Gemini在醫療應用中的準確性與回應長度,基於2023年1月到10月的研究。從64篇論文中,11篇符合標準,涉及1,177個樣本。結果顯示,ChatGPT在準確性上普遍優於Gemini,尤其在放射學方面(87.43%對71%),且回應較短(907字元對1,428字元)。不過,Gemini在緊急情況和腎臟健康飲食詢問上表現不錯。統計分析顯示,ChatGPT在準確性和回應長度上均顯著優於Gemini,建議在醫療詢問中使用ChatGPT可能更有效。 PubMed DOI

這項研究分析了三種生成式人工智慧工具—ChatGPT-4、Copilot 和 Google Gemini—在心血管藥理學問題上的表現。研究使用了45道多選題和30道短答題,並由專家評估AI生成的答案準確性。結果顯示,這三種AI在簡單和中等難度的多選題上表現良好,但在高難度題目上表現不佳,特別是Gemini。ChatGPT-4在所有題型中表現最佳,Copilot次之,而Gemini則需改進。這些結果顯示AI在醫學教育中的潛力與挑戰。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4在提供心房顫動相關資訊的準確性。研究使用108個結構化問題,涵蓋治療選擇和生活方式調整,由三位心臟科醫師根據準確性、清晰度和臨床相關性評估其回答。結果顯示,ChatGPT-4在「生活方式調整」和「日常生活與管理」表現良好,但在較複雜的問題上則表現不佳。整體而言,雖然它在簡單主題上有潛力,但對於需要深入臨床見解的複雜問題仍有局限。 PubMed DOI

這項研究比較四款免費AI聊天機器人回答肝癌相關問題的表現,發現它們雖然能提供大致正確且無偏見的資訊,但在資料來源、治療細節和說明清楚度上有差異。AI回答可作為參考,但仍需專業醫師把關,不能取代醫療建議。 PubMed DOI

這項研究比較ChatGPT和Google Gemini在回答周邊動脈疾病常見問題時的表現。結果顯示,ChatGPT的正確率較高,且沒有明顯錯誤,Gemini則有部分錯誤答案。兩者的回答都偏難讀,不太符合病人衛教建議的閱讀程度。雖然AI能協助病人獲取正確資訊,但內容還需優化,讓病人更容易看懂。未來應加強AI健康資訊的可讀性與實際應用成效。 PubMed DOI