原始文章

這項研究比較了ChatGPT和Google Gemini在回答周邊動脈疾病(PAD)相關問題的表現。共評估72個常見問題和63個基於歐洲心臟病學會指導方針的問題。結果顯示,ChatGPT在準確性和滿意度上優於Google Gemini,分別有70.8%和69.8%的回答獲得最高評分GQS 5,而Google Gemini則為55.6%和50.8%。不過,Google Gemini的回應速度較快。總體來看,ChatGPT在準確性和滿意度上表現更佳。 PubMed DOI


站上相關主題文章列表

研究使用Google Forms問卷調查30位醫師對房顫的看法,並將問題輸入ChatGPT系統。結果顯示大部分回答被評為「優秀」或「非常好」,顯示AI在臨床回應上有潛力。研究指出ChatGPT是有效的房顫資訊來源,但也提到更新不頻繁和道德考量等問題。總結來說,強調AI在醫療領域扮演的重要角色。 PubMed DOI

這項分析評估了AI文本生成器的表現,特別是ChatGPT和Google Gemini在回答臨床問題時的表現。結果顯示,ChatGPT提供的文獻資訊相對準確,但在臨床內容上有不一致的情況。相比之下,Google Gemini則產生了完全虛構的引用和摘要。雖然這兩個工具的回應看起來可信,但實際上存在不準確性,這讓它們作為臨床資訊來源的可靠性受到質疑。 PubMed DOI

這項研究評估了兩個人工智慧模型,ChatGPT-4o 和 Google Gemini,在風濕病學考試問題上的表現。分析了420個問題,結果顯示ChatGPT-4o的準確率為86.9%,遠高於Google Gemini的60.2%。重複詢問相同問題時,ChatGPT-4o的準確率維持在86.7%。研究指出,ChatGPT-4o在基礎與臨床科學、骨關節炎及類風濕性關節炎方面表現優異,顯示人工智慧在臨床環境中的潛力,未來應探索更多真實臨床情境。 PubMed DOI

像ChatGPT這樣的AI模型在醫學上雖然帶來不少好處,但也引發了對資訊質量和可靠性的擔憂。一項研究評估了ChatGPT對假設性先天性二尖瓣主動脈瓣病人的回答,發現其提供的資訊雖然詳細,但缺乏針對個別病人的具體建議,且沒有引用來源來驗證真實性。此外,AI也無法替代醫生與病人之間的細緻溝通。隨著AI在醫療中的應用增加,解決這些問題和倫理考量變得相當重要,以確保AI是輔助而非取代醫療提供者的角色。 PubMed DOI

這項研究比較了ChatGPT和Google Gemini生成的病患教育指南,主題包括MRI檢查、乳房攝影篩檢及MR環境中的物品安全性。研究發現,ChatGPT的平均字數和句子數都高於Google Gemini,但可讀性分數顯示ChatGPT的內容更易讀。相似性分數方面,ChatGPT的分數較低,顯示其內容與現有文本的相似度較低。整體來看,雖然兩者在可靠性上相似,但在可讀性和相似性上有所不同。 PubMed DOI

這項研究評估了幾款自然語言處理聊天機器人(如ChatGPT、Gemini和Bing)對冠狀動脈疾病(CAD)問題的回答準確性。每個機器人回答了五十個問題,並由兩位心臟科醫生評分。結果顯示,ChatGPT的正確回答達86%,而Gemini和Bing分別為68%和60%。在重現性方面,ChatGPT得分88%,Gemini為84%,Bing則是70%。總體來看,ChatGPT在提供CAD資訊的準確性和可靠性上表現最佳,顯示其在患者教育上的潛力。 PubMed DOI

這項研究探討了可獲得的醫療資訊對患者的重要性,並評估了兩個AI工具,ChatGPT和Google Gemini,針對特定醫療狀況(如深靜脈血栓、壓瘡和痔瘡)的可理解性。結果顯示,ChatGPT的內容需要較高的教育水平才能理解,且其回應與現有線上資訊相似度較高。雖然兩者在易讀性和可靠性上有差異,但統計分析未能證明哪一個工具在資訊質量上優於另一個。 PubMed DOI

本研究探討了ChatGPT和Google Gemini兩個人工智慧工具在創建有關肥胖、高血壓和高三酸甘油脂血症的患者教育指南的有效性。結果顯示,ChatGPT生成的內容較長,但在可讀性和可靠性上與Google Gemini相似。雖然Google Gemini的易讀性得分稍高,但差異不顯著。總體而言,這兩個工具都能有效滿足患者的教育需求,適應不同的內容長度和複雜度。 PubMed DOI

這篇回顧評估了AI聊天機器人ChatGPT和Gemini在醫療應用中的準確性與回應長度,基於2023年1月到10月的研究。從64篇論文中,11篇符合標準,涉及1,177個樣本。結果顯示,ChatGPT在準確性上普遍優於Gemini,尤其在放射學方面(87.43%對71%),且回應較短(907字元對1,428字元)。不過,Gemini在緊急情況和腎臟健康飲食詢問上表現不錯。統計分析顯示,ChatGPT在準確性和回應長度上均顯著優於Gemini,建議在醫療詢問中使用ChatGPT可能更有效。 PubMed DOI

這項研究分析了三種生成式人工智慧工具—ChatGPT-4、Copilot 和 Google Gemini—在心血管藥理學問題上的表現。研究使用了45道多選題和30道短答題,並由專家評估AI生成的答案準確性。結果顯示,這三種AI在簡單和中等難度的多選題上表現良好,但在高難度題目上表現不佳,特別是Gemini。ChatGPT-4在所有題型中表現最佳,Copilot次之,而Gemini則需改進。這些結果顯示AI在醫學教育中的潛力與挑戰。 PubMed DOI