原始文章

這項研究比較了ChatGPT和Google Gemini在回答周邊動脈疾病(PAD)相關問題的表現。共評估72個常見問題和63個基於歐洲心臟病學會指導方針的問題。結果顯示,ChatGPT在準確性和滿意度上優於Google Gemini,分別有70.8%和69.8%的回答獲得最高評分GQS 5,而Google Gemini則為55.6%和50.8%。不過,Google Gemini的回應速度較快。總體來看,ChatGPT在準確性和滿意度上表現更佳。 PubMed DOI


站上相關主題文章列表

這項研究評估了幾款自然語言處理聊天機器人(如ChatGPT、Gemini和Bing)對冠狀動脈疾病(CAD)問題的回答準確性。每個機器人回答了五十個問題,並由兩位心臟科醫生評分。結果顯示,ChatGPT的正確回答達86%,而Gemini和Bing分別為68%和60%。在重現性方面,ChatGPT得分88%,Gemini為84%,Bing則是70%。總體來看,ChatGPT在提供CAD資訊的準確性和可靠性上表現最佳,顯示其在患者教育上的潛力。 PubMed DOI

這項研究探討了可獲得的醫療資訊對患者的重要性,並評估了兩個AI工具,ChatGPT和Google Gemini,針對特定醫療狀況(如深靜脈血栓、壓瘡和痔瘡)的可理解性。結果顯示,ChatGPT的內容需要較高的教育水平才能理解,且其回應與現有線上資訊相似度較高。雖然兩者在易讀性和可靠性上有差異,但統計分析未能證明哪一個工具在資訊質量上優於另一個。 PubMed DOI

勃起功能障礙(ED)是影響男性性健康的常見問題。本研究評估了兩個AI聊天機器人,ChatGPT和Gemini,對ED相關問題的回答質量。研究發現,ChatGPT成功回答所有15個問題,而Gemini則未能回答兩個。質量評估顯示,Gemini的低質量回答較多,且兩位泌尿科醫生對ChatGPT的評分一致性為92%,Gemini則為95%。雖然這些AI能快速回應,但仍無法取代醫療專業人員的護理,需進一步改進。 PubMed DOI

本研究探討了ChatGPT和Google Gemini兩個人工智慧工具在創建有關肥胖、高血壓和高三酸甘油脂血症的患者教育指南的有效性。結果顯示,ChatGPT生成的內容較長,但在可讀性和可靠性上與Google Gemini相似。雖然Google Gemini的易讀性得分稍高,但差異不顯著。總體而言,這兩個工具都能有效滿足患者的教育需求,適應不同的內容長度和複雜度。 PubMed DOI

這篇回顧評估了AI聊天機器人ChatGPT和Gemini在醫療應用中的準確性與回應長度,基於2023年1月到10月的研究。從64篇論文中,11篇符合標準,涉及1,177個樣本。結果顯示,ChatGPT在準確性上普遍優於Gemini,尤其在放射學方面(87.43%對71%),且回應較短(907字元對1,428字元)。不過,Gemini在緊急情況和腎臟健康飲食詢問上表現不錯。統計分析顯示,ChatGPT在準確性和回應長度上均顯著優於Gemini,建議在醫療詢問中使用ChatGPT可能更有效。 PubMed DOI

這項研究評估了 ChatGPT 4.0 在提供腹主動脈瘤(AAA)資訊的準確性,針對患者和醫生的問題進行了測試。結果顯示,對患者問題的平均準確度為 4.4,與血管外科學會(SVS)的指導方針一致性也不錯,平均評分為 4.2。不過,對於 AAA 破裂風險的問題,表現僅為中等,平均評分 3.4。整體來看,ChatGPT 4.0 在 AAA 資訊上表現良好,對患者教育和醫生知識提升有潛在幫助。 PubMed DOI

這項研究評估了ChatGPT提供的腹主動脈瘤(AAA)資訊質量,並與澳洲健康指導(HDA)進行比較。研究發現,ChatGPT的回應臨床上適當,但可讀性較高,達到大學水平,而HDA則在10到12年級。雖然ChatGPT的回應通常更易理解,但可行性得分較低,且行動建議不夠明確。總體來看,ChatGPT可作為病人教育的工具,但需改進以提升其幫助病人做出知情決策的能力。 PubMed DOI

這項研究分析了三種生成式人工智慧工具—ChatGPT-4、Copilot 和 Google Gemini—在心血管藥理學問題上的表現。研究使用了45道多選題和30道短答題,並由專家評估AI生成的答案準確性。結果顯示,這三種AI在簡單和中等難度的多選題上表現良好,但在高難度題目上表現不佳,特別是Gemini。ChatGPT-4在所有題型中表現最佳,Copilot次之,而Gemini則需改進。這些結果顯示AI在醫學教育中的潛力與挑戰。 PubMed DOI

這項研究比較了ChatGPT和Google Gemini在心臟科病人衛教指南上的表現,發現兩者內容品質差不多。ChatGPT回覆較長、較複雜,Gemini則比較好讀。兩者在可讀性、年級程度和可靠性上沒有明顯差異。總結來說,這兩種AI都能幫助心臟科衛教,但還是要持續檢驗資訊的正確性與更新。 PubMed DOI

這項研究比較ChatGPT和Google Gemini在回答周邊動脈疾病常見問題時的表現。結果顯示,ChatGPT的正確率較高,且沒有明顯錯誤,Gemini則有部分錯誤答案。兩者的回答都偏難讀,不太符合病人衛教建議的閱讀程度。雖然AI能協助病人獲取正確資訊,但內容還需優化,讓病人更容易看懂。未來應加強AI健康資訊的可讀性與實際應用成效。 PubMed DOI