原始文章

這項研究首次評估了ChatGPT和Gemini聊天機器人在提供病毒性肝炎資訊的準確性與可靠性。研究共分析176個問題,結果顯示兩者的平均分數相近(3.55對3.57),且正確回答比例也相似(71.0%對78.4%)。在CDC問題上,兩者的正確率都很高,但在國際指導方針問題上則表現不佳。整體而言,雖然在CDC和社交媒體問題上表現良好,但在指導方針的準確性上仍有待加強。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT對於肝硬化和HCC患者提供準確資訊和情緒支持,但在治療時間和地區指引等特定領域上有不足。建議ChatGPT可作為輔助工具,提供實用建議,協助改善疾病結果。 PubMed DOI

越來越多病患用AI聊天機器人查檢驗結果,因為方便又好用。但研究發現,聊天機器人解釋不夠清楚、常錯誤。雖然有同理心,處理複雜問題時容易出錯,有時還會誤判病情。雖有免責聲明,病患仍可能相信錯誤資訊。必須進一步研究改進,確保病患了解並避免給醫療系統帶來負擔。 PubMed DOI

這項研究評估了兩個人工智慧模型,ChatGPT-4 和 Gemini,在回答病毒學多選題的表現,涵蓋英語和阿拉伯語。研究使用 CLEAR 工具分析了 40 道題目的回答正確性,結果顯示 ChatGPT-4 在兩種語言中均優於 Gemini,英語正確率分別為 80% 和 62.5%,阿拉伯語則為 65% 和 55%。兩者在較低認知領域表現較佳,結果顯示人工智慧在醫療教育中的潛力,並強調了提升多語言有效性的必要性。 PubMed DOI

這項研究評估了兩款先進的AI聊天機器人,ChatGPT-4.0和Google Gemini Advanced,針對疫苗相關問題的回答準確性,並與世界衛生組織(WHO)進行比較。研究提出38個疫苗接種的迷思問題,結果顯示兩者都提供了36個正確回答,達到94.7%的高一致性。雖然有少數差異,但不具危害性,且都建議使用者查詢可靠來源如CDC和WHO或諮詢醫療專業人員。研究顯示這些AI聊天機器人能有效輔助健康溝通,提升健康素養,並解決疫苗猶豫問題,但仍需持續研究以確保其準確性。 PubMed DOI

這項研究評估了ChatGPT-4在提供自體免疫性肝炎患者個人化諮詢的效果,分析了其對12個問題的回應。結果顯示,準確性中位數得分為5(滿分6分),但完整性和安全性得分較低。特別是診斷後的追蹤問題表現不佳,顯示出低準確性和完整性。專家對聊天機器人的評價共識有限,顯示出其回應的可靠性不足。研究建議需進一步探討如何有效整合AI聊天機器人於臨床諮詢中。 PubMed DOI

這項研究評估了幾款自然語言處理聊天機器人(如ChatGPT、Gemini和Bing)對冠狀動脈疾病(CAD)問題的回答準確性。每個機器人回答了五十個問題,並由兩位心臟科醫生評分。結果顯示,ChatGPT的正確回答達86%,而Gemini和Bing分別為68%和60%。在重現性方面,ChatGPT得分88%,Gemini為84%,Bing則是70%。總體來看,ChatGPT在提供CAD資訊的準確性和可靠性上表現最佳,顯示其在患者教育上的潛力。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4.0 和 Google Gemini 在回答乙型肝炎病毒(HBV)相關問題的表現。醫療專業人員對其準確性進行評分,並評估可讀性。 主要發現包括: - 所有 LLM 在主觀問題上得分高,ChatGPT-4.0 準確性最高。 - 在客觀問題上,ChatGPT-4.0 準確率為 80.8%,優於其他兩者。 - ChatGPT-4.0 在診斷上表現佳,Google Gemini 在臨床表現強勁。 - 所有 LLM 的可讀性分數高於標準八級,對一般讀者來說可能過於複雜。 結果顯示,LLMs,特別是 ChatGPT-4.0,可能成為有關 HBV 的資訊工具,但不應取代醫生的個人化建議。 PubMed DOI

這項研究比較了兩個聊天機器人,ChatGPT-4 和 Google Gemini,對於良性肛門疾病問題的回答。研究者提出30個問題,專家評估後發現兩者的回應都相當適當且全面,但 Google Gemini 在適當性、全面性及參考資料方面表現更佳,且評估一致性較高。語言複雜度方面,ChatGPT 的回答較難理解,適合的閱讀水平高於 Google Gemini。總體來看,Google Gemini 更適合提供良性肛門疾病的資訊。 PubMed DOI

這篇回顧評估了AI聊天機器人ChatGPT和Gemini在醫療應用中的準確性與回應長度,基於2023年1月到10月的研究。從64篇論文中,11篇符合標準,涉及1,177個樣本。結果顯示,ChatGPT在準確性上普遍優於Gemini,尤其在放射學方面(87.43%對71%),且回應較短(907字元對1,428字元)。不過,Gemini在緊急情況和腎臟健康飲食詢問上表現不錯。統計分析顯示,ChatGPT在準確性和回應長度上均顯著優於Gemini,建議在醫療詢問中使用ChatGPT可能更有效。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT-3.5和Gemini,提供肝病病人資訊的有效性,並與兩位腸胃科醫生的回應進行比較。重點在於準確性、完整性及對20個常見問題的回答質量。結果顯示,LLM生成的回應與專家回應之間沒有顯著差異,兩組的平均分數都很高,顯示LLMs能提供可靠的肝病資訊。整體而言,研究結果顯示免費的LLMs有潛力成為病人資訊的重要資源。 PubMed DOI