原始文章

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Gemini,針對糖皮質激素誘導的骨質疏鬆症(GIOP)及其預防和治療的美國風濕病學會指導方針的表現。研究發現,Google Gemini 的答案較為簡潔,但 ChatGPT-4 在準確性和全面性上表現更佳,特別是在病因學和指導方針相關問題上。ChatGPT-3.5 和 ChatGPT-4 的自我修正能力顯著提升,而 Google Gemini 則無明顯差異。總體來看,ChatGPT-4 是最佳選擇。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT-3.5、ChatGPT-4.0和Google Bard回答近視問題的表現,結果發現ChatGPT-4.0最準確,80.6%的回答被評為「好」,比ChatGPT-3.5(61.3%)和Google Bard(54.8%)都好。三者都展現高的全面性和自我修正能力,ChatGPT-4.0在「治療和預防」方面表現最佳,顯示了LLMs,尤其是ChatGPT-4.0,在提供準確且全面的近視資訊上有潛力。 PubMed DOI

研究比較了ChatGPT-3.5、Google Bard和Microsoft Bing在回答血液學問題的表現,結果發現ChatGPT表現最好,Google Bard和Microsoft Bing次之。雖然ChatGPT在醫學領域有潛力,但仍需要更多研究和改進。這些模型無法完全正確回答所有問題,但或許對醫療保健和醫學教育有所助益。 PubMed DOI

研究比較了ChatGPT-4、ChatGPT-3.5和Google Bard在回答免疫腫瘤相關問題的表現。結果顯示,ChatGPT-4和ChatGPT-3.5在回答問題、提供資訊和易讀性方面都比Google Bard好。雖然語言模型在醫療保健領域有應用價值,但專家驗證仍然至關重要,以避免不準確或資訊不完整的情況。 PubMed DOI

研究比較了ChatGPT-4、ChatGPT-3.5和Google Bard在回答免疫腫瘤學問題時的表現。結果顯示,ChatGPT-4和ChatGPT-3.5在回答問題、可重現性、準確性、相關性和可讀性方面都比Google Bard好。雖然ChatGPT模型在免疫腫瘤學領域有潛力,但專家驗證仍然至關重要,以避免不準確或不完整的情況。 PubMed DOI

研究比較了ChatGPT-4和Google Gemini在分析青光眼病例描述及提出手術計劃的表現。ChatGPT-4在與專家一致性和回應品質方面表現較佳,尤其在複雜病例中。兩者常建議小梁切除術。總體而言,ChatGPT-4在分析青光眼手術病例方面表現良好,Google Gemini則在回答問題上有限制。 PubMed DOI

研究比較了ChatGPT-4、Gemini和Microsoft Copilot在回答乳房影像問題時的易讀性和準確性。雖然ChatGPT-4更準確,但Gemini和Microsoft Copilot更容易理解。在醫療保健中,準確性和易讀性同樣重要,強調了在使用人工智慧技術時需要持續改進和監督。 PubMed DOI

研究比較ChatGPT 4和Gemini Advanced在頭頸癌治療建議上的表現,發現ChatGPT 4較Gemini Advanced更遵循指引且治療規劃更全面。兩者在支持腫瘤學評估方面表現不錯,但仍有改進空間。研究強調持續更新和驗證的重要性,以更好整合人工智慧到醫療實務。 PubMed DOI

這項研究分析了三個大型語言模型(LLMs)—ChatGPT(4和3.5版)及Google Gemini—在回答美國牙周病學會的考試問題時的準確性,並與人類研究生的表現進行比較。結果顯示,ChatGPT-4的準確率達79.57%,表現最佳;Google Gemini的準確率介於70.65%到75.73%之間,優於ChatGPT-3.5,但仍低於三年級住院醫師。ChatGPT-3.5的表現最差,準確率在59.27%到69.83%之間。研究指出LLMs在牙周病學教育上的潛力,但也需進一步研究以克服其限制。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—GPT-3.5、GPT-4 和 Google Gemini(Bard)在回答60道乳腺癌護理相關的多選題的表現。結果顯示,GPT-4的準確率最高,正確回答了95%的問題,接著是GPT-3.5的90%和Google Gemini的80%。研究還發現,來自公共數據庫的問題與乳腺放射科醫師新制定的問題在答案準確性上並無顯著差異,顯示LLMs在乳腺癌護理方面有良好的應用潛力,但仍需進一步訓練以提升表現。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT和Gemini,在提供小兒骨科疾病建議的可靠性,並參考了美國骨科醫學會(AAOS)的指導方針。結果顯示,ChatGPT和Gemini的符合率分別為67%和69%,差異不大。值得注意的是,ChatGPT沒有引用任何研究,而Gemini則參考了16項研究,但大多數存在錯誤或不一致。總體來看,這些模型雖然在某程度上符合指導方針,但仍有許多中立或不正確的陳述,顯示醫療AI模型需改進與提高透明度。 PubMed DOI