原始文章

這項研究比較了 ChatGPT-4、DeepSeek 和 Gemini 在回答閱讀障礙和計算障礙問題時的表現。三款 AI 都能給出高品質、實用的答案,但 ChatGPT-4 在計算障礙方面最穩定,DeepSeek 在閱讀障礙上最可靠。整體來說,三者表現差異不大,但相關資訊還是需要專業人士確認。 PubMed DOI


站上相關主題文章列表

這項研究評估了四個大型語言模型(LLMs)對父母詢問早產兒視網膜病(ROP)的回應。整理了60個常見問題,三位專家評估其回應的適當性和完整性。研究發現,ChatGPT-4的適當性得分最高(100%),但文本結構較複雜,需大學程度理解。相對而言,Gemini被認為最易讀,而Microsoft Copilot在可讀性指標上表現優異。總體來看,ChatGPT-4提供最準確的回應,但可能讓某些父母難以理解,Gemini和Microsoft Copilot則更易於理解。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT 3.5、ChatGPT 4.0和Gemini,對自體免疫疾病臨床問題的回答效果。共提出46個問題,並由專家根據五個質量維度進行評估。結果顯示,ChatGPT 4.0在所有維度上表現優於其他兩者,平均得分為199.8,顯示其在相關性、正確性、完整性、有用性和安全性方面的顯著優勢。整體而言,ChatGPT 4.0在提供準確且有用的醫療資訊上,顯示出更高的效能,顯示大型語言模型在醫療服務中的潛力。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在回答脊髓損傷相關問題的表現,包括ChatGPT-4o、Claude-3.5 sonnet、Gemini-1.5 Pro和Llama-3.1。結果顯示,Gemini的資訊品質最佳,但可讀性較低,需大學程度理解。ChatGPT在準確性上表現最佳,達83.8%的「良好」評級,超過其他模型。所有模型在全面性和自我修正能力上表現良好,特別是ChatGPT和Claude在修訂後有顯著改善。這是首次在脊髓損傷背景下系統性比較這些模型的研究。 PubMed DOI

這項研究比較了ChatGPT-4o、Gemini 和 Claude 3.5 Sonnet 三款大型語言模型,用中文和英文回答小兒髖關節發育不良臨床問題的準確性。結果發現,三款模型在中英文的回答都很準確,彼此之間沒有明顯差異,顯示這些AI能可靠提供相關醫療資訊。 PubMed DOI

這項研究比較 ChatGPT-3.5、ChatGPT-4o 和 Google Gemini 在製作兒童近視衛教資料的表現。結果發現,三款 AI 都能產出正確、易懂的內容,但只有 ChatGPT-3.5 和 4o 能穩定達到國小六年級的閱讀程度。ChatGPT-4o 在內容品質和易讀性上表現最好,但三者都缺乏高度可執行的建議。整體來說,ChatGPT-4o 最有潛力用來優化兒童近視衛教資料。 PubMed DOI

研究比較六款聊天機器人回答中年健康問題的表現,發現 Meta AI 答案最準確、最有條理,Perplexity 最容易閱讀。整體來說,這些聊天機器人對中年健康教育有幫助,但表現有差異,選擇合適的工具很重要。 PubMed DOI

這項研究比較四款主流大型語言模型在回答肝硬化相關問題的表現。結果顯示,Gemini 的資訊品質最佳,ChatGPT 的正確率最高。所有模型的答案都需要大學程度閱讀能力,但簡化複雜內容的能力不錯。整體來說,這些模型在提供肝硬化健康資訊上表現良好,但品質、可讀性和正確性仍有差異,未來還需進一步改進。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

這項研究發現,ChatGPT-4 回答小兒吞嚥困難問題最準確可靠,Gemini 的答案則最容易閱讀。不過,三款 AI 在資訊品質上都有不一致的地方,顯示大型語言模型雖然有幫助,但還需要再加強,才能穩定提供正確又好懂的資訊。 PubMed DOI

這項研究比較了三款大型語言模型(ChatGPT-4、Copilot、Gemini)回答梨狀肌症候群相關問題的表現。結果發現,ChatGPT 和 Gemini 的答案比 Copilot 更完整、品質也較好,但三者在正確性上差不多。整體來說,這些AI有潛力協助健康諮詢,但還需要再加強,才能讓資訊更正確、完整又好懂。 PubMed DOI