原始文章

這項研究評估了三款熱門聊天機器人—ChatGPT、Claude 和 Bard—在回答有關近視預防和控制的公共健康問題上的表現。研究提出了十九個問題,並由四位獨立評審根據全面性、準確性和相關性進行評分。結果顯示,ChatGPT 提供了最詳細的回答,得分最高,Bard 和 Claude 次之。雖然所有聊天機器人的得分都超過 4 分,但研究也指出它們存在提供虛假資訊的風險。因此,未來需要制定標準和持續監測,以提升聊天機器人的有效性。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT在透過一系列問題提供近視資訊的準確性。ChatGPT對大多數問題提供了高品質的資訊,但評估者對其評分有些變異。整體而言,ChatGPT在提供近視資訊方面顯示出潛力,但不準確之處凸顯了需要進一步評估和意識到其限制,以避免誤解。 PubMed DOI

研究比較了ChatGPT-3.5、ChatGPT-4.0和Google Bard回答近視問題的表現,結果發現ChatGPT-4.0最準確,80.6%的回答被評為「好」,比ChatGPT-3.5(61.3%)和Google Bard(54.8%)都好。三者都展現高的全面性和自我修正能力,ChatGPT-4.0在「治療和預防」方面表現最佳,顯示了LLMs,尤其是ChatGPT-4.0,在提供準確且全面的近視資訊上有潛力。 PubMed DOI

研究比較了ChatGPT-3.5、ChatGPT-4.0和Google Bard回答眼部症狀問題的表現,發現ChatGPT-4.0最準確,明顯優於其他。三者都很全面,但自我意識有限。研究指出ChatGPT-4.0在回答正確和全面性上有潛力,但臨床應用前仍需進一步驗證。 PubMed DOI

研究比較了ChatGPT和Bard在英國眼科醫師考試中的表現,結果發現ChatGPT表現優於人類,但Bard表現不佳。這顯示像ChatGPT這樣的AI模型在醫學教育上有潛力,甚至可能超越人類水準。研究強調了選擇適合的AI模型的重要性,也提到AI在醫學教育中的應用潛力,需要進一步研究其能力和限制。 PubMed DOI

比較ChatGPT和BARD兩個AI平台回答眼整形問題,發現ChatGPT回答更詳盡、更準確,且更具同理心;尤其在手術後癒合、眼部疾病和藥物等方面表現優秀。BARD在眼瞼問題上表現出色。研究指出,AI聊天機器人在患者教育和支持上扮演重要角色,但仍需醫師監督確保最佳護理。 PubMed DOI

研究發現AI聊天機器人(ChatGPT-4、Bard和Bing)提供的青光眼資訊與美國眼科學會(AAO)的資料有差異。ChatGPT回答最全面,但AAO更準確。AI聊天機器人仍需改進才能成為可靠資訊來源,醫護人員在討論青光眼時應留意這些限制。 PubMed DOI

研究比較了OpenAI的ChatGPT、微軟的Bing Chat (Copilot)和Google的Bard (Gemini)在回答聽覺問題上的表現。結果顯示ChatGPT表現最好,Bard表現最差且有無法回答的問題。大部分回答令人滿意,但仍有錯誤。ChatGPT未提供資料來源,使用者應謹慎因應潛在的錯誤。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT、Bard和Bing—在回答青光眼相關問題的準確性。共提出32個問題,結果顯示:ChatGPT正確率56.3%、Bard為78.1%、Bing則是59.4%。雖然準確性有差異,但統計分析顯示三者之間並無顯著差異(p = 0.195)。研究指出,這些AI聊天機器人能提供有用的青光眼資訊,但使用者仍需謹慎,因為準確性可能不一。 PubMed DOI

斜視是常見的眼科疾病,病人教育對於知情決策很重要。本研究比較了三個AI聊天機器人(ChatGPT、Bard、Copilot)和一個可靠網站(AAPOS)在回答斜視相關問題的表現。結果顯示,AAPOS在準確性上表現最佳,其次是Bard、Copilot和ChatGPT。Bard在可理解性和可行性方面得分最高,而AAPOS則在可讀性上最容易理解。情感分析顯示,Bard和Copilot在病人教育上有潛力,但AAPOS在準確性和可讀性上仍優於這些聊天機器人。 PubMed DOI

這項研究評估了ChatGPT在回答近視相關問題的有效性,重點在於適當性、可用性和清晰度。眼科醫生評估後發現,只有45%的回應被認為適當且可用,僅35%的回應符合所有標準。根據中文可讀性指數,回應的可讀性介於中學到高中水平。特別是關於治療效果和副作用的回應較少。總體來看,ChatGPT在解答兒童近視問題上表現不佳,顯示出眼科專業人士理解AI生成資訊的重要性,因為家長們越來越依賴線上健康資源。 PubMed DOI