原始文章

針對視網膜和玻璃體疾病的多選題評估中,Bing的正確回答率最高,達76.1%,而ChatGPT和Bard則各為60.9%。不過,三者在答案準確性上並無顯著差異(P = 0.206)。這顯示雖然AI聊天機器人能提供相關醫療資訊,但使用者仍需謹慎,因為這些資訊不一定總是正確的。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT、Bing和Bard三個AI聊天機器人在眼科病理和眼內腫瘤知識上的表現,結果顯示它們回答問題的準確度沒有太大差異。研究建議雖然這些聊天機器人可提供相關資訊,但仍需謹慎使用,因為並非所有問題都能得到正確回答。 PubMed DOI

研究目的是評估ChatGPT、Bing和Bard AI在小兒眼科和斜視領域的知識水平,並比較它們的優缺點。結果顯示,三者準確率無顯著差異,但答案準確性可能有所不同,使用時應謹慎。 PubMed DOI

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

研究發現ChatGPT-4在眼科影像解釋上表現良好,準確率達70%,尤其擅長視網膜問題。在非影像問題上表現更佳,但在不同眼科領域的表現有差異。建議在醫學領域應適當整合這類聊天機器人,雖然在回答眼科問題方面有潛力,但在非影像問題上表現更出色。 PubMed DOI

研究比較了ChatGPT、Bing和Bard AI在眼部疾病和治療知識上的表現,結果顯示Bard的準確率最高,達68.3%,Bing次之為53.7%,ChatGPT為51.2%。儘管AI提供快速資訊,但準確性有差異,因此應謹慎核實資訊。 PubMed DOI

研究發現AI聊天機器人(ChatGPT-4、Bard和Bing)提供的青光眼資訊與美國眼科學會(AAO)的資料有差異。ChatGPT回答最全面,但AAO更準確。AI聊天機器人仍需改進才能成為可靠資訊來源,醫護人員在討論青光眼時應留意這些限制。 PubMed DOI

研究比較了三個AI聊天機器人(ChatGPT-3.5、Bing Copilot、Google Gemini)協助眼科醫師處理難題的效果,發現它們提供了有用資訊,但不及專家準確。ChatGPT回答較為一致。AI聊天機器人可輔助眼科診斷,但不可取代專家諮詢。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT、Bard和Bing—在回答青光眼相關問題的準確性。共提出32個問題,結果顯示:ChatGPT正確率56.3%、Bard為78.1%、Bing則是59.4%。雖然準確性有差異,但統計分析顯示三者之間並無顯著差異(p = 0.195)。研究指出,這些AI聊天機器人能提供有用的青光眼資訊,但使用者仍需謹慎,因為準確性可能不一。 PubMed DOI

這項研究評估了三個AI聊天機器人—ChatGPT、Bard和Bing—在眼部炎症、葡萄膜疾病及治療選擇的知識。共提出36個問題,結果顯示ChatGPT正確率52.8%,Bard為38.9%,Bing則44.4%。三者對20個問題的回答一致,正確率為45%。統計分析顯示它們的表現沒有顯著差異(P = 0.654)。研究結果指出,這些聊天機器人在眼部健康資訊的準確性仍需提升,未來可針對改善其表現進行研究。 PubMed DOI

這項研究評估了三個人工智慧程式—ChatGPT、Bing 和 Bard—在回答有關鏡片、白內障和屈光手術問題的表現。從美國眼科醫學會的教育材料中收集了70個問題。結果顯示,ChatGPT 正確回答了35個問題(50%),Bing 正確回答了43個(61.4%),而 Bard 則正確回答了50個(71.4%)。Bard 的準確率顯著高於 ChatGPT(P = 0.009)。雖然這些人工智慧工具能提供有用資訊,但使用者仍需對其回答的準確性保持謹慎。 PubMed DOI