原始文章

這項研究評估了三個AI聊天機器人—ChatGPT、Bard和Bing—在眼部炎症、葡萄膜疾病及治療選擇的知識。共提出36個問題,結果顯示ChatGPT正確率52.8%,Bard為38.9%,Bing則44.4%。三者對20個問題的回答一致,正確率為45%。統計分析顯示它們的表現沒有顯著差異(P = 0.654)。研究結果指出,這些聊天機器人在眼部健康資訊的準確性仍需提升,未來可針對改善其表現進行研究。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT和Glass兩個聊天機器人在診斷葡萄膜炎的表現,結果發現葡萄膜炎專家準確率為100%,ChatGPT達66%,Glass達33%。調查指出臨床醫師對於運用人工智慧於眼科實務感到興奮,尤其是年長及受過高教育者。ChatGPT在葡萄膜炎診斷上顯示潛力,眼科醫師熱衷將人工智慧融入臨床實務。 PubMed DOI

研究比較了ChatGPT、Bing和Bard三個AI聊天機器人在眼科病理和眼內腫瘤知識上的表現,結果顯示它們回答問題的準確度沒有太大差異。研究建議雖然這些聊天機器人可提供相關資訊,但仍需謹慎使用,因為並非所有問題都能得到正確回答。 PubMed DOI

研究目的是評估ChatGPT、Bing和Bard AI在小兒眼科和斜視領域的知識水平,並比較它們的優缺點。結果顯示,三者準確率無顯著差異,但答案準確性可能有所不同,使用時應謹慎。 PubMed DOI

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

研究比較了ChatGPT、Bing和Bard AI在眼部疾病和治療知識上的表現,結果顯示Bard的準確率最高,達68.3%,Bing次之為53.7%,ChatGPT為51.2%。儘管AI提供快速資訊,但準確性有差異,因此應謹慎核實資訊。 PubMed DOI

研究發現AI聊天機器人(ChatGPT-4、Bard和Bing)提供的青光眼資訊與美國眼科學會(AAO)的資料有差異。ChatGPT回答最全面,但AAO更準確。AI聊天機器人仍需改進才能成為可靠資訊來源,醫護人員在討論青光眼時應留意這些限制。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT、Bard和Bing—在回答青光眼相關問題的準確性。共提出32個問題,結果顯示:ChatGPT正確率56.3%、Bard為78.1%、Bing則是59.4%。雖然準確性有差異,但統計分析顯示三者之間並無顯著差異(p = 0.195)。研究指出,這些AI聊天機器人能提供有用的青光眼資訊,但使用者仍需謹慎,因為準確性可能不一。 PubMed DOI

這項研究評估了三個人工智慧程式—ChatGPT、Bing 和 Bard—在回答有關鏡片、白內障和屈光手術問題的表現。從美國眼科醫學會的教育材料中收集了70個問題。結果顯示,ChatGPT 正確回答了35個問題(50%),Bing 正確回答了43個(61.4%),而 Bard 則正確回答了50個(71.4%)。Bard 的準確率顯著高於 ChatGPT(P = 0.009)。雖然這些人工智慧工具能提供有用資訊,但使用者仍需對其回答的準確性保持謹慎。 PubMed DOI

針對視網膜和玻璃體疾病的多選題評估中,Bing的正確回答率最高,達76.1%,而ChatGPT和Bard則各為60.9%。不過,三者在答案準確性上並無顯著差異(P = 0.206)。這顯示雖然AI聊天機器人能提供相關醫療資訊,但使用者仍需謹慎,因為這些資訊不一定總是正確的。 PubMed DOI

在眼科領域的研究中,OpenAI 的 ChatGPT 在回答病人常見問題上表現優於 Google 的 Bard (Gemini Pro)。一位資深眼科醫生選了 20 個問題,八位專家對回答進行評估,結果顯示 ChatGPT 在準確性、全面性和清晰度上均高於 Bard,分別得分 4.0、4.5 和 5.0,而 Bard 則為 3.0、3.0 和 4.0,差異具統計意義 (p < 0.001)。這顯示 AI 聊天機器人雖然能提供準確清晰的回答,但仍需進一步研究以提升其醫療工具的可靠性。 PubMed DOI