原始文章

這項研究評估了三個人工智慧程式—ChatGPT、Bing 和 Bard—在回答有關鏡片、白內障和屈光手術問題的表現。從美國眼科醫學會的教育材料中收集了70個問題。結果顯示,ChatGPT 正確回答了35個問題(50%),Bing 正確回答了43個(61.4%),而 Bard 則正確回答了50個(71.4%)。Bard 的準確率顯著高於 ChatGPT(P = 0.009)。雖然這些人工智慧工具能提供有用資訊,但使用者仍需對其回答的準確性保持謹慎。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT、Bing和Bard三個AI聊天機器人在眼科病理和眼內腫瘤知識上的表現,結果顯示它們回答問題的準確度沒有太大差異。研究建議雖然這些聊天機器人可提供相關資訊,但仍需謹慎使用,因為並非所有問題都能得到正確回答。 PubMed DOI

比較ChatGPT和BARD兩個AI平台回答眼整形問題,發現ChatGPT回答更詳盡、更準確,且更具同理心;尤其在手術後癒合、眼部疾病和藥物等方面表現優秀。BARD在眼瞼問題上表現出色。研究指出,AI聊天機器人在患者教育和支持上扮演重要角色,但仍需醫師監督確保最佳護理。 PubMed DOI

研究比較了ChatGPT和Bard兩個AI聊天機器人在眼科手術資訊上的表現。ChatGPT準確性較佳,但兩者都缺乏不良事件發生機率資訊。雖提供易懂高質量資訊,但解釋部分仍有挑戰。 PubMed DOI

研究目的是評估ChatGPT、Bing和Bard AI在小兒眼科和斜視領域的知識水平,並比較它們的優缺點。結果顯示,三者準確率無顯著差異,但答案準確性可能有所不同,使用時應謹慎。 PubMed DOI

研究比較了ChatGPT、Bing和Bard AI在眼部疾病和治療知識上的表現,結果顯示Bard的準確率最高,達68.3%,Bing次之為53.7%,ChatGPT為51.2%。儘管AI提供快速資訊,但準確性有差異,因此應謹慎核實資訊。 PubMed DOI

研究發現AI聊天機器人(ChatGPT-4、Bard和Bing)提供的青光眼資訊與美國眼科學會(AAO)的資料有差異。ChatGPT回答最全面,但AAO更準確。AI聊天機器人仍需改進才能成為可靠資訊來源,醫護人員在討論青光眼時應留意這些限制。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT、Bard和Bing—在回答青光眼相關問題的準確性。共提出32個問題,結果顯示:ChatGPT正確率56.3%、Bard為78.1%、Bing則是59.4%。雖然準確性有差異,但統計分析顯示三者之間並無顯著差異(p = 0.195)。研究指出,這些AI聊天機器人能提供有用的青光眼資訊,但使用者仍需謹慎,因為準確性可能不一。 PubMed DOI

這項研究比較了ChatGPT-4和Google Bard生成的白內障手術病人教育材料,共整理了98個常見問題,分為病情、手術準備和手術後恢復三個領域。結果顯示,Google Bard的回答較為複雜,但ChatGPT-4在可理解性上表現更佳,特別是在手術準備和恢復方面。兩者在可行性上無顯著差異,且均未提供危險信息。研究建議未來應納入真實病人的意見,以提升材料的相關性。 PubMed DOI

這項研究評估了三個AI聊天機器人—ChatGPT、Bard和Bing—在眼部炎症、葡萄膜疾病及治療選擇的知識。共提出36個問題,結果顯示ChatGPT正確率52.8%,Bard為38.9%,Bing則44.4%。三者對20個問題的回答一致,正確率為45%。統計分析顯示它們的表現沒有顯著差異(P = 0.654)。研究結果指出,這些聊天機器人在眼部健康資訊的準確性仍需提升,未來可針對改善其表現進行研究。 PubMed DOI

針對視網膜和玻璃體疾病的多選題評估中,Bing的正確回答率最高,達76.1%,而ChatGPT和Bard則各為60.9%。不過,三者在答案準確性上並無顯著差異(P = 0.206)。這顯示雖然AI聊天機器人能提供相關醫療資訊,但使用者仍需謹慎,因為這些資訊不一定總是正確的。 PubMed DOI