原始文章

這項研究評估了兩個AI聊天機器人,ChatGPT-3.5和Google Bard,提供的青光眼手術資訊的質量與可讀性。研究發現,ChatGPT-3.5的適當回答率高達96%,而Google Bard則為68%。不過,在可讀性方面,Google Bard的回答更易於理解,Flesch可讀性評分顯示其得分為57.6,遠高於ChatGPT-3.5的22.6。這顯示出準確性與可讀性之間的權衡,強調了清晰且準確的醫療資訊對患者的重要性,並呼籲進一步研究AI工具在醫療領域的有效性。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT-4提供的玻璃體視網膜手術資訊準確但難懂,建議不完全依賴AI。需加強專業領域資訊的可信度與易讀性,並了解AI在健康建議上的限制。 PubMed DOI

研究比較ChatGPT生成的青光眼手術健康資訊與現有線上資料,發現兩者閱讀難度都高(11至12年級),且資訊品質一般。ChatGPT在評估資源品質方面表現準確,但對一般讀者來說仍複雜。儘管未達預期閱讀水準,ChatGPT可協助自動化評估。 PubMed DOI

比較ChatGPT和BARD兩個AI平台回答眼整形問題,發現ChatGPT回答更詳盡、更準確,且更具同理心;尤其在手術後癒合、眼部疾病和藥物等方面表現優秀。BARD在眼瞼問題上表現出色。研究指出,AI聊天機器人在患者教育和支持上扮演重要角色,但仍需醫師監督確保最佳護理。 PubMed DOI

研究比較了ChatGPT和Bard兩個AI聊天機器人在眼科手術資訊上的表現。ChatGPT準確性較佳,但兩者都缺乏不良事件發生機率資訊。雖提供易懂高質量資訊,但解釋部分仍有挑戰。 PubMed DOI

病患現在愈來愈愛上網查眼睛健康,特別是用Google。ChatGPT等大型語言模型也越來越受歡迎。美國常見的白內障手術,但網路上有關白內障資訊有限。研究發現,ChatGPT提供更專業的回答,眼科醫師也偏好它。ChatGPT可成為高健康素養病患和醫師的寶貴教育資源。 PubMed DOI

研究發現AI聊天機器人(ChatGPT-4、Bard和Bing)提供的青光眼資訊與美國眼科學會(AAO)的資料有差異。ChatGPT回答最全面,但AAO更準確。AI聊天機器人仍需改進才能成為可靠資訊來源,醫護人員在討論青光眼時應留意這些限制。 PubMed DOI

這項研究比較了Google和ChatGPT在回答眼部整形手術常見問題的準確性和可讀性,並評估ChatGPT製作客製化病患教育材料的能力。結果顯示,ChatGPT的回答可讀性較高,平均年級水平為15.6,顯著高於Google的10.0。準確性方面,ChatGPT達93%,也優於Google的78%。此外,ChatGPT能有效調整內容至較低的閱讀水平,仍保持準確性。總體來看,ChatGPT在提供準確資訊和病患教育方面展現出良好潛力,有助於提升病患對眼科護理的理解。 PubMed DOI

這項研究比較了ChatGPT-4和Google Bard生成的白內障手術病人教育材料,共整理了98個常見問題,分為病情、手術準備和手術後恢復三個領域。結果顯示,Google Bard的回答較為複雜,但ChatGPT-4在可理解性上表現更佳,特別是在手術準備和恢復方面。兩者在可行性上無顯著差異,且均未提供危險信息。研究建議未來應納入真實病人的意見,以提升材料的相關性。 PubMed DOI

這項研究評估了ChatGPT-3.5在回答青光眼相關常見問題的有效性。由十二位專家組成的評估小組針對四個主題的40個問題進行評分,結果顯示AI的回答整體得分為正面,平均約為4分(「同意」)。不過,全面性得分最低(3.7),顯示回答常缺乏深度。具體來說,20%的問題在連貫性上得分低於4,42.5%在事實性上得分低於4,60%在全面性上得分低於4,20%在安全性上得分低於4。專家指出AI缺乏個別病人情況的考量。因此,雖然AI的回答普遍可接受,但不應依賴其進行青光眼的個人化諮詢。 PubMed DOI

這項研究探討了Google和ChatGPT在提供青光眼常見問題解答的準確性與易讀性。結果顯示,ChatGPT的準確性高達97%,遠超過Google的77%。不過,ChatGPT的初始閱讀水平較高(14.3級),而Google為9.4級。當要求ChatGPT修訂青光眼教育材料時,它成功將閱讀水平降至9.4級,且準確性未受影響。這顯示ChatGPT能提供更清晰易懂的資訊,增進病人教育,改善理解與治療遵從性,顯示其在青光眼資訊及教育資源開發上的潛力。 PubMed DOI