原始文章

這項研究探討了Google和ChatGPT在提供青光眼常見問題解答的準確性與易讀性。結果顯示,ChatGPT的準確性高達97%,遠超過Google的77%。不過,ChatGPT的初始閱讀水平較高(14.3級),而Google為9.4級。當要求ChatGPT修訂青光眼教育材料時,它成功將閱讀水平降至9.4級,且準確性未受影響。這顯示ChatGPT能提供更清晰易懂的資訊,增進病人教育,改善理解與治療遵從性,顯示其在青光眼資訊及教育資源開發上的潛力。 PubMed DOI


站上相關主題文章列表

研究比較ChatGPT生成的青光眼手術健康資訊與現有線上資料,發現兩者閱讀難度都高(11至12年級),且資訊品質一般。ChatGPT在評估資源品質方面表現準確,但對一般讀者來說仍複雜。儘管未達預期閱讀水準,ChatGPT可協助自動化評估。 PubMed DOI

病患現在愈來愈愛上網查眼睛健康,特別是用Google。ChatGPT等大型語言模型也越來越受歡迎。美國常見的白內障手術,但網路上有關白內障資訊有限。研究發現,ChatGPT提供更專業的回答,眼科醫師也偏好它。ChatGPT可成為高健康素養病患和醫師的寶貴教育資源。 PubMed DOI

研究發現ChatGPT對青光眼相關知識表現準確。比較眼科網站、社群媒體及歐洲青光眼學會指南,發現ChatGPT在一般知識、診斷、治療及預防方面表現優異。尤其根據歐洲青光眼學會指南,ChatGPT回答大部分問題都正確。 PubMed DOI

研究發現ChatGPT在與青光眼患者溝通時,回應較複雜且少用眼科術語,可能讓患者難以理解。建議醫護人員應確保溝通清晰易懂,使用更簡單的用語,例如「看眼科醫師」。 PubMed DOI

這項研究評估了大型語言模型(LLM)ChatGPT 在青光眼領域的表現。研究人員提出了24個臨床問題,並由三位專家評分。結果顯示,ChatGPT的平均得分為3.29,整體表現良好,但有29.2%的回應得分低於3分。經過自我修正後,得分從2.96提升至3.58,滿分回應比例也從30.6%增至57.1%。這顯示ChatGPT在青光眼領域有潛力,但仍需更多研究來驗證其應用。 PubMed DOI

這項研究評估了ChatGPT對家長詢問兒童眼科和斜視問題的回答準確性。分析了817個問題,結果顯示78.09%的回答完全正確,19.09%正確但不完整,只有2.81%部分不正確,且沒有完全錯誤的回答。平均可讀性分數為14.49,超過成人的標準,這引發了一些擔憂。儘管可讀性有待改善,研究仍顯示ChatGPT能提供準確可靠的資訊,顯示其在醫療領域的潛力。 PubMed DOI

這項研究評估了ChatGPT(OpenAI)對角膜圓錐症常見問題的回答準確性,因為患者對此病症可能不太了解。結果顯示,ChatGPT提供的資訊大部分是正確的,但也有一些小錯誤。不過,回答的複雜性需要較高的閱讀能力,這可能讓許多患者難以理解。因此,對於角膜圓錐症患者來說,提供更易懂的資訊是非常重要的。 PubMed DOI

這項研究比較了Google和ChatGPT在回答眼部整形手術常見問題的準確性和可讀性,並評估ChatGPT製作客製化病患教育材料的能力。結果顯示,ChatGPT的回答可讀性較高,平均年級水平為15.6,顯著高於Google的10.0。準確性方面,ChatGPT達93%,也優於Google的78%。此外,ChatGPT能有效調整內容至較低的閱讀水平,仍保持準確性。總體來看,ChatGPT在提供準確資訊和病患教育方面展現出良好潛力,有助於提升病患對眼科護理的理解。 PubMed DOI

這項研究評估了ChatGPT-3.5在回答青光眼相關常見問題的有效性。由十二位專家組成的評估小組針對四個主題的40個問題進行評分,結果顯示AI的回答整體得分為正面,平均約為4分(「同意」)。不過,全面性得分最低(3.7),顯示回答常缺乏深度。具體來說,20%的問題在連貫性上得分低於4,42.5%在事實性上得分低於4,60%在全面性上得分低於4,20%在安全性上得分低於4。專家指出AI缺乏個別病人情況的考量。因此,雖然AI的回答普遍可接受,但不應依賴其進行青光眼的個人化諮詢。 PubMed DOI

這項研究評估了兩個AI聊天機器人,ChatGPT-3.5和Google Bard,提供的青光眼手術資訊的質量與可讀性。研究發現,ChatGPT-3.5的適當回答率高達96%,而Google Bard則為68%。不過,在可讀性方面,Google Bard的回答更易於理解,Flesch可讀性評分顯示其得分為57.6,遠高於ChatGPT-3.5的22.6。這顯示出準確性與可讀性之間的權衡,強調了清晰且準確的醫療資訊對患者的重要性,並呼籲進一步研究AI工具在醫療領域的有效性。 PubMed DOI