原始文章

這項研究比較了ChatGPT-4和Google Bard生成的白內障手術病人教育材料,共整理了98個常見問題,分為病情、手術準備和手術後恢復三個領域。結果顯示,Google Bard的回答較為複雜,但ChatGPT-4在可理解性上表現更佳,特別是在手術準備和恢復方面。兩者在可行性上無顯著差異,且均未提供危險信息。研究建議未來應納入真實病人的意見,以提升材料的相關性。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT和Google Bard對阻塞性睡眠呼吸暫停症患者教育的表現,耳鼻喉科醫師認為ChatGPT更易懂、更實用,文檔品質較高且無錯誤危險資訊。總結來說,ChatGPT是提供患者更好資訊的選擇。 PubMed DOI

研究比較了美國眼科整形及重建外科學會的病人教育資料(PEMs)與AI聊天機器人ChatGPT和Google Bard生成的資料易讀性。結果顯示ChatGPT 4.0比Google Bard和原始PEMs難懂。但要求以六年級閱讀水準創建內容時,兩個AI模型都提高了易讀性。研究指出,在適當指導下,AI工具可創建易懂PEMs。 PubMed DOI

比較ChatGPT和BARD兩個AI平台回答眼整形問題,發現ChatGPT回答更詳盡、更準確,且更具同理心;尤其在手術後癒合、眼部疾病和藥物等方面表現優秀。BARD在眼瞼問題上表現出色。研究指出,AI聊天機器人在患者教育和支持上扮演重要角色,但仍需醫師監督確保最佳護理。 PubMed DOI

研究比較了ChatGPT和Bard兩個AI聊天機器人在眼科手術資訊上的表現。ChatGPT準確性較佳,但兩者都缺乏不良事件發生機率資訊。雖提供易懂高質量資訊,但解釋部分仍有挑戰。 PubMed DOI

研究比較ChatGPT和Bard等平台的AI回應與泌尿學官方病人教育資料,發現AI回應在準確性、全面性、清晰度和實用性方面表現較佳。然而,可讀性較差。雖AI被視為可靠資訊來源,但閱讀難度可能限制普羅大眾使用。 PubMed DOI

研究比較了ChatGPT-3.5和Google Bard在回答血管手術相關問題時的表現,發現ChatGPT的回答更準確完整,易讀且適合大專程度;Bard則適合高中程度但品質較低。ChatGPT提供較長回答,顯示在血管手術病人教育上有潛力,但仍需進一步研究改進。 PubMed DOI

病患現在愈來愈愛上網查眼睛健康,特別是用Google。ChatGPT等大型語言模型也越來越受歡迎。美國常見的白內障手術,但網路上有關白內障資訊有限。研究發現,ChatGPT提供更專業的回答,眼科醫師也偏好它。ChatGPT可成為高健康素養病患和醫師的寶貴教育資源。 PubMed DOI

這項研究比較了AI聊天機器人(ChatGPT和Google Gemini)生成的病患教育材料與傳統病患資訊手冊(PILs)在眼科手術局部麻醉方面的效果。專家評估發現,雖然AI提供的語言較簡單且易懂,但傳統PILs在完整性和可讀性上表現更佳。統計分析顯示,ChatGPT在準確性和完整性上稍勝於Google Gemini,但兩者都不及PILs。值得一提的是,Google Gemini的情感語調最為正面。研究結果顯示,AI聊天機器人可作為病患教育的輔助工具,幫助提升病患的理解與決策能力。 PubMed DOI

這項研究比較了Google和ChatGPT在回答眼部整形手術常見問題的準確性和可讀性,並評估ChatGPT製作客製化病患教育材料的能力。結果顯示,ChatGPT的回答可讀性較高,平均年級水平為15.6,顯著高於Google的10.0。準確性方面,ChatGPT達93%,也優於Google的78%。此外,ChatGPT能有效調整內容至較低的閱讀水平,仍保持準確性。總體來看,ChatGPT在提供準確資訊和病患教育方面展現出良好潛力,有助於提升病患對眼科護理的理解。 PubMed DOI

這項研究評估了兩個AI聊天機器人,ChatGPT-3.5和Google Bard,提供的青光眼手術資訊的質量與可讀性。研究發現,ChatGPT-3.5的適當回答率高達96%,而Google Bard則為68%。不過,在可讀性方面,Google Bard的回答更易於理解,Flesch可讀性評分顯示其得分為57.6,遠高於ChatGPT-3.5的22.6。這顯示出準確性與可讀性之間的權衡,強調了清晰且準確的醫療資訊對患者的重要性,並呼籲進一步研究AI工具在醫療領域的有效性。 PubMed DOI