原始文章

這項研究比較了外科醫生與大型語言模型(LLM)聊天機器人在解釋白內障手術併發症的效果。結果顯示,外科醫生的回應更清晰且同理心較高,但回應較短;聊天機器人則提供更詳細的解釋,準確性和完整性相似。研究建議透過真實情境和專業數據訓練聊天機器人,以提升其在病人諮詢中的表現。 PubMed DOI


站上相關主題文章列表

研究比較了不同AI聊天機器人在正顎手術中的表現,結果顯示回答品質高、可靠性佳,但易讀性需高學歷。ChatGPT-4有創意,OpenEvidence則回答相似。儘管聊天機器人提供高品質答案,仍建議諮詢專業醫師。 PubMed DOI

研究比較了ChatGPT和Bard兩個AI聊天機器人在眼科手術資訊上的表現。ChatGPT準確性較佳,但兩者都缺乏不良事件發生機率資訊。雖提供易懂高質量資訊,但解釋部分仍有挑戰。 PubMed DOI

病患現在愈來愈愛上網查眼睛健康,特別是用Google。ChatGPT等大型語言模型也越來越受歡迎。美國常見的白內障手術,但網路上有關白內障資訊有限。研究發現,ChatGPT提供更專業的回答,眼科醫師也偏好它。ChatGPT可成為高健康素養病患和醫師的寶貴教育資源。 PubMed DOI

這項研究比較了AI聊天機器人(ChatGPT和Google Gemini)生成的病患教育材料與傳統病患資訊手冊(PILs)在眼科手術局部麻醉方面的效果。專家評估發現,雖然AI提供的語言較簡單且易懂,但傳統PILs在完整性和可讀性上表現更佳。統計分析顯示,ChatGPT在準確性和完整性上稍勝於Google Gemini,但兩者都不及PILs。值得一提的是,Google Gemini的情感語調最為正面。研究結果顯示,AI聊天機器人可作為病患教育的輔助工具,幫助提升病患的理解與決策能力。 PubMed DOI

這項研究比較了ChatGPT-4和Google Bard生成的白內障手術病人教育材料,共整理了98個常見問題,分為病情、手術準備和手術後恢復三個領域。結果顯示,Google Bard的回答較為複雜,但ChatGPT-4在可理解性上表現更佳,特別是在手術準備和恢復方面。兩者在可行性上無顯著差異,且均未提供危險信息。研究建議未來應納入真實病人的意見,以提升材料的相關性。 PubMed DOI

這項研究評估了兩個AI聊天機器人,ChatGPT-3.5和Google Bard,提供的青光眼手術資訊的質量與可讀性。研究發現,ChatGPT-3.5的適當回答率高達96%,而Google Bard則為68%。不過,在可讀性方面,Google Bard的回答更易於理解,Flesch可讀性評分顯示其得分為57.6,遠高於ChatGPT-3.5的22.6。這顯示出準確性與可讀性之間的權衡,強調了清晰且準確的醫療資訊對患者的重要性,並呼籲進一步研究AI工具在醫療領域的有效性。 PubMed DOI

這項研究評估了四款熱門聊天機器人(ChatGPT-4、Bard、Perplexity 和 Claude 2)在與認證胸腔外科醫生進行考試的表現。結果顯示,聊天機器人的中位得分為1.06,而外科醫生為1.88,差異顯著(p=0.019)。外科醫生在大多數情境中表現優於聊天機器人,且聊天機器人的重大失誤率較高(0.50對0.19;p=0.016)。總體來看,研究認為聊天機器人的表現顯著不如外科醫生,提醒在臨床決策中應謹慎使用人工智慧。 PubMed DOI

這項研究評估了幾種大型語言模型(LLM)聊天機器人的表現,包括ChatGPT、Writesonic、Google Bard和Bing Chat,針對角膜相關情境的回應。三位專家使用標準化評分來評估準確性、理解力等指標。結果顯示,ChatGPT在準確性和全面性上表現最佳,得分3.35(滿分4分),而Google Bard在可讀性方面表現突出。所有回應均未對病人造成風險,顯示信息安全可靠。研究強調LLM在眼科的潛力,但仍需醫療專業人員的監督以確保病人安全。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT-3.5、Bard和Bing Chat—對於角膜屈光手術(KRS)常見問題的回應。結果顯示,ChatGPT-3.5在適當性和準確性上表現最佳,而Bard在可理解性和可行性方面領先。雖然這些聊天機器人能提供詳細的回應,但在可讀性和可理解性上仍需改進,以提升病人教育的效果。 PubMed DOI

這項研究評估了七款熱門聊天機器人生成的白內障手術病人資訊手冊的品質,包括Bing AI、ChatGPT 3.5、ChatGPT 4、ChatSonic、Google Bard、Perplexity和Pi。研究發現,ChatSonic的回應品質最佳,其次是Bing AI和Perplexity,而ChatGPT 3.5的表現最差,還包含錯誤資訊。Bing AI、ChatSonic和Perplexity提供了可靠的參考資料,顯示出在醫療資訊提供上,聊天機器人的品質和可靠性差異明顯,特別是ChatSonic在眼科病人教育方面的潛力。 PubMed DOI