原始文章

這項研究評估了三個AI文字轉影片平台—InVideo、ClipTalk和EasyVid—在製作角膜屈光手術教育影片的效果,手術包括LASIK、PRK和SMILE。研究使用美國眼科醫學會和蔡司的控制影片作為比較,並針對「影像準確性」、「腳本準確性」、「影像清晰度」和「腳本一致性」進行評分。 結果顯示,控制影片在影像準確性上明顯優於AI生成影片,但AI平台在腳本準確性、影像清晰度和腳本一致性方面表現相當。總體來看,AI影片的腳本清晰且影像清晰,但醫學影像準確性仍需改進,以提升病人教育的適用性。 PubMed DOI


站上相關主題文章列表

研究比較了線上人工智慧平台和美國手部外科學會HandCare網站提供的手部手術資訊。人工智慧資訊易讀性高但醫學準確性較低,缺乏可靠性。建議手部外科醫師應該注意人工智慧技術的限制,並強調與醫師諮詢和共同決策的重要性。 PubMed DOI

研究比較了美國眼科整形及重建外科學會的病人教育資料(PEMs)與AI聊天機器人ChatGPT和Google Bard生成的資料易讀性。結果顯示ChatGPT 4.0比Google Bard和原始PEMs難懂。但要求以六年級閱讀水準創建內容時,兩個AI模型都提高了易讀性。研究指出,在適當指導下,AI工具可創建易懂PEMs。 PubMed DOI

研究發現線上聊天式人工智慧模型對眼科問題提供的建議大多準確,但在不同眼科領域的適應度有所不同。模型在白內障和屈光等領域表現較好,但在角膜等領域表現較差。總結來說,模型有潛力,但仍需進一步優化才能廣泛應用於臨床。 PubMed DOI

這項調查評估了六個人工智慧模型在針對有瘢痕疙瘩及不同程度近視的病人進行屈光手術建議的能力。結果顯示,這些模型一致推薦光學屈光角膜切削術(PRK),而六位經驗豐富的眼科醫生則一致推薦激光原位角膜磨鑿術(LASIK)。值得注意的是,模型提供的42個參考文獻中有55%是虛構的,只有45%是真實的。只有一個模型在近視加重時改變建議,顯示目前人工智慧在臨床決策中的批判性思考能力仍有待加強。 PubMed DOI

將生成式人工智慧(如大型語言模型)整合進眼科教育和實踐,能提升診斷準確性和病人照護。這些技術可用於教育病人和醫生,並提供臨床決策支持,增強學習體驗。然而,挑戰包括生成不正確資訊的風險、系統偏見及過時數據問題。當前教育計畫已開始納入人工智慧,未來需建立評估指標、結合人類監督及利用影像數據。倫理考量如數據隱私和透明度也必須重視,以確保人工智慧的負責任應用。 PubMed DOI

這項研究比較了AI聊天機器人(ChatGPT和Google Gemini)生成的病患教育材料與傳統病患資訊手冊(PILs)在眼科手術局部麻醉方面的效果。專家評估發現,雖然AI提供的語言較簡單且易懂,但傳統PILs在完整性和可讀性上表現更佳。統計分析顯示,ChatGPT在準確性和完整性上稍勝於Google Gemini,但兩者都不及PILs。值得一提的是,Google Gemini的情感語調最為正面。研究結果顯示,AI聊天機器人可作為病患教育的輔助工具,幫助提升病患的理解與決策能力。 PubMed DOI

這項研究評估了兩個AI平台,DALL-E 3和Medical Illustration Master (MiM),在生成屈光手術醫學插圖的效果。研究生成了36張圖片,並與人類創作的插圖進行比較。結果顯示,人類創作的插圖在準確性和清晰度上明顯優於AI生成的圖片,特別是在LASIK手術中,人類的平均得分為14,而AI僅約4.5。雖然AI生成的圖片在感知質量上獲得較高評分,但在醫學插圖的準確性上仍需改進。 PubMed DOI

這項研究評估了DALL-E 3和Medical Illustration Manager (MIM)在創作角膜移植手術醫學插圖的能力。研究者提供具體提示讓AI生成插圖,並與作者的控制插圖進行比較。結果顯示,控制插圖在可讀性和解剖學準確性上表現明顯優於AI生成的插圖,得分分別為14.56對4.38和5.63。雖然AI在細節和清晰度上得分相近,但整體仍不如控制插圖。研究強調AI在此領域尚需進一步發展。 PubMed DOI

這項研究評估了三個人工智慧程式—ChatGPT、Bing 和 Bard—在回答有關鏡片、白內障和屈光手術問題的表現。從美國眼科醫學會的教育材料中收集了70個問題。結果顯示,ChatGPT 正確回答了35個問題(50%),Bing 正確回答了43個(61.4%),而 Bard 則正確回答了50個(71.4%)。Bard 的準確率顯著高於 ChatGPT(P = 0.009)。雖然這些人工智慧工具能提供有用資訊,但使用者仍需對其回答的準確性保持謹慎。 PubMed DOI

這項研究評估了兩個AI聊天機器人,ChatGPT-3.5和Google Bard,提供的青光眼手術資訊的質量與可讀性。研究發現,ChatGPT-3.5的適當回答率高達96%,而Google Bard則為68%。不過,在可讀性方面,Google Bard的回答更易於理解,Flesch可讀性評分顯示其得分為57.6,遠高於ChatGPT-3.5的22.6。這顯示出準確性與可讀性之間的權衡,強調了清晰且準確的醫療資訊對患者的重要性,並呼籲進一步研究AI工具在醫療領域的有效性。 PubMed DOI