原始文章

這項研究探討了使用ChatGPT輔助醫學生學習視網膜色素變性(RP)的效果。研究中142名醫學生被分為兩組,一組使用傳統教材,另一組則使用ChatGPT。結果顯示,兩組的學習成效都有顯著提升,但使用ChatGPT的組別在複習時間上明顯較短,且在解決進階RP治療問題上表現更佳。研究建議結合AI與傳統教學,以提升醫學教育的效率和對罕見疾病的理解。 PubMed DOI


站上相關主題文章列表

這篇論文探討了兩個大型語言模型(LLMs),ChatGPT4 和 PaLM2,對於年齡相關黃斑變性(AMD)患者常見問題的回答效果。研究強調患者了解病情對於慢性疾病管理的重要性。從專注於 AMD 的網站整理了143個問題,並讓這兩個模型及三位眼科醫生回答。結果顯示,ChatGPT4 在臨床共識、潛在危害等方面表現優於 PaLM2,顯示出這些模型在患者教育上的潛力,但仍需謹慎使用,不能取代專業醫療建議。 PubMed DOI

這篇回顧探討了ChatGPT在視網膜健康照護的應用,分析其潛在好處與挑戰。我們從多個資料庫搜尋自2022年以來的相關研究,共納入68篇文章,涵蓋學術研究、診斷、疾病管理等領域。結果顯示,ChatGPT在醫學教育和診斷支持上有很大潛力,但也需注意其準確性和錯誤資訊的風險。未來應著重提升準確性並降低風險,以確保其在臨床實務中的有效性。 PubMed DOI

這項研究探討了使用ChatGPT輔助的問題導向學習(PBL)對泌尿科醫學實習生的成效,並與傳統教學方法比較。實習生分為兩組,一組使用ChatGPT輔助,另一組則接受傳統教學。結果顯示,兩組的成績都有提升,但使用ChatGPT的組別在理論知識和臨床技能上表現更佳,學生們對這種AI輔助的學習方式也表示滿意。研究顯示ChatGPT能提升醫學教育的學習效果,但仍需進一步探討AI資訊的可靠性及其大規模應用的影響。 PubMed DOI

這項研究探討健康專業學生對ChatGPT的看法及其對醫療和教育的影響。研究發現,86.2%的學生了解ChatGPT,且普遍持正面評價,平均分數為4.04。學生欣賞其在信息檢索和摘要的能力。質性分析顯示三個主題:使用經驗、對醫療品質的影響及教育整合。雖然有好處,如輕鬆獲取信息,但也擔心倫理問題及批判性思維的影響。不同學科間看法一致,建議持續改進以提升準確性和可靠性,並平衡優勢與倫理考量。 PubMed DOI

這項研究比較了視光學學生、碩士生和執業視光師對ChatGPT提供的近視資訊的理解。研究團隊發放問卷給225名參與者,結果顯示執業視光師對近視併發症的評價較學生正面,顯示臨床經驗影響感知(p < 0.001)。不過,對近視預防的看法在各組間相似(p = 0.28)。執業視光師對隱形眼鏡和藥物等治療方法的有效性也持更積極態度(p < 0.001 和 p = 0.004)。整體來看,研究強調教育程度對AI資訊解讀的影響,執業視光師對ChatGPT的信任度較高。 PubMed DOI

聊天機器人應用程式「Bennie and the Chats」是因應COVID-19疫情而開發,目的是幫助學生學習臨床病史採集技能。最初使用DialogFlow,現在升級整合ChatGPT,讓互動更靈活。研究評估這個新版本對臨床教學的影響,並進行了定量和定性分析。調查顯示,超過75%的學生認為教學增強了學習體驗,82.2%的人認為分享病人案例有助於了解不常見疾病。結果顯示,聊天機器人能有效補充傳統教學,並促進國際教育合作。 PubMed DOI

這項研究評估了ChatGPT-4o在提供甲狀腺眼病(TED)諮詢和初步診斷的表現,特別是在非英語環境中。研究比較了ChatGPT-4o、ChatGPT-4和一位經驗豐富的眼科教授的回應,重點在準確性、全面性、簡潔性和整體滿意度。結果顯示,ChatGPT-4o在準確性和結構化回應上優於其他兩者,並成功識別病理狀況,解讀CT影像的準確性也與教授相當。儘管如此,研究也指出了錯誤資訊和法律問題的潛在風險,需謹慎處理。 PubMed DOI

這項研究評估了ChatGPT在處理早產兒視網膜病(ROP)案例時的準確性,並與臨床醫師進行比較。參與者包括13位醫師,涵蓋經驗較少的訓練生和資深專家,針對10個案例進行評估。結果顯示,ChatGPT的準確率達90%,超過訓練生的77.5%,而專家的準確率為96%。臨床醫師與ChatGPT的回應一致性高,Cohen's kappa值為0.80,顯示ChatGPT在ROP案例中可作為有價值的工具,若能優化提示,準確性可能進一步提升。 PubMed DOI

本研究評估了ChatGPT在眼科領域撰寫科學引言的能力,並與經驗豐富的眼科醫師進行比較。十位專家在不知情的情況下評估了ChatGPT和人類撰寫的引言,準確率為57.7%。錯誤分類率在不同子專科中差異顯著,眼整形的錯誤率最高。評估指標顯示,ChatGPT生成的引言與人類撰寫的並無顯著差異,近一半的引言無法區分。這顯示ChatGPT在眼科科學內容生成上有顯著進步,未來應探討其在學術寫作中的潛力與倫理影響。 PubMed DOI

這項研究用22個神經眼科病例,比較ChatGPT(GPT-3.5和GPT-4)和兩位專科醫師的診斷能力。GPT-3.5正確率59%,GPT-4有82%,醫師則是86%。GPT-4的表現已經接近專科醫師,顯示AI有潛力協助診斷複雜眼腦疾病,尤其在缺乏專科醫師的地區。不過,臨床應用前還需要更多驗證安全性與可靠性。 PubMed DOI