原始文章

這項研究發現,ChatGPT 4.0對經驗較少的放射師特別有幫助,能協助學習和減輕壓力,但對資深放射師來說,進階問題的回答還不夠清楚和精確。整體而言,ChatGPT適合用於放射師教育和臨床輔助,但還需要再優化才能完全滿足專家需求。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4在介入放射學程序潛在併發症資訊的準確性、可靠性和可讀性。兩位經驗豐富的醫師使用5點李克特量表對25個程序的回應進行評分,結果顯示評分一致性高(ICC達0.928)。可讀性評估顯示資訊通常達到大學水平,但可讀性較低。整體而言,ChatGPT-4在提供準確資訊方面表現良好,未出現幻覺,顯示其在病人教育上有潛力,但仍需高健康素養以理解這些資訊。 PubMed DOI

本研究探討ChatGPT-4o在為放射學學生制定符合澳洲醫療輻射實踐委員會(MRPBA)要求的持續專業發展(CPD)計畫的有效性。研究結果顯示,雖然生成的CPD計畫普遍符合監管標準,但評估者之間的評分一致性較高,顯示出一定的變異性,特別是在及時性和完整性方面。結論指出,ChatGPT-4o能減輕CPD計畫的認知負擔,但仍需人類監督以確保計畫的相關性。未來研究應著重提升AI的個性化能力,發掘其在專業教育中的潛力與限制。 PubMed DOI

本研究評估了ChatGPT 4.0根據ACR-TI-RADS 2017標準解讀甲狀腺超音波報告的能力,並與醫療專家及一名缺乏經驗的使用者進行比較。結果顯示,ChatGPT在回聲焦點的評估上與專家一致,但在其他標準上則有不一致。缺乏經驗的使用者表現優於ChatGPT,顯示傳統醫學訓練的重要性。結論指出,ChatGPT可作為輔助診斷工具,但無法取代人類專業知識,並建議改善AI算法以增強其臨床實用性。 PubMed DOI

這項研究比較了ChatGPT-3.5和4在產生日文核醫檢查說明的表現,由19位技術師評分。結果顯示,ChatGPT-4表現明顯較佳,大多數說明被評為中上或優秀。不過,專家監督仍不可少,未來還需進一步研究風險與安全性。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI

這項研究發現,ChatGPT-4在回答FRCR Part 1放射解剖學題目時,辨認解剖結構的正確率很低(僅4–7.5%),但能正確判斷影像檢查方式。對於影像中有出現但非指定結構的辨識,表現較好(超過五成接近正確),但左右判斷仍有困難(約四成正確)。整體來說,ChatGPT-4目前在放射解剖影像判讀上還有很大進步空間。 PubMed DOI

這項研究發現,ChatGPT-4和4O在放射腫瘤科的文字型臨床問題上表現不錯,能提供實用建議,但遇到複雜或技術性高的情境就不太可靠。特別是在判讀鼻咽癌MRI影像時,ChatGPT-4O完全無法正確分期。總結來說,ChatGPT適合輔助一般臨床決策,但影像判讀還不行,使用時要特別小心。 PubMed DOI

澳洲和紐西蘭的醫學物理學家調查發現,很多人已經用像 ChatGPT 這類大型語言模型來提升工作效率,但品質沒明顯變好。大家最擔心資料安全、病患隱私、缺乏指引,以及資源有限時的存取和成本問題。研究呼籲應該訂出明確規範和風險管理措施,確保臨床使用安全。 PubMed DOI

這項德國研究發現,醫師和醫學生用ChatGPT查職業性肺病資料時,在找有害物質等研究任務上表現較好,也覺得自己專業知識有提升。但在臨床決策(像是否通報職業病)時,自己查資料的答對率反而更高。總結:ChatGPT適合輔助醫學研究,但臨床決策還是不能只靠它。 PubMed DOI

這篇綜述指出,ChatGPT雖然不能直接判讀醫學影像,但在協助撰寫放射科報告、設計研究計畫和統計分析上表現不錯。由於取得容易、用途多元,對放射科醫師來說是很實用的工具,但在影像判讀方面還是有限制。 PubMed DOI