原始文章

澳洲和紐西蘭的醫學物理學家調查發現,很多人已經用像 ChatGPT 這類大型語言模型來提升工作效率,但品質沒明顯變好。大家最擔心資料安全、病患隱私、缺乏指引,以及資源有限時的存取和成本問題。研究呼籲應該訂出明確規範和風險管理措施,確保臨床使用安全。 PubMed DOI


站上相關主題文章列表

生成式 AI 模型如 ChatGPT 正逐漸融入醫學教育,許多學生利用它來學習和準備考試,包括美國醫學執照考試(USMLE)。根據2023年5月的調查,96% 的醫學生知道 ChatGPT,52% 曾使用過它來完成課業。學生常用它解釋醫學概念、協助診斷及文法檢查。不過,對於不準確性、病人隱私和抄襲的擔憂也浮現,顯示出制定規範以確保道德使用的必要性。了解學生的看法對於建立負責任的使用指導方針至關重要。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在回答2018至2022年日本醫學物理師考試問題的表現。結果顯示,ChatGPT-4.0的正確率為72.7%,明顯高於ChatGPT-3.5的42.2%。不過,兩者在輻射計量及輻射相關法律和醫學倫理方面的表現較差,正確率分別為55.6%和40.0%。這些結果為ChatGPT在醫學物理領域的應用提供了基準,並可作為開發相關工具的參考,特別是在日本的放射治療支持上。 PubMed DOI

放射科醫師對生成式人工智慧和大型語言模型的看法各有不同,受實踐環境影響。有些醫師認為這些技術能提升診斷準確性、簡化流程及改善病人照護,特別是在影像分析和報告生成方面。然而,也有醫師擔心人工智慧結果的可靠性、工作取代及倫理問題。醫師對這些工具的接受度受訓練程度、對技術的熟悉度及機構支持等因素影響。總之,這些新技術的實施需謹慎考量其優缺點,並強調醫師與開發者之間的合作與教育。 PubMed DOI

這項研究探討了大型語言模型(LLMs),如ChatGPT-4o、ChatGPT-3.5和Google Gemini,在輔助放射學研究中的效能。進行了兩個實驗: 1. **生物統計學與數據視覺化**:測試LLMs在建議生物統計檢定和生成R程式碼的能力。ChatGPT-4o表現最佳,正確回答7個問題,且生成的程式碼錯誤較少。 2. **深度學習**:評估這些模型在生成影像分類模型的Python程式碼的能力。ChatGPT-4o和Gemini都能生成初始程式碼,並透過互動修正錯誤。 總體而言,LLMs對放射學研究有幫助,但使用者需驗證生成的程式碼以避免錯誤。 PubMed DOI

大型語言模型如ChatGPT在醫療領域,特別是放射學報告分析上,受到廣泛關注。研究顯示,ChatGPT能協助放射科醫生進行診斷、生成報告、提取數據等任務,但也面臨幻覺、偏見及複雜情境的挑戰。此外,數據隱私和法律問題也需考量。為了充分發揮ChatGPT的潛力,必須對其輸出進行仔細規劃和驗證,放射科醫生的專業知識在此過程中至關重要。本文概述了ChatGPT在放射報告中的優勢與限制。 PubMed DOI

學術放射學協會的白皮書探討了將大型語言模型(LLMs)如ChatGPT應用於放射學教育的潛力與挑戰。它指出,LLMs能提升課程開發、教學及學習評估,但也提出準確性、透明度、錯誤資訊、數據隱私和偏見等擔憂。為了有效整合LLMs,建議評估技術準備度、進行規劃、定期評估、促進教職員發展、增加培訓機會,以及加強學術界與產業的合作,並研究最佳實踐。 PubMed DOI

ChatGPT這類大型語言模型,能幫助放射科研究人員在研究發想、文獻整理、設計、分析和寫作上更有效率。不過,也要注意錯誤、偏見和隱私等風險。透過像提示工程和模型優化等方法,可以提升使用成效,同時降低潛在風險。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

這項研究發現,ChatGPT 4.0對經驗較少的放射師特別有幫助,能協助學習和減輕壓力,但對資深放射師來說,進階問題的回答還不夠清楚和精確。整體而言,ChatGPT適合用於放射師教育和臨床輔助,但還需要再優化才能完全滿足專家需求。 PubMed DOI

一份針對42國心理健康研究人員的調查發現,約七成會用大型語言模型(像是ChatGPT)來校稿或寫程式,年輕研究人員用得更多。大家覺得LLM能提升效率和品質,但對準確性、倫理和偏見還是有疑慮。多數人希望有更多訓練和明確指引,確保負責任且透明地使用這些工具。 PubMed DOI