原始文章

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI


站上相關主題文章列表

這篇系統性回顧探討了ChatGPT在醫療保健的應用,包括教育、研究、寫作、病患溝通等。透過對多個資料庫的搜尋,找到83篇相關研究,顯示ChatGPT能改善科學研究和學術寫作的文法與清晰度,特別對非英語使用者有幫助。不過,它也有不準確性、倫理問題和情感敏感度不足等限制。雖然能簡化工作流程並支持診斷與教育,但仍需謹慎使用,因為資訊可靠性和誤導性回應的風險存在。 PubMed DOI

這項研究評估了健康照護學生對 ChatGPT 的使用情況,重點在於他們的認知、知識感知、風險感知、倫理考量及對教育中使用 ChatGPT 的態度。研究於2023年5至6月進行,涵蓋2,661名來自美洲各健康照護領域的學生。結果顯示,42.99%的參與者對 ChatGPT 不熟悉,知識中位數得分較低。大多數受訪者認為 ChatGPT 在倫理上是中立的,並對其在健康照護教育中的潛在益處持正面態度。研究建議醫學教育者應將聊天機器人技術納入健康照護教育,因學生對進一步了解此技術表現出濃厚興趣。 PubMed DOI

生成式 AI 模型如 ChatGPT 正逐漸融入醫學教育,許多學生利用它來學習和準備考試,包括美國醫學執照考試(USMLE)。根據2023年5月的調查,96% 的醫學生知道 ChatGPT,52% 曾使用過它來完成課業。學生常用它解釋醫學概念、協助診斷及文法檢查。不過,對於不準確性、病人隱私和抄襲的擔憂也浮現,顯示出制定規範以確保道德使用的必要性。了解學生的看法對於建立負責任的使用指導方針至關重要。 PubMed DOI

這項研究探討了ChatGPT在台灣醫療環境中的認知,重點在於其有用性、可信度及風險。研究針對659名有使用經驗的大學及研究生進行問卷調查,分析醫療專業與非醫療專業學生對ChatGPT的看法。結果顯示,兩組人員認為ChatGPT在醫學教育和研究中的幫助較大,但醫療專業學生對其易用性持謹慎態度,擔心潛在風險。研究建議,人工智慧應根據用戶需求調整,特別是在臨床實踐中,信任和可靠性至關重要。 PubMed DOI

這項研究探討醫療專業人員與公眾對於在臨床中使用ChatGPT的看法。研究指出,成功實施ChatGPT不僅依賴技術,還需考量醫療提供者和公眾的態度。透過分析3,130條評論,研究發現醫療人員對其效率表示肯定,但對倫理和責任有疑慮;而公眾則欣賞其可及性和情感支持,但擔心隱私和錯誤資訊。為了有效整合ChatGPT,需針對這些不同觀點進行調整,提升可靠性並明確其在醫療中的角色。 PubMed DOI

調查顯示,大型語言模型(LLMs)能提升醫療工作效率,多數用過的人都給予正面評價。不過,醫護人員、年長者和女性對於導入LLMs較為保留,主要擔心實用性和工作影響。年輕男性則較看好LLMs的幫助。大家普遍認為,未來LLMs會改變工作和人際互動,因此需要有完善的教育和支援,才能讓醫療界公平、安全地導入這項新技術。 PubMed DOI

這篇回顧整理了17篇關於ChatGPT在醫療應用的研究,發現它在病患照護、臨床決策和醫學教育上有潛力,應用範圍廣泛。不過,目前多數研究品質普通,且在倫理、法律和準確性上還有疑慮。未來需要更完善的指引和政策,才能確保安全可靠地使用。 PubMed DOI

這項研究發現,英國基層醫師普遍對大型語言模型應用在臨床與非臨床工作持正面看法,尤其看好即時筆記和任務管理,但最擔心病人安全。研究建議未來開發需更重視醫師需求與安全性。 PubMed DOI

澳洲和紐西蘭的醫學物理學家調查發現,很多人已經用像 ChatGPT 這類大型語言模型來提升工作效率,但品質沒明顯變好。大家最擔心資料安全、病患隱私、缺乏指引,以及資源有限時的存取和成本問題。研究呼籲應該訂出明確規範和風險管理措施,確保臨床使用安全。 PubMed DOI

一份針對42國心理健康研究人員的調查發現,約七成會用大型語言模型(像是ChatGPT)來校稿或寫程式,年輕研究人員用得更多。大家覺得LLM能提升效率和品質,但對準確性、倫理和偏見還是有疑慮。多數人希望有更多訓練和明確指引,確保負責任且透明地使用這些工具。 PubMed DOI