原始文章

大型語言模型(LLMs)因其自然語言處理能力而受到關注,但也引發了心理健康方面的擔憂,如不平等、污名化和依賴性等。本文利用行動者網絡框架分析人類與LLMs的互動,將風險分為四個層級,並提出CORE風險評估鏈來管理這些風險。我們強調負責任的LLM開發,並指出心理健康專業人員在評估和監管風險中的重要角色,包括與開發者合作和提升公共意識。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在自然語言處理領域有潛力,可加速臨床實踐,如診斷、預防和治療。智能對話系統運用LLMs被視為治療的未來,尤其是在ChatGPT時代。這研究專注於在醫療保健領域運用LLMs,特別關注認知衰退和產後抑鬱。討論LLMs在醫療保健中的好處,如增進臨床任務和提供個人化醫療,以及相關擔憂,如數據隱私和公平性。這有助於全球討論將LLMs整合到醫療系統中。 PubMed DOI

LLMs在醫療保健領域被廣泛應用,但可能存在濫用風險,如不公平資源分配或侵犯公民權利。報告探討了這些風險並提出因應策略。 PubMed DOI

LLMs在精神醫學領域引起關注,如ChatGPT/GPT-4可用於預測患者風險、治療干預和材料分析。然而,採用LLMs需面對挑戰,如限制、偏見、可解釋性、隱私擔憂和錯誤信息風險。評論討論了在精神醫學實踐中使用LLMs的機會、限制和考量。 PubMed DOI

全球心理健康問題日益嚴重,現有的照護模式無法滿足需求。大型語言模型(LLMs)被視為解決方案,能在心理健康教育、評估和介入上提供幫助。本文回顧了LLMs的應用,並指出其潛在的正面影響與風險,強調需採取策略來降低風險。平衡心理健康支持的需求與LLMs的負責任開發至關重要,確保這些模型符合倫理標準,並讓有經驗的人參與開發,以減少傷害並增強其正面影響。 PubMed DOI

這篇系統性回顧探討大型語言模型(LLMs)在心理健康領域的應用,特別是在早期篩檢、數位介入和臨床應用的有效性。回顧分析了2017年到2024年期間的40篇文章,結果顯示LLMs能有效識別心理健康問題並提供電子健康服務,但也存在文本不一致、幻覺現象及缺乏倫理框架等風險。主要挑戰包括需要多語言專家標註的數據、內容可靠性及數據隱私等倫理問題。雖然LLMs不應取代專業服務,但作為輔助工具的潛力值得進一步研究。 PubMed DOI

這篇論文探討大型語言模型(LLMs)在心理健康護理與研究中的應用,強調它們能改善護理可及性、數據收集及治療工具的潛力。文中回顧了LLMs在精神醫學的發展,指出其優勢如提高診斷準確性和個性化護理,但也提到高計算需求、誤解風險及倫理問題等挑戰。最後,論文呼籲採取負責任的做法,透過紅隊測試和倫理指導方針,來最大化LLMs的好處並降低風險。 PubMed DOI

這篇評論分析了大型語言模型(LLMs)在癌症研究中的應用,涵蓋2017至2024年間的相關文獻,共找到59篇文章,分為定量研究、聊天機器人研究及質性討論。研究顯示LLMs在自然語言處理上具優勢,並在臨床支持和數據管理中展現潛力。質性研究則探討風險與倫理問題。評論強調,雖然LLMs能提升癌症護理的數據分析和病患互動,但也需注意數據偏見和倫理挑戰,呼籲對其使用進行監管和持續評估,以確保負責任的應用。 PubMed DOI

大型語言模型(LLMs)在心理健康護理中有潛力,能透過臨床筆記和轉錄來改善診斷和治療。不過,技術成本、識字差距和數據偏見等挑戰需解決。文章建議採用社會文化技術方法,重點在五個領域:建立全球臨床資料庫、制定倫理指導方針、精煉診斷類別、納入文化考量及促進數位包容性。作者強調開發具代表性的數據集和可解釋的臨床決策支持系統的重要性,並強調各方合作以確保公平的臨床部署。 PubMed DOI

自殺預防是全球健康的重要議題,每年約有80萬人因自殺而喪生。大型語言模型(LLMs)在數位服務中有助於自殺預防,但也帶來臨床與倫理挑戰。2024年2月的回顧研究分析了43項相關研究,發現大多數集中於自殺風險識別,並探討了LLMs在臨床應用中的潛力。研究指出,隱私和同意等倫理問題需特別注意,並強調多學科合作及高品質數據的重要性。生成性人工智慧的發展可能改善危機護理與教育,但需持續人類監督。 PubMed DOI

大型語言模型(LLMs)有潛力改變醫療實務,但臨床醫師需注意相關風險,特別是幻覺風險—即模型生成的虛假資訊。這些幻覺可能因訓練數據問題或模型特性而產生,若不妥善管理,可能導致不準確的診斷和治療建議。為了降低這些風險,已開發出一套技術框架,旨在安全地將LLMs整合進臨床實務,並推動更廣泛的機構實施。 PubMed DOI