原始文章

大型語言模型(LLMs)如BERT和GPT的發展,推進了自然語言處理,特別是在心理健康支持方面。不過,這些模型在提供可靠的心理健康資訊上仍有疑慮。本次回顧將探討影響LLMs可信度的因素,重點在可靠性、可解釋性和倫理考量。 根據PRISMA-ScR指導原則,回顧將納入2019至2024年期間的相關研究,並由兩位獨立審查者進行數據篩選。系統性搜尋已完成,篩選階段進行中,數據提取預計在2024年11月初完成,綜合分析則在11月底前完成,結果將為實務工作者和政策制定者提供重要見解。 PubMed DOI


站上相關主題文章列表

自殺是重要的公共健康議題,人工智慧的進步,特別是大型語言模型(LLMs),在自殺檢測和預防上有顯著貢獻。這篇綜述分析了2018年到2024年間的29項研究,探討像GPT、Llama和BERT等模型在自殺預防中的應用。研究顯示,這些模型在早期檢測和預測方面通常表現優於心理健康專業人士。儘管LLMs展現出拯救生命的潛力,但仍需解決倫理問題,並與心理健康專家合作。 PubMed DOI

這份研究計畫是針對自然語言處理(NLP)技術的系統性回顧,特別聚焦於健康社會決定因素(SDOH)的相關研究。計畫將分析2014至2024年間的研究,並透過三位評審獨立篩選資料,以降低偏見。目的是突顯現有研究、找出知識空白,並提出未來研究方向,進而提升NLP在SDOH的應用,改善不同族群的健康結果。預計2025年初提交同行評審,篩選工作已於2024年12月開始。 PubMed DOI

自殺預防是全球健康的重要議題,每年約有80萬人因自殺而喪生。大型語言模型(LLMs)在數位服務中有助於自殺預防,但也帶來臨床與倫理挑戰。2024年2月的回顧研究分析了43項相關研究,發現大多數集中於自殺風險識別,並探討了LLMs在臨床應用中的潛力。研究指出,隱私和同意等倫理問題需特別注意,並強調多學科合作及高品質數據的重要性。生成性人工智慧的發展可能改善危機護理與教育,但需持續人類監督。 PubMed DOI

機器學習,特別是大型語言模型(LLMs),越來越受到重視,能協助健康研究中的系統性回顧(SR)。研究團隊在多個資料庫中搜尋,自2021年4月以來共找到8,054個結果,並手動補充33篇,最終納入37篇專注於LLM應用的文章。分析顯示,LLMs在SR的13個步驟中使用了10個,最常見的應用為文獻搜尋、研究選擇和數據提取。雖然LLMs顯示潛力,但許多應用尚未經過驗證,顯示出這一領域的研究需求日益增加。 PubMed DOI

大型語言模型(LLMs)在臨床醫學中展現出潛力,能改善決策支持、診斷及醫學教育。不過,將其整合進臨床流程需徹底評估,以確保可靠性、安全性及倫理性。本系統性回顧調查了LLMs在臨床環境中的評估方法,發現大多數研究集中於一般領域的LLMs,醫學領域的研究較少。準確性是最常評估的參數。儘管對LLMs的興趣上升,研究中仍存在限制與偏見,未來需建立標準化框架,確保其安全有效地應用於臨床實踐。 PubMed DOI

大型語言模型在心理健康照護上有潛力,但目前研究方法不一、太依賴特定模型,證據還不夠支持單獨用LLMs治療。未來要有更嚴謹和標準的研究,才能安全有效地應用在臨床上。 PubMed DOI

這篇回顧整理了大型語言模型在心理健康領域的應用現況,發現LLMs主要用於心理疾病篩檢、治療支援和心理健康諮詢,特別聚焦在憂鬱症偵測和自殺風險預測。整體來說,LLMs在資訊分析和回應生成上表現優於傳統方法,但不同模型各有優缺點。未來應持續技術發展並重視倫理議題。 PubMed DOI

這篇綜述整理了LLMs在醫療診斷的最新應用,像是疾病分類和醫學問答,特別以GPT-4和GPT-3.5為主。雖然在放射科、精神科等領域表現不錯,但還是有偏見、隱私和法規等問題。未來要加強驗證、減少偏見、提升可解釋性,並統一法規,才能讓LLMs更安全地應用在醫療上。 PubMed DOI

一份針對42國心理健康研究人員的調查發現,約七成會用大型語言模型(像是ChatGPT)來校稿或寫程式,年輕研究人員用得更多。大家覺得LLM能提升效率和品質,但對準確性、倫理和偏見還是有疑慮。多數人希望有更多訓練和明確指引,確保負責任且透明地使用這些工具。 PubMed DOI

這篇綜述分析270篇文獻,發現現有大型語言模型(如GPT-4)雖然能協助醫師處理多種臨床任務,但沒有單一模型能全面勝任所有需求,專業任務還需客製化。多數先進模型又是封閉原始碼,造成透明度和隱私疑慮。作者建議建立簡單易懂的線上指引,幫助醫師選擇合適的LLM。 PubMed DOI