原始文章

作者開發了一款結合大型語言模型的嚴肅遊戲,能模擬照顧者與神經性厭食症青少年之間的對話,協助家庭練習支持性溝通。系統透過專家回饋和少量範例學習,能產生真實且具治療效果的對話,無需大規模重新訓練,提升數位治療訓練的規模與成效。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)如ChatGPT的出現可能會影響心理治療,特別是認知行為療法(CBT)。我們的系統性研究顯示,LLMs能夠識別不利的思維,評估其有效性,並建議將其重新框架為更具建設性的替代方案。然而,儘管LLMs在這方面能提供有用的建議,但不應僅依賴它們來進行CBT。 PubMed DOI

這項研究探討大型語言模型(LLMs)在精神科訪談中的應用,特別針對北韓脫北者的心理健康挑戰。研究目標是確認LLMs能否有效識別精神病症狀並總結壓力源。主要任務包括提取壓力源、識別症狀及總結訪談內容。結果顯示,使用GPT-4 Turbo模型後,73個記錄片段準確關聯精神病症狀,經微調後性能提升,平均準確率達0.82。LLMs生成的摘要在連貫性和相關性上得分高,顯示其在心理健康領域的潛力。 PubMed DOI

這項研究顯示客製化的大型語言模型(LLMs)在提升談話治療,特別是癡呆症護理中的潛力。研究團隊利用QLoRA方法,在A40 GPU上微調五個開源LLM,創造出針對心理健康的解決方案。他們生成了10,000個模擬的諮詢師與病人互動問答,涵蓋憂鬱症和焦慮症等問題。微調後的模型在心理健康論壇和Quora的測試中表現優異,最佳模型「Mixtral-8×7B-v0.1-qlora」得分7.83,顯示出顯著改善,強調了微調LLMs在心理健康治療中的有效性。 PubMed DOI

這項研究顯示大型語言模型(LLMs)在創建虛擬病人(VPs)方面的潛力,能模擬病人與醫師的互動。研究使用OpenAI的GPT模型生成60個針對慢性咳嗽和糖尿病的對話,並評估其真實性和使用者體驗。主要發現包括: 1. **成本效益**:每次對話成本低,具可擴展性。 2. **對話真實性**:評分高,顯示對話現實且有用。 3. **病人偏好**:大多數對話符合病人預期。 4. **模型比較**:GPT-4.0-turbo表現優於GPT-3.5-turbo。 5. **反饋相似性**:醫師與LLM的評分相似。 6. **缺陷識別**:某些特徵影響真實性。 7. **工具驗證**:確認測量工具的可靠性。 總體而言,LLM生成的虛擬病人能有效模擬臨床互動,具成本效益,建議進一步研究以提升對話質量。 PubMed DOI

大型語言模型(LLMs)在醫學知識的教育、訓練和治療上有顯著進展,但早期研究顯示其不穩定性和潛在的有害輸出。為了解決這些問題,我們提出了一個經過驗證的數據集來訓練LLMs,並設計了一個演員-評論者的提示協議。在這個框架中,治療師生成初步回應,然後由監督者進行精煉。盲驗證研究顯示,LLM的評分常高於適當的治療師回應,顯示其符合專家標準,為安全整合LLM技術於醫療應用提供了基礎。 PubMed DOI

臨床醫師越來越重視大型語言模型(LLMs)在肥胖服務中的應用,因為它們有助於提升護理的可及性和效率。不過,對於這些模型的科學準確性和同理心表達仍有疑慮。最近研究顯示,ChatGPT-3能有效模仿人類營養師的回應,而比較ChatGPT-4與人類營養師的研究結果顯示,兩者在科學正確性、可理解性、同理心和可行性上表現相似。這些結果顯示,先進的LLMs在肥胖治療中可能提供有價值的支持,但仍需進一步研究其在其他情境中的有效性。 PubMed DOI

這項研究用大型語言模型來協助神經復健遊戲,根據病患狀況調整遊戲難度,並在專家指導下給予個人化建議。初步結果顯示,LLM能即時調整並配合指示,但參數調整還不夠精確,未來還需優化才能更可靠。 PubMed DOI

這項研究發現,透過提示工程(prompt engineering)可以提升大型語言模型在心理治療(PST)初期階段的表現,尤其在症狀辨識和目標設定上更有效。雖然品質和同理心有所提升,但仍有侷限。整體來說,LLM 有潛力協助解決心理健康人力不足,推動 AI 治療服務發展。 PubMed

這項研究提出 ABCD 系統,利用兩個 AI(AI 臨床醫師和 AI 失語症患者)自動模擬語言治療對話,省時又省錢,不需真人參與。系統用 GPT-4o 和語音工具打造,zero-shot 提示效果最好。ABCD 有助於開發和測試失語症治療 AI,突破臨床研究瓶頸,未來應用潛力大。 PubMed DOI

這項研究發現,ChatGPT能給家長清楚又實用的ADHD行為訓練建議,但部分資料過時、內容也不夠深入。AI工具雖然能協助照顧者學習,但臨床應用前,建議再加強正確性和細節。 PubMed DOI