原始文章

作者開發了一款結合大型語言模型的嚴肅遊戲,能模擬照顧者與神經性厭食症青少年之間的對話,協助家庭練習支持性溝通。系統透過專家回饋和少量範例學習,能產生真實且具治療效果的對話,無需大規模重新訓練,提升數位治療訓練的規模與成效。 PubMed DOI


站上相關主題文章列表

這項研究顯示客製化的大型語言模型(LLMs)在提升談話治療,特別是癡呆症護理中的潛力。研究團隊利用QLoRA方法,在A40 GPU上微調五個開源LLM,創造出針對心理健康的解決方案。他們生成了10,000個模擬的諮詢師與病人互動問答,涵蓋憂鬱症和焦慮症等問題。微調後的模型在心理健康論壇和Quora的測試中表現優異,最佳模型「Mixtral-8×7B-v0.1-qlora」得分7.83,顯示出顯著改善,強調了微調LLMs在心理健康治療中的有效性。 PubMed DOI

這項研究顯示大型語言模型(LLMs)在創建虛擬病人(VPs)方面的潛力,能模擬病人與醫師的互動。研究使用OpenAI的GPT模型生成60個針對慢性咳嗽和糖尿病的對話,並評估其真實性和使用者體驗。主要發現包括: 1. **成本效益**:每次對話成本低,具可擴展性。 2. **對話真實性**:評分高,顯示對話現實且有用。 3. **病人偏好**:大多數對話符合病人預期。 4. **模型比較**:GPT-4.0-turbo表現優於GPT-3.5-turbo。 5. **反饋相似性**:醫師與LLM的評分相似。 6. **缺陷識別**:某些特徵影響真實性。 7. **工具驗證**:確認測量工具的可靠性。 總體而言,LLM生成的虛擬病人能有效模擬臨床互動,具成本效益,建議進一步研究以提升對話質量。 PubMed DOI

大型語言模型(LLMs)在醫學知識的教育、訓練和治療上有顯著進展,但早期研究顯示其不穩定性和潛在的有害輸出。為了解決這些問題,我們提出了一個經過驗證的數據集來訓練LLMs,並設計了一個演員-評論者的提示協議。在這個框架中,治療師生成初步回應,然後由監督者進行精煉。盲驗證研究顯示,LLM的評分常高於適當的治療師回應,顯示其符合專家標準,為安全整合LLM技術於醫療應用提供了基礎。 PubMed DOI

臨床醫師越來越重視大型語言模型(LLMs)在肥胖服務中的應用,因為它們有助於提升護理的可及性和效率。不過,對於這些模型的科學準確性和同理心表達仍有疑慮。最近研究顯示,ChatGPT-3能有效模仿人類營養師的回應,而比較ChatGPT-4與人類營養師的研究結果顯示,兩者在科學正確性、可理解性、同理心和可行性上表現相似。這些結果顯示,先進的LLMs在肥胖治療中可能提供有價值的支持,但仍需進一步研究其在其他情境中的有效性。 PubMed DOI

這項研究用大型語言模型來協助神經復健遊戲,根據病患狀況調整遊戲難度,並在專家指導下給予個人化建議。初步結果顯示,LLM能即時調整並配合指示,但參數調整還不夠精確,未來還需優化才能更可靠。 PubMed DOI

這項研究發現,透過提示工程(prompt engineering)可以提升大型語言模型在心理治療(PST)初期階段的表現,尤其在症狀辨識和目標設定上更有效。雖然品質和同理心有所提升,但仍有侷限。整體來說,LLM 有潛力協助解決心理健康人力不足,推動 AI 治療服務發展。 PubMed

這項研究提出 ABCD 系統,利用兩個 AI(AI 臨床醫師和 AI 失語症患者)自動模擬語言治療對話,省時又省錢,不需真人參與。系統用 GPT-4o 和語音工具打造,zero-shot 提示效果最好。ABCD 有助於開發和測試失語症治療 AI,突破臨床研究瓶頸,未來應用潛力大。 PubMed DOI

這項研究發現,讓醫學生用 ChatGPT 扮演「標準化病人」練習溝通,能提升他們面對困難情境的信心,學生覺得這種方式安全又方便,回饋也很詳細。不過,AI 在情感表現和技術上還有待加強,不同學校學生的接受度也不一樣。由於樣本少、沒對照組,結果僅供參考,未來還需更大規模的客觀研究。 PubMed DOI

這項研究發現,ChatGPT能給家長清楚又實用的ADHD行為訓練建議,但部分資料過時、內容也不夠深入。AI工具雖然能協助照顧者學習,但臨床應用前,建議再加強正確性和細節。 PubMed DOI

本研究開發了一套專為失眠症設計的智能eCBT-I對話系統,結合CBT-I知識圖譜與大型語言模型。我們比較八種主流LLM及三種調適方法,找出各模型最佳組合,其中Qwen2-7b(Freeze)表現最優。這證明專業知識能有效融入LLM,為醫療AI在資料有限下的應用提供新方向。 PubMed DOI