原始文章

本研究開發了一套專為失眠症設計的智能eCBT-I對話系統,結合CBT-I知識圖譜與大型語言模型。我們比較八種主流LLM及三種調適方法,找出各模型最佳組合,其中Qwen2-7b(Freeze)表現最優。這證明專業知識能有效融入LLM,為醫療AI在資料有限下的應用提供新方向。 PubMed DOI


站上相關主題文章列表

最近大型語言模型(LLMs)在自動化健康輔導方面的進展,特別是其零樣本學習能力,提供了重要機會。本研究比較了健康輔導員與RAG啟用的LLaMa-2-7b-chat模型在睡眠問題回答的質量。使用去識別化數據集,100對問答由專家、一般使用者和GPT-4評估,根據準確性、可讀性等五個標準進行評分。結果顯示,LLM的回答在62.25%的評估中被偏好,尤其在有幫助性上更受一般使用者青睞。這顯示LLM在健康輔導中具潛力,建議進一步探索臨床應用。 PubMed DOI

這項研究探討生成式人工智慧,特別是大型語言模型(LLMs)在醫療上解決憂鬱症問題的效果。透過分析BioGPT、PMC-Llama、GPT-3.5和Llama2等模型的回應,並使用PubMedQA和QuoraQA數據集,結果顯示最新的模型,尤其是GPT-3.5和Llama2,在生成醫療回應方面表現優異。研究指出,升級一般的LLMs可能比專門微調的模型更能產生生物醫學知識,目的是提升AI驅動的醫療諮詢系統,特別是在心理健康領域的應用。 PubMed DOI

這項研究顯示客製化的大型語言模型(LLMs)在提升談話治療,特別是癡呆症護理中的潛力。研究團隊利用QLoRA方法,在A40 GPU上微調五個開源LLM,創造出針對心理健康的解決方案。他們生成了10,000個模擬的諮詢師與病人互動問答,涵蓋憂鬱症和焦慮症等問題。微調後的模型在心理健康論壇和Quora的測試中表現優異,最佳模型「Mixtral-8×7B-v0.1-qlora」得分7.83,顯示出顯著改善,強調了微調LLMs在心理健康治療中的有效性。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在心理健康診斷和治療的能力,包括Gemini 2.0、Claude 3.5、ChatGPT-3.5和ChatGPT-4。主要發現顯示,ChatGPT-4在診斷憂鬱症和PTSD方面優於人類專業人士,但在複雜案例如早期精神分裂症的準確率僅55%。LLMs提供的治療建議較為多樣,但專業人士則偏好具體的精神科諮詢。總體來看,雖然LLMs能協助診斷和治療計畫,但在複雜情況下仍需專業監督。 PubMed DOI

大型語言模型(LLMs)在醫學知識的教育、訓練和治療上有顯著進展,但早期研究顯示其不穩定性和潛在的有害輸出。為了解決這些問題,我們提出了一個經過驗證的數據集來訓練LLMs,並設計了一個演員-評論者的提示協議。在這個框架中,治療師生成初步回應,然後由監督者進行精煉。盲驗證研究顯示,LLM的評分常高於適當的治療師回應,顯示其符合專家標準,為安全整合LLM技術於醫療應用提供了基礎。 PubMed DOI

這篇論文探討了一個智能藥物助手的開發,目的是透過個性化的藥物建議來改善抑鬱症治療。助手利用先進技術,如大型語言模型(LLMs),分析病人的病歷和健康狀況,提供更準確的建議。研究分析了40個需要精神科監測的案例,測試了十個LLMs,結果顯示商業模型GPT-4的表現優於開源模型Llama-3,顯示出在心理健康領域的顯著進步。 PubMed DOI

這項研究用30個虛構案例發現,ChatGPT在建議生活型態改變上,跟睡眠專科醫師很接近,但比較容易建議多做醫療檢查。雖然是模擬資料,結果顯示LLM有潛力協助辨識睡眠健康風險並支援臨床,但還需要用真實資料再研究。 PubMed DOI

這項研究開發了一套用於提升核醫療診斷治療的聊天機器人架構,透過情境增強(RAG)讓大型語言模型能查找相關研究資料。測試五款主流LLM後發現,RAG能明顯提升答案品質,尤其CLAUDE 3 OPUS和GPT-4O表現最好。研究也提醒,目前問題範圍有限,未來應擴大題目多樣性並比較人類與AI的評分。 PubMed DOI

這項研究發現,透過提示工程(prompt engineering)可以提升大型語言模型在心理治療(PST)初期階段的表現,尤其在症狀辨識和目標設定上更有效。雖然品質和同理心有所提升,但仍有侷限。整體來說,LLM 有潛力協助解決心理健康人力不足,推動 AI 治療服務發展。 PubMed

這項研究用大型語言模型(LLMs)自動從電子病歷的臨床紀錄辨識失眠,準確度高於傳統BERT模型(F1分數93.0和85.7)。這個方法不只偵測失眠效果好,也有潛力應用在其他容易被忽略的疾病診斷上。 PubMed DOI