原始文章

這篇論文探討了基於變壓器的模型,旨在檢測社交媒體上用戶生成內容中的抑鬱症狀。研究強調了解釋性的重要性,特別是對健康專業人員而言。作者提出兩種方法:一是將分類和解釋任務分開,二是整合到同一模型中。他們還利用對話型大型語言模型(LLMs)進行上下文學習和微調,生成的自然語言解釋與症狀相符,讓臨床醫生更易理解模型輸出。評估結果顯示,能在提供可解釋的解釋的同時,達到高分類性能。 PubMed DOI


站上相關主題文章列表

醫學專家可能更信任人工智慧(AI)系統,若有「情境解釋」支持,將系統推論與現實應用連結。研究聚焦於合併症風險預測,探討如何利用醫學指南資訊為AI提供情境。透過大型語言模型(LLMs)建立端對端AI流程,研究顯示情境解釋可改善臨床對AI模型的理解與應用。結果顯示,像BERT和SciBERT的LLMs可有效提供臨床相關解釋,有助增進臨床醫師對AI模型的應用。 PubMed DOI

研究使用深度學習模型,根據臨床訪談記錄自動評估抑鬱症程度。提出新方法解決缺乏數據問題,利用預訓練語言模型和高效參數調整。實驗顯示新模型效果優,且避免過度擬合,適應預訓練模型於抑鬱症評估。結果顯示前綴調整可成為開發自動抑鬱症評估工具的有用方法。 PubMed DOI

這篇論文介紹了GPTFX,一種新型的基於人工智慧的心理健康檢測方法,利用GPT框架。它在分類心理健康疾病和生成解釋方面表現優異,分類準確率高達87%,Rouge-L分數為0.75。結合GPT嵌入與機器學習模型進行分類,並微調GPT-3生成解釋,適用於使用AI-IoMT設備進行心理健康的實時監測,比傳統方法更可靠。 PubMed DOI

研究使用大型語言模型如GPT和BERT自動記錄急診科臨床診斷,並進行BERT微調。透過XAI和SHAP方法分析模型,結果顯示KLUE-RoBERTa表現最佳,XAI提供可靠解釋。研究指出LLMs或許可簡化韓國急診科電子病歷記錄。 PubMed DOI

研究使用ChatGPT協助輔導員與患者互動,並比較其回應與人類內容。整合AI技術改善心理健康干預,框架準確率達93.76%,ChatGPT回應有禮且簡潔。AI內容可增進傳統干預方法,提升醫療系統患者照護和輔導實踐。 PubMed DOI

大型語言模型(LLM)應用廣泛,包括心理健康領域。然而,使用LLM強化的對話人工智慧(CAI)協助抑鬱症患者面臨人性化和情境韌性挑戰。觀點論文探討這些挑戰,提出跨學科解決方案,結合哲學、心理學和計算機科學。為了負責地設計和應用LLM增強的CAI支援抑鬱症患者,提出建議。 PubMed DOI

這項研究指出,阿斯伯格症兒童在理解諷刺等細微溝通上面臨挑戰,儘管他們的語言能力不錯。研究者透過特定測試來區分阿斯伯格症與其他狀況,如注意力不足過動症(ADHD),主要針對隱喻和諷刺的理解。最近對大型語言模型的評估顯示,這些模型在隱喻理解上有所進步,但在諷刺方面卻沒有相同的進展,可能需要不同的方法,與大腦情感處理有關。因此,為大型語言模型設計針對性訓練策略,提升其理解諷刺的能力,對於模擬人類認知過程非常重要。 PubMed DOI

這項研究強調在醫療照護中評估健康社會決定因素(SDoH)的重要性,以改善病患照護並縮小健康差距。研究探討了電子健康紀錄(EHRs)中SDoH數據不足的挑戰,主要因為缺乏標準化的診斷代碼。研究團隊使用大型語言模型(如BERT和RoBERTa)來分類無家可歸、食物不安全和家庭暴力等SDoH概念,並創建合成訓練數據集。結果顯示,這些模型能有效提取SDoH資訊,幫助醫療提供者識別高風險病患,進而實施針對性干預,支持減少健康差距的努力。 PubMed DOI

這項研究探討簡短書面回應的情感與抑鬱症狀變化的關係,招募了467名參與者,並使用PHQ-9評估抑鬱症狀。研究發現,人類評審和大型語言模型(如ChatGPT)的情感分析能有效預測三週內的抑鬱症狀變化,而語言查詢工具(LIWC)則無法。研究還指出,語言情感與當前情緒有關,但能獨立預測抑鬱症狀變化,顯示結合AI工具的情感分析可作為預測精神症狀的有效方法。 PubMed DOI

抑鬱症對全球影響深遠,影響工作效率和殘疾率。雖然早期發現很重要,但現有的篩檢工具常缺乏客觀性。研究者正探索影像分析、血液標記及日記寫作等客觀指標。這項研究利用情感日記應用程式,評估91名參與者的日記文本,並使用GPT-3.5和GPT-4等大型語言模型進行抑鬱症檢測。結果顯示,微調後的GPT-3.5準確率達90.2%,顯示用戶生成的文本在臨床檢測抑鬱症上具潛力,未來可結合其他可測量指標進一步研究。 PubMed DOI