原始文章

這篇論文探討了對話中的情感識別(ERC)面臨的挑戰,對於創建具同理心的對話系統非常重要。作者指出情感與語義之間的弱相關性,因為相似的短語在不同上下文中可能傳達不同情感。為了解決這個問題,提出了一種新的損失函數Focal Weighted Loss (FWL),並結合對抗性訓練,使用緊湊的MobileBERT模型。這種方法在四個基準數據集上測試,顯示出競爭力的結果,能在資源有限的情況下增強人類互動,與大型語言模型相抗衡。 PubMed DOI


站上相關主題文章列表

這項研究提出了一種新方法,利用E-DAIC數據集自動預測憂鬱症的嚴重程度。研究人員運用大型語言模型(LLMs)從訪談文字中提取憂鬱症指標,並用患者健康問卷-8(PHQ-8)分數訓練預測模型。他們還結合視頻中的面部數據,發展多模態方法。結果顯示,增強文字數據的語音質量能達到最佳表現,平均絕對誤差為2.85,均方根誤差為4.02。整體來看,這項研究強調了自動化憂鬱症檢測的有效性,並建議多模態分析的優勢。 PubMed DOI

這個對話系統的目的是改善機器人與孩子的互動,透過更好地理解孩子獨特的語言特徵,如不完整句子和發音錯誤。現有的大型語言模型在解讀孩子意圖時不如人類準確,因此系統採用微調方法,利用人類對孩子回應的判斷差異來訓練。這樣一來,系統能更自然地理解孩子的語言,並進行適應性的對話。其有效性透過機器人社交屬性量表和合理性指標進行評估,顯示能理解並回應孩子的話語。 PubMed DOI

EmoAtlas是一個情感分析計算庫,能從18種語言的文本中提取情感與詞彙聯想。它運用可解釋的人工智慧進行語法解析,根據Plutchik理論識別八種情感,並在英語和意大利語的情感檢測上表現優於BERT和ChatGPT 3.5。其憤怒檢測準確率達85.6%,速度比BERT快12倍,且無需微調。EmoAtlas還能分析文本中情感的表達,提供如酒店評論等情境下的客戶情感見解,作為獨立資源發布,旨在提取可解釋的見解。 PubMed DOI

這項研究提出了一種方法,旨在為越南語這種低資源語言的醫療資訊創建訓練數據集,以微調大型語言模型(LLMs)。目的是改善醫療資訊的獲取,增強發展中國家的醫療溝通。研究過程中,選擇基礎模型並彙編約337,000對提示-回應對,使用低秩適應技術進行微調。微調後的模型在多項指標上表現優於基礎模型,顯示出其在越南語健康查詢中的潛力。雖然本地部署可提升數據隱私,但高計算需求和成本仍是挑戰,研究呼籲關注醫療差距,促進全球健康公平。 PubMed DOI

這項研究介紹了一種名為MLBispec的新型AI方法,專注於增強對話中的情感識別,特別是情感氣候的識別。MLBispec透過雙頻譜分析提取語音信號特徵,並結合情感動態進行處理。測試結果顯示,該方法在多個數據集上表現優於現有深度學習技術,對喚起的準確率達82.6%,對價值的準確率為75.4%。此外,跨語言實驗證實了其穩健性,顯示MLBispec能有效識別對話中的情感氣候,對醫療保健、人機互動等應用有顯著提升。 PubMed DOI

這項研究發現,經過優化指令後,AI語言模型在辨識故事中的人際情緒調節策略,準確度已接近人工,但在不同情緒和策略上仍有落差。研究強調AI分析敘事資料有潛力,但設計指令和驗證結果時要特別小心。 PubMed DOI

這項研究用大型語言模型分析德文心理治療逐字稿,偵測28種情緒,並預測病人症狀嚴重度和治療聯盟。模型在情緒分類表現普通,但預測症狀嚴重度效果不錯(r=.50),預測治療聯盟則中等(r=.20)。認可、憤怒、恐懼與症狀嚴重度有關,好奇、困惑、驚訝則與治療聯盟有關。結果顯示正負向情緒都很重要,未來應加強情緒資料集並納入更多語境和感官資訊。 PubMed DOI

這篇論文比較了 GPT-3.5-Turbo、FLAN-T5 和 BERT 等大型語言模型在健康社群媒體情感分析的表現。結果顯示,LLMs 比傳統工具(像 VADER)表現更好,但準確度還有進步空間。透過調整提示語和微調,尤其是 BERT,效果會更好。研究也建議未來要在標註資料少的情況下,持續優化這些模型。 PubMed

這篇論文提出 ExDoRA 框架,透過挑選最相關又多元的 few-shot 範例,結合 LLM 產生的文字解釋,能有效提升 LLM 在新任務上的表現。應用於對話式憂鬱症偵測時,ExDoRA 不僅能穩定給出高品質解釋,還大幅提升召回率和 F1 分數,展現其在數位心理健康篩檢的潛力。 PubMed DOI

這項研究提出一套自適應自我校正框架,專為大型語言模型設計,能有效提升中低資源語言的情感分析表現。透過創新資料增強和遷移學習,11種語言的平均F1分數提升7.35分,顯著縮小高低資源語言的差距,展現出強大的實用性和領域適應力。 PubMed DOI