LLM 相關三個月內文章 / 第 56 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇論文提出了 DialogueLLM,一款專為對話情緒辨識微調的大型語言模型。它能理解對話脈絡並結合情緒知識,表現比現有模型更好,甚至在情緒智力測驗上勝過多數人類,而且用一般硬體就能跑得動。 相關文章 PubMed DOI 推理

這篇回顧分析指出,語言學習聊天機器人有四種互動風格,會影響學習者參與。大型語言模型讓機器人在寫作、口說和情感支持上更有彈性,但促進高層次思考的功能還不夠。幻覺、偏見和倫理等問題討論不足。有效運用關鍵在於設計提示、建立情感連結,以及老師的倫理把關,不只是靠技術進步。 相關文章 PubMed DOI 推理

這份研究訪談21位臨床社工,發現大家覺得像ChatGPT這類大型語言模型能幫忙減輕文書負擔、激發想法,但也擔心機密性、同理心不足和細節掌握不夠。他們認為LLMs只能當輔助,不能取代人類,強調要遵守倫理和維護案主關係。建議應加強訓練並訂定明確倫理規範,讓社工安心使用。 相關文章 PubMed DOI 推理

這項研究用微調過的LLaMA-3大型語言模型,自動評分自傳式記憶敘述,能分辨情節性和非情節性細節。模型在284位參與者資料上訓練,準確度接近人工評分(最高相關係數r=0.87),也能反映年齡相關的記憶變化。這個工具以Jupyter Notebook提供,大幅提升分析效率,免去人工評分。 相關文章 PubMed DOI 推理

研究發現,GPT類大型語言模型(LLM)在評估自殺意念風險時,與行為健康專家有65.6%的一致率,且在臨床介入決策上同意率高達92%。這顯示LLM有潛力協助數位健康平台辨識自殺風險,但仍需更多驗證與倫理審查。 相關文章 PubMed DOI 推理

作者提出六層級評估架構,從可重複性到可替代性,幫助系統性檢驗生技和醫療 AI 的安全與效能。這套方法適用於傳統與生成式 AI,並有明確定義與測試流程,能提升醫療 AI 的信賴度與可靠性。 相關文章 PubMed DOI 推理

這項研究在高齡日照醫院評估社交型輔助機器人ARI一年的可接受度與可用性,97位長者及照顧者參與。結果顯示,隨時間推進,接受度和可用性都明顯提升,尤其整合大型語言模型後,互動更自然。參與者越能接受機器人,對其可用性評價也越高。研究強調,持續以使用者為中心的設計,對長照機器人導入很關鍵。 相關文章 PubMed DOI 推理

這項研究分析超過5萬筆希臘語臨床對話,利用主題建模和情緒分析,找出35個主要主題。結果發現,病人談到疼痛和不確定時多表現負面情緒,醫護人員則多以中性或同理回應。研究證明NLP技術能掌握對話內容和情感,有助開發能感知情緒的數位健康工具,適用於希臘語等資源較少語言。 相關文章 PubMed DOI 推理

這項研究發現,GPT-4o翻譯德文放射科報告成英文、法文和西班牙文的品質高且準確,閱讀起來也很順,但翻成俄文時錯誤較多,甚至有潛在危害。總結來說,GPT-4o很適合用來翻譯醫療報告,但遇到俄文時要特別注意。 相關文章 PubMed DOI 推理

LS-PRISM 是一種新型 LLMs 壓縮技術,會根據每層對效能的影響,選擇性做低秩近似和非結構化剪枝。透過動態調整秩和可選微調,能大幅減少模型參數(2.5B 模型最多減少 12%),但幾乎不影響 NLP 準確度,讓 LLMs 更適合在資源有限的裝置上運行。 相關文章 PubMed DOI 推理