原始文章

**重點摘要(繁體中文):** 這項研究測試大型語言模型是否能準確分析有關身心障礙權益的推文,特別是判斷情緒(正面/負面)以及辨識推文是反映社會觀點還是醫療觀點的身心障礙。研究使用了5,000則推文,結果顯示模型在這兩項任務上都有不錯的準確度。 PubMed DOI


站上相關主題文章列表

這項研究專注於運用計算文本挖掘技術,分析心理社會復健及障礙的文獻。透過詞嵌入和大型語言模型等先進方法,研究旨在從PubMed等平台提取有意義的科學見解。目的是增進對心理社會障礙的理解,提供治療策略資訊,並提升病患照護。透過建立全面的文本數據集和精密的挖掘策略,這項研究希望推進該領域的知識,並支持心理健康的持續研究。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析患者對緊急研究中免除知情同意(EFIC)過程的看法。研究分析了102個與兒科研究相關的社區訪談,使用五種LLMs,包括GPT-4,來評估情感並進行主題分類。結果顯示,LLMs在情感分析上與人類評審者一致性高(Cohen's kappa: 0.69),主題分類準確率也高(0.868)。雖然LLMs在數據分析上效率高,但仍應輔助人類判斷。未來研究應著重於將LLMs整合進EFIC過程,以提升分析效率與準確性。 PubMed DOI

這項研究用機器學習和大型語言模型分析33位帕金森氏症患者在服藥前後的語音內容,最好的模型準確率高達98%,還能預測神經精神評分。結果顯示,透過語音分析,有機會遠端且全面監測帕金森氏症患者的神經精神狀況。 PubMed DOI

這項研究發現,大型語言模型和文字嵌入模型能從精神科病患的句子完成測驗中,準確辨識憂鬱症和自殺風險,尤其在分析自我概念相關內容時效果最好。最佳模型偵測憂鬱症的AUROC達0.841。雖然AI有潛力協助心理健康評估,但臨床應用前還需要更多改進和安全驗證。 PubMed DOI

這篇論文比較了 GPT-3.5-Turbo、FLAN-T5 和 BERT 等大型語言模型在健康社群媒體情感分析的表現。結果顯示,LLMs 比傳統工具(像 VADER)表現更好,但準確度還有進步空間。透過調整提示語和微調,尤其是 BERT,效果會更好。研究也建議未來要在標註資料少的情況下,持續優化這些模型。 PubMed

一份針對42國心理健康研究人員的調查發現,約七成會用大型語言模型(像是ChatGPT)來校稿或寫程式,年輕研究人員用得更多。大家覺得LLM能提升效率和品質,但對準確性、倫理和偏見還是有疑慮。多數人希望有更多訓練和明確指引,確保負責任且透明地使用這些工具。 PubMed DOI

這項研究比較三款AI語言模型在判斷Reddit心理困擾貼文緊急程度的表現,發現它們都容易高估風險,但GPT-4o和Claude 3.5 Sonnet的結果較接近臨床醫師,GPT-4o表現最好。雖然AI有潛力協助心理健康分級,但還是需要專業人員把關。 PubMed DOI

這項研究用YouTube留言分析鴉片類藥物混用經驗,並分辨正負面影響。團隊運用GPT-3.5 Turbo等AI技術,準確辨識高風險用藥和過量風險,F1-score高達0.95,優於傳統方法。結果顯示,AI分析社群媒體有助於更了解鴉片危機,並提升介入策略效果。 PubMed DOI

這項研究發現,像 Llama-2-70b-chat 和 GPT-3.5 這類大型語言模型,在描述282種遺傳疾病的年齡相關特徵時表現不錯,尤其有情境提示時更佳,且沒明顯年齡偏見。不過,雖然這些模型有潛力協助臨床應用,實際使用上還是有一些限制需要注意。 PubMed DOI

這項研究用大型語言模型(LLM)來自動辨識自閉症語言障礙的關鍵特徵,在零樣本情境下,表現比傳統方法好,敏感度和陽性預測值都提升超過10%。LLM能穩定偵測出十種重要語言特徵,顯示它有潛力成為協助自閉症診斷和個人化治療規劃的有效工具。 PubMed DOI