原始文章

**重點摘要(繁體中文):** 這項研究測試大型語言模型是否能準確分析有關身心障礙權益的推文,特別是判斷情緒(正面/負面)以及辨識推文是反映社會觀點還是醫療觀點的身心障礙。研究使用了5,000則推文,結果顯示模型在這兩項任務上都有不錯的準確度。 PubMed DOI


站上相關主題文章列表

研究探討了如何運用大型語言模型(LLMs)在失語症研究中的應用。研究人員分析LLMs的語言指標,以改善失語症的診斷和評估。研究結果顯示,LLMs能有效檢測失語症、提高亞型分類的準確性,並捕捉語法缺陷。整合LLMs到自然語言處理流程中,有助於增強對失語症等語言障礙的模型。 PubMed DOI

這項研究評估大型語言模型(LLMs)在社交媒體健康相關文本分類的表現,並比較了不同模型的效果。結果顯示,基於人類標註數據的模型如RoBERTa和BERTweet表現優於基於GPT-3.5和GPT-4的模型。雖然LLM可用於數據增強,但僅依賴LLM標註數據訓練效果不佳。研究指出,LLM作為零樣本分類器能有效減少假陰性,並減輕手動標註負擔,顯示其在特定領域自然語言處理的潛力。 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析社交媒體貼文,評估公眾對疫苗接種態度的應用。研究人員比較了不同LLMs的表現,包括GPT模型和開源替代品,並與基於規則的情感分析工具進行對比。結果顯示,使用表現最佳的LLMs進行少量提示能獲得最佳效果,而其他方法則有較高的誤分類風險。研究強調LLMs在公共衛生領域的潛力,建議將其納入公共衛生監測,以提升對健康政策公眾意見的評估能力。 PubMed DOI

這項研究專注於運用計算文本挖掘技術,分析心理社會復健及障礙的文獻。透過詞嵌入和大型語言模型等先進方法,研究旨在從PubMed等平台提取有意義的科學見解。目的是增進對心理社會障礙的理解,提供治療策略資訊,並提升病患照護。透過建立全面的文本數據集和精密的挖掘策略,這項研究希望推進該領域的知識,並支持心理健康的持續研究。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析患者對緊急研究中免除知情同意(EFIC)過程的看法。研究分析了102個與兒科研究相關的社區訪談,使用五種LLMs,包括GPT-4,來評估情感並進行主題分類。結果顯示,LLMs在情感分析上與人類評審者一致性高(Cohen's kappa: 0.69),主題分類準確率也高(0.868)。雖然LLMs在數據分析上效率高,但仍應輔助人類判斷。未來研究應著重於將LLMs整合進EFIC過程,以提升分析效率與準確性。 PubMed DOI

這項研究用機器學習和大型語言模型分析33位帕金森氏症患者在服藥前後的語音內容,最好的模型準確率高達98%,還能預測神經精神評分。結果顯示,透過語音分析,有機會遠端且全面監測帕金森氏症患者的神經精神狀況。 PubMed DOI

這項研究發現,大型語言模型和文字嵌入模型能從精神科病患的句子完成測驗中,準確辨識憂鬱症和自殺風險,尤其在分析自我概念相關內容時效果最好。最佳模型偵測憂鬱症的AUROC達0.841。雖然AI有潛力協助心理健康評估,但臨床應用前還需要更多改進和安全驗證。 PubMed DOI

這篇論文比較了 GPT-3.5-Turbo、FLAN-T5 和 BERT 等大型語言模型在健康社群媒體情感分析的表現。結果顯示,LLMs 比傳統工具(像 VADER)表現更好,但準確度還有進步空間。透過調整提示語和微調,尤其是 BERT,效果會更好。研究也建議未來要在標註資料少的情況下,持續優化這些模型。 PubMed

一份針對42國心理健康研究人員的調查發現,約七成會用大型語言模型(像是ChatGPT)來校稿或寫程式,年輕研究人員用得更多。大家覺得LLM能提升效率和品質,但對準確性、倫理和偏見還是有疑慮。多數人希望有更多訓練和明確指引,確保負責任且透明地使用這些工具。 PubMed DOI