原始文章

這項研究探討大型語言模型(LLMs)在分析社交媒體貼文,評估公眾對疫苗接種態度的應用。研究人員比較了不同LLMs的表現,包括GPT模型和開源替代品,並與基於規則的情感分析工具進行對比。結果顯示,使用表現最佳的LLMs進行少量提示能獲得最佳效果,而其他方法則有較高的誤分類風險。研究強調LLMs在公共衛生領域的潛力,建議將其納入公共衛生監測,以提升對健康政策公眾意見的評估能力。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在自然語言處理領域有潛力,可加速臨床實踐,如診斷、預防和治療。智能對話系統運用LLMs被視為治療的未來,尤其是在ChatGPT時代。這研究專注於在醫療保健領域運用LLMs,特別關注認知衰退和產後抑鬱。討論LLMs在醫療保健中的好處,如增進臨床任務和提供個人化醫療,以及相關擔憂,如數據隱私和公平性。這有助於全球討論將LLMs整合到醫療系統中。 PubMed DOI

研究使用GPT-3.5和GPT-4分析社群媒體上有關結膜炎的貼文,發現GPT-4表現較佳。他們收集了12,000條推文,模型與人工評分相關,有助於準確預測疾病爆發。這項研究顯示這些模型可有效分析社群內容,未來或可改善疾病爆發檢測。 PubMed DOI

研究使用LLMs提升兒童健康識字能力,結果顯示LLMs能根據年級提供定制回應,但在六年級以下表現不佳。然而,它們可提供各種資訊,有助青少年了解健康資訊。需要進一步研究驗證其準確性和有效性。 PubMed DOI

研究指出,社群媒體可幫助監控HPV疫苗疑慮。透過語言模型分析超過653,000則推文,發現不良反應、個人經驗及疫苗強制接種等議題。2020年後,推文中出現個人經驗及父母同意和透明度的討論。這方法有助於針對性干預、揭露錯誤資訊,並改善公共衛生宣導。 PubMed DOI

這項研究評估大型語言模型(LLMs)在社交媒體健康相關文本分類的表現,並比較了不同模型的效果。結果顯示,基於人類標註數據的模型如RoBERTa和BERTweet表現優於基於GPT-3.5和GPT-4的模型。雖然LLM可用於數據增強,但僅依賴LLM標註數據訓練效果不佳。研究指出,LLM作為零樣本分類器能有效減少假陰性,並減輕手動標註負擔,顯示其在特定領域自然語言處理的潛力。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來改善醫療領域的質性訪談數據解釋。傳統的主題建模方法常常過於簡化,難以捕捉患者和醫療專業人員的細微經驗。研究發現,LLMs在數據解釋的效率和深度上表現更佳,顯示它們在整合人類觀點進入可持續醫療系統的發展中,可能扮演重要角色,並有助於解決該領域的挑戰。 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 PubMed DOI

這項研究探討了OpenAI的ChatGPT如何協助公共衛生工作者開發疾病傳播模型,以制定感染控制策略。透過案例研究,公共衛生工作者與ChatGPT合作,創建符合10天流行病學數據的數學模型,並進行代碼生成、精煉和除錯,估算基本繁殖數(Ro)和最終疫情規模。最終模型重現疫情曲線,Ro為4.19,最終疫情規模達98.3%。研究顯示,ChatGPT能加速模型開發,降低技術門檻,改善全球疫情應對能力,特別在資源有限的環境中。 PubMed DOI

這篇論文探討大型語言模型(LLMs)和提示工程如何在社交媒體上提取疫苗反應的見解,特別針對Reddit上有關帶狀皰疹(zoster)疫苗的討論。研究比較了GPT-3.5和GPT-4在不同提示策略下的表現,發現精心設計的思考鏈提示能提升模型識別相關帖文的能力。雖然少樣本學習對邊緣案例有改善,但精確度較低。輕量級的監督預訓練語言模型(PLMs)在分類任務中表現更佳,但LLMs在減少假陰性方面顯示潛力,特別是在數據有限時可作為分類器使用。 PubMed DOI

這項研究探討大型語言模型(LLMs)在健康心理學中如何增強健康評估,旨在克服傳統統計和機器學習方法的限制。傳統方法因線性評分而準確性不足,而機器學習則在可解釋性和數據需求上有挑戰。研究提出的ScaleLLM利用LLMs的自然語言理解能力,提供健康量表的專家評估。實驗結果顯示,ScaleLLM在身心健康評估的準確性和可解釋性上都有所提升,成為該領域的一個有前景的工具。 PubMed DOI