原始文章

這項研究分析大型語言模型(LLMs),特別是GPT-3.5和GPT-4 Turbo,對加熱煙草產品(HTPs)相關社交媒體訊息的情感分析效果。研究分析了1,000則訊息,結果顯示GPT-3.5在Facebook的準確率為61.2%,Twitter為57%;而GPT-4 Turbo則在Facebook達到81.7%,Twitter為77%。即使只用三個回應,GPT-4 Turbo的準確率也可達99%。研究指出,LLMs在分析HTPs討論情感上有效,但不同情感類別的準確性差異可能會影響整體結果,未來需進一步探討。 PubMed DOI


站上相關主題文章列表

這項研究評估大型語言模型(LLMs)在社交媒體健康相關文本分類的表現,並比較了不同模型的效果。結果顯示,基於人類標註數據的模型如RoBERTa和BERTweet表現優於基於GPT-3.5和GPT-4的模型。雖然LLM可用於數據增強,但僅依賴LLM標註數據訓練效果不佳。研究指出,LLM作為零樣本分類器能有效減少假陰性,並減輕手動標註負擔,顯示其在特定領域自然語言處理的潛力。 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是ChatGPT-4.0,對於三級醫療機構病人投訴的回應效果。研究比較了ChatGPT與病人關係部門的回應,結果顯示87.2%到97.3%的受訪者更偏好ChatGPT的回應,且其在適當性、同理心等方面得分較高。ChatGPT的回應平均較長,且與高得分有關。研究顯示,ChatGPT能有效提升病人投訴的解決效果,未來可進一步探討AI在醫療系統中的應用潛力。 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析社交媒體貼文,評估公眾對疫苗接種態度的應用。研究人員比較了不同LLMs的表現,包括GPT模型和開源替代品,並與基於規則的情感分析工具進行對比。結果顯示,使用表現最佳的LLMs進行少量提示能獲得最佳效果,而其他方法則有較高的誤分類風險。研究強調LLMs在公共衛生領域的潛力,建議將其納入公共衛生監測,以提升對健康政策公眾意見的評估能力。 PubMed DOI

煙草公司越來越依賴社交媒體來繞過行銷限制,影響吸煙行為。為了解決這個問題,研究人員開發了一個AI系統,自動識別社交媒體上的煙草促銷內容。他們分析了177,684條土耳其語推文,找出主要的促銷機制,如行為模仿和正面態度表達。經過標記和微調後,該系統成功達到87.8%的召回率和81.1%的精確率,能有效監控煙草促銷,為公共健康政策提供重要見解。這項研究展示了AI技術在應對煙草行銷挑戰上的潛力。 PubMed DOI

這項研究比較了OpenAI的GPT-4和百度的ERNIE Bot 4.0在識別健康謠言及生成中文健康科普內容的能力。結果顯示,兩者在識別謠言方面準確率達100%,但在識別真相上,GPT-4正確率為70%,而ERNIE Bot 4.0則為100%。兩者的解釋均獲得護理專家的認可,且可讀性相似。ERNIE Bot 4.0在文化適用性上表現更佳,特別適合中國讀者。研究強調這些模型在提升公眾健康知識的重要性。 PubMed DOI

這項研究強調準確的情感分析和意圖分類對煙草及電子煙社交媒體內容的重要性,對公共健康研究至關重要。研究比較了針對這一領域調整的Flan-T5模型的表現,開發了三個分類模型:煙草意圖、電子煙意圖和情感分析。使用GPT-4創建的數據集經專家驗證,確保高質量。微調後的模型在各項任務中表現優異,顯著超越預訓練模型,顯示微調能有效提升分析能力,對煙草控制和公共政策制定具參考價值。 PubMed DOI

社交媒體影響者在 Instagram 和 TikTok 上推廣電子煙,常用吸引人的行銷手法,將電子煙與健康或娛樂連結,可能讓年輕人降低對風險的認知。研究人員分析了2021至2024年間102支微型影響者的影片,聚焦於大麻、娛樂、時尚和健康生活方式等主題。他們運用 OpenAI 的 GPT-4o 模型,準確率分別為:尼古丁電子煙87%、大麻電子煙96%、時尚99%、娛樂96%、健康生活方式98%。這顯示生成式 AI 能有效識別與電子煙相關的推廣內容,對煙草監管提供重要見解。 PubMed DOI

這項研究分析了七種大型語言模型(LLMs)在潛在內容分析的有效性,並與人類標註者進行比較。研究涵蓋情感、政治傾向、情感強度和諷刺檢測。結果顯示,無論是人類還是LLMs,在情感和政治分析上表現一致,LLMs的可靠性通常超過人類。不過,人類在情感強度評分上較高,兩者在諷刺檢測上都面臨挑戰。總體來看,LLMs,特別是GPT-4,能有效模仿人類的分析能力,但人類專業知識仍然重要。 PubMed DOI

這項研究探討大型語言模型(LLMs)在為癌症倖存者及其照顧者創建教育材料的有效性,特別針對弱勢群體。研究比較了三個模型(GPT-3.5 Turbo、GPT-4 和 GPT-4 Turbo)在生成30個癌症護理主題內容的表現,目標是達到六年級的閱讀水平,並提供西班牙語和中文翻譯。 主要發現包括:LLMs整體表現良好,74.2%符合字數限制,平均質量分數為8.933,但只有41.1%達到所需閱讀水平。翻譯準確率高,西班牙語96.7%、中文81.1%。常見問題有範圍模糊和缺乏可行建議。GPT-4表現優於GPT-3.5 Turbo,使用項目符號提示效果更佳。 結論指出,LLMs在創建可及的教育資源方面潛力大,但需改善閱讀水平和內容全面性,未來研究應結合專家意見和更好數據以提升有效性。 PubMed DOI