原始文章

這篇文章探討社交媒體研究面臨的挑戰,特別是如何有效篩選大量不斷變化的數據。作者建議利用生成式AI和機器學習來解決標籤和關鍵字帶來的問題。以懷孕期間使用電子煙的TikTok內容為例,研究者使用70對標籤搜尋,獲得11,673個帖子,並透過工具提取數據。最終,使用ChatGPT-4分析這些內容,發現其在過濾不相關帖子方面有效,但在敏感性上仍需改進。未來研究應著重提升其準確性。 PubMed DOI


站上相關主題文章列表

研究使用ChatGPT等人工智慧技術支援戒菸,從Reddit選取真實戒菸問題作為ChatGPT提示,分析回應主題如戒斷、自我調節和同儕支持。五位專家評估回應的準確性、清晰度和同理心。在專家指導下,ChatGPT可成為設計個人化戒菸干預措施的重要工具,包括戒煙。 PubMed DOI

現代醫學使用AI文本生成器如ChatGPT,急需區分AI和人類文本。研究發現ChatGPT產科文章在可讀性和文法上與真實文章有差異。新評分系統基於可讀性、詞長和字符數區分AI和人類文章,準確度高。隨著AI在醫學領域普及,區分AI和人類內容的工具將至關重要。 PubMed DOI

這項研究探討了ChatGPT在質性內容分析中的應用,特別針對減少糖分攝取的論壇貼文。研究人員分析了537篇貼文,評估ChatGPT在自動化分析中的有效性。結果顯示,ChatGPT的提取準確度介於66%到88%之間,並且在開發歸納編碼方案方面表現良好。雖然它在協助質性分析上展現潛力,但研究強調需進行多次迭代以確保分析的可靠性。總體而言,ChatGPT作為輔助工具的潛力值得進一步探索。 PubMed DOI

生成式人工智慧系統如ChatGPT在臨床環境中對治療物質使用障礙(SUDs)有潛力。本研究探討其在回答相關問題的有效性,透過線上康復論壇收集提問,並使用ChatGPT和Meta的LLaMA-2生成回應。雖然臨床醫師評價這些回應為高品質,但研究中發現了一些危險的錯誤資訊,如忽略自殺意念和提供不正確的求助熱線。這些結果顯示在醫療環境中使用此類人工智慧的風險,強調需進一步保障措施和臨床驗證。 PubMed DOI

本研究探討生成式人工智慧工具ChatGPT對牙科研究寫作的影響,分析2018至2024年間在PubMed的牙科出版物摘要。研究對299,695篇摘要進行關鍵字分析,發現ChatGPT發布前每10,000篇論文中出現的「信號詞」頻率為47.1,發布後增至224.2,增幅顯著。其中「delve」的使用增幅最大。研究顯示生成式人工智慧在牙科研究中的採用逐漸增加,雖然可能提升生產力,但也引發對偏見和不準確性的擔憂,強調需制定明確指導方針以確保學術出版的責任性。 PubMed DOI

煙草公司越來越依賴社交媒體來繞過行銷限制,影響吸煙行為。為了解決這個問題,研究人員開發了一個AI系統,自動識別社交媒體上的煙草促銷內容。他們分析了177,684條土耳其語推文,找出主要的促銷機制,如行為模仿和正面態度表達。經過標記和微調後,該系統成功達到87.8%的召回率和81.1%的精確率,能有效監控煙草促銷,為公共健康政策提供重要見解。這項研究展示了AI技術在應對煙草行銷挑戰上的潛力。 PubMed DOI

生成式人工智慧,像是ChatGPT,最近因能生成類似人類的文本而受到關注,但在教育上的應用引發爭議。這篇回顧探討了整合這類技術所面臨的挑戰,並提出解決策略。研究發現抄襲是主要問題,還有責任、隱私、安全、歧視及數位鴻溝等風險。為了應對這些挑戰,提出了符合倫理和教學原則的實用策略。整體而言,這篇回顧強調了對生成式人工智慧在教育中影響的深入考量。 PubMed DOI

大型語言模型如ChatGPT正在改變臨床研究,提升內容創作及數據分析的能力。不過,將這些工具融入學術寫作仍面臨挑戰。本文探討在臨床研究中使用AI的實用策略,並考量倫理問題。強調安全有效使用生成式AI的例子,並指出確保AI結果在學術上可靠的重要性。雖然AI能簡化重複性任務,但無法取代作者的批判性分析。仔細審查AI生成的文本,確保與作者見解一致,並解決抄襲檢測及倫理使用的挑戰。 PubMed DOI

社交媒體影響者在 Instagram 和 TikTok 上推廣電子煙,常用吸引人的行銷手法,將電子煙與健康或娛樂連結,可能讓年輕人降低對風險的認知。研究人員分析了2021至2024年間102支微型影響者的影片,聚焦於大麻、娛樂、時尚和健康生活方式等主題。他們運用 OpenAI 的 GPT-4o 模型,準確率分別為:尼古丁電子煙87%、大麻電子煙96%、時尚99%、娛樂96%、健康生活方式98%。這顯示生成式 AI 能有效識別與電子煙相關的推廣內容,對煙草監管提供重要見解。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4o,在公共衛生文件分析中的應用,像是社區健康改善計畫。研究比較了GPT-4o的半自動化輸出與人類分析師的表現。 主要發現包括: 1. **準確性**:GPT-4o的抽象準確率為79%,錯誤17次;人類分析師則為94%,錯誤8次。數據綜合方面,GPT-4o準確率僅50%,錯誤9次。 2. **時間效率**:GPT-4o在數據抽象上耗時較少,但考慮到提示工程和修正錯誤,實際節省不明顯。 3. **謹慎態度**:建議公共衛生專業人員謹慎使用生成式AI,權衡資源節省與準確性問題。 總之,GPT-4o在公共衛生內容分析上有潛力,但需注意其限制。 PubMed DOI