原始文章

這項研究探討了AI生成與人類生成的道路安全訊息在阿聯酋廣告牌宣傳中的有效性,特別針對阿拉伯語使用者。研究使用GPT-4創造15條AI訊息,並由三位專家製作另外15條人類訊息。經過186名參與者的評分,結果顯示AI訊息情感更正面,且可讀性無顯著差異。雖然兩者評價都高,但人類訊息在清晰度上稍勝一籌。這項研究強調了AI在公共傳播中的潛力,並指出理解受眾對AI內容反應的重要性。 PubMed DOI


站上相關主題文章列表

這項研究探討生成式人工智慧(GenAI),特別是ChatGPT和Bard,在數位健康介入中對文本數據質性分析的影響。研究分析了40條針對HIV患者的SMS提醒,發現GenAI與人類編碼者的主題一致性為71%,但在演繹分析中,ChatGPT降至50%,Bard為58%。雖然GenAI能顯著縮短分析時間至20分鐘,但在人類編碼者在細緻主題識別上表現更佳。研究建議結合人類洞察與AI效率,以提升質性研究的效果,並強調未來需關注AI使用的倫理問題。 PubMed DOI

人工智慧(AI)在健康溝通系統中的應用,顯著改變了公共衛生管理,尤其在緊急情況下,能透過數位渠道有效接觸大眾。本文探討通用對話式人工智慧(CAI)的角色,強調其在健康訊息傳遞中的潛力,特別是透過AI驅動的訊息平台提供個性化的健康介入。針對COVID-19疫情的案例研究顯示CAI在健康信息傳播上的有效性。我們建議公共衛生機構與AI技術合作,同時解決偏見、錯誤信息及隱私等挑戰,展望未來CAI將提升健康溝通的可靠性。 PubMed DOI

這項研究探討了ChatGPT-4在創造有說服力的疫苗接種訊息方面的效果,特別針對人類乳突病毒(HPV)疫苗。研究中有60名參與者,分析GPT-4生成的訊息與人類創作的訊息在說服力上的差異,重點在17個影響HPV疫苗接種的因素。結果顯示,GPT生成的訊息在不良反應和污名化認知上更具說服力,而人類生成的訊息則在傳達疫苗接種便利性上更有效。這顯示人工智慧,特別是ChatGPT,能成為公共衛生溝通的重要工具,對疫苗態度有正面影響。 PubMed DOI

這項研究探討了人工智慧,特別是ChatGPT,在心理語言學研究中生成句子刺激的應用,涵蓋英語和阿拉伯語的書面及聽覺句子。透過三個實驗評估AI生成句子的可接受性與有效性。結果顯示,英語的AI句子可接受性與人類創作相當,但阿拉伯語的AI句子評價較低。有效性方面,只有實驗2顯示出預期效果。整體來看,研究指出AI在心理語言學研究中可成為開發刺激的有用工具,提升研究的多樣性與效率,並對未來研究提供啟示。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4o,在公共衛生文件分析中的應用,像是社區健康改善計畫。研究比較了GPT-4o的半自動化輸出與人類分析師的表現。 主要發現包括: 1. **準確性**:GPT-4o的抽象準確率為79%,錯誤17次;人類分析師則為94%,錯誤8次。數據綜合方面,GPT-4o準確率僅50%,錯誤9次。 2. **時間效率**:GPT-4o在數據抽象上耗時較少,但考慮到提示工程和修正錯誤,實際節省不明顯。 3. **謹慎態度**:建議公共衛生專業人員謹慎使用生成式AI,權衡資源節省與準確性問題。 總之,GPT-4o在公共衛生內容分析上有潛力,但需注意其限制。 PubMed DOI

這項研究探討醫療專家與人文學者在辨識醫學生與ChatGPT生成文本的能力。研究於2023年5月至8月進行,35位專家分析了兩篇醫學主題的文本,並被要求找出AI生成的部分。結果顯示,專家們在70%的情況下正確識別AI文本,兩組專家之間差異不大。雖然內容錯誤影響不大,但冗餘、重複和連貫性等風格特徵對他們的判斷至關重要。研究建議未來可在不同學術領域進一步探討,以提升辨識能力。 PubMed DOI

這項研究強調中東和北非地區心理健康問題的上升,並促進相關研究的增加。研究人員利用ChatGPT-4開發AI模型,根據紐卡索-渥太華量表和賈達量表等標準進行評估。結果顯示,AI評估與人類評審者之間有中等到良好的一致性,且AI大幅縮短評估時間,每篇文章僅需1.4分鐘,而人類則需19.6分鐘。雖然AI在某些情況下會出現不準確的結果,但在專業知識輔助下,其效果會更佳。 PubMed DOI

這項研究探討AI生成的健康資訊與CDC提供的資訊差異,重點在情感、可讀性和品質。透過語言期待理論,分析了不同來源內容對可信度的影響。比較了CDC和ChatGPT 3.5各20條資訊,並進行品質評估。 主要發現包括: 1. **情感**:ChatGPT的內容較多負面情感,常出現憤怒、悲傷和厭惡的詞彙。 2. **可讀性**:CDC的訊息更易讀,ChatGPT則需較高閱讀年級。 3. **品質**:CDC的資訊在品質評估中得分較高,顯示更可靠。 研究強調公共衛生專業人員需教育大眾理解AI生成健康資訊的複雜性,並建議健康素養計畫應涵蓋這類內容的品質與可讀性討論。 PubMed DOI

大型語言模型在健康溝通上,常常無法達到專業醫療標準,尤其當提問不夠明確時。雖然有方法能稍微提升回答品質,但還是無法完全符合需求。因此,LLMs不適合單獨用來給健康建議,未來還需要加強模型設計和使用者教育,才能讓健康溝通更安全有效。 PubMed DOI

這項研究發現,生成式AI(如Copilot、ChatGPT、Gemini)在審查職業健康論文時,回饋速度快又方便,但建議內容品質還是比不上人工審稿人。AI雖然能提升論文修改效率,但產出內容還是要再檢查,避免錯誤或假資訊。善用AI能讓學術寫作和發表更有效率。 PubMed DOI