原始文章

這項研究探討AI生成的健康資訊與CDC提供的資訊差異,重點在情感、可讀性和品質。透過語言期待理論,分析了不同來源內容對可信度的影響。比較了CDC和ChatGPT 3.5各20條資訊,並進行品質評估。 主要發現包括: 1. **情感**:ChatGPT的內容較多負面情感,常出現憤怒、悲傷和厭惡的詞彙。 2. **可讀性**:CDC的訊息更易讀,ChatGPT則需較高閱讀年級。 3. **品質**:CDC的資訊在品質評估中得分較高,顯示更可靠。 研究強調公共衛生專業人員需教育大眾理解AI生成健康資訊的複雜性,並建議健康素養計畫應涵蓋這類內容的品質與可讀性討論。 PubMed DOI


站上相關主題文章列表

這篇文章探討了人工智慧語言模型,特別是ChatGPT和ChatSonic在醫療領域的應用,針對病人高血壓問題進行比較。研究使用全球質量評估標準和修訂版DISCERN量表,於2023年10月進行,持續一個月,向兩個AI模型提出十個高血壓相關問題,並由兩位內科醫師評估其回應。結果顯示回應質量和可靠性有差異,評估者之間共識程度低,強調在醫療環境中持續監控和驗證AI資訊的重要性。 PubMed DOI

這項研究探討醫療專業人員與公眾對於在臨床中使用ChatGPT的看法。研究指出,成功實施ChatGPT不僅依賴技術,還需考量醫療提供者和公眾的態度。透過分析3,130條評論,研究發現醫療人員對其效率表示肯定,但對倫理和責任有疑慮;而公眾則欣賞其可及性和情感支持,但擔心隱私和錯誤資訊。為了有效整合ChatGPT,需針對這些不同觀點進行調整,提升可靠性並明確其在醫療中的角色。 PubMed DOI

這項研究探討了ChatGPT-4在創造有說服力的疫苗接種訊息方面的效果,特別針對人類乳突病毒(HPV)疫苗。研究中有60名參與者,分析GPT-4生成的訊息與人類創作的訊息在說服力上的差異,重點在17個影響HPV疫苗接種的因素。結果顯示,GPT生成的訊息在不良反應和污名化認知上更具說服力,而人類生成的訊息則在傳達疫苗接種便利性上更有效。這顯示人工智慧,特別是ChatGPT,能成為公共衛生溝通的重要工具,對疫苗態度有正面影響。 PubMed DOI

本研究探討了ChatGPT和Google Gemini兩個人工智慧工具在創建有關肥胖、高血壓和高三酸甘油脂血症的患者教育指南的有效性。結果顯示,ChatGPT生成的內容較長,但在可讀性和可靠性上與Google Gemini相似。雖然Google Gemini的易讀性得分稍高,但差異不顯著。總體而言,這兩個工具都能有效滿足患者的教育需求,適應不同的內容長度和複雜度。 PubMed DOI

這項研究探討了AI生成與人類生成的道路安全訊息在阿聯酋廣告牌宣傳中的有效性,特別針對阿拉伯語使用者。研究使用GPT-4創造15條AI訊息,並由三位專家製作另外15條人類訊息。經過186名參與者的評分,結果顯示AI訊息情感更正面,且可讀性無顯著差異。雖然兩者評價都高,但人類訊息在清晰度上稍勝一籌。這項研究強調了AI在公共傳播中的潛力,並指出理解受眾對AI內容反應的重要性。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4o,在公共衛生文件分析中的應用,像是社區健康改善計畫。研究比較了GPT-4o的半自動化輸出與人類分析師的表現。 主要發現包括: 1. **準確性**:GPT-4o的抽象準確率為79%,錯誤17次;人類分析師則為94%,錯誤8次。數據綜合方面,GPT-4o準確率僅50%,錯誤9次。 2. **時間效率**:GPT-4o在數據抽象上耗時較少,但考慮到提示工程和修正錯誤,實際節省不明顯。 3. **謹慎態度**:建議公共衛生專業人員謹慎使用生成式AI,權衡資源節省與準確性問題。 總之,GPT-4o在公共衛生內容分析上有潛力,但需注意其限制。 PubMed DOI

這項研究評估了四個人工智慧模型在生成脊椎手術病患教育材料的有效性,主要針對腰椎椎間盤切除術、脊椎融合術和減壓椎板切除術。結果顯示,DeepSeek-R1 的可讀性最佳,Flesch-Kincaid 分數介於 7.2 到 9.0 之間,而 ChatGPT-o3 的可讀性最低,超過 10.4。所有模型的資訊品質均低於 60,顯示出「公平」的品質,主要因缺乏參考資料。研究強調改善引用實踐及個性化 AI 生成健康資訊的必要性,未來應整合互動元素和病患反饋,以提升準確性和可及性。 PubMed DOI

這項研究探討使用者對大型語言模型(LLM)驅動的聊天機器人(如ChatGPT)提供的健康資訊的看法,與傳統線上資源相比。結果顯示,98%的參與者仍主要依賴搜尋引擎尋找健康資訊,只有21.2%使用聊天機器人。大多數人尋求健康狀況資訊,但對於用藥建議和自我診斷的需求較低。雖然LLM聊天機器人逐漸受到年輕族群的青睞,但使用者在遵循建議時仍較為謹慎。研究強調提高準確性和透明度對於健康資訊的安全性至關重要。 PubMed DOI

這項研究評估了四款AI聊天機器人(ChatGPT、Gemini、Perplexity和Copilot)提供的性傳播疾病資訊的可靠性和可讀性。結果顯示,Perplexity和Copilot的資訊較為可靠,但所有聊天機器人的可讀性都未達到建議的六年級標準,對健康素養較低的使用者來說過於複雜。研究強調了改善AI健康資訊準確性和可及性的必要性,以便讓更多人能理解。 PubMed DOI

這項研究比較Google、Bing、ChatGPT和Gemini的健康資訊,發現Google的資訊最可靠、品質最好,ChatGPT和Gemini在正確性和透明度較弱。四個平台的內容閱讀難度都偏高,超過公衛建議。結果顯示AI健康資訊需要更嚴格監督,也要加強民眾的資訊判讀能力。 PubMed DOI