這項研究探討AI生成的健康資訊與CDC提供的資訊差異,重點在情感、可讀性和品質。透過語言期待理論,分析了不同來源內容對可信度的影響。比較了CDC和ChatGPT 3.5各20條資訊,並進行品質評估。 主要發現包括: 1. **情感**:ChatGPT的內容較多負面情感,常出現憤怒、悲傷和厭惡的詞彙。 2. **可讀性**:CDC的訊息更易讀,ChatGPT則需較高閱讀年級。 3. **品質**:CDC的資訊在品質評估中得分較高,顯示更可靠。 研究強調公共衛生專業人員需教育大眾理解AI生成健康資訊的複雜性,並建議健康素養計畫應涵蓋這類內容的品質與可讀性討論。 相關文章 PubMed DOI 推理
這項研究調查了AI聊天機器人生成的化療相關病人教育材料的質量與可讀性。研究於2024年8月進行,針對四個聊天機器人(ChatGPT、Microsoft Copilot、Google Gemini和Meta AI)提出十個問題。結果顯示,這些材料的平均閱讀年級為13.7,範圍在12.5到14.2之間。 質量評估使用了PEMAT和DISCERN系統,平均DISCERN分數為4.2,顯示出高質量,而PEMAT的可理解性和可行性中位數分別為91.7%和75%。研究指出,雖然AI能生成高質量的材料,但可讀性較差,可能影響病人理解,建議謹慎使用,並強調需進一步研究AI在病人教育中的有效性。 相關文章 PubMed DOI 推理