原始文章

這項研究調查了AI聊天機器人生成的化療相關病人教育材料的質量與可讀性。研究於2024年8月進行,針對四個聊天機器人(ChatGPT、Microsoft Copilot、Google Gemini和Meta AI)提出十個問題。結果顯示,這些材料的平均閱讀年級為13.7,範圍在12.5到14.2之間。 質量評估使用了PEMAT和DISCERN系統,平均DISCERN分數為4.2,顯示出高質量,而PEMAT的可理解性和可行性中位數分別為91.7%和75%。研究指出,雖然AI能生成高質量的材料,但可讀性較差,可能影響病人理解,建議謹慎使用,並強調需進一步研究AI在病人教育中的有效性。 PubMed DOI


站上相關主題文章列表

您的研究強調病人教育在心臟衰竭管理中的重要性,並探討像ChatGPT這樣的AI聊天機器人的潛力。您比較了ChatGPT的回應與頂尖心臟病學機構的教育材料,評估了可讀性和可行性。 研究發現,雖然ChatGPT的回應較長且複雜,但可讀性得分仍具競爭力。然而,其可行性得分較低,顯示資訊雖全面,但對病人來說應用不易。 這項研究強調AI在病人教育中的潛力,但也指出需進一步研究以提升這些工具的可靠性和有效性,才能被認可為可信資源。整體而言,您的工作為技術與醫療教育的交集提供了重要見解。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT 4.0、Claude 3.0和Gemini Pro—以及Google在回答腎臟移植後常見問題的表現。研究使用5點李克特量表評估回應質量,並透過病人教育材料評估工具(PEMAT)檢視可理解性和可行性。結果顯示,回應質量高(中位分數4),可理解性良好(中位72.7%),但可行性較差(中位20%)。可讀性較難,Claude 3.0提供最可靠的回應,而ChatGPT 4.0則在可理解性上表現突出。Google在各項指標上未能超越這些聊天機器人。 PubMed DOI

這項研究評估了AI聊天機器人在提供Wilms腫瘤資訊的有效性,特別針對患者及其家庭。透過Google Trends找出常見問題,測試了四款聊天機器人(ChatGPT 3.5、Perplexity、Chat Sonic和Bing AI)。結果顯示,所有機器人在資訊質量上得分良好,錯誤資訊極少,平均回應長度為275字,適合高中或大學學生閱讀。雖然資訊可理解性高達83%,但可行性較低,僅40%。總體而言,AI聊天機器人提供的資訊準確且易懂,但仍需醫療專業人員進一步澄清。 PubMed DOI

本研究評估六款生成式AI聊天機器人在鎖骨骨折管理教育中的效果,包括ChatGPT 4、Gemini 1.0等。雖然可讀性分數無顯著差異,但Microsoft Copilot和Perplexity的回答質量明顯優於其他模型。整體來看,這些AI模型在病患教育中表現良好,特別是Microsoft Copilot和Perplexity,適合用於提供鎖骨骨折相關資訊。 PubMed DOI

本研究探討了ChatGPT和Google Gemini兩個人工智慧工具在創建有關肥胖、高血壓和高三酸甘油脂血症的患者教育指南的有效性。結果顯示,ChatGPT生成的內容較長,但在可讀性和可靠性上與Google Gemini相似。雖然Google Gemini的易讀性得分稍高,但差異不顯著。總體而言,這兩個工具都能有效滿足患者的教育需求,適應不同的內容長度和複雜度。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究調查了三款AI聊天機器人—ChatGPT、Gemini和Perplexity—在回答有關疼痛的常見問題時的可讀性、可靠性和回應質量。全球超過30%的人口面臨慢性疼痛,許多人會在就醫前尋找健康資訊。研究發現,這三款聊天機器人的可讀性均超過六年級水平,其中Gemini最佳。質量方面,Gemini得分較高,而Perplexity在可靠性評估中表現較好。總體來說,這些聊天機器人的回應難以閱讀,且可靠性和質量較低,無法取代專業醫療諮詢,建議改善可讀性並加強專家監督。 PubMed DOI

這項研究比較了ChatGPT和Google Gemini在心臟科病人衛教指南上的表現,發現兩者內容品質差不多。ChatGPT回覆較長、較複雜,Gemini則比較好讀。兩者在可讀性、年級程度和可靠性上沒有明顯差異。總結來說,這兩種AI都能幫助心臟科衛教,但還是要持續檢驗資訊的正確性與更新。 PubMed DOI

這項研究比較GPT-4和中國腫瘤科醫師回答癌症病患問題的表現。結果顯示,GPT-4在病患衛教的答案較完整,正確性和安全性也不輸醫師,但在醫療決策上正確率較低,偶爾還會出現危險錯誤。醫師和病患對同理心的感受也不同。總結來說,GPT-4適合用於衛教,但在醫療決策上仍需醫師把關。 PubMed DOI

這項研究發現,採用檢索增強技術的AI聊天機器人(如ChatGPT-4o Deep Research等)在提供結節病資訊時,比一般AI更準確可靠。不過,他們的回答多半太艱深,病人不易看懂,而且給的實際建議也不夠明確。整體來說,AI雖然能提供高品質資訊,但在易讀性和實用性上還有進步空間。 PubMed DOI