原始文章

這項研究評估了四款熱門AI聊天機器人(ChatGPT、Microsoft Copilot、Google Gemini和Meta AI)提供的心臟導管插入術病人教育材料的可讀性。研究發現,這些聊天機器人的平均可讀性分數為40.2,顯示閱讀難度較高,年級水平從Meta AI的9.6到ChatGPT的14.8不等,皆高於建議的六年級水平。Meta AI的回應最簡單,而ChatGPT則最複雜。雖然這些AI能回答醫療問題,但可讀性可能不適合所有病人。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT和Google Bard對阻塞性睡眠呼吸暫停症患者教育的表現,耳鼻喉科醫師認為ChatGPT更易懂、更實用,文檔品質較高且無錯誤危險資訊。總結來說,ChatGPT是提供患者更好資訊的選擇。 PubMed DOI

研究比較了美國眼科整形及重建外科學會的病人教育資料(PEMs)與AI聊天機器人ChatGPT和Google Bard生成的資料易讀性。結果顯示ChatGPT 4.0比Google Bard和原始PEMs難懂。但要求以六年級閱讀水準創建內容時,兩個AI模型都提高了易讀性。研究指出,在適當指導下,AI工具可創建易懂PEMs。 PubMed DOI

生成式人工智慧對話平台和大型語言模型可幫助提升健康知識,重新編寫患者教育資料,如主動脈瓣狹窄,讓患者更容易理解。兩個AI平台成功提升了資料的易讀性,但並非總是達到建議的小學六年級閱讀水準。在改善易讀性和轉換時間方面,ChatGPT-3.5比Bard效果更好。AI工具有潛力未來提升心臟健康知識。 PubMed DOI

研究使用AI聊天機器人改善網路上有關癌症的健康資訊易讀性,以ChatGPT 4.0修改不同癌症網站內容,提升至高中新生水準。AI內容保持高準確性、相似性和品質,有效提升病患健康資訊存取和理解,可能減少健康素養不同帶來的醫療差異。 PubMed DOI

這項研究評估了五個聊天機器人(A、B、C、D、E)在提供心臟病學、腫瘤學和銀屑病資訊的表現。主要發現包括:聊天機器人C的回應最短,A的回應最長;可讀性分數從D的16.3到A的39.8不等,顯示可讀性差異;Gunning Fog指數顯示理解文本所需的教育程度範圍廣;Dale-Chall分數則反映詞彙熟悉度。總體來說,雖然這些聊天機器人能提供可靠資訊,但回應的長度、質量和可讀性差異顯著,使用者應謹慎驗證資訊。 PubMed DOI

這項研究全面評估了多款AI聊天機器人(如ChatGPT®、Bard®、Gemini®、Copilot®和Perplexity®)生成的醫療資訊的可讀性和質量。結果顯示,Bard®的可讀性最佳,而Gemini®最難閱讀。所有聊天機器人的回應都超過了建議的六年級閱讀水平,顯示病人教育材料的可及性需改進。雖然Perplexity®在質量評估中得分最高,但Gemini®的整體質量得分最佳。這強調了確保AI生成的健康資訊既易讀又高質量的重要性,以有效教育病人。 PubMed DOI

您的研究強調病人教育在心臟衰竭管理中的重要性,並探討像ChatGPT這樣的AI聊天機器人的潛力。您比較了ChatGPT的回應與頂尖心臟病學機構的教育材料,評估了可讀性和可行性。 研究發現,雖然ChatGPT的回應較長且複雜,但可讀性得分仍具競爭力。然而,其可行性得分較低,顯示資訊雖全面,但對病人來說應用不易。 這項研究強調AI在病人教育中的潛力,但也指出需進一步研究以提升這些工具的可靠性和有效性,才能被認可為可信資源。整體而言,您的工作為技術與醫療教育的交集提供了重要見解。 PubMed DOI

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究評估了四款人工智慧聊天機器人對心肺復甦術(CPR)的回應質量,包括ChatGPT-3.5、Google Bard、Google Gemini和Perplexity。研究人員提出100個常見問題,獲得400個回應,並用修改版的DISCERN問卷及其他指標評估其質量。結果顯示,所有機器人的回應可讀性均超過六年級,其中Bard最佳,ChatGPT-3.5最難閱讀。研究指出,提升病人教育材料的質量和可讀性,可能有助於提高理解能力及病人存活率。 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI