原始文章

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI


站上相關主題文章列表

研究發現使用ChatGPT製作乳房重建手術教材,專家資料易讀且正確,ChatGPT則準確性較低且常有錯誤。雖然ChatGPT節省時間,但仍需改進易讀性和正確性。結論是ChatGPT可作為製作教材工具,但需進一步提升品質。 PubMed DOI

研究比較了美國眼科整形及重建外科學會的病人教育資料(PEMs)與AI聊天機器人ChatGPT和Google Bard生成的資料易讀性。結果顯示ChatGPT 4.0比Google Bard和原始PEMs難懂。但要求以六年級閱讀水準創建內容時,兩個AI模型都提高了易讀性。研究指出,在適當指導下,AI工具可創建易懂PEMs。 PubMed DOI

研究比較ChatGPT生成的青光眼手術健康資訊與現有線上資料,發現兩者閱讀難度都高(11至12年級),且資訊品質一般。ChatGPT在評估資源品質方面表現準確,但對一般讀者來說仍複雜。儘管未達預期閱讀水準,ChatGPT可協助自動化評估。 PubMed DOI

研究比較了ChatGPT和ENT UK的耳鼻喉手術患者資訊,發現ChatGPT的資訊雖然易讀性高,但品質較差。建議尋求可靠來源的醫療資訊,並諮詢醫師做出明智決定。 PubMed DOI

現代醫學使用AI文本生成器如ChatGPT,急需區分AI和人類文本。研究發現ChatGPT產科文章在可讀性和文法上與真實文章有差異。新評分系統基於可讀性、詞長和字符數區分AI和人類文章,準確度高。隨著AI在醫學領域普及,區分AI和人類內容的工具將至關重要。 PubMed DOI

研究評估線上耳鼻喉科教材是否適合閱讀,以及ChatGPT4是否能改寫成六年級水準。分析了71篇美國耳鼻喉頭頸外科學會文章,ChatGPT4成功改寫成易懂版本,無誤差,提升可讀性。醫師可用工具檢查閱讀水準,利用ChatGPT4等AI平台增進患者教育。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

這項研究探討耳鼻喉科病人教育材料的可讀性,利用ChatGPT將內容翻譯成五年級水平。研究人員從美國相關學會網站獲取資料,並用Flesch閱讀容易度和Flesch-Kincaid年級水平來評估可讀性。結果顯示,經過ChatGPT翻譯後,材料的可讀性顯著改善(p < 0.001)。雖然Microsoft Word也有改善,但變化不明顯。總體來看,原始材料的寫作水平過高,使用AI工具如ChatGPT能有效簡化內容,讓病人更容易理解。 PubMed DOI

這項研究比較了由人工智慧生成的健康資訊(如ChatGPT)與ENT UK專業製作的病人資訊手冊的質量和可讀性。結果顯示,ENT UK手冊的質量中等,EQIP分數中位數為23,且手冊之間的評分差異顯著。雖然ChatGPT的內容質量與手冊相當,但可讀性較差,需更高的閱讀年齡。這強調了在病人教育材料中確保質量和可讀性的重要性,尤其在網路健康資源日益普及的背景下。 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI