原始文章

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI


站上相關主題文章列表

研究比較不同影像學模式的放射學報告複雜程度,並試驗ChatGPT簡化報告至八年級閱讀水準。分析400份報告後發現,CT和MRI報告比US和XR較難。ChatGPT成功簡化報告,減少字數、提高可讀性,並降低閱讀難度。研究顯示ChatGPT在簡化放射學報告以提升患者理解上相當有效。 PubMed DOI

研究評估ChatGPT回答患者影像問題的表現,結果顯示準確性約83%,提示可提高。回答一致性隨提示增加而改善,大多相關。易讀性高,但複雜。ChatGPT有潛力提供正確相關資訊,但需監督。提示可提供針對性資訊,但易讀性未改善。需進一步研究克服限制,更適用於醫療。 PubMed DOI

這項研究評估了使用ChatGPT自動生成的醫學文本的準確性和易讀性。不同版本的磁共振成像(MRI)結果被創建並由醫學專業人員和患者評估。報告被發現一致地準確且易於理解,簡化版本對患者來說更容易理解。儘管簡化的報告有幫助,但並不能取代專家和患者之間進行詳細討論的必要性。 PubMed DOI

研究使用ChatGPT-3.5簡化放射學報告,讓醫護人員和病人更易懂。測試九份報告,得出七個問題,由八位放射科醫師評估。ChatGPT-3.5成功簡化報告,易懂又完整。但印地語翻譯不適合病人溝通。總之,ChatGPT-3.5有助於改善醫療溝通和決策。 PubMed DOI

現代醫學使用AI文本生成器如ChatGPT,急需區分AI和人類文本。研究發現ChatGPT產科文章在可讀性和文法上與真實文章有差異。新評分系統基於可讀性、詞長和字符數區分AI和人類文章,準確度高。隨著AI在醫學領域普及,區分AI和人類內容的工具將至關重要。 PubMed DOI

研究使用ChatGPT簡化放射學教育資料,易讀性提升但可信度下降。建議需人工審查及進一步發展,平衡易讀性與可靠性。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

這項研究評估了人工智慧生成語言模型(GLMs),特別是ChatGPT-3.5和GPT-4,如何根據病人教育水平調整醫療資訊,這對解決低健康素養問題很重要。研究使用第二型糖尿病和高血壓的案例,分析生成內容的可讀性。結果顯示,GPT-3.5的可讀性僅符合學士學位水平,而GPT-4則能適應多數群體的需求。這兩個模型在可讀性上有顯著差異,顯示GLMs能調整醫療文本的複雜性,但仍需進一步研究以提升其個性化調整能力。 PubMed DOI

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究評估了GPT-4在創建針對患者友好的介入放射學教育材料的能力。研究人員回顧了10個程序,並生成通俗易懂的說明,這些說明由臨床醫師和非臨床評估者評估。結果顯示,大多數說明被認為適當,特定程序如腹腔穿刺和透析導管放置獲得高評價,但動脈栓塞的說明則評價較低。可讀性評估顯示,GPT-4的說明更易理解,顯示其在提升健康素養和患者教育方面的潛力。 PubMed DOI