原始文章

這項研究評估了牙槽骨移植相關的病人教育材料(PEMs),發現其可讀性超過美國醫學會建議的六年級水平,平均為8.0。理解度接近可接受標準,但可行性得分偏低。使用ChatGPT重新編寫後,可讀性顯著改善,降至6.1。結果顯示,雖然目前的PEMs未達建議標準,但人工智慧工具如ChatGPT能提升可及性。未來研究應著重改善這些材料的可行性。 PubMed DOI


站上相關主題文章列表

研究比較了美國眼科整形及重建外科學會的病人教育資料(PEMs)與AI聊天機器人ChatGPT和Google Bard生成的資料易讀性。結果顯示ChatGPT 4.0比Google Bard和原始PEMs難懂。但要求以六年級閱讀水準創建內容時,兩個AI模型都提高了易讀性。研究指出,在適當指導下,AI工具可創建易懂PEMs。 PubMed DOI

研究評估了ChatGPT 4在唇顎裂(CLP)相關資訊的品質、可靠度、易讀性和相似性。結果顯示,ChatGPT提供高可靠性和優質資訊,但易讀性有挑戰。建議醫學專家驗證和評估ChatGPT等人工智慧模型的資訊以確保正確性。 PubMed DOI

這項研究評估了使用ChatGPT 3.5來優化針對患者的顱顏面教育資料,以提高可讀性。研究發現,ChatGPT 3.5能夠有效地簡化資料,使其符合建議的閱讀水平。這個工具提供的可讀性分數與傳統計算工具相當,有助於改善向患者傳達重要健康資訊的效果。 PubMed DOI

研究評估線上耳鼻喉科教材是否適合閱讀,以及ChatGPT4是否能改寫成六年級水準。分析了71篇美國耳鼻喉頭頸外科學會文章,ChatGPT4成功改寫成易懂版本,無誤差,提升可讀性。醫師可用工具檢查閱讀水準,利用ChatGPT4等AI平台增進患者教育。 PubMed DOI

研究發現ChatGPT能夠回答父母有關手術的問題,但回答有時過於複雜。儘管提供正確資訊,但可讀性可能不易理解。這表示ChatGPT的回應有時超出患者理解範圍,需要更容易理解的語言。 PubMed DOI

人工智慧(AI)在醫療領域的應用越來越受到重視,特別是像ChatGPT這樣的工具。最近一項研究比較了學術來源與ChatGPT生成的唇顎裂(CL/P)手術資訊,重點在準確性、全面性和清晰度。結果顯示,60%以上的整形外科醫生和非醫療專業人士偏好ChatGPT的內容,認為其更全面且清晰。無論是ChatGPT還是學術資料,其可讀性均超過建議水平。這顯示AI工具在醫療資訊生成上具潛力,但仍需專家評估其品質。 PubMed DOI

這項研究評估了四款熱門AI聊天機器人(ChatGPT、Microsoft Copilot、Google Gemini和Meta AI)提供的心臟導管插入術病人教育材料的可讀性。研究發現,這些聊天機器人的平均可讀性分數為40.2,顯示閱讀難度較高,年級水平從Meta AI的9.6到ChatGPT的14.8不等,皆高於建議的六年級水平。Meta AI的回應最簡單,而ChatGPT則最複雜。雖然這些AI能回答醫療問題,但可讀性可能不適合所有病人。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究探討耳鼻喉科病人教育材料的可讀性,利用ChatGPT將內容翻譯成五年級水平。研究人員從美國相關學會網站獲取資料,並用Flesch閱讀容易度和Flesch-Kincaid年級水平來評估可讀性。結果顯示,經過ChatGPT翻譯後,材料的可讀性顯著改善(p < 0.001)。雖然Microsoft Word也有改善,但變化不明顯。總體來看,原始材料的寫作水平過高,使用AI工具如ChatGPT能有效簡化內容,讓病人更容易理解。 PubMed DOI