原始文章

這項研究比較了由人工智慧生成的健康資訊(如ChatGPT)與ENT UK專業製作的病人資訊手冊的質量和可讀性。結果顯示,ENT UK手冊的質量中等,EQIP分數中位數為23,且手冊之間的評分差異顯著。雖然ChatGPT的內容質量與手冊相當,但可讀性較差,需更高的閱讀年齡。這強調了在病人教育材料中確保質量和可讀性的重要性,尤其在網路健康資源日益普及的背景下。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT使用DISCERN工具評估關於勃起功能障礙的衝擊波治療的線上內容的質量和易讀性的能力。結果顯示ChatGPT的評估與已建立的工具和人類評估者之間存在差異,顯示其目前能力的局限性。需要進一步研究探索人工智慧在客觀評估線上醫學內容中的角色。 PubMed DOI

研究評估OpenAI開發的ChatGPT在提供耳鼻喉科健康資訊的表現。醫生們認為聊天機器人回答相關性不錯,但深度有待加強,可能受訓練數據影響。儘管有潛力提供正確資訊,仍需改進回應深度和減少偏見。 PubMed DOI

研究比較ChatGPT生成的青光眼手術健康資訊與現有線上資料,發現兩者閱讀難度都高(11至12年級),且資訊品質一般。ChatGPT在評估資源品質方面表現準確,但對一般讀者來說仍複雜。儘管未達預期閱讀水準,ChatGPT可協助自動化評估。 PubMed DOI

這項研究評估了人工智慧生成的血管外科手術患者資訊的品質和易讀性,並與一個知名慈善機構提供的資訊進行比較。研究發現,人工智慧生成的資訊比人類生成的資訊易讀性較差,品質也較低。該研究建議患者在尋求準確資訊時,應該依賴可信賴的人類生成來源,同時聽取醫療專業人員的指導。 PubMed DOI

研究評估了ChatGPT 4在唇顎裂(CLP)相關資訊的品質、可靠度、易讀性和相似性。結果顯示,ChatGPT提供高可靠性和優質資訊,但易讀性有挑戰。建議醫學專家驗證和評估ChatGPT等人工智慧模型的資訊以確保正確性。 PubMed DOI

研究比較了ChatGPT和ENT UK的耳鼻喉手術患者資訊,發現ChatGPT的資訊雖然易讀性高,但品質較差。建議尋求可靠來源的醫療資訊,並諮詢醫師做出明智決定。 PubMed DOI

研究評估線上耳鼻喉科教材是否適合閱讀,以及ChatGPT4是否能改寫成六年級水準。分析了71篇美國耳鼻喉頭頸外科學會文章,ChatGPT4成功改寫成易懂版本,無誤差,提升可讀性。醫師可用工具檢查閱讀水準,利用ChatGPT4等AI平台增進患者教育。 PubMed DOI

研究評估了AI聊天機器人ChatGPT-4在提供耳硬化手術資訊的表現,結果顯示回答品質不一。專家使用DISCERN系統評估後發現,回答有時超出一般讀者理解範圍,且可能不完整或誤導。建議改善AI系統以提供準確易懂的資訊,並建議醫護人員監督其應用於病患教育和護理。 PubMed DOI

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究探討耳鼻喉科病人教育材料的可讀性,利用ChatGPT將內容翻譯成五年級水平。研究人員從美國相關學會網站獲取資料,並用Flesch閱讀容易度和Flesch-Kincaid年級水平來評估可讀性。結果顯示,經過ChatGPT翻譯後,材料的可讀性顯著改善(p < 0.001)。雖然Microsoft Word也有改善,但變化不明顯。總體來看,原始材料的寫作水平過高,使用AI工具如ChatGPT能有效簡化內容,讓病人更容易理解。 PubMed DOI