原始文章

這項研究探討耳鼻喉科的線上病患教育材料(OPEMs)在不同子專科和機構中的可讀性。分析了美國排名前的醫院及多個國家組織的資料,結果顯示OPEMs的可讀性普遍超過國立衛生研究院的標準,平均在8到12年級之間。某些子專科的OPEMs可讀性高於ENTUK,但低於AAO。相比之下,ChatGPT生成的材料可讀性為6.8,更易於理解,特別是使用專門提示時。研究顯示,雖然OPEMs較複雜,但人工智慧工具如ChatGPT能創造更友好的病患內容,並顯示改善可讀性的需求。 PubMed DOI


站上相關主題文章列表

這項研究指出,西班牙語患者在獲取骨科教育材料時面臨語言障礙和可讀性問題。評估77份美國骨科醫師學會的西班牙語材料後發現,沒有一份符合建議的六年級閱讀水平。使用ChatGPT-4簡化後,53%的材料達到建議水平,但準確性和實用性仍需改善。研究強調持續創建清晰且文化適宜的教育資源的重要性,並建議進一步研究以納入患者反饋。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

這項研究比較了GPT-4和眼科醫生對眼科手術問題的回應可讀性。研究隨機選取200個問題,發現GPT-4使用的複雜詞彙比例較高(24.42%),而醫生則為17.76%。兩者的平均句子字數相似,但GPT-4的回應被評為更高的年級水平,顯示其內容較複雜。兩者都需至少12年級的教育才能理解,超過了國立衛生研究院建議的六到七年級水平。這強調了健康資訊可及性的重要性,尤其是AI工具在患者教育中的應用。 PubMed DOI

這項研究評估了與唇顎裂相關的線上病人教育材料(PEMs)的可讀性,並檢視其是否符合建議的可讀性標準。透過系統性回顧,分析了九項研究,結果顯示這些材料的寫作水平普遍過高,超出建議範圍。可讀性指標顯示,這些材料對一般護理人員來說過於複雜,強調了改善可讀性和可及性的必要性。未來應著重於創建多樣化資源及進行可用性評估,以縮小全球在唇顎裂護理教育上的差距。 PubMed DOI

健康素養對醫生與病人溝通非常重要,特別是手術病人需要理解複雜的程序。美國醫學會建議病人教育材料應以六到八年級的閱讀水平撰寫,但許多線上資源卻較難懂。研究人員分析了三十段有關肩膀和肘部手術的資訊,發現原始文本的可讀性達到十年級。使用ChatGPT-4簡化後,文本可讀性顯著提高,降至八年級水平。這顯示AI能有效簡化醫療資訊,但仍需人類審查以確保準確性。 PubMed DOI

這項研究發現,AI工具(如ChatGPT、Copilot、Gemini)能把顏面整形衛教資料改寫得更容易閱讀,雖然還沒達到理想的國中一年級水準。有醫師把關下,用AI簡化衛教內容,有助於讓病患更容易取得和理解健康資訊。 PubMed DOI

多數骨科衛教資料太難懂,超過國小六年級程度,讓病患難以理解。這項研究用ChatGPT、Gemini和CoPilot三種AI,簡化美國骨科醫學會網站上的脊椎文章。結果發現,AI能大幅提升文章易讀性,內容正確性也沒變。ChatGPT最能提升易讀性,Gemini則擅長補充免責聲明。這顯示AI有助於讓醫療資訊更親民,促進病患教育與健康平等。 PubMed DOI

這項研究發現,美國鼻科醫學會的衛教資料平均需要10年級閱讀程度,但用ChatGPT、Gemini和Copilot等AI重寫後,平均只要8.6年級,Gemini甚至只要7.5年級。AI能讓醫療資訊更容易理解,但內容還是要由醫師和病患一起確認。 PubMed DOI

許多脊椎相關的病患衛教資料,閱讀難度太高,超過多數人能理解的程度。研究發現,這些資料平均要有美國高中二年級程度才能看懂,遠高於建議的國中一年級水準。用 ChatGPT-4o 重寫後,內容變得更簡單易懂,資訊也沒跑掉。AI 工具確實能幫助醫療資訊更親民,但未來還要加上圖像和更友善的呈現方式,才能照顧到所有病患。 PubMed DOI