原始文章

這項研究評估了與唇顎裂相關的線上病人教育材料(PEMs)的可讀性,並檢視其是否符合建議的可讀性標準。透過系統性回顧,分析了九項研究,結果顯示這些材料的寫作水平普遍過高,超出建議範圍。可讀性指標顯示,這些材料對一般護理人員來說過於複雜,強調了改善可讀性和可及性的必要性。未來應著重於創建多樣化資源及進行可用性評估,以縮小全球在唇顎裂護理教育上的差距。 PubMed DOI


站上相關主題文章列表

本研究透過結構化方法,開發並驗證針對造口病患的人工智慧輔助教育材料。研究包含五個步驟:識別資訊需求、創建內容、轉換為病患友好材料、專家審查及可讀性評估。使用 ChatGPT 4.0 確定需求並生成內容,並用 PEMAT 評估材料有效性。結果顯示,材料的可理解性得分為 81.91%,可行性得分為 85.33%。雖然材料準確且易懂,但對某些病患來說,閱讀上仍有挑戰。研究顯示人工智慧在病患教育中的潛力,並強調需進一步了解其對病患結果的影響。 PubMed DOI

這項研究指出,西班牙語患者在獲取骨科教育材料時面臨語言障礙和可讀性問題。評估77份美國骨科醫師學會的西班牙語材料後發現,沒有一份符合建議的六年級閱讀水平。使用ChatGPT-4簡化後,53%的材料達到建議水平,但準確性和實用性仍需改善。研究強調持續創建清晰且文化適宜的教育資源的重要性,並建議進一步研究以納入患者反饋。 PubMed DOI

這項研究探討耳鼻喉科的線上病患教育材料(OPEMs)在不同子專科和機構中的可讀性。分析了美國排名前的醫院及多個國家組織的資料,結果顯示OPEMs的可讀性普遍超過國立衛生研究院的標準,平均在8到12年級之間。某些子專科的OPEMs可讀性高於ENTUK,但低於AAO。相比之下,ChatGPT生成的材料可讀性為6.8,更易於理解,特別是使用專門提示時。研究顯示,雖然OPEMs較複雜,但人工智慧工具如ChatGPT能創造更友好的病患內容,並顯示改善可讀性的需求。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

這項研究發現,AI工具(如ChatGPT、Copilot、Gemini)能把顏面整形衛教資料改寫得更容易閱讀,雖然還沒達到理想的國中一年級水準。有醫師把關下,用AI簡化衛教內容,有助於讓病患更容易取得和理解健康資訊。 PubMed DOI

多數骨科衛教資料太難懂,超過國小六年級程度,讓病患難以理解。這項研究用ChatGPT、Gemini和CoPilot三種AI,簡化美國骨科醫學會網站上的脊椎文章。結果發現,AI能大幅提升文章易讀性,內容正確性也沒變。ChatGPT最能提升易讀性,Gemini則擅長補充免責聲明。這顯示AI有助於讓醫療資訊更親民,促進病患教育與健康平等。 PubMed DOI

這項研究發現,美國鼻科醫學會的衛教資料平均需要10年級閱讀程度,但用ChatGPT、Gemini和Copilot等AI重寫後,平均只要8.6年級,Gemini甚至只要7.5年級。AI能讓醫療資訊更容易理解,但內容還是要由醫師和病患一起確認。 PubMed DOI

這項研究發現,ChatGPT、Gemini 和 Claude 都能把線上病患衛教資料簡化到更容易閱讀的程度,字數也變少,且正確性和易懂性大致良好。不過,Gemini 和 Claude 偶爾會有錯誤,所以還是需要人工審查。未來建議針對更進階或專門醫療的模型再做研究。 PubMed DOI

許多脊椎相關的病患衛教資料,閱讀難度太高,超過多數人能理解的程度。研究發現,這些資料平均要有美國高中二年級程度才能看懂,遠高於建議的國中一年級水準。用 ChatGPT-4o 重寫後,內容變得更簡單易懂,資訊也沒跑掉。AI 工具確實能幫助醫療資訊更親民,但未來還要加上圖像和更友善的呈現方式,才能照顧到所有病患。 PubMed DOI