原始文章

這項研究探討了使用ChatGPT重寫術後護理指導的效果,目的是讓病人和照護者更容易理解。原本的指導內容過於複雜,平均閱讀水平在七到八年級,而建議的水平是六年級。結果顯示,只有一個六年級的版本達標,四年級的版本則都不合格。雖然可理解性隨著閱讀水平降低而改善,但四年級版本的可行性下降。研究發現,ChatGPT能有效降低閱讀水平,增強病人理解能力,且不影響安全性。建議撰寫時可要求低一到兩個年級,以達最佳效果。 PubMed DOI


站上相關主題文章列表

研究使用ChatGPT自動化內容分析,改善整形外科網頁的可讀性,測試了3.5和4.0版本。使用特定提示的3.5顯著提升可讀性,4.0則無進一步改善。4.0準確性較高但幻覺率也較高。研究顯示ChatGPT提升醫學資訊品質潛力,但準確性仍需改進。 PubMed DOI

美國和英國的手外科學會提供的病人資訊比較難懂,但用像ChatGPT-4這樣的智慧模型可以讓資訊更容易理解。改寫成六年級程度後,讓資訊更易讀,也更適合不同人使用。但外科醫生仍需確認ChatGPT-4簡化的內容是正確的。 PubMed DOI

這項研究評估使用ChatGPT 3.5來分析和簡化手術患者教育資料,以符合建議的閱讀水平。ChatGPT 3.5提供了與傳統計算工具類似的易讀性分數,並有效地將資料簡化到更容易理解的水平。這個工具有助於提升患者在臨床環境中對健康資訊的理解和參與。 PubMed DOI

研究使用ChatGPT簡化放射學教育資料,易讀性提升但可信度下降。建議需人工審查及進一步發展,平衡易讀性與可靠性。 PubMed DOI

這項研究探討耳鼻喉科病人教育材料的可讀性,利用ChatGPT將內容翻譯成五年級水平。研究人員從美國相關學會網站獲取資料,並用Flesch閱讀容易度和Flesch-Kincaid年級水平來評估可讀性。結果顯示,經過ChatGPT翻譯後,材料的可讀性顯著改善(p < 0.001)。雖然Microsoft Word也有改善,但變化不明顯。總體來看,原始材料的寫作水平過高,使用AI工具如ChatGPT能有效簡化內容,讓病人更容易理解。 PubMed DOI

本研究探討ChatGPT在唇裂修復方面的回應質量與準確性,因為大型語言模型在健康資訊傳播中越來越常見。研究選取十個常見問題,並由五位整形外科醫師評估其內容質量、清晰度、相關性和可信度。結果顯示,ChatGPT的平均評分為2.9分,清晰度和內容質量較高,但可信度較低。可讀性適合約10年級學生。雖然回應中無明顯不準確或有害資訊,但缺乏引用來源,使用者需注意其局限性。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

健康素養對醫生與病人溝通非常重要,特別是手術病人需要理解複雜的程序。美國醫學會建議病人教育材料應以六到八年級的閱讀水平撰寫,但許多線上資源卻較難懂。研究人員分析了三十段有關肩膀和肘部手術的資訊,發現原始文本的可讀性達到十年級。使用ChatGPT-4簡化後,文本可讀性顯著提高,降至八年級水平。這顯示AI能有效簡化醫療資訊,但仍需人類審查以確保準確性。 PubMed DOI