原始文章

這項研究探討了使用ChatGPT重寫術後護理指導的效果,目的是讓病人和照護者更容易理解。原本的指導內容過於複雜,平均閱讀水平在七到八年級,而建議的水平是六年級。結果顯示,只有一個六年級的版本達標,四年級的版本則都不合格。雖然可理解性隨著閱讀水平降低而改善,但四年級版本的可行性下降。研究發現,ChatGPT能有效降低閱讀水平,增強病人理解能力,且不影響安全性。建議撰寫時可要求低一到兩個年級,以達最佳效果。 PubMed DOI


站上相關主題文章列表

這項研究評估使用ChatGPT 3.5來分析和簡化手術患者教育資料,以符合建議的閱讀水平。ChatGPT 3.5提供了與傳統計算工具類似的易讀性分數,並有效地將資料簡化到更容易理解的水平。這個工具有助於提升患者在臨床環境中對健康資訊的理解和參與。 PubMed DOI

研究使用ChatGPT簡化放射學教育資料,易讀性提升但可信度下降。建議需人工審查及進一步發展,平衡易讀性與可靠性。 PubMed DOI

ChatGPT在生成病人諮詢材料方面受到關注,但其有效性尚待評估。一項研究測試了ChatGPT在五種手術程序的圍手術期諮詢及併發症的表現。結果顯示,ChatGPT能提供全面的手術前諮詢要點,但對於手術併發症的準確性則不盡理想。與線上教育資源相比,ChatGPT的回應在適用性和病人教育材料評估中表現良好。總體而言,雖然ChatGPT能處理基本諮詢,但在複雜併發症方面仍有待加強。 PubMed DOI

這項研究探討耳鼻喉科病人教育材料的可讀性,利用ChatGPT將內容翻譯成五年級水平。研究人員從美國相關學會網站獲取資料,並用Flesch閱讀容易度和Flesch-Kincaid年級水平來評估可讀性。結果顯示,經過ChatGPT翻譯後,材料的可讀性顯著改善(p < 0.001)。雖然Microsoft Word也有改善,但變化不明顯。總體來看,原始材料的寫作水平過高,使用AI工具如ChatGPT能有效簡化內容,讓病人更容易理解。 PubMed DOI

本研究探討ChatGPT在唇裂修復方面的回應質量與準確性,因為大型語言模型在健康資訊傳播中越來越常見。研究選取十個常見問題,並由五位整形外科醫師評估其內容質量、清晰度、相關性和可信度。結果顯示,ChatGPT的平均評分為2.9分,清晰度和內容質量較高,但可信度較低。可讀性適合約10年級學生。雖然回應中無明顯不準確或有害資訊,但缺乏引用來源,使用者需注意其局限性。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

健康素養對醫生與病人溝通非常重要,特別是手術病人需要理解複雜的程序。美國醫學會建議病人教育材料應以六到八年級的閱讀水平撰寫,但許多線上資源卻較難懂。研究人員分析了三十段有關肩膀和肘部手術的資訊,發現原始文本的可讀性達到十年級。使用ChatGPT-4簡化後,文本可讀性顯著提高,降至八年級水平。這顯示AI能有效簡化醫療資訊,但仍需人類審查以確保準確性。 PubMed DOI

**重點摘要:** 這項研究利用 ChatGPT 4.0 製作了淺顯易懂的術後傷口照護衛教資料。專家評估後認為這些資料內容清楚、正確、品質高且適合病人使用,閱讀難易度也很理想。結果顯示,ChatGPT 能有效協助臨床製作病人衛教資料。 PubMed DOI