原始文章

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI


站上相關主題文章列表

這項研究評估了使用ChatGPT 3.5來優化針對患者的顱顏面教育資料,以提高可讀性。研究發現,ChatGPT 3.5能夠有效地簡化資料,使其符合建議的閱讀水平。這個工具提供的可讀性分數與傳統計算工具相當,有助於改善向患者傳達重要健康資訊的效果。 PubMed DOI

美國和英國的手外科學會提供的病人資訊比較難懂,但用像ChatGPT-4這樣的智慧模型可以讓資訊更容易理解。改寫成六年級程度後,讓資訊更易讀,也更適合不同人使用。但外科醫生仍需確認ChatGPT-4簡化的內容是正確的。 PubMed DOI

這項研究評估使用ChatGPT 3.5來分析和簡化手術患者教育資料,以符合建議的閱讀水平。ChatGPT 3.5提供了與傳統計算工具類似的易讀性分數,並有效地將資料簡化到更容易理解的水平。這個工具有助於提升患者在臨床環境中對健康資訊的理解和參與。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究探討了使用ChatGPT重寫術後護理指導的效果,目的是讓病人和照護者更容易理解。原本的指導內容過於複雜,平均閱讀水平在七到八年級,而建議的水平是六年級。結果顯示,只有一個六年級的版本達標,四年級的版本則都不合格。雖然可理解性隨著閱讀水平降低而改善,但四年級版本的可行性下降。研究發現,ChatGPT能有效降低閱讀水平,增強病人理解能力,且不影響安全性。建議撰寫時可要求低一到兩個年級,以達最佳效果。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

健康素養對醫生與病人溝通非常重要,特別是手術病人需要理解複雜的程序。美國醫學會建議病人教育材料應以六到八年級的閱讀水平撰寫,但許多線上資源卻較難懂。研究人員分析了三十段有關肩膀和肘部手術的資訊,發現原始文本的可讀性達到十年級。使用ChatGPT-4簡化後,文本可讀性顯著提高,降至八年級水平。這顯示AI能有效簡化醫療資訊,但仍需人類審查以確保準確性。 PubMed DOI

這項研究評估了手部手術相關的線上醫療資訊,並比較了Google、ChatGPT-3.5和ChatGPT-4.0的回應。研究針對腕隧道症候群、網球肘和富血小板血漿用於拇指關節炎三個問題進行分析。 主要發現包括: 1. **可讀性**:Google的回應較易讀,平均在八年級水平,而ChatGPT則在大學二年級水平。低共識主題的可讀性普遍較差。 2. **可靠性與準確性**:ChatGPT-4的可靠性與3.5相似,但低共識主題的可讀性較低,準確性差異不大。 3. **覆蓋範圍**:ChatGPT-4和Google在疾病原因和程序細節的覆蓋上有所不同,但在解剖學和病理生理學上相似。 總結來說,雖然ChatGPT能提供可靠的醫療資訊,但可讀性較差,醫療提供者需注意其局限性。 PubMed DOI