原始文章

這項研究探討了使用ChatGPT重寫術後護理指導的效果,目的是讓病人和照護者更容易理解。原本的指導內容過於複雜,平均閱讀水平在七到八年級,而建議的水平是六年級。結果顯示,只有一個六年級的版本達標,四年級的版本則都不合格。雖然可理解性隨著閱讀水平降低而改善,但四年級版本的可行性下降。研究發現,ChatGPT能有效降低閱讀水平,增強病人理解能力,且不影響安全性。建議撰寫時可要求低一到兩個年級,以達最佳效果。 PubMed DOI


站上相關主題文章列表

研究使用AI語言模型ChatGPT-4來製作腹腔鏡阑尾切除手術記錄,結果顯示ChatGPT能快速生成記錄,但質量需再驗證。在整合至英國NHS前,必須提升提示品質並整合電子健康記錄。 PubMed DOI

研究比較ChatGPT生成的青光眼手術健康資訊與現有線上資料,發現兩者閱讀難度都高(11至12年級),且資訊品質一般。ChatGPT在評估資源品質方面表現準確,但對一般讀者來說仍複雜。儘管未達預期閱讀水準,ChatGPT可協助自動化評估。 PubMed DOI

研究發現使用ChatGPT簡化乳癌預防和篩檢問題答案,讓六年級學生也能看懂。簡化後的答案閱讀更輕鬆,字數也減少,92%符合臨床標準。雖然ChatGPT有助簡化,但需醫師監督以避免錯誤資訊。 PubMed DOI

研究使用ChatGPT自動化內容分析,改善整形外科網頁的可讀性,測試了3.5和4.0版本。使用特定提示的3.5顯著提升可讀性,4.0則無進一步改善。4.0準確性較高但幻覺率也較高。研究顯示ChatGPT提升醫學資訊品質潛力,但準確性仍需改進。 PubMed DOI

美國和英國的手外科學會提供的病人資訊比較難懂,但用像ChatGPT-4這樣的智慧模型可以讓資訊更容易理解。改寫成六年級程度後,讓資訊更易讀,也更適合不同人使用。但外科醫生仍需確認ChatGPT-4簡化的內容是正確的。 PubMed DOI

研究發現ChatGPT能夠回答父母有關手術的問題,但回答有時過於複雜。儘管提供正確資訊,但可讀性可能不易理解。這表示ChatGPT的回應有時超出患者理解範圍,需要更容易理解的語言。 PubMed DOI

這項研究評估使用ChatGPT 3.5來分析和簡化手術患者教育資料,以符合建議的閱讀水平。ChatGPT 3.5提供了與傳統計算工具類似的易讀性分數,並有效地將資料簡化到更容易理解的水平。這個工具有助於提升患者在臨床環境中對健康資訊的理解和參與。 PubMed DOI

研究使用ChatGPT簡化放射學教育資料,易讀性提升但可信度下降。建議需人工審查及進一步發展,平衡易讀性與可靠性。 PubMed DOI

ChatGPT在生成病人諮詢材料方面受到關注,但其有效性尚待評估。一項研究測試了ChatGPT在五種手術程序的圍手術期諮詢及併發症的表現。結果顯示,ChatGPT能提供全面的手術前諮詢要點,但對於手術併發症的準確性則不盡理想。與線上教育資源相比,ChatGPT的回應在適用性和病人教育材料評估中表現良好。總體而言,雖然ChatGPT能處理基本諮詢,但在複雜併發症方面仍有待加強。 PubMed DOI

這項研究探討耳鼻喉科病人教育材料的可讀性,利用ChatGPT將內容翻譯成五年級水平。研究人員從美國相關學會網站獲取資料,並用Flesch閱讀容易度和Flesch-Kincaid年級水平來評估可讀性。結果顯示,經過ChatGPT翻譯後,材料的可讀性顯著改善(p < 0.001)。雖然Microsoft Word也有改善,但變化不明顯。總體來看,原始材料的寫作水平過高,使用AI工具如ChatGPT能有效簡化內容,讓病人更容易理解。 PubMed DOI