原始文章

本研究透過結構化方法,開發並驗證針對造口病患的人工智慧輔助教育材料。研究包含五個步驟:識別資訊需求、創建內容、轉換為病患友好材料、專家審查及可讀性評估。使用 ChatGPT 4.0 確定需求並生成內容,並用 PEMAT 評估材料有效性。結果顯示,材料的可理解性得分為 81.91%,可行性得分為 85.33%。雖然材料準確且易懂,但對某些病患來說,閱讀上仍有挑戰。研究顯示人工智慧在病患教育中的潛力,並強調需進一步了解其對病患結果的影響。 PubMed DOI


站上相關主題文章列表

本研究探討人工智慧,特別是自然語言處理模型如ChatGPT,對於男性根治性前列腺切除術後勃起功能障礙(ED)患者的教育與知情同意的潛力。結果顯示,雖然ChatGPT能提供有關陰莖假體植入手術的資訊,但其質量和可理解性仍不足以幫助患者做出知情決策。評估結果顯示資訊的清晰度高,但複雜主題的理解度較低,顯示出改進AI生成內容的必要性。 PubMed DOI

在泌尿科,AI 聊天機器人逐漸被重視,成為病人教育的工具。研究顯示,雖然這些機器人的回應通常準確,但語言過於複雜,病人難以理解。部分研究探討了它們生成通俗摘要或教育手冊的潛力,顯示未來可能成為有價值的資源。若能增強產生易懂內容的能力,這些聊天機器人能快速生成病人友好的資料,並由醫療專業人員審核。總之,AI 聊天機器人在改善病人教育方面具潛力,特別是能以簡單術語溝通時。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

這項研究評估了ChatGPT提供的腹主動脈瘤(AAA)資訊質量,並與澳洲健康指導(HDA)進行比較。研究發現,ChatGPT的回應臨床上適當,但可讀性較高,達到大學水平,而HDA則在10到12年級。雖然ChatGPT的回應通常更易理解,但可行性得分較低,且行動建議不夠明確。總體來看,ChatGPT可作為病人教育的工具,但需改進以提升其幫助病人做出知情決策的能力。 PubMed DOI

這項研究探討人工智慧(AI)在簡化骨科創傷病患教育材料的有效性。分析了35篇來自第1級創傷中心的文章,並使用Python程式評估其可讀性。經過四次GPT AI模型改寫後,所有模型成功降低了文章的閱讀年級水平,特別是GPT-4o-Mini和GPT-4o表現最佳,而GPT-3.5-Turbo效果較差。成本分析顯示,GPT-4o每篇文章費用為0.61美元,雖然較貴,但準確性高。研究結論認為,AI能有效簡化病患教育材料,且保持準確性。 PubMed DOI

這項研究發現,AI工具(如ChatGPT、Copilot、Gemini)能把顏面整形衛教資料改寫得更容易閱讀,雖然還沒達到理想的國中一年級水準。有醫師把關下,用AI簡化衛教內容,有助於讓病患更容易取得和理解健康資訊。 PubMed DOI

研究發現,ChatGPT(GPT-4)在提供良性肛門直腸疾病相關資訊時,內容正確性不錯,但缺乏文獻來源和視覺輔助資料,有時還會建議非主流治療。不過,整體資訊品質和其他線上資源差不多,若能補強來源說明和圖表,會更適合用來做病人衛教。 PubMed DOI

**重點摘要:** 這項研究利用 ChatGPT 4.0 製作了淺顯易懂的術後傷口照護衛教資料。專家評估後認為這些資料內容清楚、正確、品質高且適合病人使用,閱讀難易度也很理想。結果顯示,ChatGPT 能有效協助臨床製作病人衛教資料。 PubMed DOI

這項研究發現,GPT-4能快速產出內容正確、易讀又符合最新指引的泌尿系統癌症衛教資料,還能準確翻譯成多國語言。AI生成的資料比原本更清楚,閱讀門檻也較低,只要有專業人員審核,就能幫助病人更容易取得和理解相關資訊。 PubMed DOI