原始文章

這項研究發現,Microsoft Copilot、Gemini 和 Meta AI 能把燒燙傷衛教資料簡化到國中六到八年級的閱讀程度,有助於讓醫療資訊更容易被一般民眾理解。不過,內容還是需要醫師或臨床人員審查,確保正確性和適合度。 PubMed DOI


站上相關主題文章列表

這項研究評估大型語言模型(LLMs)在簡化骨科病人教育材料的效果。研究使用GPT-4、GPT-3.5、Claude 2和Llama 2等模型,轉換48份教育材料,並透過Flesch-Kincaid分數測量可讀性。結果顯示,所有模型的可讀性都有明顯改善,特別是GPT-4,將可讀性提升至七年級水平。研究指出,轉換成功與原始文本的字詞長度和句子複雜度有關。這顯示LLMs能有效提升骨科病人教育材料的可讀性,對改善健康素養和病人理解有重要意義。 PubMed DOI

這項研究指出,西班牙語患者在獲取骨科教育材料時面臨語言障礙和可讀性問題。評估77份美國骨科醫師學會的西班牙語材料後發現,沒有一份符合建議的六年級閱讀水平。使用ChatGPT-4簡化後,53%的材料達到建議水平,但準確性和實用性仍需改善。研究強調持續創建清晰且文化適宜的教育資源的重要性,並建議進一步研究以納入患者反饋。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

健康素養對醫生與病人溝通非常重要,特別是手術病人需要理解複雜的程序。美國醫學會建議病人教育材料應以六到八年級的閱讀水平撰寫,但許多線上資源卻較難懂。研究人員分析了三十段有關肩膀和肘部手術的資訊,發現原始文本的可讀性達到十年級。使用ChatGPT-4簡化後,文本可讀性顯著提高,降至八年級水平。這顯示AI能有效簡化醫療資訊,但仍需人類審查以確保準確性。 PubMed DOI

這項研究探討人工智慧(AI)在簡化骨科創傷病患教育材料的有效性。分析了35篇來自第1級創傷中心的文章,並使用Python程式評估其可讀性。經過四次GPT AI模型改寫後,所有模型成功降低了文章的閱讀年級水平,特別是GPT-4o-Mini和GPT-4o表現最佳,而GPT-3.5-Turbo效果較差。成本分析顯示,GPT-4o每篇文章費用為0.61美元,雖然較貴,但準確性高。研究結論認為,AI能有效簡化病患教育材料,且保持準確性。 PubMed DOI

這項研究發現,AI工具(如ChatGPT、Copilot、Gemini)能把顏面整形衛教資料改寫得更容易閱讀,雖然還沒達到理想的國中一年級水準。有醫師把關下,用AI簡化衛教內容,有助於讓病患更容易取得和理解健康資訊。 PubMed DOI

**重點摘要:** 這項研究利用 ChatGPT 4.0 製作了淺顯易懂的術後傷口照護衛教資料。專家評估後認為這些資料內容清楚、正確、品質高且適合病人使用,閱讀難易度也很理想。結果顯示,ChatGPT 能有效協助臨床製作病人衛教資料。 PubMed DOI

多數骨科衛教資料太難懂,超過國小六年級程度,讓病患難以理解。這項研究用ChatGPT、Gemini和CoPilot三種AI,簡化美國骨科醫學會網站上的脊椎文章。結果發現,AI能大幅提升文章易讀性,內容正確性也沒變。ChatGPT最能提升易讀性,Gemini則擅長補充免責聲明。這顯示AI有助於讓醫療資訊更親民,促進病患教育與健康平等。 PubMed DOI

這項研究發現,ChatGPT、Gemini 和 Claude 都能把線上病患衛教資料簡化到更容易閱讀的程度,字數也變少,且正確性和易懂性大致良好。不過,Gemini 和 Claude 偶爾會有錯誤,所以還是需要人工審查。未來建議針對更進階或專門醫療的模型再做研究。 PubMed DOI