原始文章

這項研究發現,美國鼻科醫學會的衛教資料平均需要10年級閱讀程度,但用ChatGPT、Gemini和Copilot等AI重寫後,平均只要8.6年級,Gemini甚至只要7.5年級。AI能讓醫療資訊更容易理解,但內容還是要由醫師和病患一起確認。 PubMed DOI


站上相關主題文章列表

這項研究評估了土耳其眼科協會針對早產兒視網膜病變的病患教育材料可讀性,並與大型語言模型(如GPT-4.0、GPT-4o mini和Gemini)生成的內容進行比較。結果顯示,TOA的材料可讀性超過六年級,而GPT-4.0和Gemini則更易讀。經調整後,GPT-4.0的可讀性改善,且在準確性和全面性上得分最高,Gemini則最低。研究指出,GPT-4.0在創建可及的病患教育材料上有潛力,但使用LLMs時需考慮地區醫療差異和資訊準確性。 PubMed DOI

這項研究評估了結腸直腸手術病人教育材料的可讀性,並與大型語言模型(LLMs)如ChatGPT和Perplexity生成的材料進行比較。研究發現,現有材料字數較長且可讀性不佳,未達六年級標準。相對而言,ChatGPT生成的材料在可讀性上表現優於基線材料,特別是使用基於指標的提示時,顯示出更易理解的內容。整體來看,LLMs在病人教育中的應用,提示的選擇至關重要。 PubMed DOI

這項研究評估了GPT-4在簡化醫學文獻的表現,目的是幫助病人更好理解青光眼護理。研究將62篇青光眼期刊摘要和9篇病人教育材料轉換為五年級的閱讀水平。結果顯示,摘要的可讀性顯著改善,FKGL平均下降3.21分,FKRE上升28.6分;病人教育材料的FKGL下降2.38分,FKRE上升12.14分。整體來看,GPT-4有效提升了青光眼相關資訊的可讀性,讓病人更容易理解。 PubMed DOI

這項研究探討了可獲得的醫療資訊對患者的重要性,並評估了兩個AI工具,ChatGPT和Google Gemini,針對特定醫療狀況(如深靜脈血栓、壓瘡和痔瘡)的可理解性。結果顯示,ChatGPT的內容需要較高的教育水平才能理解,且其回應與現有線上資訊相似度較高。雖然兩者在易讀性和可靠性上有差異,但統計分析未能證明哪一個工具在資訊質量上優於另一個。 PubMed DOI

這項研究發現,AI工具(如ChatGPT、Copilot、Gemini)能把顏面整形衛教資料改寫得更容易閱讀,雖然還沒達到理想的國中一年級水準。有醫師把關下,用AI簡化衛教內容,有助於讓病患更容易取得和理解健康資訊。 PubMed DOI

這項研究比較 ChatGPT-3.5、ChatGPT-4o 和 Google Gemini 在製作兒童近視衛教資料的表現。結果發現,三款 AI 都能產出正確、易懂的內容,但只有 ChatGPT-3.5 和 4o 能穩定達到國小六年級的閱讀程度。ChatGPT-4o 在內容品質和易讀性上表現最好,但三者都缺乏高度可執行的建議。整體來說,ChatGPT-4o 最有潛力用來優化兒童近視衛教資料。 PubMed DOI

這項研究測試了11款大型語言模型在耳鼻喉科專科考題上的表現,GPT-4o正確率最高,特別擅長過敏學和頭頸腫瘤題目。Claude系列表現也不錯,但還是略輸GPT-4。GPT-3.5 Turbo的正確率則比去年下降。所有模型答單選題都比多選題好。整體來看,新一代LLM在醫療領域很有潛力,但表現會變動,需持續追蹤和優化。 PubMed DOI

多數骨科衛教資料太難懂,超過國小六年級程度,讓病患難以理解。這項研究用ChatGPT、Gemini和CoPilot三種AI,簡化美國骨科醫學會網站上的脊椎文章。結果發現,AI能大幅提升文章易讀性,內容正確性也沒變。ChatGPT最能提升易讀性,Gemini則擅長補充免責聲明。這顯示AI有助於讓醫療資訊更親民,促進病患教育與健康平等。 PubMed DOI

這項研究發現,ChatGPT、Gemini 和 Claude 都能把線上病患衛教資料簡化到更容易閱讀的程度,字數也變少,且正確性和易懂性大致良好。不過,Gemini 和 Claude 偶爾會有錯誤,所以還是需要人工審查。未來建議針對更進階或專門醫療的模型再做研究。 PubMed DOI

許多脊椎相關的病患衛教資料,閱讀難度太高,超過多數人能理解的程度。研究發現,這些資料平均要有美國高中二年級程度才能看懂,遠高於建議的國中一年級水準。用 ChatGPT-4o 重寫後,內容變得更簡單易懂,資訊也沒跑掉。AI 工具確實能幫助醫療資訊更親民,但未來還要加上圖像和更友善的呈現方式,才能照顧到所有病患。 PubMed DOI