原始文章

這項研究評估大型語言模型(LLMs)在心臟康復教育回應的可讀性。使用Gunning Fog、Flesch Kincaid和Flesch Reading Ease分數後發現,ChatGPT 3.5、Copilot和Gemini的回應可讀性不符合美國建議的年級水平。其中,Gemini和Copilot的回應比ChatGPT 3.5更易讀。雖然LLMs在心血管康復教育上有潛力,但仍需改善可讀性,以更有效地教育患者。 PubMed


站上相關主題文章列表

這項研究評估了土耳其眼科協會針對早產兒視網膜病變的病患教育材料可讀性,並與大型語言模型(如GPT-4.0、GPT-4o mini和Gemini)生成的內容進行比較。結果顯示,TOA的材料可讀性超過六年級,而GPT-4.0和Gemini則更易讀。經調整後,GPT-4.0的可讀性改善,且在準確性和全面性上得分最高,Gemini則最低。研究指出,GPT-4.0在創建可及的病患教育材料上有潛力,但使用LLMs時需考慮地區醫療差異和資訊準確性。 PubMed DOI

這項研究評估大型語言模型(LLMs)在提供前列腺癌放射治療病人教育的有效性,並納入臨床醫生和病人的反饋。研究中針對六個常見問題,評估了ChatGPT-4、Gemini、Copilot和Claude的回答。結果顯示,雖然所有模型的回答被認為相關且正確,但可讀性較差。病人對ChatGPT-4的評價較高,認為其回答易懂且有信心。整體而言,LLMs在病人教育上有潛力,但準確性和可讀性仍需改進,未來需進一步研究以提升其效益。 PubMed DOI

這項研究探討了可獲得的醫療資訊對患者的重要性,並評估了兩個AI工具,ChatGPT和Google Gemini,針對特定醫療狀況(如深靜脈血栓、壓瘡和痔瘡)的可理解性。結果顯示,ChatGPT的內容需要較高的教育水平才能理解,且其回應與現有線上資訊相似度較高。雖然兩者在易讀性和可靠性上有差異,但統計分析未能證明哪一個工具在資訊質量上優於另一個。 PubMed DOI

本研究探討了ChatGPT和Google Gemini兩個人工智慧工具在創建有關肥胖、高血壓和高三酸甘油脂血症的患者教育指南的有效性。結果顯示,ChatGPT生成的內容較長,但在可讀性和可靠性上與Google Gemini相似。雖然Google Gemini的易讀性得分稍高,但差異不顯著。總體而言,這兩個工具都能有效滿足患者的教育需求,適應不同的內容長度和複雜度。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在回答脊髓損傷相關問題的表現,包括ChatGPT-4o、Claude-3.5 sonnet、Gemini-1.5 Pro和Llama-3.1。結果顯示,Gemini的資訊品質最佳,但可讀性較低,需大學程度理解。ChatGPT在準確性上表現最佳,達83.8%的「良好」評級,超過其他模型。所有模型在全面性和自我修正能力上表現良好,特別是ChatGPT和Claude在修訂後有顯著改善。這是首次在脊髓損傷背景下系統性比較這些模型的研究。 PubMed DOI

這項研究探討大型語言模型(LLMs)在為癌症倖存者及其照顧者創建教育材料的有效性,特別針對弱勢群體。研究比較了三個模型(GPT-3.5 Turbo、GPT-4 和 GPT-4 Turbo)在生成30個癌症護理主題內容的表現,目標是達到六年級的閱讀水平,並提供西班牙語和中文翻譯。 主要發現包括:LLMs整體表現良好,74.2%符合字數限制,平均質量分數為8.933,但只有41.1%達到所需閱讀水平。翻譯準確率高,西班牙語96.7%、中文81.1%。常見問題有範圍模糊和缺乏可行建議。GPT-4表現優於GPT-3.5 Turbo,使用項目符號提示效果更佳。 結論指出,LLMs在創建可及的教育資源方面潛力大,但需改善閱讀水平和內容全面性,未來研究應結合專家意見和更好數據以提升有效性。 PubMed DOI

多數骨科衛教資料太難懂,超過國小六年級程度,讓病患難以理解。這項研究用ChatGPT、Gemini和CoPilot三種AI,簡化美國骨科醫學會網站上的脊椎文章。結果發現,AI能大幅提升文章易讀性,內容正確性也沒變。ChatGPT最能提升易讀性,Gemini則擅長補充免責聲明。這顯示AI有助於讓醫療資訊更親民,促進病患教育與健康平等。 PubMed DOI

這項研究發現,美國鼻科醫學會的衛教資料平均需要10年級閱讀程度,但用ChatGPT、Gemini和Copilot等AI重寫後,平均只要8.6年級,Gemini甚至只要7.5年級。AI能讓醫療資訊更容易理解,但內容還是要由醫師和病患一起確認。 PubMed DOI

這項研究發現,ChatGPT、Gemini 和 Claude 都能把線上病患衛教資料簡化到更容易閱讀的程度,字數也變少,且正確性和易懂性大致良好。不過,Gemini 和 Claude 偶爾會有錯誤,所以還是需要人工審查。未來建議針對更進階或專門醫療的模型再做研究。 PubMed DOI

這項研究比較三款大型語言模型產生的SCR手術衛教資料,發現 Gemini-1.5-Pro 在教育品質和病患滿意度上表現最佳。不過,所有模型都沒附參考文獻,也沒提及其他治療選擇或不手術的風險,顯示臨床使用前還是需要專家把關。 PubMed DOI