原始文章

這項研究發現,ChatGPT、Gemini 和 Claude 都能把線上病患衛教資料簡化到更容易閱讀的程度,字數也變少,且正確性和易懂性大致良好。不過,Gemini 和 Claude 偶爾會有錯誤,所以還是需要人工審查。未來建議針對更進階或專門醫療的模型再做研究。 PubMed DOI


站上相關主題文章列表

這項研究評估了結腸直腸手術病人教育材料的可讀性,並與大型語言模型(LLMs)如ChatGPT和Perplexity生成的材料進行比較。研究發現,現有材料字數較長且可讀性不佳,未達六年級標準。相對而言,ChatGPT生成的材料在可讀性上表現優於基線材料,特別是使用基於指標的提示時,顯示出更易理解的內容。整體來看,LLMs在病人教育中的應用,提示的選擇至關重要。 PubMed DOI

這項研究評估大型語言模型(LLMs)在簡化骨科病人教育材料的效果。研究使用GPT-4、GPT-3.5、Claude 2和Llama 2等模型,轉換48份教育材料,並透過Flesch-Kincaid分數測量可讀性。結果顯示,所有模型的可讀性都有明顯改善,特別是GPT-4,將可讀性提升至七年級水平。研究指出,轉換成功與原始文本的字詞長度和句子複雜度有關。這顯示LLMs能有效提升骨科病人教育材料的可讀性,對改善健康素養和病人理解有重要意義。 PubMed DOI

這項研究評估了GPT-4在簡化醫學文獻的表現,目的是幫助病人更好理解青光眼護理。研究將62篇青光眼期刊摘要和9篇病人教育材料轉換為五年級的閱讀水平。結果顯示,摘要的可讀性顯著改善,FKGL平均下降3.21分,FKRE上升28.6分;病人教育材料的FKGL下降2.38分,FKRE上升12.14分。整體來看,GPT-4有效提升了青光眼相關資訊的可讀性,讓病人更容易理解。 PubMed DOI

這項研究評估大型語言模型(LLMs)在心臟康復教育回應的可讀性。使用Gunning Fog、Flesch Kincaid和Flesch Reading Ease分數後發現,ChatGPT 3.5、Copilot和Gemini的回應可讀性不符合美國建議的年級水平。其中,Gemini和Copilot的回應比ChatGPT 3.5更易讀。雖然LLMs在心血管康復教育上有潛力,但仍需改善可讀性,以更有效地教育患者。 PubMed

這項研究探討大型語言模型(LLMs)在幫助病人理解臨床筆記及做出明智決策的效果。研究評估了三種LLM(ChatGPT 4o、Claude 3 Opus、Gemini 1.5),使用四種提示方式,並由神經腫瘤科醫生和病人根據準確性、相關性、清晰度和同理心等標準進行評分。結果顯示,標準提示和角色提示的表現最佳,特別是ChatGPT 4o最為突出。不過,所有LLM在提供基於證據的回應上仍有挑戰。研究建議,LLM有潛力幫助病人解讀臨床筆記,特別是使用角色提示時。 PubMed DOI

這項研究比較 ChatGPT-3.5、ChatGPT-4o 和 Google Gemini 在製作兒童近視衛教資料的表現。結果發現,三款 AI 都能產出正確、易懂的內容,但只有 ChatGPT-3.5 和 4o 能穩定達到國小六年級的閱讀程度。ChatGPT-4o 在內容品質和易讀性上表現最好,但三者都缺乏高度可執行的建議。整體來說,ChatGPT-4o 最有潛力用來優化兒童近視衛教資料。 PubMed DOI

多數骨科衛教資料太難懂,超過國小六年級程度,讓病患難以理解。這項研究用ChatGPT、Gemini和CoPilot三種AI,簡化美國骨科醫學會網站上的脊椎文章。結果發現,AI能大幅提升文章易讀性,內容正確性也沒變。ChatGPT最能提升易讀性,Gemini則擅長補充免責聲明。這顯示AI有助於讓醫療資訊更親民,促進病患教育與健康平等。 PubMed DOI

這項研究發現,美國鼻科醫學會的衛教資料平均需要10年級閱讀程度,但用ChatGPT、Gemini和Copilot等AI重寫後,平均只要8.6年級,Gemini甚至只要7.5年級。AI能讓醫療資訊更容易理解,但內容還是要由醫師和病患一起確認。 PubMed DOI

這項研究發現,Microsoft Copilot、Gemini 和 Meta AI 能把燒燙傷衛教資料簡化到國中六到八年級的閱讀程度,有助於讓醫療資訊更容易被一般民眾理解。不過,內容還是需要醫師或臨床人員審查,確保正確性和適合度。 PubMed DOI

這項研究比較三款大型語言模型產生的SCR手術衛教資料,發現 Gemini-1.5-Pro 在教育品質和病患滿意度上表現最佳。不過,所有模型都沒附參考文獻,也沒提及其他治療選擇或不手術的風險,顯示臨床使用前還是需要專家把關。 PubMed DOI