原始文章

這項研究評估大型語言模型(LLMs)在心臟康復教育回應的可讀性。使用Gunning Fog、Flesch Kincaid和Flesch Reading Ease分數後發現,ChatGPT 3.5、Copilot和Gemini的回應可讀性不符合美國建議的年級水平。其中,Gemini和Copilot的回應比ChatGPT 3.5更易讀。雖然LLMs在心血管康復教育上有潛力,但仍需改善可讀性,以更有效地教育患者。 PubMed


站上相關主題文章列表

研究比較了美國醫學機構提供的肥胖手術患者教育資料(PEMs)和大型語言模型(LLMs)如GPT-3.5、GPT-4和Bard所生成的回應的易讀性。研究發現,兩者的初始回應都很難閱讀,但在提示簡化後,LLMs的易讀性顯著提高,其中GPT-4產生了最易讀的回應。該研究建議LLMs可以提高PEMs的易讀性,尤其是GPT-4,並呼籲進一步研究如何使用LLMs為各種識字水平的患者提供個性化的PEMs。 PubMed DOI

研究發現大型語言模型(LLMs)如ChatGPT-3.5、GPT-4、DermGPT和DocsGPT在製作皮膚科患者教育資料(PEMs)方面表現良好,能提供易讀易懂的資訊,且大多數情況下準確無誤。其中,GPT-4在常見和罕見疾病的解釋上表現優秀,而ChatGPT-3.5和DocsGPT在罕見疾病的說明方面更為出色。總結來說,LLMs對於提升健康知識和提供易懂的PEMs具有潛力。 PubMed DOI

研究發現使用大型語言模型(LLMs)可以提升美國FDA發布的藥物安全通訊易讀性,讓患者更容易理解。透過ChatGPT 4.0©和Gemini©等LLMs,將閱讀難度下降至六年級水準,保持準確性和重要訊息。顯示LLMs有助於簡化健康資訊,但仍需進一步研究應用在不同語言和真實情境中的患者。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard 在製作小兒白內障病人教育材料的效果。研究使用三個提示來測試模型的表現,並根據質量、可理解性、準確性和可讀性進行評估。結果顯示,所有模型的回應質量都很高,但沒有一個被認為是可行的。特別是,ChatGPT-4 生成的內容最易讀,並能有效將材料調整至六年級的閱讀水平。總體來看,ChatGPT-4 是生成高質量病人教育材料的有效工具。 PubMed DOI

這項研究評估了兩個大型語言模型(LLMs),ChatGPT 4.0 和 Gemini 1.0 Pro,在生成病人指導和教育材料的效果。研究發現,兩者提供的信息一致且可靠,但在藥物過期和處理指導上有所不足。ChatGPT 4.0 在可理解性和可行性上表現較佳,且其輸出可讀性較高。整體來看,這些模型能有效生成病人教育材料,但仍需醫療專業人員的監督與指導,以確保最佳實施。 PubMed DOI

這項研究評估了三種大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Gemini Advanced—在創建和改善乾眼症患者教育材料的效果。研究人員使用了三個提示來生成新的材料和重寫現有內容。結果顯示,生成的材料質量高、易懂且準確,但內容實用性不足。重寫現有材料時,ChatGPT-4 和 Gemini Advanced 成功降低了可讀性,且誤導性資訊很少,但只有ChatGPT-4保持了高質量。整體而言,這項研究顯示大型語言模型,特別是ChatGPT-4,對提升乾眼症患者教育材料的質量和可及性具有潛力。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是ChatGPT,如何提升眼科科學文章的可讀性。研究人員認識到健康素養對公共健康的重要性,目標是將複雜的醫學文本簡化到六年級的閱讀水平,讓一般民眾更容易理解。他們選了12篇開放存取的論文,並用測試評估可讀性。結果顯示,ChatGPT成功將可讀性從15年級降到7年級,且簡化後的內容仍被專業醫生認可。研究顯示,LLMs能幫助非專家更理解科學文獻,提升健康素養。 PubMed DOI

這項研究評估大型語言模型(LLMs)在提供前列腺癌放射治療病人教育的有效性,並納入臨床醫生和病人的反饋。研究中針對六個常見問題,評估了ChatGPT-4、Gemini、Copilot和Claude的回答。結果顯示,雖然所有模型的回答被認為相關且正確,但可讀性較差。病人對ChatGPT-4的評價較高,認為其回答易懂且有信心。整體而言,LLMs在病人教育上有潛力,但準確性和可讀性仍需改進,未來需進一步研究以提升其效益。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在回答脊髓損傷相關問題的表現,包括ChatGPT-4o、Claude-3.5 sonnet、Gemini-1.5 Pro和Llama-3.1。結果顯示,Gemini的資訊品質最佳,但可讀性較低,需大學程度理解。ChatGPT在準確性上表現最佳,達83.8%的「良好」評級,超過其他模型。所有模型在全面性和自我修正能力上表現良好,特別是ChatGPT和Claude在修訂後有顯著改善。這是首次在脊髓損傷背景下系統性比較這些模型的研究。 PubMed DOI