原始文章

這項研究比較了大型語言模型(LLMs)與醫生創建的幽門螺旋桿菌病人教育材料(PEMs)的質量。研究發現,雖然所有英文PEMs在準確性和可理解性上達到標準,但完整性不足。醫生創建的PEMs準確性最高,而LLM生成的中文PEMs在準確性和完整性上表現較差。病人對中文PEMs的評價普遍較好,但沒有任何PEMs達到六年級閱讀水平。總體來看,LLMs在病人教育上有潛力,但仍需改進以適應不同語言環境。 PubMed DOI


站上相關主題文章列表

這項研究探討了使用人工智慧寫手ChatGPT來製作關於印度常見公共衛生議題的病患教育資料。結果顯示,ChatGPT能夠製作閱讀性良好、語法錯誤少、內容清晰適合大學生的教育文件。然而,在使用前應驗證文本相似度。初級保健醫師可以考慮使用ChatGPT來協助製作病患教育資料。 PubMed DOI

研究比較了美國醫學機構提供的肥胖手術患者教育資料(PEMs)和大型語言模型(LLMs)如GPT-3.5、GPT-4和Bard所生成的回應的易讀性。研究發現,兩者的初始回應都很難閱讀,但在提示簡化後,LLMs的易讀性顯著提高,其中GPT-4產生了最易讀的回應。該研究建議LLMs可以提高PEMs的易讀性,尤其是GPT-4,並呼籲進一步研究如何使用LLMs為各種識字水平的患者提供個性化的PEMs。 PubMed DOI

研究發現,大型語言模型(LLMs)生成的兒童青光眼患者教育資料(PEMs)質量高、易讀且準確。其中,ChatGPT-4生成的PEMs最易讀。在改進現有線上資訊方面,只有ChatGPT-4達到六年級閱讀水平。總結來說,LLMs是提升PEMs品質和兒童青光眼資訊易讀性的寶貴工具。 PubMed DOI

研究發現大型語言模型(LLMs)如ChatGPT-3.5、GPT-4、DermGPT和DocsGPT在製作皮膚科患者教育資料(PEMs)方面表現良好,能提供易讀易懂的資訊,且大多數情況下準確無誤。其中,GPT-4在常見和罕見疾病的解釋上表現優秀,而ChatGPT-3.5和DocsGPT在罕見疾病的說明方面更為出色。總結來說,LLMs對於提升健康知識和提供易懂的PEMs具有潛力。 PubMed DOI

本研究評估了三個大型語言模型(LLMs)生成的泌尿科病人資訊小冊子(PILs)品質,包括ChatGPT-4、PaLM 2和Llama 2。針對包皮環切術、腎切除術、過動膀胱症候群及經尿道前列腺切除術(TURP)進行評估。結果顯示,PaLM 2的PILs品質最佳,平均得分3.58,且最易閱讀。雖然LLMs能減輕醫療人員負擔,但內容仍需臨床醫師審查,且閱讀水平偏高,顯示需改進算法或提示設計。病人對這些小冊子的滿意度尚未評估。 PubMed DOI

這項研究評估了三種大型語言模型(LLMs)在幽門螺旋桿菌感染諮詢中的有效性,重點分析其在英語和中文的表現。研究期間為2023年11月20日至12月1日,針對15個H. pylori相關問題進行評估。結果顯示,準確性得分為4.80,顯示良好,但完整性和可理解性得分較低,分別為1.82和2.90。英語回應在完整性和準確性上普遍優於中文。結論指出,雖然LLMs在提供資訊上表現不錯,但在完整性和可靠性方面仍需改進,以提升其作為醫療諮詢工具的效能。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

這項研究評估了人工智慧生成語言模型(GLMs),特別是ChatGPT-3.5和GPT-4,如何根據病人教育水平調整醫療資訊,這對解決低健康素養問題很重要。研究使用第二型糖尿病和高血壓的案例,分析生成內容的可讀性。結果顯示,GPT-3.5的可讀性僅符合學士學位水平,而GPT-4則能適應多數群體的需求。這兩個模型在可讀性上有顯著差異,顯示GLMs能調整醫療文本的複雜性,但仍需進一步研究以提升其個性化調整能力。 PubMed DOI

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard 在製作小兒白內障病人教育材料的效果。研究使用三個提示來測試模型的表現,並根據質量、可理解性、準確性和可讀性進行評估。結果顯示,所有模型的回應質量都很高,但沒有一個被認為是可行的。特別是,ChatGPT-4 生成的內容最易讀,並能有效將材料調整至六年級的閱讀水平。總體來看,ChatGPT-4 是生成高質量病人教育材料的有效工具。 PubMed DOI