原始文章

這項研究評估了兩個大型語言模型(LLMs),ChatGPT 4.0 和 Gemini 1.0 Pro,在生成病人指導和教育材料的效果。研究發現,兩者提供的信息一致且可靠,但在藥物過期和處理指導上有所不足。ChatGPT 4.0 在可理解性和可行性上表現較佳,且其輸出可讀性較高。整體來看,這些模型能有效生成病人教育材料,但仍需醫療專業人員的監督與指導,以確保最佳實施。 PubMed DOI


站上相關主題文章列表

研究發現大型語言模型(LLMs)如ChatGPT-3.5、GPT-4、DermGPT和DocsGPT在製作皮膚科患者教育資料(PEMs)方面表現良好,能提供易讀易懂的資訊,且大多數情況下準確無誤。其中,GPT-4在常見和罕見疾病的解釋上表現優秀,而ChatGPT-3.5和DocsGPT在罕見疾病的說明方面更為出色。總結來說,LLMs對於提升健康知識和提供易懂的PEMs具有潛力。 PubMed DOI

研究發現使用大型語言模型(LLMs)可以提升美國FDA發布的藥物安全通訊易讀性,讓患者更容易理解。透過ChatGPT 4.0©和Gemini©等LLMs,將閱讀難度下降至六年級水準,保持準確性和重要訊息。顯示LLMs有助於簡化健康資訊,但仍需進一步研究應用在不同語言和真實情境中的患者。 PubMed DOI

本研究評估了三個大型語言模型(LLMs)生成的泌尿科病人資訊小冊子(PILs)品質,包括ChatGPT-4、PaLM 2和Llama 2。針對包皮環切術、腎切除術、過動膀胱症候群及經尿道前列腺切除術(TURP)進行評估。結果顯示,PaLM 2的PILs品質最佳,平均得分3.58,且最易閱讀。雖然LLMs能減輕醫療人員負擔,但內容仍需臨床醫師審查,且閱讀水平偏高,顯示需改進算法或提示設計。病人對這些小冊子的滿意度尚未評估。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

近年來,大型語言模型(LLMs)已被應用於醫療領域,特別是在前列腺癌的病患溝通上。我們的研究評估了三種LLM的效果,包括ChatGPT(3.5)、Gemini(Pro)和Co-Pilot(免費版),並與官方的羅馬尼亞前列腺癌病患指南進行比較。透過隨機和盲測,八位醫療專業人員根據準確性、及時性、全面性和使用友好性進行評估。結果顯示,LLM,尤其是ChatGPT,通常提供比指南更準確且友好的資訊,顯示出其在改善醫療溝通上的潛力。不過,不同模型的表現差異也顯示出需要量身定制的實施策略。 PubMed DOI

這項研究評估了人工智慧生成語言模型(GLMs),特別是ChatGPT-3.5和GPT-4,如何根據病人教育水平調整醫療資訊,這對解決低健康素養問題很重要。研究使用第二型糖尿病和高血壓的案例,分析生成內容的可讀性。結果顯示,GPT-3.5的可讀性僅符合學士學位水平,而GPT-4則能適應多數群體的需求。這兩個模型在可讀性上有顯著差異,顯示GLMs能調整醫療文本的複雜性,但仍需進一步研究以提升其個性化調整能力。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard 在製作小兒白內障病人教育材料的效果。研究使用三個提示來測試模型的表現,並根據質量、可理解性、準確性和可讀性進行評估。結果顯示,所有模型的回應質量都很高,但沒有一個被認為是可行的。特別是,ChatGPT-4 生成的內容最易讀,並能有效將材料調整至六年級的閱讀水平。總體來看,ChatGPT-4 是生成高質量病人教育材料的有效工具。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT和Gemini,對黑色素瘤病人問題的回答效果,並與荷蘭的病人資訊資源(PIRs)比較。結果顯示,ChatGPT-3.5在準確性上表現最佳,而Gemini在完整性、個人化和可讀性方面優秀。荷蘭的PIRs在準確性和完整性上表現穩定,某網站在個人化和可讀性上特別強。整體來看,LLMs在大多數領域超越PIRs,但準確性仍需加強,且LLM的可重複性隨時間下降。研究強調,LLMs需提升準確性和可重複性,才能有效取代或補充傳統PIRs。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard,針對特發性顱內高壓(IIH)的病人教育材料(PEMs)生成能力。使用三種提示進行評估,結果顯示所有模型都能產生高質量且準確的PEMs,但只有ChatGPT-4能生成符合六年級閱讀水平的內容,並成功重寫現有材料而不影響質量。結論是,特別是ChatGPT-4在創建高可讀性和準確性的病人教育材料方面表現優異。 PubMed DOI

這篇回顧探討大型語言模型(LLMs)在病人教育和參與中的應用,分析了201項主要來自美國的研究,並提出六個關鍵主題,包括生成病人教育材料、解釋醫療資訊、提供生活方式建議等。研究顯示,LLMs能有效生成易懂的內容,改善病人與醫療提供者的溝通,但也存在可讀性、準確性及偏見等問題。未來需進一步研究以提升LLM的可靠性,並解決其在醫療應用中的倫理挑戰。 PubMed DOI