原始文章

這項研究評估了兩個大型語言模型(LLMs),ChatGPT 4.0 和 Gemini 1.0 Pro,在生成病人指導和教育材料的效果。研究發現,兩者提供的信息一致且可靠,但在藥物過期和處理指導上有所不足。ChatGPT 4.0 在可理解性和可行性上表現較佳,且其輸出可讀性較高。整體來看,這些模型能有效生成病人教育材料,但仍需醫療專業人員的監督與指導,以確保最佳實施。 PubMed DOI


站上相關主題文章列表

研究發現大型語言模型(LLMs)如ChatGPT-3.5、GPT-4、DermGPT和DocsGPT在製作皮膚科患者教育資料(PEMs)方面表現良好,能提供易讀易懂的資訊,且大多數情況下準確無誤。其中,GPT-4在常見和罕見疾病的解釋上表現優秀,而ChatGPT-3.5和DocsGPT在罕見疾病的說明方面更為出色。總結來說,LLMs對於提升健康知識和提供易懂的PEMs具有潛力。 PubMed DOI

研究發現使用大型語言模型(LLMs)可以提升美國FDA發布的藥物安全通訊易讀性,讓患者更容易理解。透過ChatGPT 4.0©和Gemini©等LLMs,將閱讀難度下降至六年級水準,保持準確性和重要訊息。顯示LLMs有助於簡化健康資訊,但仍需進一步研究應用在不同語言和真實情境中的患者。 PubMed DOI

近年來,大型語言模型(LLMs)已被應用於醫療領域,特別是在前列腺癌的病患溝通上。我們的研究評估了三種LLM的效果,包括ChatGPT(3.5)、Gemini(Pro)和Co-Pilot(免費版),並與官方的羅馬尼亞前列腺癌病患指南進行比較。透過隨機和盲測,八位醫療專業人員根據準確性、及時性、全面性和使用友好性進行評估。結果顯示,LLM,尤其是ChatGPT,通常提供比指南更準確且友好的資訊,顯示出其在改善醫療溝通上的潛力。不過,不同模型的表現差異也顯示出需要量身定制的實施策略。 PubMed DOI

這項研究評估了人工智慧生成語言模型(GLMs),特別是ChatGPT-3.5和GPT-4,如何根據病人教育水平調整醫療資訊,這對解決低健康素養問題很重要。研究使用第二型糖尿病和高血壓的案例,分析生成內容的可讀性。結果顯示,GPT-3.5的可讀性僅符合學士學位水平,而GPT-4則能適應多數群體的需求。這兩個模型在可讀性上有顯著差異,顯示GLMs能調整醫療文本的複雜性,但仍需進一步研究以提升其個性化調整能力。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard 在製作小兒白內障病人教育材料的效果。研究使用三個提示來測試模型的表現,並根據質量、可理解性、準確性和可讀性進行評估。結果顯示,所有模型的回應質量都很高,但沒有一個被認為是可行的。特別是,ChatGPT-4 生成的內容最易讀,並能有效將材料調整至六年級的閱讀水平。總體來看,ChatGPT-4 是生成高質量病人教育材料的有效工具。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard,針對特發性顱內高壓(IIH)的病人教育材料(PEMs)生成能力。使用三種提示進行評估,結果顯示所有模型都能產生高質量且準確的PEMs,但只有ChatGPT-4能生成符合六年級閱讀水平的內容,並成功重寫現有材料而不影響質量。結論是,特別是ChatGPT-4在創建高可讀性和準確性的病人教育材料方面表現優異。 PubMed DOI

這項研究評估了三種大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Gemini Advanced—在創建和改善乾眼症患者教育材料的效果。研究人員使用了三個提示來生成新的材料和重寫現有內容。結果顯示,生成的材料質量高、易懂且準確,但內容實用性不足。重寫現有材料時,ChatGPT-4 和 Gemini Advanced 成功降低了可讀性,且誤導性資訊很少,但只有ChatGPT-4保持了高質量。整體而言,這項研究顯示大型語言模型,特別是ChatGPT-4,對提升乾眼症患者教育材料的質量和可及性具有潛力。 PubMed DOI

這項研究比較了ChatGPT和Google Gemini生成的病患教育指南,主題包括MRI檢查、乳房攝影篩檢及MR環境中的物品安全性。研究發現,ChatGPT的平均字數和句子數都高於Google Gemini,但可讀性分數顯示ChatGPT的內容更易讀。相似性分數方面,ChatGPT的分數較低,顯示其內容與現有文本的相似度較低。整體來看,雖然兩者在可靠性上相似,但在可讀性和相似性上有所不同。 PubMed DOI

這項研究探討了可獲得的醫療資訊對患者的重要性,並評估了兩個AI工具,ChatGPT和Google Gemini,針對特定醫療狀況(如深靜脈血栓、壓瘡和痔瘡)的可理解性。結果顯示,ChatGPT的內容需要較高的教育水平才能理解,且其回應與現有線上資訊相似度較高。雖然兩者在易讀性和可靠性上有差異,但統計分析未能證明哪一個工具在資訊質量上優於另一個。 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是GPT-4,在製作癌症臨床試驗教育內容的潛力,旨在提升患者的理解。研究從ClinicalTrials.gov獲取知情同意書,生成簡短摘要和多選題,並透過患者調查和眾包註釋來評估其有效性。結果顯示,摘要內容可讀且具資訊性,患者認為有助於理解臨床試驗並提高參與意願。雖然多選題的準確性高,但當要求提供未明確列出的資訊時,GPT-4的準確性較低。整體而言,研究顯示GPT-4能有效生成患者友好的教育材料,但仍需人類監督以確保準確性。 PubMed DOI