原始文章

這項研究評估了三種大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Gemini Advanced—在創建和改善乾眼症患者教育材料的效果。研究人員使用了三個提示來生成新的材料和重寫現有內容。結果顯示,生成的材料質量高、易懂且準確,但內容實用性不足。重寫現有材料時,ChatGPT-4 和 Gemini Advanced 成功降低了可讀性,且誤導性資訊很少,但只有ChatGPT-4保持了高質量。整體而言,這項研究顯示大型語言模型,特別是ChatGPT-4,對提升乾眼症患者教育材料的質量和可及性具有潛力。 PubMed DOI


站上相關主題文章列表

研究發現,大型語言模型(LLMs)生成的兒童青光眼患者教育資料(PEMs)質量高、易讀且準確。其中,ChatGPT-4生成的PEMs最易讀。在改進現有線上資訊方面,只有ChatGPT-4達到六年級閱讀水平。總結來說,LLMs是提升PEMs品質和兒童青光眼資訊易讀性的寶貴工具。 PubMed DOI

研究發現大型語言模型(LLMs)如ChatGPT-3.5、GPT-4、DermGPT和DocsGPT在製作皮膚科患者教育資料(PEMs)方面表現良好,能提供易讀易懂的資訊,且大多數情況下準確無誤。其中,GPT-4在常見和罕見疾病的解釋上表現優秀,而ChatGPT-3.5和DocsGPT在罕見疾病的說明方面更為出色。總結來說,LLMs對於提升健康知識和提供易懂的PEMs具有潛力。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在生成中國患者對乾眼症問題的回應表現。研究分為兩個階段,第一階段由六位眼科醫生根據正確性、完整性、可讀性、有用性和安全性對回應進行評分。結果顯示,GPT-4在各方面表現最佳,但可讀性較低。第二階段中,46位患者向GPT-4和Baichuan 2提問,發現GPT-4的完整性較高,但Baichuan 2的回應更易理解。整體而言,這些模型在提供乾眼症相關資訊上展現了潛力,對中國患者意義重大。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard 在製作小兒白內障病人教育材料的效果。研究使用三個提示來測試模型的表現,並根據質量、可理解性、準確性和可讀性進行評估。結果顯示,所有模型的回應質量都很高,但沒有一個被認為是可行的。特別是,ChatGPT-4 生成的內容最易讀,並能有效將材料調整至六年級的閱讀水平。總體來看,ChatGPT-4 是生成高質量病人教育材料的有效工具。 PubMed DOI

這項研究評估了大型語言模型(LLMs)在回答結膜炎相關問題的有效性,於復旦大學眼耳鼻喉醫院進行。研究分為兩階段,第一階段四個LLM(GPT-4、Qwen、Baichuan 2和PaLM 2)回答22個問題,專家評估其正確性、完整性等。結果顯示GPT-4表現最佳,Qwen在有用性和安全性上也不錯。第二階段中,30名結膜炎患者與GPT-4或Qwen互動,滿意度高。研究結論認為LLMs能提升患者教育,但需改善個性化和複雜性處理能力。 PubMed DOI

這項研究探討不同提示工程技術對大型語言模型(如ChatGPT3.5和GPT4)在回答視網膜疾病相關問題時的影響。研究中使用了二十個常見問題,並在獨立問題、優化提示(提示A)及加上長度和閱讀水平限制的提示B下進行測試。三位視網膜專家評估回應的準確性和全面性,結果顯示兩個模型在各指標上無顯著差異,但提示B的可讀性較高,卻以準確性和全面性為代價。研究建議未來需進一步探討LLM在病人教育中的有效性及倫理問題。 PubMed DOI

這項研究評估了兩個大型語言模型(LLMs),ChatGPT 4.0 和 Gemini 1.0 Pro,在生成病人指導和教育材料的效果。研究發現,兩者提供的信息一致且可靠,但在藥物過期和處理指導上有所不足。ChatGPT 4.0 在可理解性和可行性上表現較佳,且其輸出可讀性較高。整體來看,這些模型能有效生成病人教育材料,但仍需醫療專業人員的監督與指導,以確保最佳實施。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是ChatGPT,如何提升眼科科學文章的可讀性。研究人員認識到健康素養對公共健康的重要性,目標是將複雜的醫學文本簡化到六年級的閱讀水平,讓一般民眾更容易理解。他們選了12篇開放存取的論文,並用測試評估可讀性。結果顯示,ChatGPT成功將可讀性從15年級降到7年級,且簡化後的內容仍被專業醫生認可。研究顯示,LLMs能幫助非專家更理解科學文獻,提升健康素養。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4.0、Google Gemini 和 Microsoft Copilot—在回答屈光手術相關問題的效果。兩位眼科醫生使用5點李克特量表評分25個常見問題的回答。結果顯示,ChatGPT-4.0的得分高於Microsoft Copilot,但與Google Gemini無顯著差異。根據DISCERN量表,ChatGPT-4.0的可靠性得分最高,但可讀性得分最低,顯示其答案對病人來說較為複雜。總體而言,ChatGPT-4.0提供了更準確的信息,但理解上較為困難。 PubMed DOI

這項研究評估了五個大型語言模型(LLMs)在回答眼表疾病相關問題的表現,包括ChatGPT-4、ChatGPT-3.5、Claude 2、PaLM2和SenseNova。研究團隊設計了100道單選題,涵蓋角膜炎等主題。結果顯示,ChatGPT-4的準確性和可信度最佳,成功率為59%,但仍有28%的錯誤率。PaLM2在答案準確性上表現良好,相關係數達0.8。整體而言,這些模型在醫學教育和臨床實踐中展現了潛力,特別是ChatGPT-4的表現尤為突出。 PubMed DOI