Evaluating ChatGPT's efficacy and readability to common pediatric ophthalmology and strabismus-related questions.
評估 ChatGPT 在常見小兒眼科和斜視相關問題上的效能與可讀性。
Eur J Ophthalmol 2024-08-07
Assessing the Readability, Reliability, and Quality of AI-Modified and Generated Patient Education Materials for Endoscopic Skull Base Surgery.
評估人工智慧修改和生成的內窺鏡顱底手術病患教育材料的可讀性、可靠性和品質。
Am J Rhinol Allergy 2024-08-22
Large language models: a new frontier in paediatric cataract patient education.
大型語言模型:小兒白內障病患教育的新前沿。
Br J Ophthalmol 2024-08-22
這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard 在製作小兒白內障病人教育材料的效果。研究使用三個提示來測試模型的表現,並根據質量、可理解性、準確性和可讀性進行評估。結果顯示,所有模型的回應質量都很高,但沒有一個被認為是可行的。特別是,ChatGPT-4 生成的內容最易讀,並能有效將材料調整至六年級的閱讀水平。總體來看,ChatGPT-4 是生成高質量病人教育材料的有效工具。
PubMedDOI
Artificial intelligence chatbots as sources of patient education material for cataract surgery: ChatGPT-4 versus Google Bard.
人工智慧聊天機器人作為白內障手術患者教育材料的來源:ChatGPT-4 與 Google Bard 的比較。
BMJ Open Ophthalmol 2024-10-17
Enhancing Spanish Patient Education Materials: Comparing the Readability of Artificial Intelligence-Generated Spanish Patient Education Materials to the Society of Pediatric Dermatology Spanish Patient Brochures.
提升西班牙語病患教育材料:比較人工智慧生成的西班牙語病患教育材料與小兒皮膚科學會西班牙語病患手冊的可讀性。
Pediatr Dermatol 2024-11-13
Acceptability and readability of ChatGPT-4 based responses for frequently asked questions about strabismus and amblyopia.
ChatGPT-4 回應斜視和弱視常見問題的可接受性和可讀性。
J Fr Ophtalmol 2024-12-21
ChatGPT-3.5 and -4.0 Do Not Reliably Create Readable Patient Education Materials for Common Orthopaedic Upper- and Lower-Extremity Conditions.
ChatGPT-3.5 和 -4.0 在創建常見骨科上下肢疾病的可讀患者教育材料方面不可靠。
Arthrosc Sports Med Rehabil 2025-03-05