原始文章

這項研究發現,ChatGPT回答眼瞼手術常見問題時,內容大致正確且有幫助,但用詞偏高中程度,部分病患可能覺得難懂。不同問題類型的可讀性差不多。總結來說,ChatGPT能提供實用資訊,但答案不一定完全正確,也未必人人都看得懂。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT對眼科病人問題的回答準確性和重現性。研究人員從美國眼科學會的「詢問眼科醫生」頁面收集了150個問題,經過兩位眼科醫生的精煉,最終有117個問題輸入ChatGPT。結果顯示,ChatGPT對59.8%的問題提供了全面回答,且在91.5%的問題上保持一致性。雖然其準確性和重現性中等,但應視為健康資訊的輔助來源,而非專業醫療建議的替代品,未來仍需進一步研究以評估其可靠性。 PubMed DOI

這項研究比較了OpenAI的ChatGPT和Google的Bard在提供美容手術病人指導的表現,特別針對拉皮、鼻整形和眉毛提升手術。結果顯示,ChatGPT的平均得分為8.1/10,優於Bard的7.4/10,且在準確性、全面性等方面表現更佳。不過,Bard的回應速度較快。儘管如此,兩者的表現仍有待改進,需進一步開發和驗證才能推薦用於美容外科實踐。 PubMed DOI

這項研究比較了Google和ChatGPT在回答眼部整形手術常見問題的準確性和可讀性,並評估ChatGPT製作客製化病患教育材料的能力。結果顯示,ChatGPT的回答可讀性較高,平均年級水平為15.6,顯著高於Google的10.0。準確性方面,ChatGPT達93%,也優於Google的78%。此外,ChatGPT能有效調整內容至較低的閱讀水平,仍保持準確性。總體來看,ChatGPT在提供準確資訊和病患教育方面展現出良好潛力,有助於提升病患對眼科護理的理解。 PubMed DOI

這項研究評估了兩個AI聊天機器人,ChatGPT-3.5和Google Bard,提供的青光眼手術資訊的質量與可讀性。研究發現,ChatGPT-3.5的適當回答率高達96%,而Google Bard則為68%。不過,在可讀性方面,Google Bard的回答更易於理解,Flesch可讀性評分顯示其得分為57.6,遠高於ChatGPT-3.5的22.6。這顯示出準確性與可讀性之間的權衡,強調了清晰且準確的醫療資訊對患者的重要性,並呼籲進一步研究AI工具在醫療領域的有效性。 PubMed DOI

這項研究評估了ChatGPT在回答上眼瞼整形手術常見問題的表現,並與人類眼面整形外科醫生的回答進行比較。結果顯示,ChatGPT在準確性(3.8)和全面性(3.6)上表現較好,而OPS在準確性(3.6)和個人回答相似性(2.9)上稍遜。雖然兩者在準確性和相似性上無顯著差異,但ChatGPT在全面性上明顯優於OPS。這顯示ChatGPT可作為患者教育的輔助工具,但仍需專業醫師的指導以保障患者安全。 PubMed DOI

這項研究評估了ChatGPT-4在整形外科和重建外科的資訊質量與可讀性。研究人員針對過去15年最常搜尋的十個主題,設計了九個問題並輸入ChatGPT-4。結果顯示,使用DISCERN工具評估後,回應的資訊質量得分偏低,平均為34;可讀性指數也不佳,Flesch-Kincaid平均為33.6,Coleman-Liau為15.6。儘管如此,十二位整形外科醫師對回應的清晰度和準確性給予正面評價,平均得分分別為7.38和7.4。研究建議,AI語言模型如ChatGPT可作為健康資訊的起點,未來有潛力改善內容質量。 PubMed DOI

這項研究評估了ChatGPT在斜視醫療方面的準確性與可讀性,使用了免費版(3.5)和付費版(4.0)。共提出34個問題,並在加州和佛羅里達州的三個時間點進行評估。結果顯示,64%的回應被認為是「可接受的」,但根據版本和地點有所不同。佛羅里達州的回應更可能被評為「不準確且可能有害」。整體來看,雖然大部分回應可接受,但準確性和可讀性仍需提升,以增強對斜視家長和病患的實用性。 PubMed DOI

這項研究發現,AI工具(如ChatGPT、Copilot、Gemini)能把顏面整形衛教資料改寫得更容易閱讀,雖然還沒達到理想的國中一年級水準。有醫師把關下,用AI簡化衛教內容,有助於讓病患更容易取得和理解健康資訊。 PubMed DOI

這項研究發現,ChatGPT在回答四種常見整形外科手術的病人問題時,表現穩定且清楚,對衛教有幫助。不過,它無法給予個人化建議,建議還是要搭配專業醫師使用。未來可加強個人化功能,並在臨床實際測試。 PubMed DOI

眼科醫師能針對眼瞼炎提供最專業的診斷與建議,特別是複雜個案。AI像GPT-4o等雖能回答基本問題,但遇到細節或特殊情況就有限。AI適合用來輔助衛教,但不能取代醫師的臨床判斷。 PubMed DOI