原始文章

這項研究發現,ChatGPT回答眼瞼手術常見問題時,內容大致正確且有幫助,但用詞偏高中程度,部分病患可能覺得難懂。不同問題類型的可讀性差不多。總結來說,ChatGPT能提供實用資訊,但答案不一定完全正確,也未必人人都看得懂。 PubMed DOI


站上相關主題文章列表

腹部整形手術是處理美容和功能問題的常見手術,但患者和外科醫師溝通不足會影響決策。研究發現使用大型語言模型(LLMs)如ChatGPT-3.5、Claude、Gemini和CoPilot回答手術前問題。LLMs間易讀性和質量有差異,ChatGPT-3.5需要高理解水平,Claude提供最適切建議,CoPilot最貼近患者,提供全面資訊。LLMs各有特點和限制,在醫療保健中使用時需謹慎選擇。 PubMed DOI

這項研究比較了Google和ChatGPT在回答眼部整形手術常見問題的準確性和可讀性,並評估ChatGPT製作客製化病患教育材料的能力。結果顯示,ChatGPT的回答可讀性較高,平均年級水平為15.6,顯著高於Google的10.0。準確性方面,ChatGPT達93%,也優於Google的78%。此外,ChatGPT能有效調整內容至較低的閱讀水平,仍保持準確性。總體來看,ChatGPT在提供準確資訊和病患教育方面展現出良好潛力,有助於提升病患對眼科護理的理解。 PubMed DOI

這項研究評估了ChatGPT在斜視醫療方面的準確性與可讀性,使用了免費版(3.5)和付費版(4.0)。共提出34個問題,並在加州和佛羅里達州的三個時間點進行評估。結果顯示,64%的回應被認為是「可接受的」,但根據版本和地點有所不同。佛羅里達州的回應更可能被評為「不準確且可能有害」。整體來看,雖然大部分回應可接受,但準確性和可讀性仍需提升,以增強對斜視家長和病患的實用性。 PubMed DOI

這項研究比較了GPT-4和眼科醫生對眼科手術問題的回應可讀性。研究隨機選取200個問題,發現GPT-4使用的複雜詞彙比例較高(24.42%),而醫生則為17.76%。兩者的平均句子字數相似,但GPT-4的回應被評為更高的年級水平,顯示其內容較複雜。兩者都需至少12年級的教育才能理解,超過了國立衛生研究院建議的六到七年級水平。這強調了健康資訊可及性的重要性,尤其是AI工具在患者教育中的應用。 PubMed DOI

這項研究評估了大型語言模型ChatGPT-4o對圓錐角膜相關問題的回答準確性與可讀性。研究中,兩位眼科醫生對ChatGPT-4o的30個回答進行評分,結果顯示平均準確性為4.48分,評分一致性良好。然而,回答的可讀性較高,SMOG分數為15.49,FKGL為14.95,FRE為27.41,顯示一般民眾理解上有困難。雖然ChatGPT-4o的回答準確,但語言複雜性可能影響理解,建議未來改進以提升可及性。 PubMed DOI

這項研究發現,AI工具(如ChatGPT、Copilot、Gemini)能把顏面整形衛教資料改寫得更容易閱讀,雖然還沒達到理想的國中一年級水準。有醫師把關下,用AI簡化衛教內容,有助於讓病患更容易取得和理解健康資訊。 PubMed DOI

這項研究發現,ChatGPT在回答四種常見整形外科手術的病人問題時,表現穩定且清楚,對衛教有幫助。不過,它無法給予個人化建議,建議還是要搭配專業醫師使用。未來可加強個人化功能,並在臨床實際測試。 PubMed DOI

眼科醫師能針對眼瞼炎提供最專業的診斷與建議,特別是複雜個案。AI像GPT-4o等雖能回答基本問題,但遇到細節或特殊情況就有限。AI適合用來輔助衛教,但不能取代醫師的臨床判斷。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答人工水晶體相關問題時,對簡單題目的準確率很高,但遇到難題時表現就明顯下滑。經過六個月,回答內容變得更長、更精確,評分也有提升。簡單問題的再現性很好,但複雜問題的一致性還有待加強。整體來說,ChatGPT-4.0在醫療資訊領域有潛力,但要更可靠還需要再優化。 PubMed DOI

這項研究發現,ChatGPT在化學性眼傷衛教上表現不錯,答案大多正確且符合醫療指引,但有時會漏掉細節,語言也偏艱深。若能用更簡單的說法並補充具體資訊,會更適合一般民眾。整體來說,ChatGPT有潛力,但還需優化。 PubMed DOI