原始文章

這項研究評估了ChatGPT-4和Bing Chat對34個青光眼常見問題的回應,重點在適當性、準確性和可讀性。結果顯示,ChatGPT-4的適當回應比例為88.2%,高於Bing Chat的79.2%。兩者在準確性上差異不大,ChatGPT-4略高(3.86),Bing Chat為3.70。可讀性方面,兩者的回應對一般美國成年人來說都較難理解,ChatGPT-4的字數平均為316.5,明顯高於Bing Chat的61.6字。總體而言,雖然兩者都提供適當回應,但ChatGPT-4的回應較複雜且可讀性較低。 PubMed DOI


站上相關主題文章列表

這項研究比較了Google和ChatGPT在回答眼部整形手術常見問題的準確性和可讀性,並評估ChatGPT製作客製化病患教育材料的能力。結果顯示,ChatGPT的回答可讀性較高,平均年級水平為15.6,顯著高於Google的10.0。準確性方面,ChatGPT達93%,也優於Google的78%。此外,ChatGPT能有效調整內容至較低的閱讀水平,仍保持準確性。總體來看,ChatGPT在提供準確資訊和病患教育方面展現出良好潛力,有助於提升病患對眼科護理的理解。 PubMed DOI

這項研究評估了四款大型語言模型(LLM)聊天機器人對屈光手術常見問題的回答適當性與可讀性。經驗豐富的屈光外科醫生評估了答案的正確性,並用五種指標測量可讀性。結果顯示,ChatGPT 3.5 正確率為 45%,ChatGPT 4.0 為 52.5%,Gemini 表現最佳,達 87.5%,Copilot 則為 60%。所有機器人的可讀性都很困難,理解需具大學學位。儘管如此,Gemini 提供的答案最為適當,且可讀性較佳。總體而言,這些聊天機器人仍可能產生不當回應,且閱讀上有挑戰。 PubMed DOI

這項研究評估了ChatGPT-4在解讀視野測試的有效性,對於診斷青光眼等眼科疾病非常重要。分析了30份視野測試報告,結果顯示ChatGPT-4在識別測試名稱、模式和全球視野指數方面表現優異,準確率分別為100%、90%和96.7%。不過,在解讀偏差圖和灰階圖的準確率較低,分別為66.7%和30%。此外,正確分類測試為「正常」或提出診斷建議的成功率僅有33.3%。這顯示出ChatGPT-4在數據解讀上有潛力,但在複雜的視覺解釋和診斷建議上仍有待加強。 PubMed DOI

這項研究評估了ChatGPT在斜視醫療方面的準確性與可讀性,使用了免費版(3.5)和付費版(4.0)。共提出34個問題,並在加州和佛羅里達州的三個時間點進行評估。結果顯示,64%的回應被認為是「可接受的」,但根據版本和地點有所不同。佛羅里達州的回應更可能被評為「不準確且可能有害」。整體來看,雖然大部分回應可接受,但準確性和可讀性仍需提升,以增強對斜視家長和病患的實用性。 PubMed DOI

這項研究比較了GPT-4和眼科醫生對眼科手術問題的回應可讀性。研究隨機選取200個問題,發現GPT-4使用的複雜詞彙比例較高(24.42%),而醫生則為17.76%。兩者的平均句子字數相似,但GPT-4的回應被評為更高的年級水平,顯示其內容較複雜。兩者都需至少12年級的教育才能理解,超過了國立衛生研究院建議的六到七年級水平。這強調了健康資訊可及性的重要性,尤其是AI工具在患者教育中的應用。 PubMed DOI

這項研究評估了大型語言模型ChatGPT-4o對圓錐角膜相關問題的回答準確性與可讀性。研究中,兩位眼科醫生對ChatGPT-4o的30個回答進行評分,結果顯示平均準確性為4.48分,評分一致性良好。然而,回答的可讀性較高,SMOG分數為15.49,FKGL為14.95,FRE為27.41,顯示一般民眾理解上有困難。雖然ChatGPT-4o的回答準確,但語言複雜性可能影響理解,建議未來改進以提升可及性。 PubMed DOI

這項研究探討了四個大型語言模型(LLMs)——Qwen、Baichuan 2、ChatGPT-4.0 和 PaLM 2——在教育青光眼患者的效果。資深眼科醫生評估這些模型對青光眼問題的回答,並用中文可讀性平台檢視其可讀性與難度。29位青光眼患者與這些聊天機器人互動,並與醫生一起評分,標準包括正確性、完整性、可讀性、有用性和安全性。結果顯示,Baichuan 2 和 ChatGPT-4.0 表現最佳,且兩者在患者和醫生評估中無顯著差異,結論認為這兩者是有效的青光眼教育工具。 PubMed DOI

ChatGPT-4 回答 AMD 病患常見問題時,內容大致正確、連貫且安全,專家多給予正面評價。但還是有資訊過時或不夠完整的情況,所以目前不建議用來做 AMD 病患的日常或個人化衛教諮詢。 PubMed DOI

這項研究發現,ChatGPT-4在回答角膜潰瘍相關問題時,對於危險因子、症狀和治療等主題表現不錯,但在分類、檢查和臨床徵象方面較弱。大多數答案被評為良好或可接受,但專家評分有些差異。整體來說,ChatGPT-4在眼科教育有潛力,但還需要加強準確度和一致性。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答人工水晶體相關問題時,對簡單題目的準確率很高,但遇到難題時表現就明顯下滑。經過六個月,回答內容變得更長、更精確,評分也有提升。簡單問題的再現性很好,但複雜問題的一致性還有待加強。整體來說,ChatGPT-4.0在醫療資訊領域有潛力,但要更可靠還需要再優化。 PubMed DOI