原始文章

這項研究評估了ChatGPT在斜視醫療方面的準確性與可讀性,使用了免費版(3.5)和付費版(4.0)。共提出34個問題,並在加州和佛羅里達州的三個時間點進行評估。結果顯示,64%的回應被認為是「可接受的」,但根據版本和地點有所不同。佛羅里達州的回應更可能被評為「不準確且可能有害」。整體來看,雖然大部分回應可接受,但準確性和可讀性仍需提升,以增強對斜視家長和病患的實用性。 PubMed DOI


站上相關主題文章列表

研究評估了ChatGPT-4對「弱視」和「兒童近視」問題的回答,兩位兒科眼醫發現96.4%的回答一致。ChatGPT對84.6%問題有可接受回答,但也有不完整或不適當的。總結來說,ChatGPT在兒科眼科領域有成為患者和照護者資訊工具的潛力。 PubMed DOI

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

這項研究評估了ChatGPT對家長詢問兒童眼科和斜視問題的回答準確性。分析了817個問題,結果顯示78.09%的回答完全正確,19.09%正確但不完整,只有2.81%部分不正確,且沒有完全錯誤的回答。平均可讀性分數為14.49,超過成人的標準,這引發了一些擔憂。儘管可讀性有待改善,研究仍顯示ChatGPT能提供準確可靠的資訊,顯示其在醫療領域的潛力。 PubMed DOI

這項研究評估了ChatGPT對眼科病人問題的回答準確性和重現性。研究人員從美國眼科學會的「詢問眼科醫生」頁面收集了150個問題,經過兩位眼科醫生的精煉,最終有117個問題輸入ChatGPT。結果顯示,ChatGPT對59.8%的問題提供了全面回答,且在91.5%的問題上保持一致性。雖然其準確性和重現性中等,但應視為健康資訊的輔助來源,而非專業醫療建議的替代品,未來仍需進一步研究以評估其可靠性。 PubMed DOI

您的研究比較了ChatGPT和Google Assistant在弱視問題上的回應,根據AAPOS的指導方針進行分析。重點如下: 1. **關鍵字使用**:ChatGPT納入42%的關鍵字,Google Assistant則為31%。 2. **問題解答**:研究針對弱視的定義、成因、治療及後果進行探討。 3. **術語差異**:ChatGPT使用「眼科醫師」,而Google Assistant提到「眼科醫生」。 4. **閱讀理解**:AAPOS的閱讀水平最低,Google Assistant最高,ChatGPT介於兩者之間。 5. **病人教育影響**:ChatGPT雖提供有用資訊,但缺乏關鍵術語,醫生需確保線上資源能促進病人諮詢。 6. **監控AI回應**:醫生應監控AI提供的資訊,以確保準確性。 整體而言,研究強調準確醫學術語和專業諮詢的重要性。 PubMed DOI

斜視是常見的眼科疾病,病人教育對於知情決策很重要。本研究比較了三個AI聊天機器人(ChatGPT、Bard、Copilot)和一個可靠網站(AAPOS)在回答斜視相關問題的表現。結果顯示,AAPOS在準確性上表現最佳,其次是Bard、Copilot和ChatGPT。Bard在可理解性和可行性方面得分最高,而AAPOS則在可讀性上最容易理解。情感分析顯示,Bard和Copilot在病人教育上有潛力,但AAPOS在準確性和可讀性上仍優於這些聊天機器人。 PubMed DOI

這項研究評估了ChatGPT在回答近視相關問題的有效性,重點在於適當性、可用性和清晰度。眼科醫生評估後發現,只有45%的回應被認為適當且可用,僅35%的回應符合所有標準。根據中文可讀性指數,回應的可讀性介於中學到高中水平。特別是關於治療效果和副作用的回應較少。總體來看,ChatGPT在解答兒童近視問題上表現不佳,顯示出眼科專業人士理解AI生成資訊的重要性,因為家長們越來越依賴線上健康資源。 PubMed DOI

這項研究探討了Google和ChatGPT在提供青光眼常見問題解答的準確性與易讀性。結果顯示,ChatGPT的準確性高達97%,遠超過Google的77%。不過,ChatGPT的初始閱讀水平較高(14.3級),而Google為9.4級。當要求ChatGPT修訂青光眼教育材料時,它成功將閱讀水平降至9.4級,且準確性未受影響。這顯示ChatGPT能提供更清晰易懂的資訊,增進病人教育,改善理解與治療遵從性,顯示其在青光眼資訊及教育資源開發上的潛力。 PubMed DOI

針對斜視和弱視的問題,ChatGPT-4的回應評估顯示,97%的回答是可接受的。這項研究由小兒眼科醫師獨立評估,並使用可讀性工具進行分析。雖然大部分回應都合格,但有3%的回應被認為不完整,且沒有發現不可接受的內容。不過,這些回應的可讀性較高,需具備大學程度的教育才能理解,顯示出ChatGPT-4在準確性上表現良好,但在可讀性上仍需改進,以便讓一般民眾和醫療專業人員更容易理解。 PubMed DOI

這項研究評估了大型語言模型ChatGPT-4o對圓錐角膜相關問題的回答準確性與可讀性。研究中,兩位眼科醫生對ChatGPT-4o的30個回答進行評分,結果顯示平均準確性為4.48分,評分一致性良好。然而,回答的可讀性較高,SMOG分數為15.49,FKGL為14.95,FRE為27.41,顯示一般民眾理解上有困難。雖然ChatGPT-4o的回答準確,但語言複雜性可能影響理解,建議未來改進以提升可及性。 PubMed DOI