原始文章

一項針對眼科醫生的調查顯示,對AI聊天機器人ChatGPT的接受度逐漸提高。199名參與的眼科外科醫生中,約三分之二擁有超過15年經驗,116位曾使用ChatGPT。使用者普遍認為AI在眼科有助於早期疾病檢測和病人監測等,但對於責任、隱私和診斷準確性等問題仍有顧慮。整體來看,雖然對AI的接受度上升,但仍需人類監督以解決隱私和工作取代的擔憂。 PubMed DOI


站上相關主題文章列表

社論討論將AI語言模型ChatGPT融入眼科教育,探討其優勢、限制和道德考量。強調ChatGPT可提升眼科醫師學習效果,模擬患者互動,但也提及內容可靠性、個性化、偏見、隱私和濫用問題。呼籲謹慎整合、持續評估和道德遵循,以充分運用AI在醫學教育中的優勢,降低風險。 PubMed DOI

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

最新研究指出,人工智慧聊天機器人ChatGPT在眼科領域有潛力,可提升患者和醫師的教育水準、研究效率和行政工作。ChatGPT能準確提供眼科建議,但需注意風險,如提供不正確資訊、依賴過時數據和倫理問題。儘管ChatGPT有助於眼科保健,仍需在人類監督下使用。 PubMed DOI

研究發現ChatGPT-4在眼科影像解釋上表現良好,準確率達70%,尤其擅長視網膜問題。在非影像問題上表現更佳,但在不同眼科領域的表現有差異。建議在醫學領域應適當整合這類聊天機器人,雖然在回答眼科問題方面有潛力,但在非影像問題上表現更出色。 PubMed DOI

研究發現線上聊天式人工智慧模型對眼科問題提供的建議大多準確,但在不同眼科領域的適應度有所不同。模型在白內障和屈光等領域表現較好,但在角膜等領域表現較差。總結來說,模型有潛力,但仍需進一步優化才能廣泛應用於臨床。 PubMed DOI

這項研究評估了ChatGPT在眼科臨床評估中的表現,目的是檢視其準確性及眼科醫生是否能辨識其生成的回應。研究中,16位眼科醫生參與,ChatGPT在17個案例中準確識別了15個主要診斷(88.2%)。醫生們在13個案例中以77.9%的準確率辨識出回應作者,信心評分為3.6。醫生指出ChatGPT的回應較為一般,常有不相關資訊及句法模式。結論認為,雖然ChatGPT顯示潛力,但在臨床應用前仍需進一步評估。 PubMed DOI

這篇回顧探討了ChatGPT在視網膜健康照護的應用,分析其潛在好處與挑戰。我們從多個資料庫搜尋自2022年以來的相關研究,共納入68篇文章,涵蓋學術研究、診斷、疾病管理等領域。結果顯示,ChatGPT在醫學教育和診斷支持上有很大潛力,但也需注意其準確性和錯誤資訊的風險。未來應著重提升準確性並降低風險,以確保其在臨床實務中的有效性。 PubMed DOI

這項研究探討了AI聊天機器人GPT-3.5和GPT-4.0在眼科門診註冊及診斷眼病的有效性。研究分析了208個臨床檔案,結果顯示: 1. **註冊建議**:GPT-3.5(63.5%)、GPT-4.0(77.9%)和住院醫師(69.2%)的準確性相似,無顯著差異。 2. **診斷準確性**:GPT-4.0和住院醫師在有病史及檢查的檔案中表現優於GPT-3.5。 3. **錯誤診斷**:GPT-4.0的錯誤診斷較少,顯示出精確度提升。 4. **整體表現**:GPT-4.0在鑑別診斷上接近住院醫師,顯示其潛在應用價值。 結論認為,AI聊天機器人有助於提升眼科病人註冊,但需進一步驗證其在診斷中的應用。 PubMed DOI

在眼科領域的研究中,OpenAI 的 ChatGPT 在回答病人常見問題上表現優於 Google 的 Bard (Gemini Pro)。一位資深眼科醫生選了 20 個問題,八位專家對回答進行評估,結果顯示 ChatGPT 在準確性、全面性和清晰度上均高於 Bard,分別得分 4.0、4.5 和 5.0,而 Bard 則為 3.0、3.0 和 4.0,差異具統計意義 (p < 0.001)。這顯示 AI 聊天機器人雖然能提供準確清晰的回答,但仍需進一步研究以提升其醫療工具的可靠性。 PubMed DOI

人工智慧(AI)在眼科的影響日益增強,特別是在機器學習和自然語言處理(NLP)方面。基於NLP的聊天機器人,利用大型語言模型(LLMs),在臨床和手術環境中展現出新的研究潛力。這篇回顧探討了聊天機器人整合進眼科的優勢與挑戰,尤其是在開放式和封閉式問題的應用上。雖然聊天機器人在多選題中表現良好,但在開放式問題上仍需面對倫理、隱私等挑戰。總的來說,AI應被視為輔助工具,而非取代醫生的選擇。 PubMed DOI