原始文章

本研究評估了ChatGPT-4在眼科診所對病人訊息的分流效果,並與眼科住院醫師進行比較。分析139則訊息後,發現MD與GPT-4在診所建議上的一致性為64.7%,而在分流緊急性上為60.4%。GPT-4在93.5%的案例中提供的緊急性建議與MD相符或更早。結果顯示,GPT-4能支持醫生的判斷,減輕工作負擔,並改善病人護理,但無法完全取代醫生的角色。整合AI有助於提升服務質量與病人結果。 PubMed DOI


站上相關主題文章列表

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

研究比較了ChatGPT-4.0和ChatGPT-3.5在角膜眼疾病診斷上的表現,發現ChatGPT-4.0在臨床診斷上比ChatGPT-3.5更準確,但仍不及人類專家。結合人工智慧和臨床專業知識,可最大程度發揮人工智慧在眼科護理的潛力。 PubMed DOI

在這個研究中,AI聊天機器人被測試其根據患者的症狀進行分類和診斷眼科疾病的能力。聊天機器人在分類方面表現較好,GPT-4的表現優於Bard。增加更多描述詞可以提高兩種聊天機器人的診斷準確性。儘管聊天機器人在分類方面可能有用,但並不能取代專業醫學評估。 PubMed DOI

ChatGPT是一個由AI驅動的工具,用來協助門診分流。研究顯示,ChatGPT與手動分流結果高度一致,專家對其回答大多給予正面評價。另外,一項涵蓋45名患者的研究也顯示ChatGPT表現優異。ChatGPT的回答專業、全面且人性化,有助於改善治療時間、診斷,並緩解醫療人力不足問題,讓患者受益。 PubMed DOI

這項研究評估了ChatGPT在眼科臨床評估中的表現,目的是檢視其準確性及眼科醫生是否能辨識其生成的回應。研究中,16位眼科醫生參與,ChatGPT在17個案例中準確識別了15個主要診斷(88.2%)。醫生們在13個案例中以77.9%的準確率辨識出回應作者,信心評分為3.6。醫生指出ChatGPT的回應較為一般,常有不相關資訊及句法模式。結論認為,雖然ChatGPT顯示潛力,但在臨床應用前仍需進一步評估。 PubMed DOI

這項研究探討了AI聊天機器人GPT-3.5和GPT-4.0在眼科門診註冊及診斷眼病的有效性。研究分析了208個臨床檔案,結果顯示: 1. **註冊建議**:GPT-3.5(63.5%)、GPT-4.0(77.9%)和住院醫師(69.2%)的準確性相似,無顯著差異。 2. **診斷準確性**:GPT-4.0和住院醫師在有病史及檢查的檔案中表現優於GPT-3.5。 3. **錯誤診斷**:GPT-4.0的錯誤診斷較少,顯示出精確度提升。 4. **整體表現**:GPT-4.0在鑑別診斷上接近住院醫師,顯示其潛在應用價值。 結論認為,AI聊天機器人有助於提升眼科病人註冊,但需進一步驗證其在診斷中的應用。 PubMed DOI

在眼科領域的研究中,OpenAI 的 ChatGPT 在回答病人常見問題上表現優於 Google 的 Bard (Gemini Pro)。一位資深眼科醫生選了 20 個問題,八位專家對回答進行評估,結果顯示 ChatGPT 在準確性、全面性和清晰度上均高於 Bard,分別得分 4.0、4.5 和 5.0,而 Bard 則為 3.0、3.0 和 4.0,差異具統計意義 (p < 0.001)。這顯示 AI 聊天機器人雖然能提供準確清晰的回答,但仍需進一步研究以提升其醫療工具的可靠性。 PubMed DOI

這項研究比較了AI模型GPT-4o與人類眼科醫生在青光眼診斷上的表現。研究在一所三級眼科醫療中心進行,分析了26個青光眼病例。結果顯示,GPT-4o在主要診斷的準確性上較低,得分5.500,經驗最豐富的醫生得分8.038。在完整性方面,GPT-4o得分3.077,低於B醫生的3.615。不過,在鑑別診斷上,GPT-4o的表現與醫生相當,得分7.577。研究認為,GPT-4o雖然尚未成為獨立診斷工具,但在臨床上可作為輔助工具,未來AI的進步可能會提升其有效性。 PubMed DOI

人工智慧在醫療,特別是眼科的影像分析上有顯著進展。最近,ChatGPT加入影像分析功能,開啟新的診斷可能性。本研究選取12張眼底影像,評估ChatGPT 4.0的診斷準確性。結果顯示,ChatGPT能準確診斷四種疾病,但在七個案例中表現不佳。雖然顯示出潛力,但目前準確性不足以應用於臨床,需進一步研究以提升其診斷能力。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在處理眼科緊急情況的表現,並與英國國民健康服務(NHS)111的系統進行比較。研究涵蓋21個緊急情境問題,測試的模型包括ChatGPT-3.5、Google Bard、Bing Chat和ChatGPT-4.0。結果顯示,93%的LLM回應至少得分為「良好」,顯示它們提供的資訊正確且無重大錯誤。整體來看,這些模型在提供即時資訊和指導方面,顯示出作為有效工具的潛力,能提升患者護理及醫療可及性。 PubMed DOI