原始文章

**重點摘要:** 這項研究顯示,GPT-4 可以準確自動化新耳鼻喉科轉診的預先病歷整理,在測試中與醫師的意見有 95% 的一致率。這個工具在實際診間中也獲得不錯的回饋,不過使用者覺得它節省的時間比預期的還要少。這次採用的設計策略,未來也可以作為自動化病歷摘要工具的參考。 PubMed


站上相關主題文章列表

這項研究評估了兩個人工智慧系統,ChatGPT 4.0 和 Algor,在生成耳鼻喉科概念圖的表現。八位專家根據概念識別、關係建立等標準進行評估。結果顯示,兩者各有優勢,ChatGPT 在交叉連結和佈局上表現佳,特別是鼻整形手術方面;而 Algor 在識別主題和區分概念上更出色,尤其在 BPVV 和鼓膜通氣管的指導方針中。研究建議需進一步探討 AI 在醫學教育中的應用潛力與限制。 PubMed DOI

傷口護理在整形外科中非常重要,尤其是慢性傷口如壓力性損傷的增加。隨著病人數據的增多,傳統的手動病歷審查變得困難。本研究探討使用自然語言處理(NLP)軟體,特別是ChatGPT,自動化病歷數據提取,專注於骶部傷口的就診後。結果顯示,ChatGPT顯著提升了審查效率,平均審查時間從7.56分鐘降至1.03分鐘,準確率達0.957。研究強調了ChatGPT在臨床護理中的潛力,建議將人工智慧整合進醫療流程。 PubMed DOI

一項針對98個耳鼻喉科案例的研究評估了ChatGPT-4和Llama2的診斷準確性及建議的適當性。結果顯示,ChatGPT-4在82%的案例中正確診斷,優於Llama2的76%。在額外檢查建議上,ChatGPT-4的相關性為88%,Llama2則為83%。治療適當性方面,ChatGPT-4達80%,Llama2為72%。雖然兩者表現不錯,但仍有不適當建議的情況,顯示需進一步改進及人類監督以確保安全應用。 PubMed DOI

這篇系統性回顧發現,ChatGPT在口腔顎面外科的臨床決策、手術規劃和病患衛教等方面有輔助效果,尤其在產生手術同意書和術後支持表現不錯,但在藥理學和複雜病例處理上仍有限。建議將ChatGPT作為輔助工具,需專業人員監督,不能完全取代醫師判斷。 PubMed DOI

這項研究測試了11款大型語言模型在耳鼻喉科專科考題上的表現,GPT-4o正確率最高,特別擅長過敏學和頭頸腫瘤題目。Claude系列表現也不錯,但還是略輸GPT-4。GPT-3.5 Turbo的正確率則比去年下降。所有模型答單選題都比多選題好。整體來看,新一代LLM在醫療領域很有潛力,但表現會變動,需持續追蹤和優化。 PubMed DOI

研究團隊開發的耳鼻喉專科AI(E-GPT-A),用240題選擇題測試,正確率達74.6%,比一般AI和專科醫師還高。雖然在部分次專科表現突出,但遇到難題還是有瓶頸。結果顯示,針對專科客製化AI確實有效,但還需持續優化並在臨床實測。 PubMed DOI

這項研究比較ChatGPT-4.0和DeepSeek-R1在回答耳鼻喉科手術常見問題的表現。ChatGPT-4.0內容較詳細但有時會漏掉手術細節,DeepSeek-R1則簡潔但細節不足。兩者在複雜手術和長期照護上都不夠完善,目前都還不適合提供個別病人專業建議,AI在這領域還需加強。 PubMed DOI

這項研究發現,GPT-4自動分配醫療收費代碼的正確率偏低,僅約2到3成,無論是根據代碼描述還是實際門診紀錄。雖然GPT-4有潛力,但目前還無法精確處理醫療收費代碼的複雜細節,實務應用上還有很大進步空間。 PubMed DOI

這項研究發現,ChatGPT-4o寫病史的品質跟住院醫師差不多,但速度快很多(只要40秒,醫師要15分鐘)。雖然AI有助提升效率和品質,但資料安全和隱私問題還沒解決,實際應用前還需要更多研究,特別是在複雜病例和不同臨床環境下的表現。 PubMed DOI

這項研究發現,GPT-4 在擬定七大牙科專科的治療計畫上,表現比 GPT-3.5 更好,尤其在複雜病例和口腔顎面外科領域更準確一致。顯示 GPT-4 有潛力協助牙科教育和臨床決策,但還是需要專家把關。 PubMed DOI