原始文章

**重點摘要:** 這項研究顯示,GPT-4 可以準確自動化新耳鼻喉科轉診的預先病歷整理,在測試中與醫師的意見有 95% 的一致率。這個工具在實際診間中也獲得不錯的回饋,不過使用者覺得它節省的時間比預期的還要少。這次採用的設計策略,未來也可以作為自動化病歷摘要工具的參考。 PubMed


站上相關主題文章列表

研究評估了GPT-4在提取腎臟手術記錄的表現。GPT-4在側性、手術和手術方式方面表現不錯,但在預估失血量和缺血時間方面稍差。準確率有差異,預估失血量表現較佳,但缺血時間較差。評估者在側性和手術方式上一致,但手術方面較不一致。GPT-4處理不同風格記錄時容易出錯,建議使用標準模板改善。總結來說,GPT-4在泌尿學應用有潛力,但需人工修正。 PubMed DOI

這項研究探討了ChatGPT在耳鼻喉科領域生成研究想法的潛力,將提示分為七個子專科,並評估其在系統性回顧中的表現。雖然ChatGPT在創造獨特的系統性回顧主題上有些困難,但所產生的想法通常具可行性和臨床相關性。研究建議未來應聚焦於ChatGPT在不同方法論及耳鼻喉科特定領域中生成問題的能力,顯示出人工智慧在醫學研究中的限制與潛力。 PubMed DOI

這項研究評估了GPT-4與GPT-3.5在耳鼻喉科考試問題上的表現。研究使用了150個來自BoardVitals的問題,結果顯示標準的GPT-4正確率為72.0%,而專為耳鼻喉科設計的自訂GPT-4模型則達到81.3%。相比之下,GPT-3.5的正確率僅51.3%。自訂模型的表現顯著優於標準模型,但兩者在較難問題上表現都有所下降。整體來看,GPT-4在這情境下表現優於GPT-3.5,自訂模型則進一步提升準確性,顯示其在醫學教育中的潛力。 PubMed DOI

這項研究探討了使用ChatGPT作為小兒耳鼻喉科疾病資訊來源的可行性,並將其回應與網路資料進行比較。研究發現,ChatGPT的回應速度快、字數少且可讀性高,其有效性與認證的網路來源相當,且在不同問題下仍能提供一致的資訊。總體來說,ChatGPT可成為尋求小兒耳鼻喉科可靠資訊的患者和家庭的重要資源。 PubMed DOI

這項研究評估了兩個人工智慧系統,ChatGPT 4.0 和 Algor,在生成耳鼻喉科概念圖的表現。八位專家根據概念識別、關係建立等標準進行評估。結果顯示,兩者各有優勢,ChatGPT 在交叉連結和佈局上表現佳,特別是鼻整形手術方面;而 Algor 在識別主題和區分概念上更出色,尤其在 BPVV 和鼓膜通氣管的指導方針中。研究建議需進一步探討 AI 在醫學教育中的應用潛力與限制。 PubMed DOI

這項研究測試了11款大型語言模型在耳鼻喉科專科考題上的表現,GPT-4o正確率最高,特別擅長過敏學和頭頸腫瘤題目。Claude系列表現也不錯,但還是略輸GPT-4。GPT-3.5 Turbo的正確率則比去年下降。所有模型答單選題都比多選題好。整體來看,新一代LLM在醫療領域很有潛力,但表現會變動,需持續追蹤和優化。 PubMed DOI

研究團隊開發的耳鼻喉專科AI(E-GPT-A),用240題選擇題測試,正確率達74.6%,比一般AI和專科醫師還高。雖然在部分次專科表現突出,但遇到難題還是有瓶頸。結果顯示,針對專科客製化AI確實有效,但還需持續優化並在臨床實測。 PubMed DOI

這項研究比較ChatGPT-4.0和DeepSeek-R1在回答耳鼻喉科手術常見問題的表現。ChatGPT-4.0內容較詳細但有時會漏掉手術細節,DeepSeek-R1則簡潔但細節不足。兩者在複雜手術和長期照護上都不夠完善,目前都還不適合提供個別病人專業建議,AI在這領域還需加強。 PubMed DOI

這項研究發現,GPT-4自動分配醫療收費代碼的正確率偏低,僅約2到3成,無論是根據代碼描述還是實際門診紀錄。雖然GPT-4有潛力,但目前還無法精確處理醫療收費代碼的複雜細節,實務應用上還有很大進步空間。 PubMed DOI

這項研究發現,GPT-4 在擬定七大牙科專科的治療計畫上,表現比 GPT-3.5 更好,尤其在複雜病例和口腔顎面外科領域更準確一致。顯示 GPT-4 有潛力協助牙科教育和臨床決策,但還是需要專家把關。 PubMed DOI