原始文章

這項研究探討了ChatGPT在耳硬化症相關問題上的回答準確性與重現性,使用了96個問題,並由兩位耳鼻喉科醫生評估。結果顯示,ChatGPT的整體準確率為64.60%,重現率達89.60%。不同類別的表現有所差異,基本知識和診斷管理的準確率較高,而醫療與外科治療的表現較差。儘管如此,ChatGPT在醫療監督下仍可能成為耳硬化症患者的有用資訊來源。 PubMed DOI


站上相關主題文章列表

研究評估OpenAI開發的ChatGPT在提供耳鼻喉科健康資訊的表現。醫生們認為聊天機器人回答相關性不錯,但深度有待加強,可能受訓練數據影響。儘管有潛力提供正確資訊,仍需改進回應深度和減少偏見。 PubMed DOI

研究比較了ChatGPT與耳鼻喉科醫師回答高級問題的表現。結果顯示,ChatGPT在開放問題上準確率為56.7%,重複問題為73.3%,多重選擇問題為43.3%。在複雜耳鼻喉學問題上,ChatGPT表現不穩定,使用時需謹慎,尤其在臨床情境中。 PubMed DOI

研究發現ChatGPT在耳鼻喉科問答上準確率高,但患者信心不足。一般評論者意見一致度中等。公眾對AI回答信心較低,建議擴大研究樣本以建立信任。 PubMed DOI

研究比較了ChatGPT和傳統網路搜尋對耳鼻喉科問題的表現,發現ChatGPT回答可讀性稍差但理解度高。在診斷問題上表現較佳,對事實或政策問題則無明顯差異。透過提示可提升ChatGPT回答的可讀性,顯示其在提供醫學資訊上有潛力,尤其在症狀診斷方面。 PubMed DOI

研究評估ChatGPT在鼻科病理學資訊的品質和可靠性,提出65問題探討病因、風險、治療、預後。使用Discern問卷和Fleiss's Kappa分析,整體品質得分為3.59,可靠性較低為3.18,一致性為0.69。研究認為ChatGPT回答準確可靠,提供易懂描述,建議在專業監督下可成為有用工具。 PubMed DOI

研究發現ChatGPT在回答耳鼻喉科問題時準確率為45.5%,建議使用者要注意其限制,尤其在醫學領域。未來改進版本應該優先考慮權威來源的資訊。 PubMed DOI

研究評估了ChatGPT在回答耳鼻喉科患者問題上的表現,結果顯示其回應準確、全面且具同理心,但仍有限制。長回應較具同理心,但與問題長度並非必然相關。有些回應被視為潛在危險,呼籲在使用AI提供醫療建議時需謹慎。整合AI到醫療需謹慎評估性能,並考慮患者安全與道德。 PubMed DOI

這項研究測試了ChatGPT 3.5和4在回答與聽力診斷相關問題時的準確性和重複性。ChatGPT 4在準確性和隨時間一致性方面表現優於ChatGPT 3.5。然而,回答的變異性引發了對它們在聽力學專業應用的疑慮。 PubMed DOI

研究評估了AI聊天機器人ChatGPT-4在提供耳硬化手術資訊的表現,結果顯示回答品質不一。專家使用DISCERN系統評估後發現,回答有時超出一般讀者理解範圍,且可能不完整或誤導。建議改善AI系統以提供準確易懂的資訊,並建議醫護人員監督其應用於病患教育和護理。 PubMed DOI

這項研究評估了ChatGPT對眼科病人問題的回答準確性和重現性。研究人員從美國眼科學會的「詢問眼科醫生」頁面收集了150個問題,經過兩位眼科醫生的精煉,最終有117個問題輸入ChatGPT。結果顯示,ChatGPT對59.8%的問題提供了全面回答,且在91.5%的問題上保持一致性。雖然其準確性和重現性中等,但應視為健康資訊的輔助來源,而非專業醫療建議的替代品,未來仍需進一步研究以評估其可靠性。 PubMed DOI