原始文章

這項研究評估了ChatGPT在提供慢性鼻竇炎(CRS)資訊的有效性,並與醫療指導方針進行比較。研究中提出六個CRS相關問題,結果顯示ChatGPT的回答大致符合現有文獻,但仍有不一致之處。可讀性測試顯示資訊複雜度不同,平均可讀性分數為40.42%。雖然各類別之間可讀性無顯著差異,研究建議ChatGPT可作為醫療資訊的資源,但使用者需謹慎對待其準確性。最後以4級證據評級顯示中等可靠性。 PubMed DOI


站上相關主題文章列表

研究評估了ChatGPT提供的過敏性鼻炎相關資訊的正確性,結果顯示部分答案準確,但也有不準確之處。在使用像ChatGPT這樣的聊天機器人時,應該謹慎,並應該優先諮詢醫師意見,網路資源僅供參考。ChatGPT可作為病人教育的輔助,但不能取代專業醫護。 PubMed DOI

研究發現ChatGPT在耳鼻喉科診斷、治療建議和康復指導方面表現不錯,但在手術步驟描述上有不足,缺乏關鍵細節和風險提供。ChatGPT可提供基本資訊,但無法取代耳鼻喉科醫師的臨床專業知識。為了更好地幫助醫師,需持續改進醫療人工智慧技術。 PubMed DOI

ChatGPT-4在鼻科臨床案例中提供正確初步診斷的比例為62.5%,並建議7.5%-30.0%的案例需進行額外檢查和治療。其回應穩定性中等至高,且不受案例難度影響。建議在臨床實務中仍需醫師判斷為主。 PubMed DOI

研究比較了ChatGPT和傳統網路搜尋對耳鼻喉科問題的表現,發現ChatGPT回答可讀性稍差但理解度高。在診斷問題上表現較佳,對事實或政策問題則無明顯差異。透過提示可提升ChatGPT回答的可讀性,顯示其在提供醫學資訊上有潛力,尤其在症狀診斷方面。 PubMed DOI

研究評估ChatGPT在鼻科病理學資訊的品質和可靠性,提出65問題探討病因、風險、治療、預後。使用Discern問卷和Fleiss's Kappa分析,整體品質得分為3.59,可靠性較低為3.18,一致性為0.69。研究認為ChatGPT回答準確可靠,提供易懂描述,建議在專業監督下可成為有用工具。 PubMed DOI

研究發現ChatGPT在回答過敏性鼻炎和慢性鼻竇炎相關問題時表現良好,超過80%問題準確回答。GPT-4.0比GPT-3.5更準確回答過敏性鼻炎問題。ChatGPT對基本知識、預防和情緒方面表現優秀,但應對最新進展有挑戰。中文提問時準確性一致。總括而言,ChatGPT對過敏性鼻炎和慢性鼻竇炎患者提供正確資訊有潛力。 PubMed DOI

研究評估了AI聊天機器人ChatGPT-4在提供耳硬化手術資訊的表現,結果顯示回答品質不一。專家使用DISCERN系統評估後發現,回答有時超出一般讀者理解範圍,且可能不完整或誤導。建議改善AI系統以提供準確易懂的資訊,並建議醫護人員監督其應用於病患教育和護理。 PubMed DOI

研究比對醫療建議與ChatGPT對治療鼻竇炎與鼻息肉的建議,結果顯示兩者一致率為68%,Kappa係數為0.69,顯示ChatGPT在指導治療上有潛力。研究強調了人工智慧如ChatGPT對協助醫師提供患者個人化護理的重要性。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT、Gemini和Claude—對鼻整形手術常見問題的回答。七位經驗豐富的整形外科醫生根據準確性、質量、完整性等指標進行評分。結果顯示,ChatGPT在準確性和整體質量上表現較佳,但完整性不如Gemini和Claude。三者的回應普遍被評為中立且不完整,醫學術語使用普遍,且可讀性達大學程度。研究強調聊天機器人生成的醫療資訊需謹慎檢查,但仍具提升醫療教育的潛力。 PubMed DOI

這項研究評估了ChatGPT對COVID-19引起的嗅覺功能障礙的回應質量。使用30個相同問題,並在四種不同提示下詢問ChatGPT,結果顯示480個回應中有75.8%被評為「至少良好」。不同提示類型影響回應質量,針對八年級學生和患者的回應更易理解。總體來看,ChatGPT的答案大多準確,但表述方式會影響回應的質量和複雜性。研究認為,ChatGPT在患者教育上有潛力,但回應常過於複雜。 PubMed DOI