原始文章

這項研究發現,ChatGPT在回答人工耳蝸相關問題時,約有八成以上的答案正確且一致,尤其在基本知識和技術問題表現最好。不過,針對手術流程的問題準確度較低。整體來說,ChatGPT對病人和醫療人員有很大幫助,但還是有些限制要留意。 PubMed DOI


站上相關主題文章列表

2022年11月,OpenAI推出了ChatGPT,引發了對其在醫學領域有效性的討論。研究專注於ChatGPT對髕股疼痛的回答能力,並比較一般民眾、非骨科醫生及專家的評價。使用12個問題進行評估,結果顯示專家對ChatGPT的評分普遍較低,尤其在複雜問題上。雖然ChatGPT提供的資訊質量不錯,但隨著問題複雜度增加,其表現下降,顯示出人類專業知識在醫療中的重要性。 PubMed DOI

這項研究評估了ChatGPT對常見鼻科問題的回答準確性,並與專業外科醫師的回答進行比較。ChatGPT的平均得分為1.65分(滿分3分),顯示部分回答可接受,但多數不正確或不完整。10個問題中,只有2個回答與專家一致,8個則被認為不足。評分者之間的可靠性中等,且能以97.5%的準確率區分ChatGPT和人類回答。這些結果顯示ChatGPT在醫學領域提供準確資訊的能力有限。 PubMed DOI

這項研究探討了ChatGPT-4在耳膜成形術患者恢復過程中的輔助作用,特別是在醫療資源有限的地區。研究評估了AI提供術後指導的準確性,針對十個常見問題進行分析。結果顯示,ChatGPT-4的回答準確率介於80%到100%之間,且超過90%的答案清晰且相關。總體而言,ChatGPT-4在術後護理中展現出重要潛力,雖然無法取代專業醫療建議,但在改善患者信息獲取方面的角色愈加重要。 PubMed DOI

這項研究探討了ChatGPT在小兒耳科的有效性,並比較其在波蘭語和英語的表現。20名聽力學學生和16名專業人士評估了ChatGPT對20個問題的回答,使用李克特量表來評分正確性、相關性、完整性和語言準確性。結果顯示,兩組普遍認為ChatGPT的回答令人滿意,學生的評分略高於專業人士,尤其在完整性和語言準確性方面。雖然ChatGPT可作為快速資訊來源,但在專業使用上仍缺乏深度和可靠性,應視為輔助工具,而非替代經過驗證的醫療資訊來源。 PubMed DOI

本研究探討ChatGPT在唇裂修復方面的回應質量與準確性,因為大型語言模型在健康資訊傳播中越來越常見。研究選取十個常見問題,並由五位整形外科醫師評估其內容質量、清晰度、相關性和可信度。結果顯示,ChatGPT的平均評分為2.9分,清晰度和內容質量較高,但可信度較低。可讀性適合約10年級學生。雖然回應中無明顯不準確或有害資訊,但缺乏引用來源,使用者需注意其局限性。 PubMed DOI

這項研究探討了ChatGPT在提供性別肯定手術(GAS)患者醫療資訊的角色。研究比較了經驗醫生與ChatGPT的回應,結果顯示ChatGPT的回應雖然較複雜,但在可靠性、品質和可理解性上表現良好。它提供了詳細且相關的資訊,強調了諮詢醫療提供者及處理心理層面的重要性。雖然ChatGPT在患者教育上有潛力,但因為其較高的閱讀水平和缺乏透明參考文獻,使用時仍需謹慎。總體來說,ChatGPT在提升GAS患者教育方面顯示出潛力,但仍需改進。 PubMed DOI

這項研究發現,ChatGPT 3.5在回答HPV相關口咽癌問題時,大多數答案正確,但有14%有誤。雖然引用的文獻多為真實資料,但近半引用格式錯誤,且用詞偏難,超過一般病人能理解的程度。整體來說,ChatGPT表現不錯,但文獻引用和用語還需改進。 PubMed DOI

這項研究比較了兩款 ChatGPT(4o 和 o1)在回答長期意識障礙照顧者常見問題時的表現。結果顯示,兩者大多能給出正確答案(正確率 81–97%),其中 4o 在英文臨床問題上更有同理心,準確度也稍高。o1 在義大利文回答時則更常建議諮詢醫師。雖然這些 AI 有幫助,但建議還是要再跟醫療專業人員確認。 PubMed DOI

這項研究發現,向ChatGPT-4提出具體問題,比起一般性問題,能得到更可靠且一致的牙科假牙相關答案。不過,雖然具體提問有助提升表現,ChatGPT的答案還是無法完全取代專業判斷,建議仍需專業人員把關。設計明確的問題,有助提升AI在牙科領域的實用性。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答先天性上肢差異常見問題時,大約一半答案正確且清楚,但有8%內容不夠好或可能誤導。回答內容深度和完整性不一,且很少建議諮詢專業醫師。總結來說,ChatGPT提供的資訊大致可靠,但不夠全面或個人化,建議病人衛教時要小心使用。 PubMed DOI