原始文章

這項研究評估了ChatGPT-4在創傷外科中提供的ABCDE方法參考資料的準確性。兩位獨立評審對30個參考資料進行打分,結果顯示平均準確性為66.7%,只有43.3%是正確的。其餘56.7%則不準確或不存在。不同創傷協議的準確性沒有顯著差異。研究對ChatGPT-4在醫療決策中的可靠性提出疑慮,建議雖然它可作為教育工具,但使用時需謹慎,並進行徹底的驗證與交叉參考。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT的GPT-3.5和GPT-4模型在解答韓國外科醫師考試問題時的表現,結果顯示GPT-4準確率高達76.4%,明顯勝過GPT-3.5的46.8%。GPT-4在各專業領域都表現穩定,但仍需搭配人類專業知識和判斷力。 PubMed DOI

ChatGPT-3.5生成的醫學文章中,有許多參考文獻是虛假或不準確的,強調了驗證醫學資訊的可靠來源的重要性。結果顯示,不能完全依賴人工智慧生成的內容,仍需謹慎對待。 PubMed DOI

研究發現ChatGPT提供頭頸外科相關科學文獻時,僅有10%資訊正確。對口腔癌皮瓣重建文獻更不準。兩位評審都認同此結果,顯示ChatGPT在頭頸外科文獻準確性不佳。 PubMed DOI

研究發現ChatGPT 4.0在頭頸部領域的參考文獻生成較可靠,但仍有不準確或缺失情況。為維護科學文獻可信度,期刊與機構需訂定AI輔助科學寫作策略。 PubMed DOI

研究發現ChatGPT在提供處理盲腸炎資訊時有潛力,但準確性不足,參考資料有錯誤。使用ChatGPT提供醫學資訊需謹慎,尤其對研究人員和臨床醫師挑戰性大。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4在耳鼻喉科學領域前30篇高被引用論文的參考文獻準確性,發現ChatGPT-4比3.5更準確,準確率介於73%至87%。ChatGPT-3.5有19個不準確和2個捏造的參考文獻,ChatGPT-4有13個不準確和1個捏造的。ChatGPT-4回應穩定度中等,ChatGPT-3.5則稍差。兩者都有虛假參考文獻,使用時應謹慎。 PubMed DOI

研究發現,ChatGPT提供的醫學資訊品質不佳,甚至可能有危險。資訊品質高與醫師評分正相關。醫學人工智慧有潛力,但需改進準確性和可靠性。持續研究發展對提升醫療人工智慧應用、改善患者教育和知情同意流程至關重要。 PubMed DOI

研究發現,在骨科創傷手術中使用ChatGPT表現良好,對患者、非骨科醫生和專家骨科外科醫生的回答準確率分別為52.9%、64.7%和70.5%。ChatGPT的回答完整性得分也很高,分別為52.9%、73.5%和82.4%。整體而言,ChatGPT在骨科創傷手術中為不同對象提供有價值和準確回答的潛力表現出色。 PubMed DOI

研究發現,ChatGPT 在手部外科自我評估考題中表現一般,對文字問題回答率高於圖片問題。儘管提供額外解釋,但信心與正確性不一定成正比。總括而言,ChatGPT 表現不佳,不建議單獨依賴。在使用時應謹慎,因其仍有限制。 PubMed DOI

TUSOM ONR STEM-IMPRESS計畫旨在為來自多元背景的有志醫師提供公平機會,重視賦權、豐富和參與,並強調醫學中的公平性、多樣性和文化代表性,特別是反映新奧爾良社區的特點。 一項針對ChatGPT-4在結腸和直腸外科文獻中生成參考文獻準確性的研究發現,100個引用中只有41個完全準確,且無一包含DOI。67個參考文獻部分準確,但無法達到100%的準確率,且所有文獻的作者信息均不正確。這顯示出ChatGPT-4在學術應用上的潛力,但仍需解決不一致性和準確性問題。 PubMed DOI