原始文章

AI(GPT-4)能快速又準確找出癌症病理報告中的錯誤,偵測率高達88%,速度也比醫師快很多。雖然準確度接近專家,但誤判(偽陽性)較多,所以還是需要醫師把關。這技術有望提升癌症診斷效率,但專業監督還是不可少。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT在診斷結腸癌的能力,特別是比較GPT-3.5和GPT-4.0的表現。研究分析了286份腸癌病例,結果顯示GPT-4.0在初診和次診的準確率均高於GPT-3.5,分別為0.972對0.855和0.908對0.617。雖然GPT-4.0在處理病史和實驗室數據上有所改善,但在識別症狀方面仍有挑戰。整體而言,GPT-4.0在臨床輔助診斷中展現出潛力,但仍需進一步研究以克服其限制。 PubMed DOI

這項研究探討了ChatGPT在協助十個子專科的組織病理學診斷中的有效性。研究中,專家病理學家評估了ChatGPT對臨床病理情境的回答,結果顯示其在62.2%的案例中提供有用答案,但32.1%的回答是正確的。儘管有一定的實用性,AI的錯誤率和文獻參考的準確性僅為70.1%,顯示出其不適合用於日常診斷。研究強調了人類專業知識的重要性,並提醒使用AI時需謹慎。 PubMed DOI

這項研究探討了GPT-4在放射科報告中檢測和修正錯誤的潛力,特別針對頭部CT掃描。隨著放射科醫師的工作壓力增加,GPT-4在錯誤檢測方面表現優異,解釋性錯誤敏感度達84%,事實性錯誤敏感度達89%。相比之下,人類讀者的表現較差,檢查時間也較長。雖然GPT-4在識別錯誤時有些假陽性,但仍顯示出其在減輕醫師負擔和提升準確度的潛力,值得在臨床實踐中進一步探索。 PubMed DOI

這項研究顯示生成式人工智慧在自動化將非結構化病理報告轉為結構化格式方面的有效性,特別針對台北醫學大學醫院的乳腺癌報告。研究人員使用ChatGPT大型語言模型,透過Streamlit網頁應用程式達到99.61%的準確率,並顯著縮短處理時間,優於傳統方法。雖然目前僅限於單一機構及乳腺癌報告,但未來計畫將擴展至其他癌症類型並進行外部驗證,以確保系統的穩健性。總體而言,這顯示人工智慧能有效提升病理報告處理效率,促進生物醫學研究的進步。 PubMed DOI

這項研究評估了GPT-4o在識別ACR TIRADS超音波報告錯誤的有效性及其加速報告生成的能力。分析了福建醫科大學第二附屬醫院的200份甲狀腺超音波報告,結果顯示GPT-4o成功檢測到90%的錯誤,接近資深醫師的93%。在效率上,GPT-4o的審查速度明顯快於醫師,平均只需0.79小時,而醫師則需1.8到3.1小時。研究結果顯示,GPT-4o不僅在錯誤檢測上表現優異,還能顯著提升報告處理效率,對於改善診斷準確性及支持住院醫師非常有幫助。 PubMed DOI

這項研究評估了ChatGPT 4.0在識別德國神經學報告錯誤的效果,並與人類專家比較。分析了十份報告,每份有十個語言錯誤和一個重要內容錯誤。結果顯示,使用第一個提示時,AI的準確率為35%,而第二個提示則達到75%。AI的處理速度明顯快於人類,第一個提示平均102.4秒,第二個209.4秒,人類則需374秒。研究指出,AI能有效協助醫療報告撰寫,且提示設計對結果影響重大。 PubMed DOI

這項研究比較三款GPT模型在醫學檢驗報告錯誤偵測和治療建議的表現。結果顯示,GPT模型平均能準確抓出約九成錯誤,但對格式錯誤較不敏感。GPT的判斷和資深檢驗師幾乎一樣準,速度還更快。GPT-o1 mini偵錯最穩定,GPT-o1給治療建議最強,顯示AI有助提升檢驗室效率和臨床決策。 PubMed DOI

這項研究用GPT-4o和Llama3.3等大型語言模型,測試它們在227份人工合成病理報告中辨識和分類癌症的能力。結果顯示,這些AI模型在準確率、敏感度和特異性上都比傳統方法更優秀,有機會讓癌症登記流程更快、更可靠,提升公共衛生和臨床照護品質。 PubMed DOI

這項研究比較多種大型語言模型在偵測胸腔放射科報告錯誤的表現,發現經過微調的 Llama-3-70B-Instruct 模型最準確,F1 分數約 0.75–0.83。實測也證實,這模型能有效協助醫師找出報告錯誤,顯示微調後的生成式語言模型有助提升放射科報告校對效率與準確度。 PubMed DOI

這項研究發現,GPT-4在乳癌和婦科癌症治療建議上表現尚可,乳癌案例與專家意見一致率最高達84%。雖然經過多次提示後表現有提升,但在正確性、完整性及手術、基因檢測建議上仍有限制。未來AI可輔助臨床決策,但專家把關還是很重要。 PubMed DOI