原始文章

這項研究評估了GPT-3.5-turbo和GPT-4-turbo在急診部門提供臨床建議的表現,分析了10,000次就診。結果顯示,這兩個模型的準確性都不如住院醫師,GPT-4-turbo平均低8%,而GPT-3.5-turbo低24%。雖然這些大型語言模型在敏感性上表現良好,但特異性較低,顯示出建議過於謹慎。研究指出,儘管LLMs在臨床應用上有潛力,但在成為可靠的醫療決策支持系統前,仍需大幅改進。 PubMed DOI


站上相關主題文章列表

研究比較四個大型語言模型在眼科、骨科和皮膚科領域生成醫學內容的表現,發現不同模型在治療建議的質量、準確性和安全性上有差異。GPT-3.5-Turbo最安全,Bloomz質量較差。研究強調需持續改進人工智慧工具,確保醫學建議可靠。建議引入GPT-4的自動評估機制,擴展評估範疇。 PubMed DOI

研究比較了GPT-3.5和GPT-4與人類醫師在急診部門計算醫學分數的表現。結果顯示,雖然人工智慧模型有些表現接近人類醫師,但在預測能力上,人類醫師的專業知識仍然更勝一籌。建議將人工智慧當作輔助工具,而非取代急診部門等重要環境中的人類專業知識。未來需進一步研究,發揮人工智慧在急診醫學領域的潛力。 PubMed DOI

研究發現GPT-4在醫學案例初步診斷、檢查和治療方面表現最佳,尤其在常見疾病方面。商業LLMs有潛力用於醫學問答,但仍需加強。開源LLMs則可應對數據隱私和培訓透明度需求。強調強大且受監管的AI模型在醫療保健領域的重要性。 PubMed DOI

研究比較了GPT-4和GPT-3.5-turbo在寫急診科出院摘要時的表現。結果顯示,雖然GPT-4通常寫得準確,但還是會出現錯誤,像是漏掉重要臨床資訊或加入幻覺。醫師了解這些錯誤很重要,可以檢查並修正內容,確保患者安全。 PubMed DOI

人工智慧和大型語言模型可輔助急診室運作,幫助醫生判斷病人是否需要住院。一項使用紐約市醫院真實數據的研究發現,GPT-4模型在預測急診病人入院情況方面表現優異。建議大型語言模型可成為醫療決策支援工具,進一步改進以提高效能。 PubMed DOI

研究比較了大型語言模型(LLMs)在臨床案例診斷上的表現,發現GPT4比GPT3.5更準確且提供更專業的診斷列表。然而,兩者仍有可能漏掉最可能的診斷。研究建議LLMs像GPT4可擴展診斷考慮範圍,但需改進以更符合疾病發生率和文獻。 PubMed DOI

研究評估了大型語言模型在醫療保健領域的應用,尤其是在改善患者護理方面。使用MIMIC-III數據庫的電子健康記錄,測試了這些模型在識別特定疾病患者方面的效能。GPT-4在辨識COPD、CKD、PBC和Cancer Cachexia患者方面表現優異,而ChatGPT和LLaMA3則稍遜。儘管LLMs有潛力,但在臨床應用前仍需解決錯誤、解釋不足和倫理問題。進一步研究將有助於提升模型訓練和設計,以更好地應用於醫療保健。 PubMed DOI

在急診部門,快速且準確的診斷對病人結果和醫療效率非常重要。本研究評估了ChatGPT-3.5和ChatGPT-4在根據急診入院前24小時的電子健康紀錄生成鑑別診斷清單的表現。結果顯示,兩者在預測身體系統層級的診斷上都相當準確,GPT-4稍優於GPT-3.5,但在具體診斷類別上表現不一,精確度較低。值得注意的是,GPT-4在幾個關鍵類別中展現了更高的準確性,顯示其在處理複雜臨床情況上的優勢。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4和GPT-3.5,如何分析急診部報告以識別與腎結石相關的就診。研究使用標註過的數據集,透過提示優化和微調來提升模型表現。結果顯示,GPT-4的宏觀F1分數達0.833,明顯優於基準系統的0.71,而GPT-3.5則為0.796。研究還發現,GPT-4在種族和性別偏見方面表現良好,顯示出其在臨床文本分析的潛力。 PubMed DOI

這項研究評估了八種公開的大型語言模型(LLMs)在24個神經放射學臨床情境中提供影像建議的表現。評估模型包括GPT-4、ChatGPT、Bard、Bing Chat、Llama 2等。結果顯示,GPT-4表現最佳,提供23個最佳建議,其次是ChatGPT有20個,而Llama 2僅有5個最佳建議。這項研究強調了大型語言模型在臨床影像利用上的潛力,並探討了評估其表現的挑戰,具有重要意義。 PubMed DOI