原始文章

這項研究評估了三種人工智慧分類策略,旨在識別美國國立衛生研究院的心臟驟停研究補助金,並創建監測工具。比較的策略包括傳統機器學習、零樣本學習和少樣本學習。結果顯示,少樣本學習表現最佳,準確率達0.90,精確度和召回率平衡,F1分數為0.82。整體而言,這些人工智慧方法在識別CA研究補助金上展現了良好的潛力,對追蹤研究資金相當實用。 PubMed DOI


站上相關主題文章列表

研究用AI分析ERC會議摘要,發現主題趨勢。透過網路爬蟲收集資料,再用AI模型分類。結果顯示成人生命支持是熱門,新生兒復甦較少。研究展示了在ERC會議中運用AI進行復甦醫學研究的文獻計量分析。 PubMed DOI

這項研究探討了使用一個人工智慧模型,ChatGPT-4,來預測心臟骤停患者的死亡和神經功能不良的結果。該模型與已建立的心臟骤停後評分進行比較,顯示在預測結果方面表現相似。需要進一步研究,以探索將這個人工智慧模型納入心臟骤停後結果預測的可能性。 PubMed DOI

ChatGPT是一個先進的語言模型,對於醫學考試和臨床決策支持有潛力。研究發現在心臟驟停方面的準確率為85%,心動過緩為30%。然而,在模擬中心臟驟停的準確率為69%,心動過緩為42%。研究指出ChatGPT存在不一致、遺漏、重複和藥物錯誤問題,需要更可靠的指導以避免醫療錯誤。 PubMed DOI

文章討論未來十年如何運用新技術改善心臟骤停處置,包括AI工具ChatGPT-4和Gemini Advanced。預測新技術在早期辨識、CPR、除颤和心跳停止後護理的應用。提出全面生命徵象監測、創新CPR和AED設備,以及心跳停止後護理監測等潛在技術。雖然這些進展有望改善結果,但也需克服道德和實際挑戰。強調AI工具提供不同實施時程,強調合作重要性以確保技術道德有效運用。未來需進一步研究以提升AI預測可靠性。 PubMed DOI

這項研究探討大型語言模型(LLMs)在生成重症監護病房(ICU)病人出院摘要的表現,分析了匿名臨床筆記。三個模型中,GPT-4 API的表現最佳,準確識別41.5%的關鍵臨床事件,ChatGPT和Llama 2則分別為19.2%和16.5%。雖然GPT-4在資訊組織和清晰度上表現優異,但仍有小錯誤,且所有模型在敘事連貫性和重要數據的捕捉上存在挑戰。總體來看,這些LLM在生成出院摘要上有潛力,但仍需改進。 PubMed DOI

本研究評估大型語言模型(LLM),特別是GPT-4,是否能有效分析介入放射學(IR)微波消融裝置的安全事件數據。研究收集了2011年至2023年的安全數據,並由人類審核者進行分類。GPT-4的分類準確率在訓練集達96.0%,驗證集86.4%,測試集87.3%。最終生成的摘要與人類解讀相似,顯示LLM在處理IR安全數據方面的潛力,成為臨床醫生的有用工具。 PubMed DOI

這項研究探討增強檢索生成(RAG)的大型語言模型(LLMs)在急診科臨床紀錄中生成ICD-10-CM代碼的有效性,並與醫療提供者進行比較。研究基於Mount Sinai Health System的500次急診就診數據,發現RAG增強的LLMs在準確性和特異性上均優於醫療提供者,且GPT-4的表現尤為突出。即使是較小的模型如Llama-3.1-70B,經過RAG後也顯示出顯著提升。這顯示生成式人工智慧在改善醫療編碼準確性及減少行政負擔方面的潛力。 PubMed DOI

這篇回顧探討了人工智慧(AI)在心臟復甦後預測神經學結果的潛力,指出其優於傳統預後評分系統。研究顯示,像人工神經網路(ANN)和XGBoost等機器學習技術在預測準確性上表現更佳,並能降低醫療成本和提供個人化照護。不過,回顧也提到AI面臨數據質量、偏見和隱私等挑戰,強調需多樣化數據來源和可解釋的結果來提升可靠性。儘管如此,AI在這領域的進展仍令人期待,需持續人類監督和數據共享。 PubMed DOI

這項研究比較了功能性癲癇發作可能性評分(FSLS)與兩個大型語言模型(ChatGPT和GPT-4)在區分功能性癲癇發作和癲癇發作的診斷表現。使用114個病患案例,FSLS的準確率為74%,而GPT-4的準確率達85%。研究發現,LLMs的預測結果在不同時間不一致,且自我評估的確定性與變異性中等相關。雖然GPT-4和FSLS能有效識別FS病患,但預測結果的差異及不一致性引發了對其臨床可靠性的擔憂,顯示出機器學習和人工智慧在診斷中的潛力與限制。 PubMed DOI

這項研究評估大型語言模型(LLMs)在低體溫心臟驟停(HCA)中對體外心肺復甦術(eCPR)禁忌症的資訊準確性,並與常溫心臟驟停(NCA)的專家共識比較。研究發現,10個AI工具中有5個的回應與專家共識一致,但引用的參考資料皆被視為「不正確」。在101項目中,45%未能回答問題,55%則被視為「幻覺性」。結論指出,僅依賴AI進行HCA的eCPR決策可能導致不當撤回治療,影響病人存活機會,因此不應將LLMs視為唯一的醫療決策資源。 PubMed DOI