原始文章

這項研究評估了三種大型語言模型(LLMs)—GPT-4、GPT-4o 和 Gemini Advanced—在解讀心電圖(ECGs)的表現,並與心臟科醫生及急診醫學專家的表現進行比較。研究結果顯示,心臟科醫生的表現始終優於這些模型,急診醫學專家在常規心電圖評估中也超越了GPT-4o。雖然GPT-4o在某些挑戰性案例中展現潛力,但整體準確性和一致性仍不及人類專家,顯示在臨床應用中使用這些模型存在風險。 PubMed DOI


站上相關主題文章列表

研究發現,GPT-4在處理一般ECG問題時比專家表現更好,面對較困難的情況則與心臟病專家不相上下。隨著難度增加,GPT-4在診斷ECG方面比急診醫學專家更出色,且與心臟病專家的表現相當。 PubMed DOI

研究比較了GPT-4、Gemini和急診醫學專家在使用ESI評估急診患者。結果發現,GPT-4正確率最高,Gemini過度分類最多,醫學專家低分類最多。GPT-4和Gemini在危急患者分類上表現較好,整體而言GPT-4效果更佳。研究建議,GPT-4和Gemini等人工智慧模型可協助急診室準確分類患者。 PubMed DOI

研究發現ChatGPT-4V在解釋心電圖並回答問題方面表現不錯,準確率達83.87%,但在計數問題上較弱。在臨床應用仍需改進,需要進一步研究。ChatGPT未來或許可協助醫護人員解讀心電圖和進行心血管護理。 PubMed DOI

研究評估了OpenAI的ChatGPT-4和Google的Gemini Ultra大型語言模型在急救醫療服務(EMS)質量保證的應用。大型語言模型有潛力自動化部分病人護理報告處理,減輕醫務主任的工作量。人類審查者表現可靠,ChatGPT-4在某些方面表現不錯,但不夠穩定。Gemini Ultra表現不佳。建議將它們當作輔助工具,並加強培訓和整合,以提升質量保證流程的效能。 PubMed DOI

研究比較了GPT-4V和Gemini Pro Vision等大型語言模型在診斷能力上的表現,結果顯示隨著溫度設定提高,準確性也增加。儘管放射科醫師整體表現較佳,尤其在高溫度下,但這些模型在診斷決策上顯示出潛力成為輔助工具。 PubMed DOI

研究比較了OpenAI的GPT-4與人類專家在心臟病學建議的醫學準確性。結果發現,GPT-4和人類專家在醫學準確性上差不多,人類專家在高準確性回答上表現較好,但也有更多低準確性回答。GPT-4回答較長,用詞較少多樣,可能有助於一般人理解。然而,人類專家在藥物資訊和初步診斷等特定問題上表現更好,顯示GPT-4在臨床判斷上有限。雖然GPT-4在自動醫學諮詢有潛力,但需改進整合臨床推理,確保安全使用。進一步研究探索大型語言模型在醫學領域的潛力是必要的。 PubMed DOI

本研究評估ChatGPT-4.0在心臟病臨床案例的預診斷與治療計畫中的表現,並由專家醫師進行評估。研究使用20個案例,結果顯示ChatGPT-4.0在鑑別診斷上的一致性得分中位數為5.00,管理計畫得分中位數為4,顯示其準確性與質量良好。整體而言,ChatGPT-4.0在不同難度的案例中表現穩定,顯示其在心臟病領域作為臨床決策支持工具的潛力。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)的表現,包括 GPT-4、GPT-4 Turbo、GPT-4omni(GPT-4o)和 Gemini,針對 2023 年美國核心臟病學會的考試問題進行回答。分析了 168 道問題,結果顯示 GPT-4o 的正確回答中位數為 63.1%,優於其他模型。GPT-4、GPT-4 Turbo 和 Gemini 的中位數分別為 56.8%、60.7% 和 40.5%。GPT-4o 在文字問題上表現佳,但在醫學影像解讀方面仍需改進。 PubMed DOI

這項研究探討了GPT-4在協助懷疑心肌炎的醫療決策中的有效性,分析了396名患者的心臟MRI報告。結果顯示,GPT-4的準確率為83%,敏感度90%,特異度78%。其表現與一位有一年經驗的放射科醫師相當,但低於經驗更豐富的醫師。當報告中包含T1和T2映射序列時,GPT-4和人類醫師的表現都有所提升。這顯示GPT-4可能成為經驗較少醫師的有用診斷輔助工具,但仍需進一步研究以了解其潛力。 PubMed DOI

這項研究評估了先進大型語言模型(LLMs)在醫學考試中的視覺能力,特別是GPT-4和Google的Gemini。研究比較了它們在台灣專科醫師考試(肺部與重症醫學)的表現,並以僅處理文本的GPT-3.5為基準。結果顯示,GPT-4的表現持續優於Gemini和GPT-3.5,經常超過60的及格門檻,接近人類考生的水準。相對而言,Gemini的表現較低,而GPT-3.5得分最低,顯示出新模型在解讀複雜醫療資訊方面的優勢。 PubMed DOI