原始文章

這項研究評估了聊天機器人在診斷肺栓塞(PE)及其嚴重性評估的準確性。分析了65份病例報告,結果顯示Bard和Bing的準確率為92.3%,ChatGPT-3.5為87.6%。在首要診斷中,Bard的準確率為56.9%,ChatGPT為47.7%,Bing則為30.8%。雖然這些聊天機器人在識別大規模PE方面表現良好,但也有過度分類的問題。儘管如此,它們仍可作為臨床決策的輔助工具,未來需進一步研究以提升其在實際臨床中的表現。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT-3對臨床案例診斷的正確率為93.3%,但醫師的正確率高達98.3%,且更擅長辨識頂級診斷。ChatGPT-3生成的診斷清單中,醫師間一致性為70.5%。總結來說,AI聊天機器人在診斷方面有潛力,但排序仍有改進空間。 PubMed DOI

人工智慧公司致力改進聊天機器人,讓它能更貼近人類對話。研究發現OpenAI的ChatGPT在急診醫學分類上表現不錯,對高危病例的預測尤其準確,有助於辨識重症護理需求。雖然還有些許過度或不足分類的情況,但隨著更多醫學訓練,ChatGPT的準確性將會提升。 PubMed DOI

醫療保健提供者和病患正在使用人工智慧,像是ChatGPT,透過對話介面來取得醫學資訊。研究發現ChatGPT 4.0在回答行政性和複雜的醫學問題上表現優於其他聊天機器人,顯示未來進一步發展和訓練後,ChatGPT等聊天機器人有潛力協助電子健康記錄管理。 PubMed DOI

研究比較三款熱門的人工智慧聊天機器人在處理網上論壇病人問題時,區分醫療緊急和非緊急情況的準確度。機器人傾向將更多情況當成緊急,難以分辨非緊急情況。Google Bard在區分真正緊急和非緊急情況上表現最好。總結來說,這些機器人在準確判斷緊急情況方面還有進步的空間,但有潛力成為緊急護理工具,改善病人結果,提供緩解緊急服務壓力的解決方案。 PubMed DOI

研究比較了基於GPT-3.5的AI聊天機器人和神經學醫師在臨床案例中的診斷和決策表現。結果顯示,AI聊天機器人在神經學領域的表現相當不錯,正確率高達85%,並能提供96.1%的案例充分理由。研究指出AI可作為神經學臨床推理的輔助工具,未來應用前景廣闊。 PubMed DOI

Chat-GPT被討論用於醫療,但研究顯示在急診室中,醫護人員比Chat-GPT更準確評估病情風險。目前Chat-GPT尚無法取代人類專業知識,顯示AI在此領域仍需進一步提升。 PubMed DOI

研究比較了知名的人工智慧聊天機器人在區分嚴重和較不嚴重的醫療症狀上的表現,並評估了它們的準確性和具有同理心的溝通方式。研究分析了三個聊天機器人對醫療緊急情況和非緊急情況的案例報告。這些聊天機器人提供了合理的診斷和緊急性評估,但在回應的詳情和長度上有所不同。儘管它們提供指導,但在廣泛應用於醫療問題之前,仍需要謹慎和進一步研究。 PubMed DOI

研究發現,ChatGPT 4.0 在回答美國醫師執照考試問題及生成臨床鑑別診斷方面比 3.5 更準確。在74.6%案例中準確生成診斷,70.2%正確將診斷排第一。顯示ChatGPT在回答醫學問題上有進步,並展現臨床診斷能力。 PubMed DOI

手動檢視病歷並使用確認過的評估工具是一種常見的方法,用來找出診斷錯誤,但需要花費大量資源。ChatGPT是一個AI聊天機器人,能根據提示幫忙分類文本。研究顯示,在545個有診斷錯誤的病例中,ChatGPT在95%的情況下準確檢測出錯誤,並比醫師更能找出每個病例的貢獻因素。ChatGPT最常辨識的因素是未考慮或延誤診斷以及非典型表現。在檢測診斷錯誤和貢獻因素方面,ChatGPT展現出潛力,尤其是在非典型表現的病例中。 PubMed DOI

研究比較了AI聊天機器人在心臟病學領域的表現,發現ChatGPT 4.0的準確率最高,Bing次之,Bard最低。ChatGPT在各個心臟病學主題上表現都很好。研究指出ChatGPT 4.0可作為心臟病學教育的重要資源,但也提醒要持續評估和改進Bard等機器人,確保醫學知識的準確性。 PubMed DOI