Performance analysis of large language models Chatgpt-4o, OpenAI O1, and OpenAI O3 mini in clinical treatment of pneumonia: a comparative study.
Chatgpt-4o、OpenAI O1 與 OpenAI O3 mini 在肺炎臨床治療中的表現分析:一項比較研究
Clin Exp Med 2025-06-24
這項研究比較三款大型語言模型在肺炎治療建議的準確性。結果顯示,OpenAI O1 表現最好,O3 mini 次之,ChatGPT-4o 最差。具備 chain-of-thought 推理的模型(O1、O3 mini)在專家回饋後進步明顯,顯示這種推理機制有助於提升臨床決策的可靠性。
相關文章PubMedDOI推理
Consulting the Digital Doctor: Efficacy of ChatGPT-3.5 in Answering Questions Related to Diabetic Foot Ulcer Care.
諮詢數位醫師:ChatGPT-3.5 在回答糖尿病足潰瘍照護相關問題的效益
Adv Skin Wound Care 2025-06-23
Can ChatGPT pass the urology fellowship examination? Artificial intelligence capability in surgical training assessment.
ChatGPT 能通過泌尿科專科醫師考試嗎?人工智慧於外科訓練評估的能力
BJU Int 2025-06-23
研究比較 ChatGPT(3.5、4.0)和澳洲泌尿科住院醫師在專科考試的表現,結果住院醫師的通過率和分數都比 AI 略高,雖然差異沒達到統計顯著。考官大多能分辨 AI 答案。整體來說,ChatGPT 在這類高階醫學考試還是比不上人類醫師。
相關文章PubMedDOI推理
scExtract: leveraging large language models for fully automated single-cell RNA-seq data annotation and prior-informed multi-dataset integration.
scExtract:運用大型語言模型於全自動單細胞RNA-seq資料註釋與先驗知識導向的多資料集整合
Genome Biol 2025-06-23
Evaluating the utility of ChatGPT in addressing conceptual and non-conceptual questions related to urodynamic quality control and trace analysis.
ChatGPT 在解決與尿動力學品質控制及圖譜分析相關的概念性與非概念性問題之應用評估
Sci Rep 2025-06-24
A Dataset of Medical Questions Paired with Automatically Generated Answers and Evidence-supported References.
一個包含醫學問題、由自動生成答案及有證據支持參考文獻配對的資料集
Sci Data 2025-06-24
MedAESQA 資料集專為提升大型語言模型在醫療問答的表現而設計,內含 40 個真實醫療問題,每題有 30 答案(人類與 AI 產生),並附上相關科學文獻摘要。每個答案都經人工評估正確性與來源相關性,目的是讓 AI 回答更貼近事實、具科學根據。
相關文章PubMedDOI推理