原始文章

這項研究評估了ChatGPT對臨床問題的回應準確性與重現性,基於2022年日本動脈硬化學會的指引。研究於2024年6月進行,包含背景問題和前景問題。三位研究者獨立評分,使用六點李克特量表,並重複詢問以測量重現性。 結果顯示,ChatGPT在背景問題的中位數分數為日文4分、英文5分,而前景問題則更高,日文5分、英文6分。前景問題的準確性明顯優於背景問題,且日文與英文的準確性無顯著差異。重現性方面,背景問題的kappa係數為0.76,前景問題為0.90,顯示高重現性。 總體而言,ChatGPT在前景問題上展現高準確性與重現性,顯示其有助於醫療決策的潛力。 PubMed DOI


站上相關主題文章列表

本研究評估ChatGPT-4.0在心臟病臨床案例的預診斷與治療計畫中的表現,並由專家醫師進行評估。研究使用20個案例,結果顯示ChatGPT-4.0在鑑別診斷上的一致性得分中位數為5.00,管理計畫得分中位數為4,顯示其準確性與質量良好。整體而言,ChatGPT-4.0在不同難度的案例中表現穩定,顯示其在心臟病領域作為臨床決策支持工具的潛力。 PubMed DOI

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI

這項研究評估了ChatGPT3.5在回答2019年嚴重急性胰臟炎指引的臨床問題時的準確性。結果顯示,該模型在英語中的準確率為71%,而中文則為59%,但這差異並不顯著(P = 0.203)。此外,簡答題的準確率(76%)高於是非題(60%),但同樣沒有顯著性(P = 0.405)。雖然這些結果顯示ChatGPT3.5可能對臨床醫生有幫助,但仍需謹慎使用,避免過度依賴。 PubMed DOI

這項研究評估了ChatGPT 4.0在日本物理治療師國考中的表現,針對其回答複雜問題的能力進行分析。研究涵蓋了1,000道題目,結果顯示整體正確率為73.4%,符合及格標準。一般性問題的正確率較高,達80.1%,但實務問題僅46.6%。文字問題表現良好(80.5%),但涉及圖片和表格的問題則較差(35.4%)。這顯示ChatGPT在文字問題上有優勢,但在實務及視覺數據問題上仍需改進,未來在臨床復健和教育方面有潛力,但需進一步提升。 PubMed DOI

急性冠狀動脈症候群(ACS)仍是主要的疾病與死亡原因,2023年歐洲心臟病學會(ESC)指導方針在管理上有顯著進步。本研究評估了ChatGPT-v4在遵循ESC指導方針的表現,結果顯示其在二元問題的準確率從84%提升至86%,多選問題則從80%提升至84%。雖然表現有小幅波動,但顯示出穩定性和高一致性。儘管如此,仍需注意其局限性及可能的風險,這在臨床應用中需謹慎考量。 PubMed DOI

這項研究評估了ChatGPT-4在生殖醫學問題上的表現,使用醫師考試資料庫和治療指導方針的查詢。三位專家根據相關性、準確性、完整性和可理解性進行評分。結果顯示,ChatGPT-4在該領域知識豐富,相關性和可理解性良好,但多選題的準確率僅為63.38%。專家評分差異明顯,其中一位專家評分較高。雖然它提供了實用建議和對指導方針的理解,但對地區性差異的知識仍有不足。總體來看,它可能成為生殖醫學中對患者和醫師的有用輔助工具。 PubMed DOI

這項研究評估了ChatGPT4o在回答日本認證物理醫師考試問題的表現,重點在於準確性及其作為教育和臨床支援工具的潛力。2021年正確率79.1%,2022年80.0%,2023年達86.3%,整體準確率為81.8%。文字型問題表現較佳,正確率83.0%,影像型問題則為70.0%。大部分錯誤與資訊問題有關,佔92.8%。研究顯示,雖然ChatGPT4o在教育上有潛力,但在臨床應用,特別是影像解讀和專業主題上仍需改進。 PubMed DOI

本研究評估了ChatGPT(GPT-4V)在日本醫療資訊技術人員(HCIT)認證考試中的表現。經過三年,分析了476道考題,結果顯示ChatGPT的正確回答率達84%,成功通過考試。簡單選擇題的表現優於多選題,且帶圖片的問題和需要計算的題目正確率較低。總體而言,ChatGPT具備HCIT認證所需的基本知識和技能,顯示其在醫療資訊領域的潛力。 PubMed DOI

這項研究評估了 ChatGPT 4.0 在提供腹主動脈瘤(AAA)資訊的準確性,針對患者和醫生的問題進行了測試。結果顯示,對患者問題的平均準確度為 4.4,與血管外科學會(SVS)的指導方針一致性也不錯,平均評分為 4.2。不過,對於 AAA 破裂風險的問題,表現僅為中等,平均評分 3.4。整體來看,ChatGPT 4.0 在 AAA 資訊上表現良好,對患者教育和醫生知識提升有潛在幫助。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4在提供心房顫動相關資訊的準確性。研究使用108個結構化問題,涵蓋治療選擇和生活方式調整,由三位心臟科醫師根據準確性、清晰度和臨床相關性評估其回答。結果顯示,ChatGPT-4在「生活方式調整」和「日常生活與管理」表現良好,但在較複雜的問題上則表現不佳。整體而言,雖然它在簡單主題上有潛力,但對於需要深入臨床見解的複雜問題仍有局限。 PubMed DOI