原始文章

這項研究評估了ChatGPT對臨床問題的回應準確性與重現性,基於2022年日本動脈硬化學會的指引。研究於2024年6月進行,包含背景問題和前景問題。三位研究者獨立評分,使用六點李克特量表,並重複詢問以測量重現性。 結果顯示,ChatGPT在背景問題的中位數分數為日文4分、英文5分,而前景問題則更高,日文5分、英文6分。前景問題的準確性明顯優於背景問題,且日文與英文的準確性無顯著差異。重現性方面,背景問題的kappa係數為0.76,前景問題為0.90,顯示高重現性。 總體而言,ChatGPT在前景問題上展現高準確性與重現性,顯示其有助於醫療決策的潛力。 PubMed DOI


站上相關主題文章列表

人工智慧在醫學領域持續進步,一項研究發現ChatGPT對急性冠狀動脈綜合症(ACS)問題回答準確率超過90%,尤其在預防和生活方式問題方面表現優秀。然而,在治療和管理問題上仍有改進空間。研究也指出,ChatGPT基於歐洲心臟學會指南的回答具有實質性。 PubMed DOI

研究評估ChatGPT在回答美國整形外科學會眼瞼下垂指引臨床問題的表現,英文正確率61.3%,優於日文。提供答案、證據、建議和參考文獻。雖有潛力,但需專業醫學知識補充。研究觀察性,受權威監督。 PubMed DOI

研究指出,ChatGPT回答日本內科專家問題的整體準確率為59.05%,對非圖像問題的準確率提升至65.76%,但仍不及人類專家。ChatGPT在持續正確回答的問題(CCA)和持續錯誤回答的問題(CIA)之間有明顯的準確性差異。因此,ChatGPT應被視為醫學判斷的輔助,而非替代。未來應進一步研究,以更好整合ChatGPT等人工智慧工具到專業醫學實務中。 PubMed DOI

研究發現ChatGPT在心臟衰竭問答方面表現優異,GPT-4回答準確全面,GPT-3.5表現也不錯。這些模型展現高度可信度,可能成為心臟衰竭患者重要資源,但仍需進一步驗證確保安全公平。 PubMed DOI

本研究評估ChatGPT-4.0在心臟病臨床案例的預診斷與治療計畫中的表現,並由專家醫師進行評估。研究使用20個案例,結果顯示ChatGPT-4.0在鑑別診斷上的一致性得分中位數為5.00,管理計畫得分中位數為4,顯示其準確性與質量良好。整體而言,ChatGPT-4.0在不同難度的案例中表現穩定,顯示其在心臟病領域作為臨床決策支持工具的潛力。 PubMed DOI

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI

這項研究評估了ChatGPT3.5在回答2019年嚴重急性胰臟炎指引的臨床問題時的準確性。結果顯示,該模型在英語中的準確率為71%,而中文則為59%,但這差異並不顯著(P = 0.203)。此外,簡答題的準確率(76%)高於是非題(60%),但同樣沒有顯著性(P = 0.405)。雖然這些結果顯示ChatGPT3.5可能對臨床醫生有幫助,但仍需謹慎使用,避免過度依賴。 PubMed DOI

急性冠狀動脈症候群(ACS)仍是主要的疾病與死亡原因,2023年歐洲心臟病學會(ESC)指導方針在管理上有顯著進步。本研究評估了ChatGPT-v4在遵循ESC指導方針的表現,結果顯示其在二元問題的準確率從84%提升至86%,多選問題則從80%提升至84%。雖然表現有小幅波動,但顯示出穩定性和高一致性。儘管如此,仍需注意其局限性及可能的風險,這在臨床應用中需謹慎考量。 PubMed DOI

這項研究評估了ChatGPT4o在回答日本認證物理醫師考試問題的表現,重點在於準確性及其作為教育和臨床支援工具的潛力。2021年正確率79.1%,2022年80.0%,2023年達86.3%,整體準確率為81.8%。文字型問題表現較佳,正確率83.0%,影像型問題則為70.0%。大部分錯誤與資訊問題有關,佔92.8%。研究顯示,雖然ChatGPT4o在教育上有潛力,但在臨床應用,特別是影像解讀和專業主題上仍需改進。 PubMed DOI

本研究評估了ChatGPT(GPT-4V)在日本醫療資訊技術人員(HCIT)認證考試中的表現。經過三年,分析了476道考題,結果顯示ChatGPT的正確回答率達84%,成功通過考試。簡單選擇題的表現優於多選題,且帶圖片的問題和需要計算的題目正確率較低。總體而言,ChatGPT具備HCIT認證所需的基本知識和技能,顯示其在醫療資訊領域的潛力。 PubMed DOI