原始文章

這項研究評估了ChatGPT對臨床問題的回應準確性與重現性,基於2022年日本動脈硬化學會的指引。研究於2024年6月進行,包含背景問題和前景問題。三位研究者獨立評分,使用六點李克特量表,並重複詢問以測量重現性。 結果顯示,ChatGPT在背景問題的中位數分數為日文4分、英文5分,而前景問題則更高,日文5分、英文6分。前景問題的準確性明顯優於背景問題,且日文與英文的準確性無顯著差異。重現性方面,背景問題的kappa係數為0.76,前景問題為0.90,顯示高重現性。 總體而言,ChatGPT在前景問題上展現高準確性與重現性,顯示其有助於醫療決策的潛力。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT回答日本高血壓學會指南中臨床問題的能力。相較於基於證據的問題,ChatGPT在回答臨床問題時顯示出更高的準確性,顯示其有潛力成為一個對於管理高血壓的醫療提供者有用的工具。 PubMed DOI

ChatGPT是OpenAI開發的AI,擅長自然直覺回答。雖然有時會出錯,但經過訓練改進。新版GPT-4預計比GPT-3.5多40%正確回答。在英文表現優秀,現正評估其他語言的醫學資訊。在日本醫學研究中,GPT-4比GPT-3.5表現更好,正確率達81.5%。有潛力成為醫師診斷輔助工具,符合日本醫學執照考試標準。透過持續學習,ChatGPT可成為醫學專業人士的決策支援系統。 PubMed DOI

研究評估了ChatGPT在回答生活方式相關疾病查詢時的表現,結果顯示ChatGPT在準確性和指導性方面表現良好,且回答充滿正能量。研究建議ChatGPT可提供準確信息,讓患者在就醫前獲得初步指導。 PubMed DOI

人工智慧在醫學領域持續進步,一項研究發現ChatGPT對急性冠狀動脈綜合症(ACS)問題回答準確率超過90%,尤其在預防和生活方式問題方面表現優秀。然而,在治療和管理問題上仍有改進空間。研究也指出,ChatGPT基於歐洲心臟學會指南的回答具有實質性。 PubMed DOI

研究評估ChatGPT在回答美國整形外科學會眼瞼下垂指引臨床問題的表現,英文正確率61.3%,優於日文。提供答案、證據、建議和參考文獻。雖有潛力,但需專業醫學知識補充。研究觀察性,受權威監督。 PubMed DOI

研究指出,ChatGPT回答日本內科專家問題的整體準確率為59.05%,對非圖像問題的準確率提升至65.76%,但仍不及人類專家。ChatGPT在持續正確回答的問題(CCA)和持續錯誤回答的問題(CIA)之間有明顯的準確性差異。因此,ChatGPT應被視為醫學判斷的輔助,而非替代。未來應進一步研究,以更好整合ChatGPT等人工智慧工具到專業醫學實務中。 PubMed DOI

研究發現ChatGPT在心臟衰竭問答方面表現優異,GPT-4回答準確全面,GPT-3.5表現也不錯。這些模型展現高度可信度,可能成為心臟衰竭患者重要資源,但仍需進一步驗證確保安全公平。 PubMed DOI

本研究評估ChatGPT-4.0在心臟病臨床案例的預診斷與治療計畫中的表現,並由專家醫師進行評估。研究使用20個案例,結果顯示ChatGPT-4.0在鑑別診斷上的一致性得分中位數為5.00,管理計畫得分中位數為4,顯示其準確性與質量良好。整體而言,ChatGPT-4.0在不同難度的案例中表現穩定,顯示其在心臟病領域作為臨床決策支持工具的潛力。 PubMed DOI

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI

急性冠狀動脈症候群(ACS)仍是主要的疾病與死亡原因,2023年歐洲心臟病學會(ESC)指導方針在管理上有顯著進步。本研究評估了ChatGPT-v4在遵循ESC指導方針的表現,結果顯示其在二元問題的準確率從84%提升至86%,多選問題則從80%提升至84%。雖然表現有小幅波動,但顯示出穩定性和高一致性。儘管如此,仍需注意其局限性及可能的風險,這在臨床應用中需謹慎考量。 PubMed DOI