原始文章

這項研究評估了ChatGPT-4在抗凝治療管理方面的準確性,特別針對接受胃腸道手術的患者,並與ChatGPT-3.5及增強檢索生成模型(ChatGPT4-RAG)比較。結果顯示,ChatGPT-4的完全準確率為30.5%,而ChatGPT4-RAG則達到75%。儘管如此,研究指出75%的準確率仍不足以獨立做臨床決策,AI應視為醫生的輔助工具,並需持續評估以保障病人隱私及醫病關係。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT的GPT-3.5和GPT-4模型在解答韓國外科醫師考試問題時的表現,結果顯示GPT-4準確率高達76.4%,明顯勝過GPT-3.5的46.8%。GPT-4在各專業領域都表現穩定,但仍需搭配人類專業知識和判斷力。 PubMed DOI

研究發現ChatGPT-4提供的玻璃體視網膜手術資訊準確但難懂,建議不完全依賴AI。需加強專業領域資訊的可信度與易讀性,並了解AI在健康建議上的限制。 PubMed DOI

人工智慧如ChatGPT在醫療方面有潛力,尤其在診斷和治療上。研究顯示,在外科知識問題上,ChatGPT的表現接近或超越人類水準,尤其在多重選擇問題上更優秀,提供獨到見解。然而,有時答案可能不正確,且回應可能不一致。儘管表現令人驚豔,但仍需進一步研究以確保在臨床上的安全使用。 PubMed DOI

研究評估了ChatGPT模型在脊椎手術抗生素使用方面的應用,發現GPT-4.0比GPT-3.5更準確,並更頻繁引用指引。儘管ChatGPT能提供準確答案,但仍需謹慎應用於臨床。 PubMed DOI

研究發現ChatGPT-4在外科決策方面表現優於初級醫師,與高年級醫師相當。ChatGPT-4平均得分為79.2%,初級醫師66.8%,高年級醫師76.0%,主治醫師77.6%。特別在手術和檢查方面表現出色,可作為教育工具幫助初級醫師學習外科決策。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4在醫療決策中的表現,結果顯示GPT-4優於GPT-3.5。資深醫師給予較高評分,尤其在倫理問題上。AI有助於醫師,但不應取代人類專業知識,需進一步研究整合到臨床環境中的方法。 PubMed DOI

本研究評估ChatGPT-4.0在心臟病臨床案例的預診斷與治療計畫中的表現,並由專家醫師進行評估。研究使用20個案例,結果顯示ChatGPT-4.0在鑑別診斷上的一致性得分中位數為5.00,管理計畫得分中位數為4,顯示其準確性與質量良好。整體而言,ChatGPT-4.0在不同難度的案例中表現穩定,顯示其在心臟病領域作為臨床決策支持工具的潛力。 PubMed DOI

這項研究評估了ChatGPT在回答幽門螺旋桿菌感染問題的準確性,並與腸胃科醫生進行比較。研究選取了25個問題,測試了ChatGPT3.5和ChatGPT4,結果顯示兩者準確率均高達92%,超過腸胃科醫生的80%。ChatGPT4的回答更簡潔,且在診斷和胃癌預防方面表現優於ChatGPT3.5。整體來看,ChatGPT在H. pylori相關問題上展現高準確性,對患者和醫生皆具價值。 PubMed DOI

這項研究比較了通用的 ChatGPT-4 模型與客製化的手術胃食道逆流病工具 (GTS) 在提供胃食道逆流病手術建議的表現。結果顯示,GTS 在外科醫生和病人的詢問中準確率達到 100%,而通用模型對外科醫生的準確率僅為 66.7%,對病人則為 47.5%。GTS 的建議基於證據,符合 2021 年的指導方針,顯示客製化大型語言模型在臨床指導中的潛力。未來需進一步研究其在實際臨床環境中的有效性。 PubMed DOI

在2023年10月進行的研究中,評估了ChatGPT-4與ChatGPT-3.5在癌症治療建議的質量,特別針對前列腺癌、腎臟癌和膀胱癌。結果顯示,ChatGPT-4在提供更詳細和準確的建議方面表現優於3.5,建議批准率和與NCCN指導方針的一致性也更高。雖然ChatGPT-4的表現顯著改善,但研究強調AI工具不應取代專業醫療建議,使用時需謹慎。 PubMed DOI