原始文章

這項研究評估了OpenAI的ChatGPT和Microsoft的Copilot在根據全國綜合癌症網絡針對胰腺導管腺癌指導方針生成回應的準確性。研究發現,ChatGPT的準確性較Copilot優越,完全正確的回應分別為52%和33%。此外,ChatGPT的回應也較為準確,評分為3.33對3.02。兩者的回應普遍冗長,平均字數分別為270字和32字。研究結論指出,雖然這些模型在臨床決策支持上有潛力,但仍需改進以確保準確性和簡潔性。 PubMed DOI


站上相關主題文章列表

這項研究評估了大型語言模型(LLMs)驅動的聊天機器人,如ChatGPT 3.5、CoPilot和Gemini,在提供前列腺癌資訊的有效性,並與官方病人指南進行比較。研究使用25個專家驗證的問題,根據準確性、及時性、完整性和可理解性進行評估。結果顯示,ChatGPT 3.5的表現優於其他模型,證明其為可靠的資訊來源。研究強調在健康領域持續創新AI應用的重要性,並建議未來探討AI回應中的潛在偏見及其對病人結果的影響。 PubMed DOI

多學科腫瘤委員會(MTBs)在癌症治療決策中扮演重要角色,但常面臨案例過載,影響決策品質。臨床決策支持系統(CDSSs)雖已引入協助醫師,但使用仍有限。大型語言模型(LLMs)如ChatGPT的出現,為提升CDSS的效率提供新機會。 OncoDoc2專注於乳腺癌管理,研究探討LLMs如何透過提示工程技術(PETs)改善其可用性。使用200個乳腺癌患者摘要進行評估,結果顯示最佳方法結合Mistral和OpenChat模型,達到不錯的準確率,但與金標準建議的匹配度仍低,顯示LLMs在醫療決策中仍需進一步發展。 PubMed DOI

子宮頸癌是全球健康的重要議題,尤其在資源有限的地區。這項研究探討大型語言模型(LLMs)在子宮頸癌管理中的潛力,評估了九個模型的準確性和可解釋性。結果顯示,ChatGPT-4.0 Turbo表現最佳,得分為2.67,顯示其在提供可靠回應方面的有效性。研究還利用LIME增強模型的可解釋性,對醫療專業人員建立信任至關重要。雖然專有模型表現良好,但醫學專用模型的表現未如預期,未來仍需進一步研究以了解LLM在醫療中的應用。 PubMed DOI

這項研究評估了幾個大型語言模型(LLMs)在回答急性膽囊炎相關臨床問題的準確性,依據2018年東京指引。評估的模型包括ChatGPT4.0、Gemini Advanced和GPTo1-preview,針對十個問題進行評分。結果顯示,ChatGPT4.0對90%的問題提供一致回答,其中40%被評為「準確且全面」。Gemini Advanced在某些問題上表現較好,但也有部分回答不完全準確。研究強調這些模型在臨床問題解決上的潛力,但也需認識其局限性,透過持續改進可增強醫師教育及病患資訊,助於臨床決策。 PubMed DOI

這項研究評估大型語言模型(LLMs)在根據病患醫療紀錄生成早期乳腺癌治療選項的準確性。使用2024年初的多學科團隊會議紀錄,測試了三個AI模型:Claude3-Opus、GPT4-Turbo和LLaMa3-70B。結果顯示,Claude3-Opus準確率86.6%,GPT4-Turbo為85.7%,LLaMa3-70B則為75.0%。兩者在輔助內分泌和靶向治療上表現良好,但在輔助放射治療上則有高估的情況。研究建議需進一步探討這些模型在臨床上的實際應用。 PubMed DOI

研究顯示,ChatGPT-4在增強臨床決策方面具備潛力,特別是在處理Clostridioides difficile感染和結腸息肉監測等病症的臨床指引時。納入這些指引後,ChatGPT-4的回答準確性顯著提升,且始終與指引一致。它還能有效總結不同指引中的矛盾資訊,顯示出在複雜臨床情境中的實用性。這表明大型語言模型如ChatGPT-4可成為醫師的寶貴工具,提供快速且可靠的資訊,幫助改善病患護理,並推動人工智慧在醫療領域的應用。 PubMed DOI

這項研究發現,讓 ChatGPT 直接讀取 NCCN 指南 PDF 並搭配提示語(PDF+Prompt),能大幅提升其在建議晚期非小細胞肺癌治療時的準確度和符合指引性,且回覆更清楚易懂。單靠提示語沒有效果。這表示,若大型語言模型能直接存取臨床指引,對腫瘤治療決策會更有幫助,但還需更多研究來驗證其他癌症和臨床情境的適用性。 PubMed DOI

這項研究發現,ChatGPT-4和4O在放射腫瘤科的文字型臨床問題上表現不錯,能提供實用建議,但遇到複雜或技術性高的情境就不太可靠。特別是在判讀鼻咽癌MRI影像時,ChatGPT-4O完全無法正確分期。總結來說,ChatGPT適合輔助一般臨床決策,但影像判讀還不行,使用時要特別小心。 PubMed DOI

這項研究比較了三款AI(ChatGPT Plus、Copilot、Perplexity)在回答神經內分泌腫瘤管理問題的表現。ChatGPT Plus在清楚度上表現最好,但所有AI在複雜臨床問題上仍有困難。雖然AI有潛力成為資訊工具,但正確性不一,仍需醫師把關,確保病患溝通安全。 PubMed DOI

這項研究比較了ChatGPT-4和Gemini 1.0 Ultra在回答腸胃道癌症臨床問題的表現,兩者正確率約76–78%,精確度57–65%,但都還不夠精準,還不能直接用在臨床上。兩個模型和不同癌症類型間沒明顯差異,顯示目前AI在腫瘤科臨床決策上還有進步空間,未來還需要更多研究。 PubMed DOI