原始文章

這項研究發現,ChatGPT-4.0在乳癌治療建議上,只有46%完全符合專家團隊意見,且重複問答一致性僅39%。它在早期乳癌表現較好,但遇到複雜或基因相關情境就明顯不足,常缺乏臨床細節。總結來說,目前ChatGPT在乳癌多專科照護上,準確度和穩定性都有限,使用時要特別小心。 PubMed DOI


站上相關主題文章列表

一項研究評估了聊天機器人ChatGPT在卵巢癌管理方面的表現,並與國家綜合癌症網絡(NCCN)的指引進行比較。研究生成了10個問題,涵蓋風險因素、手術及醫療管理等。結果顯示,NCCN的準確且完整回答為48%,未提示的GPT為64%,經過提示的GPT為66%。GPT-4在風險因素和手術管理上表現優於NCCN,但在醫療管理上較弱。雖然不準確回答比例低,但使用聊天機器人時仍需謹慎。 PubMed DOI

人工智慧(AI)正在改變醫療流程,像ChatGPT這樣的自我學習系統在治療建議上展現潛力。本研究評估了ChatGPT在30例乳腺癌病例中的表現。結果顯示,腫瘤科醫生對其建議的評價為足夠,尤其在HER2治療方面準確性較高。然而,在複雜病例和術後情境中仍面臨挑戰。為提升AI的有效性,需精煉輸入數據並解決倫理問題,確保治療時間表的準確性。持續研究對於提高AI準確性及安全整合至病人護理中至關重要。 PubMed DOI

這項研究評估了ChatGPT 3.5在放射腫瘤學的表現,發現其回答病人問題、總結研究及文獻回顧的能力常常不準確。具體來說,只有39.7%的病人問題回答被認為正確,35.0%的研究摘要準確率,完整文本時提高到43.3%。此外,超過一半的標準護理實踐研究是虛構的。研究結論指出,目前不應依賴ChatGPT作為放射腫瘤學的可信資源,但未來版本可能會改善準確性和可靠性。 PubMed DOI

在2023年10月進行的研究中,評估了ChatGPT-4與ChatGPT-3.5在癌症治療建議的質量,特別針對前列腺癌、腎臟癌和膀胱癌。結果顯示,ChatGPT-4在提供更詳細和準確的建議方面表現優於3.5,建議批准率和與NCCN指導方針的一致性也更高。雖然ChatGPT-4的表現顯著改善,但研究強調AI工具不應取代專業醫療建議,使用時需謹慎。 PubMed DOI

這項研究評估了ChatGPT 3.5在提供乳癌資訊的有效性。研究人員提出20個常見問題,並根據準確性、臨床一致性和可讀性進行評估。結果顯示,平均準確性得分為1.88,臨床一致性得分為2.79,回答平均字數為310字,但可讀性較差,Flesch Kincaid指數為37.9。研究發現,24%的回答是錯誤的,41%的回答缺乏真實參考文獻,建議病患在依賴ChatGPT獲取醫療資訊時要特別謹慎。 PubMed DOI

子宮頸癌和乳腺癌對女性健康影響深遠,常因污名化和錯誤資訊導致診斷延遲。為評估ChatGPT對這些癌症的回答準確性,進行了一項線上調查,並與十位醫生的回答進行比較。結果顯示,ChatGPT在準確性上表現優於醫生,但在一致性和可讀性方面仍有待加強。整體而言,ChatGPT在提供初步資訊上具潛力,但未來需改善其可靠性和一致性,以更好地協助有健康問題的個體。 PubMed DOI

這項研究評估了ChatGPT對乳腺癌常見問題的回答準確性,顯示它在病患教育中的潛力。研究收集了100個問題,專家評估後發現,大部分回答至少部分正確,但仍有5個完全錯誤、22個部分正確、42個正確但缺乏細節,只有31個高度準確。這顯示ChatGPT可作為輔助工具,但不準確的情況強調了專業監督的重要性。研究建議在醫療中整合AI工具,以增進病患與醫療提供者的互動,並確保資訊隨時更新。 PubMed DOI

這項研究評估了AI語言模型ChatGPT在放射腫瘤學臨床情境中的表現。研究涵蓋12種不同疾病的案例,問題涉及流行病學、分期、臨床管理等領域。經過專業醫師審查後,ChatGPT的總得分為2317分(滿分2730分,得分率84%),在完整性、簡潔性和正確性方面表現良好。特別是在流行病學和癌症生物學上得分高達93%。不過,在治療計畫和臨床管理方面則表現較差,顯示其在處理複雜案例時仍有局限性。 PubMed DOI

這項研究發現,ChatGPT-4在建議原發性喉癌治療時,有72%和多專科腫瘤團隊(MDT)決策完全一致,且沒有明顯錯誤。其準確度和病人特徵無明顯關聯。未來若再優化,ChatGPT-4有機會成為醫師管理喉癌的好幫手。 PubMed DOI

這項研究發現,雖然ChatGPT-4o和腫瘤委員會在治療建議上各自有高度一致性,但兩者的建議常常不同。醫師普遍較認同腫瘤委員會的決策,且這差異有統計意義。顯示目前AI還無法取代專家處理複雜癌症個案的臨床判斷。 PubMed DOI