原始文章

這項研究比較了公開AI模型(如ChatGPT 4o)和自訂模型(Pyolo8)在乳房重建手術後對稱性評估的表現。兩者和專家評分有中到高度一致,ChatGPT在溝通上特別突出。不過,研究團隊認為AI不宜直接與病人互動,避免誤解和情緒問題。總結來說,AI能協助評估,但專業醫師的監督和同理心仍不可取代。 PubMed DOI


站上相關主題文章列表

醫學研究人員越來越多地使用先進的語言模型(LLMs),如ChatGPT-4和Gemini,來改善乳腺相關疾病的診斷。本研究評估這些模型在複雜醫學分類系統中的應用能力,以協助整形外科醫生做出更好的診斷和治療決策。 研究中創建了五十個臨床情境來評估分類準確性,結果顯示Gemini的準確率高達98%,而ChatGPT-4為71%。Gemini在多個分類系統中表現優於ChatGPT-4,顯示出其在整形外科實踐中的潛力,未來有望增強診斷支持和決策能力。 PubMed DOI

這項研究探討了ChatGPT-4在分析下肢缺損影像及理解複雜病例報告的能力,並與專業外科醫生及住院醫師進行比較。研究在瑞士、德國和奧地利進行,52名參與者評估影像並選擇重建技術。結果顯示,ChatGPT-4在識別最佳解決方案上有困難,而專業外科醫生則表現出高度一致性。這強調了人類專業知識在患者治療計畫中的重要性,建議AI可作為輔助工具,而非取代技術熟練的外科醫生。 PubMed DOI

這項研究評估了ChatGPT為乳房重建患者生成的問題質量,這些問題是患者可以詢問醫療提供者的。研究將這些問題與可信的線上來源進行比較,並由經驗豐富的外科醫生評估其可接受性及對知情同意和共同決策的貢獻。結果顯示,外科醫生對ChatGPT生成的問題評價很高,16個問題中有15個被認為可接受,且可能增強知情同意過程。值得注意的是,外科醫生難以辨識這些問題是AI生成的,顯示AI工具在準備諮詢上對患者有潛在好處。 PubMed DOI

這項研究發現,基於ChatGPT的工具在乳房X光片找腫塊的表現還可以,但在判斷乳房密度、腫瘤大小、位置、微鈣化和淋巴結侵犯等細節時,準確度不高。跟放射科醫師的BI-RADS評分一致性也只有普通到中等。總結來說,目前這類AI還不適合用在乳癌篩檢的全面影像分析。 PubMed DOI

這項研究發現,ChatGPT-4o在協助乳房疾病手術規劃時,雖然能給出清楚且結構良好的建議,但在手術細節和風險評估上還不夠完善,且回答內容需要較高的閱讀理解能力。現階段它只能當作輔助工具,無法取代專業醫師,未來還需更多開發和專家驗證才能臨床應用。 PubMed DOI

這項研究發現,ChatGPT在回答四種常見整形外科手術的病人問題時,表現穩定且清楚,對衛教有幫助。不過,它無法給予個人化建議,建議還是要搭配專業醫師使用。未來可加強個人化功能,並在臨床實際測試。 PubMed DOI

這項研究發現,ChatGPT-4用來判斷乳癌手術切緣狀態,整體準確率有84%,對完全切除的判斷很準,但對切除不完全的偵測能力還不夠好。雖然有潛力輔助醫師決策,但目前還不適合直接用在臨床,需要更多專業訓練和驗證。 PubMed DOI

這項研究比較了四款主流多模態AI在臉部特徵分析上的表現。結果發現,這些AI在評估皮膚品質、臉部對稱等質性分析還可以,但在精確量測臉部比例時就不太準確,還無法取代臨床人工評估。未來若要應用在整形外科,還需要專業訓練和更強的電腦視覺技術輔助。 PubMed DOI

這項回溯性研究發現,ChatGPT-4在解讀乳房超音波報告並用BI-RADS分類結節時,表現比資淺放射科醫師更好,和資深醫師差不多。它預測惡性腫瘤的準確度高(AUC 0.82,準確率80.63%,敏感度90.56%,特異度73.51%)。若把ChatGPT-4納入影像判讀流程,能進一步提升醫師診斷準確率,減少不同醫師間的判讀差異。 PubMed DOI

這項研究發現,ChatGPT(特別是GPT-4o)在唇顎裂問題的回答上,表現中等,內容清楚易懂,有時甚至比資淺醫師還專業。不過,AI還是缺乏臨床經驗和細緻判斷,無法完全取代資深醫師。AI適合當輔助工具,幫助病患教育和溝通,搭配專家一起用,能提升照護品質。 PubMed DOI