原始文章

這項研究發現,AI(特別是ChatGPT)在預測黑色素瘤患者前哨淋巴結活檢結果上,比傳統預測圖更準確。結合AI和傳統方法後,預測能力還能再提升。未來AI若持續進步,有望讓預測更精確,幫助臨床決策。 PubMed DOI


站上相關主題文章列表

最近在人工智慧(AI)和大型語言模型(LLMs)方面的進展,特別是在皮膚科,顯示出良好的潛力。本研究比較了Claude 3 Opus和ChatGPT(GPT-4)在分析皮膚鏡影像以檢測黑色素瘤的表現。結果顯示,Claude 3 Opus在惡性區分上表現較佳,敏感度和特異度均高於ChatGPT。雖然兩者在診斷上有其潛力,但仍存在錯誤,強調了AI與臨床醫生合作的重要性,以開發更可靠的診斷工具。 PubMed DOI

這項研究評估了多種人工智慧模型在診斷口腔潛在惡性病變(OPMLs)的準確性,特別是ChatGPT 3.5、4.0、4o和Gemini。研究使用42個案例和兩個數據集的影像進行測試。結果顯示,GPT 4o在文本診斷中表現最佳,正確回答27個案例,其次是GPT 4.0、3.5和Gemini。在影像識別方面,GPT 4o也優於Gemini。不過,這些模型的準確性仍未達到專家水平,顯示出中等到良好的協議程度。研究指出,雖然人工智慧在診斷OPMLs上有潛力,但整合進臨床實踐時需謹慎。 PubMed DOI

這項研究評估了ChatGPT在分析葡萄膜黑色素瘤患者案例並提供治療建議的能力。研究回顧了40名患者的案例,發現ChatGPT的手術建議準確性為55%,排除眼球摘除後提高至75%。與三位專家的建議一致性分別為50%、55%和57%,在排除眼球摘除後則提升至70%至75%。雖然ChatGPT在簡單案例中表現不錯,但在處理更複雜的情況時仍有其限制,顯示出需要更全面的患者評估。 PubMed DOI

本研究探討ChatGPT-4在皮膚病變識別的有效性,特別是黑色素瘤的檢測。結果顯示,GPT-4在黑色素瘤的準確率為68.5%,敏感性52.5%,特異性72.5%,與臨床診斷有顯著差異。對於可疑病變的檢測表現較佳,但仍未能與臨床診斷完全匹配。研究指出,需改進算法並擴大數據集,以提升準確性和普遍性。限制因素包括樣本量小及數據來源的特定性。 PubMed DOI

這項研究評估了大型語言模型(LLMs)如ChatGPT、Gemini和Claude在甲狀腺結節癌症風險評估中的有效性,並與美國甲狀腺協會(ATA)及全國綜合癌症網絡(NCCN)的指導方針進行比較。322名放射科醫生參與評估,結果顯示Claude得分最高,其次是ChatGPT和Gemini。雖然不當回應比率相似,但ChatGPT在準確性上表現最佳。質性反饋指出,ChatGPT清晰且結構良好,Gemini則可及性高但內容淺薄,Claude組織性佳但偶爾偏離主題。總體而言,這些模型在輔助風險評估上有潛力,但仍需臨床監督以確保可靠性。 PubMed DOI

您的研究強調了將像 ChatGPT 這樣的 AI 工具整合進醫療保健的重要性,特別是在皮膚科領域。雖然 AI 有助於診斷黑色素瘤等疾病,但目前 ChatGPT 在準確性上仍有不足,顯示出持續研究和開發的必要性。未來的改進應著重於提升模型對醫療影像和臨床數據的理解,以更好地支持醫療專業人員的決策需求。 PubMed DOI

這項研究比較了公開AI模型(如ChatGPT 4o)和自訂模型(Pyolo8)在乳房重建手術後對稱性評估的表現。兩者和專家評分有中到高度一致,ChatGPT在溝通上特別突出。不過,研究團隊認為AI不宜直接與病人互動,避免誤解和情緒問題。總結來說,AI能協助評估,但專業醫師的監督和同理心仍不可取代。 PubMed DOI

這項研究發現,ChatGPT-4用來判斷乳癌手術切緣狀態,整體準確率有84%,對完全切除的判斷很準,但對切除不完全的偵測能力還不夠好。雖然有潛力輔助醫師決策,但目前還不適合直接用在臨床,需要更多專業訓練和驗證。 PubMed DOI

這項研究發現,ChatGPT-4V在判斷頭頸癌病患CT影像的淋巴結轉移和外侵犯時,雖然敏感度很高(100%),但特異性較低(約34%),容易高估病情,建議過度手術。雖然現階段還不適合直接用於手術規劃,但AI分析速度快、推理能力強,未來仍有成為輔助工具的潛力。 PubMed DOI

模擬研究發現,DeepSeek 在頭頸癌治療計畫擬定上比 ChatGPT 更準確,兩者在腫瘤分期表現差不多。雖然正確率有統計意義,但目前還無法取代多專科團隊,較適合輔助臨床流程。未來應聚焦開發安全且能客製化的腫瘤科 AI。 PubMed DOI