原始文章

這項研究探討了人工智慧,特別是ChatGPT-4TM,在提升甲狀腺多學科團隊(MDT)結果準確性方面的潛力。研究涵蓋30個甲狀腺病例,結果顯示MDT的判斷與英國甲狀腺協會的指導方針完全一致,達到100%的符合率。然而,AI生成的結果與MDT相比,只有67%的高度一致性,13%的病例則完全不一致。這顯示AI雖能簡化決策過程,但在缺乏臨床醫師驗證的情況下,仍無法完全依賴。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT和Google Bard在解釋甲狀腺功能檢驗結果方面表現不佳,並無法提供準確或安全的建議。雖然能辨識部分疾病,但整體表現仍有困難。結論指出,這些人工智慧工具尚未能取代專業醫護人員的諮詢。 PubMed DOI

透過ChatGPT的協助,我們成功開發了一個深度學習模型,用來分析甲狀腺結節的超音波影像和細針穿刺活檢(FNAB)結果。研究共有1,061位參與者,模型在測試中達到0.81的準確度,對良性和惡性甲狀腺病理的區分表現出高精確度和召回率,平衡的F1分數為0.86。這研究顯示了人工智慧,包括ChatGPT,在醫學影像分析深度學習模型上的潛力。 PubMed DOI

研究指出GPT-4在分析甲狀腺癌超音波報告方面表現優異,但在準確診斷上有限制。透過"Chain of Thought"方法增加可解釋性,強調人工智慧表現差異。GPT-4或許可成為醫療工具,特別是生成診斷報告。提出"ThyroAIGuide"線上平台展現人工智慧潛力,但需進一步研究和醫療專業監控,確保患者安全和護理品質。 PubMed DOI

研究評估了ChatGPT-v4在甲狀腺結節管理指南上的效果。結果顯示,它在糾正錯誤回答方面有潛力,但也有一些不一致性。在多重選擇問題上表現較為穩定。總的來說,ChatGPT可能成為甲狀腺結節管理的臨床輔助工具,但在不同類型問題上表現有差異。 PubMed DOI

研究發現,在協助頭頸部癌症患者的腫瘤委員會決策中使用AI模型ChatGPT 3.5和ChatGPT 4.0,能提供資訊和臨床建議,但有時會提出多治療選項,甚至建議不符合指引的治療方式。結論指出,AI目前僅能當輔助工具,因為準確性和資訊來源有限。 PubMed DOI

這項研究探討了人工智慧(AI)在子宮頸癌多學科團隊(MDT)會議中的預篩選工具角色。研究發現AI建議在治療決策前應諮詢專業醫療人員,且在標準病例中與MDT建議相當一致。AI也提供了有關風險因素的見解,如肥胖,但有時缺乏堅實的醫學證據,甚至包含虛構資訊。因此,雖然AI在某些方面顯示潛力,但仍未能成為MDT中可靠的預篩選工具。 PubMed DOI

本研究評估了人工智慧(AI),特別是OpenAI的自然語言處理技術,對胸腔多學科腫瘤委員會(MTB)決策的幫助。研究納入2023年1月至6月診斷為非小細胞肺癌的52位病患,AI模型生成的建議與MTB決策的一致性達76%,Kappa指數為0.59,手術建議的一致性更高,重複案例後達92.3%。結果顯示,AI可成為多學科腫瘤委員會決策的有力支持工具。 PubMed DOI

這項研究評估了大型語言模型(LLMs)如ChatGPT、Gemini和Claude在甲狀腺結節癌症風險評估中的有效性,並與美國甲狀腺協會(ATA)及全國綜合癌症網絡(NCCN)的指導方針進行比較。322名放射科醫生參與評估,結果顯示Claude得分最高,其次是ChatGPT和Gemini。雖然不當回應比率相似,但ChatGPT在準確性上表現最佳。質性反饋指出,ChatGPT清晰且結構良好,Gemini則可及性高但內容淺薄,Claude組織性佳但偶爾偏離主題。總體而言,這些模型在輔助風險評估上有潛力,但仍需臨床監督以確保可靠性。 PubMed DOI

本研究評估了ChatGPT 4.0根據ACR-TI-RADS 2017標準解讀甲狀腺超音波報告的能力,並與醫療專家及一名缺乏經驗的使用者進行比較。結果顯示,ChatGPT在回聲焦點的評估上與專家一致,但在其他標準上則有不一致。缺乏經驗的使用者表現優於ChatGPT,顯示傳統醫學訓練的重要性。結論指出,ChatGPT可作為輔助診斷工具,但無法取代人類專業知識,並建議改善AI算法以增強其臨床實用性。 PubMed DOI

這項研究評估了GPT-4和GPT-4o在根據TI-RADS指引識別甲狀腺結節特徵的表現,使用了202張超音波影像。結果顯示,GPT-4在大多數類別中具高特異性但低敏感性,對低風險結節的敏感性僅25%,而高風險結節的敏感性為75%。雖然在識別平滑邊緣方面表現較好,但在其他特徵上則不理想。整體來看,這些模型在臨床應用前仍需改進和驗證。 PubMed DOI