搜尋結果

使用者輸入 llm 或是chatgpt 識別病理切片的辨識度 (時間範圍: all)
轉換句 llm 和 chatgpt 在病理切片識別中的準確性, 病理切片辨識度 chatgpt 與其他模型比較, 使用 llm 技術提升病理切片識別效果
執行時間 7.16957 秒
花費Token 207
Preliminary discrimination and evaluation of clinical application value of ChatGPT4o in bone tumors.
ChatGPT4o 在骨腫瘤的初步鑑別與臨床應用價值評估。 J Bone Oncol / / 2024-09-23

根據評估,ChatGPT-4o在骨腫瘤的初步病理診斷上,與三級醫院的資深病理學家能力相當,表現優於偏遠地區的基層醫生。這顯示像ChatGPT-4o這樣的人工智慧工具,能顯著提升偏遠醫療提供者的診斷能力,並有助於改善三級醫院醫生在識別骨腫瘤時的敏感性,降低漏診的風險。 PubMed DOI

Thinking like a pathologist: Morphologic approach to hepatobiliary tumors by ChatGPT.
像病理學家一樣思考:肝膽腫瘤的形態學方法。 Am J Clin Pathol / / 2024-07-20

這項研究評估了ChatGPT在診斷肝膽腫瘤的有效性,特別是比較了GPT-4模型在兩種不同提示下的準確性。研究使用了120張光學顯微鏡照片,結果顯示,模仿病理學家的形態學分析顯著提高了診斷準確性,尤其在識別肝細胞癌和膽管癌方面。形態學方法的準確率明顯較高(肝細胞癌62.0%對27.3%),且一致性也更佳(κ值:0.46對0.27)。這強調了將病理學診斷整合進人工智慧的重要性。 PubMed DOI

Unveiling the risks of ChatGPT in diagnostic surgical pathologyChatGPT.
揭示 ChatGPT 在診斷外科病理學中的風險。 Virchows Arch / / 2024-09-13

這項研究探討了ChatGPT在協助十個子專科的組織病理學診斷中的有效性。研究中,專家病理學家評估了ChatGPT對臨床病理情境的回答,結果顯示其在62.2%的案例中提供有用答案,但32.1%的回答是正確的。儘管有一定的實用性,AI的錯誤率和文獻參考的準確性僅為70.1%,顯示出其不適合用於日常診斷。研究強調了人類專業知識的重要性,並提醒使用AI時需謹慎。 PubMed DOI

Comparing customized ChatGPT and pathology residents in histopathologic description and diagnosis of common diseases.
比較定制的 ChatGPT 和病理學住院醫師在常見疾病的組織病理描述和診斷方面的表現。 Ann Diagn Pathol / / 2024-07-07

研究比較了ChatGPT模型和病理學住院醫師在診斷疾病上的表現,結果顯示ChatGPT在描述和診斷方面表現一致,但不及醫師。然而,當提供正確描述時,ChatGPT在診斷上有潛力。儘管目前ChatGPT不如醫師,但未來可能成為病理診斷的有用輔助工具。 PubMed DOI

ChatGPT's diagnostic performance based on textual vs. visual information compared to radiologists' diagnostic performance in musculoskeletal radiology.
ChatGPT在肌肉骨骼放射學中基於文本與視覺資訊的診斷表現,與放射科醫師的診斷表現相比較。 Eur Radiol / / 2024-07-12

研究比較了基於GPT-4的ChatGPT、基於GPT-4V的ChatGPT和放射科醫師在106個案例的肌肉骨骼放射學診斷準確性。結果顯示,基於GPT-4的ChatGPT準確率為43%,優於基於GPT-4V的ChatGPT的8%。放射科醫師的準確率分別為41%和53%。ChatGPT表現接近住院醫師,但不及認證放射科醫師。放射科醫師需了解ChatGPT的診斷表現,強調提供詳細影像描述以提高準確性。 PubMed DOI

Comparative analysis of GPT-4-based ChatGPT's diagnostic performance with radiologists using real-world radiology reports of brain tumors.
基於 GPT-4 的 ChatGPT 與放射科醫生在腦腫瘤實際放射學報告中的診斷表現比較分析。 Eur Radiol / / 2024-08-28

這項研究評估了GPT-4(特別是ChatGPT)在解讀腦腫瘤MRI報告的診斷能力。研究分析了150份術前病患的報告,結果顯示GPT-4的診斷準確率為73%,而神經放射科醫師則為80%。在鑑別診斷方面,GPT-4的準確率高達94%,放射科醫師則介於73%到89%之間。研究結果表明,GPT-4可作為神經放射科醫師的有用第二意見,並能成為一般放射科醫師和住院醫師的指導工具,顯示其在臨床診斷中的潛力。 PubMed DOI

ChatGPT yields low accuracy in determining LI-RADS scores based on free-text and structured radiology reports in German language.
ChatGPT 在德語自由文本和結構化放射學報告中確定 LI-RADS 分數的準確性較低。 Front Radiol / / 2024-07-22

這項研究探討了大型語言模型(LLM)ChatGPT 在根據肝臟影像報告分類肝臟病變的能力,使用 MRI 報告進行比較。研究涵蓋 150 名患者的 205 份 MRI,重點在特定病變的大小、位置及動脈期對比增強標準。結果顯示,ChatGPT 在非結構化報告中的準確率(53%)高於結構化報告(44%),且在非結構化報告的協議程度(k = 0.51)也較佳。這顯示 LLM 在處理自由文本數據方面有潛力,但仍需優化以適應結構化數據。 PubMed DOI

Assessing the feasibility of ChatGPT-4o and Claude 3-Opus in thyroid nodule classification based on ultrasound images.
基於超聲影像評估 ChatGPT-4o 和 Claude 3-Opus 在甲狀腺結節分類中的可行性。 Endocrine / / 2024-10-11

這項研究探討了大型語言模型(LLMs),特別是ChatGPT-4o和Claude 3-Opus,在超音波影像中分類甲狀腺結節的表現。研究涵蓋112位患者的116個結節,結果顯示ChatGPT-4o的Kappa值為0.116,Claude 3-Opus更低,僅0.034,而初級放射科醫師的Kappa值為0.450,顯示中等協議。ROC曲線方面,ChatGPT-4o的AUC為57.0%,Claude 3-Opus為52.0%,醫師則為72.4%。兩個LLM的不必要活檢率也高,分別為41.4%和43.1%,醫師僅12.1%。這顯示LLMs在醫學影像的診斷準確性仍有限,需謹慎使用。 PubMed DOI

ChatGPT-4 Consistency in Interpreting Laryngeal Clinical Images of Common Lesions and Disorders.
常見病變和疾病的喉部臨床影像解讀的一致性。 Otolaryngol Head Neck Surg / / 2024-07-24

這項研究評估了ChatGPT-4在分析耳鼻喉科影像時的一致性,涉及40名患者。結果顯示,ChatGPT-4在影像解讀的平均一致性分數為2.46,僅在15%的案例中準確分析影像,且與醫生的高一致性僅12.5%。它建議的額外檢查次數顯著高於臨床醫師,且主要診斷準確率僅20%到25%。整體而言,雖然ChatGPT-4在主要診斷上有一定效率,但在影像分析及檢查建議的可靠性較低。 PubMed DOI