搜尋結果

使用者輸入 llm 或是chatgpt 識別病理切片的辨識度 (時間範圍: all)
轉換句 llm 和 chatgpt 在病理切片識別中的準確性, 病理切片辨識度 chatgpt 與其他模型比較, 使用 llm 技術提升病理切片識別效果
執行時間 7.16957 秒
花費Token 207
Preliminary discrimination and evaluation of clinical application value of ChatGPT4o in bone tumors.
ChatGPT4o 在骨腫瘤的初步鑑別與臨床應用價值評估。 J Bone Oncol / / 2024-09-23

根據評估,ChatGPT-4o在骨腫瘤的初步病理診斷上,與三級醫院的資深病理學家能力相當,表現優於偏遠地區的基層醫生。這顯示像ChatGPT-4o這樣的人工智慧工具,能顯著提升偏遠醫療提供者的診斷能力,並有助於改善三級醫院醫生在識別骨腫瘤時的敏感性,降低漏診的風險。 PubMed DOI

Thinking like a pathologist: Morphologic approach to hepatobiliary tumors by ChatGPT.
像病理學家一樣思考:肝膽腫瘤的形態學方法。 Am J Clin Pathol / / 2024-07-20

這項研究評估了ChatGPT在診斷肝膽腫瘤的有效性,特別是比較了GPT-4模型在兩種不同提示下的準確性。研究使用了120張光學顯微鏡照片,結果顯示,模仿病理學家的形態學分析顯著提高了診斷準確性,尤其在識別肝細胞癌和膽管癌方面。形態學方法的準確率明顯較高(肝細胞癌62.0%對27.3%),且一致性也更佳(κ值:0.46對0.27)。這強調了將病理學診斷整合進人工智慧的重要性。 PubMed DOI

ChatGPT as an aid for pathological diagnosis of cancer.
ChatGPT作為癌症病理診斷的輔助。 Pathol Res Pract / / 2024-02-01

人工智慧在病理學,尤其是癌症診斷領域,正快速發展。像ChatGPT這樣的AI工具被研究其提升診斷精準度和效率的潛力。透過結合數位切片和先進演算法,AI可以增進病理醫師的能力,處理龐大數據。但AI要成功應用於癌症診斷,必須克服偏見、法律問題和與現有系統整合等挑戰。 PubMed DOI

Unveiling the risks of ChatGPT in diagnostic surgical pathologyChatGPT.
揭示 ChatGPT 在診斷外科病理學中的風險。 Virchows Arch / / 2024-09-13

這項研究探討了ChatGPT在協助十個子專科的組織病理學診斷中的有效性。研究中,專家病理學家評估了ChatGPT對臨床病理情境的回答,結果顯示其在62.2%的案例中提供有用答案,但32.1%的回答是正確的。儘管有一定的實用性,AI的錯誤率和文獻參考的準確性僅為70.1%,顯示出其不適合用於日常診斷。研究強調了人類專業知識的重要性,並提醒使用AI時需謹慎。 PubMed DOI

Accuracy of ChatGPT generated diagnosis from patient's medical history and imaging findings in neuroradiology cases.
ChatGPT生成的診斷在神經放射學案例中根據患者病史和影像學所提供的準確性。 Neuroradiology / / 2024-03-28

研究評估了基於GPT-4結構的Chat Generative Pre-trained Transformer (ChatGPT) 在神經放射學的診斷表現,使用了《美國神經放射學雜誌》中的100個案例。ChatGPT在診斷上達到50%的準確率,不同解剖位置的準確性沒有太大差異,但在大腦中樞神經系腫瘤的案例中,準確性稍微較低。 PubMed DOI

Comparing customized ChatGPT and pathology residents in histopathologic description and diagnosis of common diseases.
比較定制的 ChatGPT 和病理學住院醫師在常見疾病的組織病理描述和診斷方面的表現。 Ann Diagn Pathol / / 2024-07-07

研究比較了ChatGPT模型和病理學住院醫師在診斷疾病上的表現,結果顯示ChatGPT在描述和診斷方面表現一致,但不及醫師。然而,當提供正確描述時,ChatGPT在診斷上有潛力。儘管目前ChatGPT不如醫師,但未來可能成為病理診斷的有用輔助工具。 PubMed DOI

Multimodal Approach in the Diagnosis of Urologic Malignancies: Critical Assessment of ChatGPT-4V's Image-Reading Capabilities.
泌尿系惡性腫瘤診斷的多模式方法:對ChatGPT-4V影像閱讀能力的關鍵評估。 JCO Clin Cancer Inform / / 2024-04-09

一個具有影像解釋功能的 ChatGPT-4V 模型被測試用來區分腎臟和攝護腺腫瘤以及正常組織。 PubMed DOI

Large-Scale assessment of ChatGPT's performance in benign and malignant bone tumors imaging report diagnosis and its potential for clinical applications.
ChatGPT 在良性和惡性骨腫瘤影像報告診斷中的大規模評估及其在臨床應用中的潛力。 J Bone Oncol / / 2024-02-06

研究使用AI技術,如ChatGPT和few-shot learning,來協助診斷良性和惡性骨腫瘤。分析1366份影像報告後發現,ChatGPT經過few-shot learning後,準確率從0.73提升至0.87,顯示潛力。研究也討論放射科醫師的報告風格對模型表現的影響,並辨識出誤診案例。強調AI需與醫師合作,才能真正應用。這研究奠定未來醫學診斷AI進步基礎,凸顯few-shot learning在專業領域的優勢。 PubMed DOI

Applicability of ChatGPT in Assisting to Solve Higher Order Problems in Pathology.
ChatGPT在協助解決病理學中高階問題的適用性。 Cureus / / 2023-03-28

研究發現ChatGPT在病理學領域有潛力,能解決高階推理問題,回答100問題平均45.31秒,專家評分4.08分,80%準確。結果顯示ChatGPT可成為病理學學者和學生有用工具,但仍需進一步研究提升準確性。 PubMed DOI

Diagnostic capabilities of ChatGPT in ophthalmology.
ChatGPT 在眼科診斷能力的潛力。 Graefes Arch Clin Exp Ophthalmol / / 2024-01-06

這個研究評估了ChatGPT在眼科診斷準確性方面的表現,並將其與住院醫師和主治醫師進行比較。當僅基於病患病史進行診斷時,ChatGPT的準確率低於住院醫師和主治醫師,但當包含臨床檢查結果時,其表現有所改善。ChatGPT在完成任務方面比住院醫師和主治醫師更快。 PubMed DOI

Evaluation of ChatGPT pathology knowledge using board-style questions.
使用類似考試題目的方式評估 ChatGPT 對病理學知識的理解。 Am J Clin Pathol / / 2024-04-04

ChatGPT是OpenAI開發的AI聊天機器人,最近在醫學領域有新應用。研究使用ASCP住院醫師問題庫2022年版來測試ChatGPT的病理學知識,得分為56.98%,稍低於同儕平均62.81%。在臨床病理學方面表現較好(60.42%),但在解剖病理學方面較差(54.94%)。ChatGPT在簡單問題(68.47%)上表現較好,但在中等(52.88%)和困難問題(37.21%)上表現較差。未來可以透過更專業的訓練來提升病理學教育效果,但目前仍需謹慎使用。 PubMed DOI

Navigating the path to precision: ChatGPT as a tool in pathology.
走向精準之路:ChatGPT 在病理學中的應用。 Pathol Res Pract / / 2024-02-14

研究探討了 ChatGPT 3.5 在臨床病理學、組織病理學和血液學的應用。研究發現在30個臨床案例中,ChatGPT 在數據分析和決策支持方面表現中等,對快速理解和基本見解有優勢,但生成詳細信息有限制。研究強調AI在病理學領域的改進和醫療專業人員合作的重要性。 PubMed DOI

ChatGPT-assisted deep learning model for thyroid nodule analysis: beyond artifical intelligence.
ChatGPT輔助的深度學習模型用於甲狀腺結節分析:超越人工智慧。 Med Ultrason / / 2024-01-06

透過ChatGPT的協助,我們成功開發了一個深度學習模型,用來分析甲狀腺結節的超音波影像和細針穿刺活檢(FNAB)結果。研究共有1,061位參與者,模型在測試中達到0.81的準確度,對良性和惡性甲狀腺病理的區分表現出高精確度和召回率,平衡的F1分數為0.86。這研究顯示了人工智慧,包括ChatGPT,在醫學影像分析深度學習模型上的潛力。 PubMed DOI

ChatGPT's diagnostic performance based on textual vs. visual information compared to radiologists' diagnostic performance in musculoskeletal radiology.
ChatGPT在肌肉骨骼放射學中基於文本與視覺資訊的診斷表現,與放射科醫師的診斷表現相比較。 Eur Radiol / / 2024-07-12

研究比較了基於GPT-4的ChatGPT、基於GPT-4V的ChatGPT和放射科醫師在106個案例的肌肉骨骼放射學診斷準確性。結果顯示,基於GPT-4的ChatGPT準確率為43%,優於基於GPT-4V的ChatGPT的8%。放射科醫師的準確率分別為41%和53%。ChatGPT表現接近住院醫師,但不及認證放射科醫師。放射科醫師需了解ChatGPT的診斷表現,強調提供詳細影像描述以提高準確性。 PubMed DOI

Comparative analysis of GPT-4-based ChatGPT's diagnostic performance with radiologists using real-world radiology reports of brain tumors.
基於 GPT-4 的 ChatGPT 與放射科醫生在腦腫瘤實際放射學報告中的診斷表現比較分析。 Eur Radiol / / 2024-08-28

這項研究評估了GPT-4(特別是ChatGPT)在解讀腦腫瘤MRI報告的診斷能力。研究分析了150份術前病患的報告,結果顯示GPT-4的診斷準確率為73%,而神經放射科醫師則為80%。在鑑別診斷方面,GPT-4的準確率高達94%,放射科醫師則介於73%到89%之間。研究結果表明,GPT-4可作為神經放射科醫師的有用第二意見,並能成為一般放射科醫師和住院醫師的指導工具,顯示其在臨床診斷中的潛力。 PubMed DOI

ChatGPT yields low accuracy in determining LI-RADS scores based on free-text and structured radiology reports in German language.
ChatGPT 在德語自由文本和結構化放射學報告中確定 LI-RADS 分數的準確性較低。 Front Radiol / / 2024-07-22

這項研究探討了大型語言模型(LLM)ChatGPT 在根據肝臟影像報告分類肝臟病變的能力,使用 MRI 報告進行比較。研究涵蓋 150 名患者的 205 份 MRI,重點在特定病變的大小、位置及動脈期對比增強標準。結果顯示,ChatGPT 在非結構化報告中的準確率(53%)高於結構化報告(44%),且在非結構化報告的協議程度(k = 0.51)也較佳。這顯示 LLM 在處理自由文本數據方面有潛力,但仍需優化以適應結構化數據。 PubMed DOI

Bridging bytes and biopsies: A comparative analysis of ChatGPT and histopathologists in pathology diagnosis and collaborative potential.
串接位元組與活檢:ChatGPT 與組織病理醫師在病理診斷及協作潛力的比較分析。 Histopathology / / 2024-02-07

ChatGPT是OpenAI開發的聊天機器人,用來模擬人類對話。在醫療領域,研究發現ChatGPT在病理學診斷上表現不如專家,有時提供錯誤資訊。專家認為ChatGPT可當高級搜尋引擎,但不適合當診斷工具。未來需進一步提升人工智慧技術,以增進其在病理學上的應用價值。 PubMed DOI

Assessing the feasibility of ChatGPT-4o and Claude 3-Opus in thyroid nodule classification based on ultrasound images.
基於超聲影像評估 ChatGPT-4o 和 Claude 3-Opus 在甲狀腺結節分類中的可行性。 Endocrine / / 2024-10-11

這項研究探討了大型語言模型(LLMs),特別是ChatGPT-4o和Claude 3-Opus,在超音波影像中分類甲狀腺結節的表現。研究涵蓋112位患者的116個結節,結果顯示ChatGPT-4o的Kappa值為0.116,Claude 3-Opus更低,僅0.034,而初級放射科醫師的Kappa值為0.450,顯示中等協議。ROC曲線方面,ChatGPT-4o的AUC為57.0%,Claude 3-Opus為52.0%,醫師則為72.4%。兩個LLM的不必要活檢率也高,分別為41.4%和43.1%,醫師僅12.1%。這顯示LLMs在醫學影像的診斷準確性仍有限,需謹慎使用。 PubMed DOI

ChatGPT-4 Consistency in Interpreting Laryngeal Clinical Images of Common Lesions and Disorders.
常見病變和疾病的喉部臨床影像解讀的一致性。 Otolaryngol Head Neck Surg / / 2024-07-24

這項研究評估了ChatGPT-4在分析耳鼻喉科影像時的一致性,涉及40名患者。結果顯示,ChatGPT-4在影像解讀的平均一致性分數為2.46,僅在15%的案例中準確分析影像,且與醫生的高一致性僅12.5%。它建議的額外檢查次數顯著高於臨床醫師,且主要診斷準確率僅20%到25%。整體而言,雖然ChatGPT-4在主要診斷上有一定效率,但在影像分析及檢查建議的可靠性較低。 PubMed DOI

Uncovering Language Disparity of ChatGPT on Retinal Vascular Disease Classification: Cross-Sectional Study.
ChatGPT 在視網膜血管疾病分類中的語言差異揭示:橫斷面研究。 J Med Internet Res / / 2024-02-27

研究發現ChatGPT在中文眼底螢光素Angiography報告中表現不如眼科醫師,但推理能力強且錯誤率低。眼科醫師認為使用英文提示更準確。研究指出ChatGPT在不同語言提示下表現有差異,雖有應用潛力,但在眼科臨床仍需改進。 PubMed DOI