原始文章

這項研究探討使用ChatGPT來製作以病人為中心的前列腺活檢病理報告,旨在幫助病人理解複雜的醫學術語。研究人員根據國家綜合癌症網絡的指導方針,合成了35份報告並進行評估。結果顯示,AI生成的報告在醫生和病理學家的評價中大多準確且完整,雖然需要一些修改,但修改速度比撰寫原創報告快。這顯示ChatGPT有助於改善醫療提供者與病人之間的溝通,值得進一步研究。 PubMed DOI


站上相關主題文章列表

這項研究評估了使用ChatGPT自動生成的醫學文本的準確性和易讀性。不同版本的磁共振成像(MRI)結果被創建並由醫學專業人員和患者評估。報告被發現一致地準確且易於理解,簡化版本對患者來說更容易理解。儘管簡化的報告有幫助,但並不能取代專家和患者之間進行詳細討論的必要性。 PubMed DOI

ChatGPT是OpenAI開發的聊天機器人,用來模擬人類對話。在醫療領域,研究發現ChatGPT在病理學診斷上表現不如專家,有時提供錯誤資訊。專家認為ChatGPT可當高級搜尋引擎,但不適合當診斷工具。未來需進一步提升人工智慧技術,以增進其在病理學上的應用價值。 PubMed DOI

研究探討了 ChatGPT 3.5 在臨床病理學、組織病理學和血液學的應用。研究發現在30個臨床案例中,ChatGPT 在數據分析和決策支持方面表現中等,對快速理解和基本見解有優勢,但生成詳細信息有限制。研究強調AI在病理學領域的改進和醫療專業人員合作的重要性。 PubMed DOI

研究發現使用ChatGPT提供攝護腺癌資訊效果不錯。醫生評分回答準確度、完整性和清晰度,獨立評審員認為簡化摘要正確。公眾認為簡化摘要易懂。結論是ChatGPT有潛力幫助攝護腺癌患者,但需提升準確性、完整性、清晰度和易讀性。 PubMed DOI

研究使用ChatGPT人工智慧平台產生攝護腺癌患者可能問的問題,結果顯示回答品質良好且適用。人工智慧可協助患者教育與權力,但ChatGPT模型限制需注意,需進一步評估在醫療保健上的應用。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究探討了利用自然語言處理(NLP)技術,特別是ChatGPT,來提升放射科報告的產出效率。研究人員分析了1,000條來自MIMIC胸部X光數據庫的記錄,並使用Claude.ai提取關鍵字,再透過ChatGPT生成報告。結果顯示,Bart和XLM模型的報告與醫生撰寫的相似度高達99.3%,而其他模型表現較差。研究強調選擇合適的NLP模型對於提升放射科報告的效率和準確性至關重要。 PubMed DOI

這項研究評估了ChatGPT-3.5在生成乳房超音波報告的BI-RADS分類的有效性,目的是提升醫療診斷的準確性和可解釋性。研究分析了131名患者的報告,並將AI生成的結果與57位醫生的報告進行比較。結果顯示,雖然AI在結構和清晰度上表現良好,但在BI-RADS分類準確性和惡性診斷上仍需改進。研究也探討了「思考鏈」方法,顯示AI在模擬臨床決策過程中的潛力,整體而言,ChatGPT-3.5對乳房超音波評估的診斷結果有助益。 PubMed DOI

這項研究評估了ChatGPT-4解讀新診斷前列腺癌患者的^68Ga PSMA PET/CT報告的能力。分析了164份報告,針對癌症擴散提出五個問題。結果顯示,回應的清晰度平均分數在4.93到4.99之間,準確性在4.79到4.96之間。不過,對於有遠端淋巴轉移的患者,準確性較低(4.28),而無遠端淋巴轉移的則為4.94。值得注意的是,8%的回應含有潛在的有害資訊。雖然ChatGPT-4表現不錯,但研究認為它無法取代醫生的評估,因為可能會生成虛假資訊。 PubMed DOI

這項研究探討了使用ChatGPT將臨床信件翻譯成更易懂的語言,目的是增強患者對治療和診斷的理解。研究採用單盲定量方法,分析語言複雜度的指標。翻譯了二十三封來自不同專科的診所信件,結果顯示翻譯保留了臨床信息,並顯著提升了患者的理解與滿意度。患者尋求醫療協助解釋信件的需求也明顯減少。結論認為,ChatGPT是一個有效的工具,能創造更友好的臨床信件版本,讓患者更容易理解。 PubMed DOI