原始文章

這項研究評估了ChatGPT在解答肢端肥大症相關問題的可用性與可靠性。研究分為兩部分:首先,提出35個病人常見問題;其次,使用醫學術語呈現四個病人案例。三位專家根據安全性、可靠性、正確性和可用性對ChatGPT的回答進行評分。 結果顯示,ChatGPT在回答病人問題的正確性平均得分為6.78,可靠性得分為6.69。雖然它能有效回應相關詢問,但不應被視為病人管理的獨立可靠來源,建議作為醫療專業人員的輔助工具。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在回答癲癇相關問題和提供情緒支持方面有一定準確性和一致性,但在預後問題上表現較差。雖可提供資訊和情緒支持,但可能給出不正確建議,謹慎使用,不宜當醫療指導。更適合用於患者教育。 PubMed DOI

研究使用ChatGPT回答高泌乳素血症和催乳素瘤問題,結果顯示ChatGPT在回答患者問題上表現良好,但在懷孕相關問題上有限制。建議未來改進ChatGPT以提升在醫療上的效果。 PubMed DOI

研究發現將問題輸入ChatGPT模型,提供骨質疏鬆症相關資訊準確率高達91%,經醫學專家審查後認為符合專業標準。人工智慧可提供患者教育,但不應取代人類專業知識和臨床判斷。 PubMed DOI

這項研究評估了ChatGPT在回答甲狀腺手術問題方面的準確性、易讀性和相關性。收到的回應在準確性方面通常表現良好,但對一般大眾來說易讀性較差。雖然ChatGPT在回答醫學問題方面顯示出潛力,但仍需要改進以提高患者的理解能力。 PubMed DOI

這項研究評估了ChatGPT在醫學訓練中的診斷準確性和教育效用。分析150個Medscape案例後,發現ChatGPT正確回答49%的案例,整體診斷準確率為74%。雖然在解讀實驗室數值和影像結果上有些限制,但它在教育上顯示出潛力,能有效排除某些鑑別診斷並建議後續步驟,讓複雜的醫學概念更易理解。未來研究應著重提升其教育能力。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了ChatGPT在提供甲狀腺癌資訊的準確性和充分性,包括管理方式及情感支持。結果顯示,ChatGPT對甲狀腺癌的資訊掌握良好,正確率達76.66%,但在案例管理上表現不佳,建議多為一般性而非個別化。在情感支持方面,則提供了實用的指導,幫助患者及照顧者適應新診斷。總體來看,ChatGPT在資訊提供上能力中等,但情感支持方面表現有效。這是首個針對ChatGPT在此醫療背景下能力的研究。 PubMed DOI

這項研究評估了ChatGPT-4對原發性甲狀旁腺功能亢進症問題的回答準確性與品質。兩位內分泌科醫生獨立評分,結果顯示診斷的準確性和完整性都很高,治療建議的表現也不錯。整體來看,80%的回答屬於高品質,20%為中等品質。這顯示ChatGPT在醫療領域處理相關問題上具潛力,但使用時仍需注意其限制與風險。 PubMed DOI

這項研究評估了ChatGPT對甲狀腺癌相關問題的回答品質,因為患者常透過網路尋求健康資訊。八位醫療專家對ChatGPT的20個回答進行評分,結果顯示只有57%的回應準確,56%完整,52%令人滿意。質性分析指出,回應中對飲食和碘攝取的過度強調,以及甲狀腺手術和放射性碘治療風險的資訊不完整或不準確。研究結果顯示,ChatGPT目前並不可靠,無法在無監督下提供甲狀腺癌的患者資訊。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI