原始文章

這項研究評估了ChatGPT在解答肢端肥大症相關問題的可用性與可靠性。研究分為兩部分:首先,提出35個病人常見問題;其次,使用醫學術語呈現四個病人案例。三位專家根據安全性、可靠性、正確性和可用性對ChatGPT的回答進行評分。 結果顯示,ChatGPT在回答病人問題的正確性平均得分為6.78,可靠性得分為6.69。雖然它能有效回應相關詢問,但不應被視為病人管理的獨立可靠來源,建議作為醫療專業人員的輔助工具。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在回答癲癇相關問題和提供情緒支持方面有一定準確性和一致性,但在預後問題上表現較差。雖可提供資訊和情緒支持,但可能給出不正確建議,謹慎使用,不宜當醫療指導。更適合用於患者教育。 PubMed DOI

研究使用ChatGPT回答高泌乳素血症和催乳素瘤問題,結果顯示ChatGPT在回答患者問題上表現良好,但在懷孕相關問題上有限制。建議未來改進ChatGPT以提升在醫療上的效果。 PubMed DOI

研究發現將問題輸入ChatGPT模型,提供骨質疏鬆症相關資訊準確率高達91%,經醫學專家審查後認為符合專業標準。人工智慧可提供患者教育,但不應取代人類專業知識和臨床判斷。 PubMed DOI

研究發現ChatGPT對心房纖維顫動問題的回答大多正確,但準確性受提示影響。友善的提示可提高回答準確性,但缺乏參考資料。ChatGPT有潛力用於患者教育,但需改進提供來源資料的能力,並持續監控AI功能,以確保最大效益並降低風險。 PubMed DOI

這項研究評估了ChatGPT在回答甲狀腺手術問題方面的準確性、易讀性和相關性。收到的回應在準確性方面通常表現良好,但對一般大眾來說易讀性較差。雖然ChatGPT在回答醫學問題方面顯示出潛力,但仍需要改進以提高患者的理解能力。 PubMed DOI

這項研究評估了ChatGPT在醫學訓練中的診斷準確性和教育效用。分析150個Medscape案例後,發現ChatGPT正確回答49%的案例,整體診斷準確率為74%。雖然在解讀實驗室數值和影像結果上有些限制,但它在教育上顯示出潛力,能有效排除某些鑑別診斷並建議後續步驟,讓複雜的醫學概念更易理解。未來研究應著重提升其教育能力。 PubMed DOI

這項研究評估了ChatGPT在男性學主題上的資訊準確性,針對患者和醫學生進行測試。研究人員提出120個與男性生殖健康相關的問題,並由兩位專家泌尿科醫生評分。結果顯示,50%的回答獲得1分,4.0版本稍好,達55.4%。常見問題的整體準確率為85.2%,而指導方針問題為81.5%。雖然ChatGPT的回答令人滿意,但仍有不完整之處,建議在泌尿科醫生指導下使用,以增進對男性學問題的理解。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了ChatGPT在提供甲狀腺癌資訊的準確性和充分性,包括管理方式及情感支持。結果顯示,ChatGPT對甲狀腺癌的資訊掌握良好,正確率達76.66%,但在案例管理上表現不佳,建議多為一般性而非個別化。在情感支持方面,則提供了實用的指導,幫助患者及照顧者適應新診斷。總體來看,ChatGPT在資訊提供上能力中等,但情感支持方面表現有效。這是首個針對ChatGPT在此醫療背景下能力的研究。 PubMed DOI

這項研究評估了ChatGPT-4對原發性甲狀旁腺功能亢進症問題的回答準確性與品質。兩位內分泌科醫生獨立評分,結果顯示診斷的準確性和完整性都很高,治療建議的表現也不錯。整體來看,80%的回答屬於高品質,20%為中等品質。這顯示ChatGPT在醫療領域處理相關問題上具潛力,但使用時仍需注意其限制與風險。 PubMed DOI