原始文章

這項研究評估了ChatGPT-4對原發性甲狀旁腺功能亢進症問題的回答準確性與品質。兩位內分泌科醫生獨立評分,結果顯示診斷的準確性和完整性都很高,治療建議的表現也不錯。整體來看,80%的回答屬於高品質,20%為中等品質。這顯示ChatGPT在醫療領域處理相關問題上具潛力,但使用時仍需注意其限制與風險。 PubMed DOI


站上相關主題文章列表

醫師評估了ChatGPT生成的醫學問題答案的準確性和完整性,發現準確性表現不錯,但完整性稍有不足。模型在各種難度問題中的表現有所差異,但整體表現仍然不錯。重新評估後,得分較低的問題有改善。雖然ChatGPT提供的資訊大多正確,但仍需進一步研究和模型開發,以確保在醫學領域的驗證。 PubMed DOI

研究發現ChatGPT在教育甲狀腺結節患者方面表現不錯,但需參考資料時較準確。回答水準因提示不同而有差異,以八年級提示回答最不準。ChatGPT回答有合法引用和正確醫學資訊,但潛在不準確,可能不適合當患者教育工具。 PubMed DOI

研究評估了ChatGPT-4對懷孕甲狀腺功能低下的回應。根據ATA指南提問,結果顯示回答可靠性中等到良好,易讀性達大學水準。ChatGPT-4可提供有用資訊,但仍需改進可靠性和易讀性。 PubMed DOI

研究發現ChatGPT在回答甲狀腺問題上比專家更快速、更詳細,獲得患者和醫師高度評價。然而,對於複雜問題仍需進一步研究。 PubMed DOI

研究使用ChatGPT回答高泌乳素血症和催乳素瘤問題,結果顯示ChatGPT在回答患者問題上表現良好,但在懷孕相關問題上有限制。建議未來改進ChatGPT以提升在醫療上的效果。 PubMed DOI

研究發現將問題輸入ChatGPT模型,提供骨質疏鬆症相關資訊準確率高達91%,經醫學專家審查後認為符合專業標準。人工智慧可提供患者教育,但不應取代人類專業知識和臨床判斷。 PubMed DOI

這項研究評估了ChatGPT在回答甲狀腺手術問題方面的準確性、易讀性和相關性。收到的回應在準確性方面通常表現良好,但對一般大眾來說易讀性較差。雖然ChatGPT在回答醫學問題方面顯示出潛力,但仍需要改進以提高患者的理解能力。 PubMed DOI

這項研究評估了ChatGPT在回答幽門螺旋桿菌感染問題的準確性,並與腸胃科醫生進行比較。研究選取了25個問題,測試了ChatGPT3.5和ChatGPT4,結果顯示兩者準確率均高達92%,超過腸胃科醫生的80%。ChatGPT4的回答更簡潔,且在診斷和胃癌預防方面表現優於ChatGPT3.5。整體來看,ChatGPT在H. pylori相關問題上展現高準確性,對患者和醫生皆具價值。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了ChatGPT在提供甲狀腺癌資訊的準確性和充分性,包括管理方式及情感支持。結果顯示,ChatGPT對甲狀腺癌的資訊掌握良好,正確率達76.66%,但在案例管理上表現不佳,建議多為一般性而非個別化。在情感支持方面,則提供了實用的指導,幫助患者及照顧者適應新診斷。總體來看,ChatGPT在資訊提供上能力中等,但情感支持方面表現有效。這是首個針對ChatGPT在此醫療背景下能力的研究。 PubMed DOI