原始文章

這項研究評估了ChatGPT在解答肢端肥大症相關問題的可用性與可靠性。研究分為兩部分:首先,提出35個病人常見問題;其次,使用醫學術語呈現四個病人案例。三位專家根據安全性、可靠性、正確性和可用性對ChatGPT的回答進行評分。 結果顯示,ChatGPT在回答病人問題的正確性平均得分為6.78,可靠性得分為6.69。雖然它能有效回應相關詢問,但不應被視為病人管理的獨立可靠來源,建議作為醫療專業人員的輔助工具。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT在醫學訓練中的診斷準確性和教育效用。分析150個Medscape案例後,發現ChatGPT正確回答49%的案例,整體診斷準確率為74%。雖然在解讀實驗室數值和影像結果上有些限制,但它在教育上顯示出潛力,能有效排除某些鑑別診斷並建議後續步驟,讓複雜的醫學概念更易理解。未來研究應著重提升其教育能力。 PubMed DOI

這項研究評估了ChatGPT在男性學主題上的資訊準確性,針對患者和醫學生進行測試。研究人員提出120個與男性生殖健康相關的問題,並由兩位專家泌尿科醫生評分。結果顯示,50%的回答獲得1分,4.0版本稍好,達55.4%。常見問題的整體準確率為85.2%,而指導方針問題為81.5%。雖然ChatGPT的回答令人滿意,但仍有不完整之處,建議在泌尿科醫生指導下使用,以增進對男性學問題的理解。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了ChatGPT在提供甲狀腺癌資訊的準確性和充分性,包括管理方式及情感支持。結果顯示,ChatGPT對甲狀腺癌的資訊掌握良好,正確率達76.66%,但在案例管理上表現不佳,建議多為一般性而非個別化。在情感支持方面,則提供了實用的指導,幫助患者及照顧者適應新診斷。總體來看,ChatGPT在資訊提供上能力中等,但情感支持方面表現有效。這是首個針對ChatGPT在此醫療背景下能力的研究。 PubMed DOI

這項研究評估了ChatGPT-4對原發性甲狀旁腺功能亢進症問題的回答準確性與品質。兩位內分泌科醫生獨立評分,結果顯示診斷的準確性和完整性都很高,治療建議的表現也不錯。整體來看,80%的回答屬於高品質,20%為中等品質。這顯示ChatGPT在醫療領域處理相關問題上具潛力,但使用時仍需注意其限制與風險。 PubMed DOI

這項研究指出,像 ChatGPT 這樣的 AI 平台在病人教育,特別是甲狀腺癌管理中越來越重要。研究人員設計了 50 個問題,評估 ChatGPT 的回答在準確性、全面性、人性化、滿意度和可讀性等方面的表現。結果顯示,使用「統計數據和參考文獻」的提示能產生最準確的答案,而「六年級水平」的提示則讓內容更易懂。不過,沒有特定提示的回答通常較複雜。雖然大部分引用自醫學文獻,但仍有少部分錯誤資訊,因此監督 AI 內容的準確性非常重要。 PubMed DOI

這項研究評估了ChatGPT(3.5和4版本)在提供肩膀和肘部手術資訊的準確性,分析了114個問題。結果顯示,ChatGPT 3.5的正確率為52.3%,而ChatGPT 4則達到73.3%。雖然3.5在不穩定性類別表現較佳,但4在大多數其他類別中表現更優。兩者的表現都超過50%的熟練度,但仍無法取代臨床決策。研究建議進一步改善ChatGPT的訓練,以提升其作為醫療資訊資源的效用。 PubMed DOI

這項研究評估了ChatGPT對甲狀腺癌相關問題的回答品質,因為患者常透過網路尋求健康資訊。八位醫療專家對ChatGPT的20個回答進行評分,結果顯示只有57%的回應準確,56%完整,52%令人滿意。質性分析指出,回應中對飲食和碘攝取的過度強調,以及甲狀腺手術和放射性碘治療風險的資訊不完整或不準確。研究結果顯示,ChatGPT目前並不可靠,無法在無監督下提供甲狀腺癌的患者資訊。 PubMed DOI

AICHECK的研究評估了ChatGPT在生成持續醫學教育內容的有效性,特別針對痤瘡的回應與NICE指導方針進行比較。研究使用23項問卷,由五位皮膚科醫生評估ChatGPT版本4的輸出。結果顯示質量、可讀性和全面性評分高,但準確性和與指導方針的一致性較低。雖然參考文獻的相關性和適切性獲得好評,但僅62.3%被認為是最新的。研究強調對於有爭議的主題,AI生成內容需嚴格評估和專家監督,以確保準確性。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI