原始文章

這項研究評估了 ChatGPT 4.0 在提供腹主動脈瘤(AAA)資訊的準確性,針對患者和醫生的問題進行了測試。結果顯示,對患者問題的平均準確度為 4.4,與血管外科學會(SVS)的指導方針一致性也不錯,平均評分為 4.2。不過,對於 AAA 破裂風險的問題,表現僅為中等,平均評分 3.4。整體來看,ChatGPT 4.0 在 AAA 資訊上表現良好,對患者教育和醫生知識提升有潛在幫助。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4在介入放射學程序潛在併發症資訊的準確性、可靠性和可讀性。兩位經驗豐富的醫師使用5點李克特量表對25個程序的回應進行評分,結果顯示評分一致性高(ICC達0.928)。可讀性評估顯示資訊通常達到大學水平,但可讀性較低。整體而言,ChatGPT-4在提供準確資訊方面表現良好,未出現幻覺,顯示其在病人教育上有潛力,但仍需高健康素養以理解這些資訊。 PubMed DOI

急性主動脈剝離(AD)是一種危及生命的疾病,常因症狀與其他病症相似而被誤診。本研究探討了OpenAI的AI模型ChatGPT 4.0在診斷急性AD的有效性。透過系統性搜尋PubMed,找到163篇案例報告,隨機分析十篇。患者年齡介於29至82歲,性別分佈均衡,高血壓為常見合併症。結果顯示,ChatGPT 4.0能成功將急性AD列為前三名的鑑別診斷之一,並在五個案例中確定為主要診斷。研究指出,ChatGPT 4.0可作為輔助工具,幫助醫生進行早期篩檢。 PubMed DOI

這項研究比較了ChatGPT和Google Gemini在回答周邊動脈疾病(PAD)相關問題的表現。共評估72個常見問題和63個基於歐洲心臟病學會指導方針的問題。結果顯示,ChatGPT在準確性和滿意度上優於Google Gemini,分別有70.8%和69.8%的回答獲得最高評分GQS 5,而Google Gemini則為55.6%和50.8%。不過,Google Gemini的回應速度較快。總體來看,ChatGPT在準確性和滿意度上表現更佳。 PubMed DOI

這項研究評估了ChatGPT(3.5和4版本)在提供肩膀和肘部手術資訊的準確性,分析了114個問題。結果顯示,ChatGPT 3.5的正確率為52.3%,而ChatGPT 4則達到73.3%。雖然3.5在不穩定性類別表現較佳,但4在大多數其他類別中表現更優。兩者的表現都超過50%的熟練度,但仍無法取代臨床決策。研究建議進一步改善ChatGPT的訓練,以提升其作為醫療資訊資源的效用。 PubMed DOI

這項研究評估了ChatGPT在提供重建泌尿學資訊的有效性,重點在於資訊質量、錯誤資訊、可讀性及提示工程的影響。研究發現: - **資訊質量**:平均DISCERN分數為3.63,顯示健康資訊質量中等。 - **可讀性**:回應的可讀性相當於大學畢業生,可能影響某些病人的理解。 - **可理解性與可行性**:可理解性高達85.3%,但可行性僅37.2%,顯示資訊雖清晰但缺乏實用步驟。 - **錯誤資訊**:錯誤資訊極少,平均分數為1.23。 - **提示工程**:精煉提示可顯著改善回應質量與可理解性,且不增加錯誤資訊。 總體而言,ChatGPT-4o在重建泌尿學病人教育上有潛力,但仍需關注可行性與閱讀水平。 PubMed DOI

這項研究評估了ChatGPT-4.0在頸椎和脊髓損傷管理上與神經外科醫師學會(CNS)指導方針的一致性。共設計36個問題,分為治療性、診斷性和臨床評估類型。結果顯示,61.1%的回應與指導方針一致,其中治療性問題的符合率為70.8%。不過,對於I級證據的建議,ChatGPT表現不佳,僅有20%的符合率。總體來看,雖然ChatGPT在某些方面表現中等,但醫療人員在使用AI建議時仍需謹慎,待更穩健的模型出現。 PubMed DOI

這項研究評估了ChatGPT提供的腹主動脈瘤(AAA)資訊質量,並與澳洲健康指導(HDA)進行比較。研究發現,ChatGPT的回應臨床上適當,但可讀性較高,達到大學水平,而HDA則在10到12年級。雖然ChatGPT的回應通常更易理解,但可行性得分較低,且行動建議不夠明確。總體來看,ChatGPT可作為病人教育的工具,但需改進以提升其幫助病人做出知情決策的能力。 PubMed DOI

這項研究評估了兩個AI聊天機器人,ChatGPT和ChatSonic,針對腹腔鏡修補腹股溝疝氣的問題所提供的回答質量。研究者提出十個問題,並由兩位外科醫生使用全球質量評分(GQS)和修改版的DISCERN評分來評估。結果顯示,ChatGPT的回答質量較高,獲得了良好的評分,而ChatSonic的表現稍遜。雖然兩者都有潛力,但在可靠性和質量上的不一致性,顯示在臨床使用前仍需進一步驗證。 PubMed DOI

這項研究評估了ChatGPT-4在回答全踝關節置換術(TAA)相關問題的表現。研究人員提出十二個常見問題,並請四位專科外科醫生評分其回答的準確性和清晰度。平均得分為1.8(滿分4分),顯示在事實性問題上表現尚可,但對於術後方案等細緻問題評分較低。外科醫生的評分差異顯著,顯示出不同的解讀和期望。這強調了針對特定臨床情境設計AI工具的必要性,以提升病人教育和資訊的準確性。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4在提供心房顫動相關資訊的準確性。研究使用108個結構化問題,涵蓋治療選擇和生活方式調整,由三位心臟科醫師根據準確性、清晰度和臨床相關性評估其回答。結果顯示,ChatGPT-4在「生活方式調整」和「日常生活與管理」表現良好,但在較複雜的問題上則表現不佳。整體而言,雖然它在簡單主題上有潛力,但對於需要深入臨床見解的複雜問題仍有局限。 PubMed DOI