原始文章

這項研究評估了ChatGPT在急性燒傷護理常見問題上的回答效果,並與美國燒傷協會的指導方針進行比較。研究設計了十二個問題,由三位燒傷外科醫生評分。結果顯示,ChatGPT的平均得分為4.56分(滿分5分),顯示其回答品質高且與指導方針一致。研究指出,ChatGPT能準確且全面地處理燒傷管理,未來可能成為醫療決策和病人教育的重要工具,對臨床實踐和研究有重大意義。 PubMed DOI


站上相關主題文章列表

研究評估ChatGPT在回答美國整形外科學會眼瞼下垂指引臨床問題的表現,英文正確率61.3%,優於日文。提供答案、證據、建議和參考文獻。雖有潛力,但需專業醫學知識補充。研究觀察性,受權威監督。 PubMed DOI

這項研究評估了ChatGPT在根據物理治療指引回答臨床問題的準確性,以及它作為臨床決策工具的潛力。ChatGPT提供了準確的回答,但在選擇和提供可靠參考資料方面存在限制。建議謹慎使用ChatGPT,因為它存在參考資料準確性問題。 PubMed DOI

研究評估了ChatGPT在一般外科問題上的表現,發現它正確回答了62%的問題,但在特定主題上表現較差。ChatGPT在生物統計學和液體/電解質/酸鹼問題上表現較好,提供詳細解釋,但有時回答不正確。對於複雜臨床決策的高級問題表現不佳。建議謹慎評估ChatGPT的回答,因為表現有好有壞。 PubMed DOI

研究發現ChatGPT在心臟衰竭問答方面表現優異,GPT-4回答準確全面,GPT-3.5表現也不錯。這些模型展現高度可信度,可能成為心臟衰竭患者重要資源,但仍需進一步驗證確保安全公平。 PubMed DOI

人工智慧和大型語言模型(LLMs)在醫療保健領域有應用,像是進階燒傷急救(ABLS)計畫。研究比較了三種LLMs(ChatGPT-3.5、ChatGPT-4、Google Bard)在ABLS考試中的表現,結果顯示ChatGPT-4表現最好,得分90%,比Bard好很多。LLMs在急診護理中有潛力,但應該輔助人類判斷。 PubMed DOI

研究發現,在骨科創傷手術中使用ChatGPT表現良好,對患者、非骨科醫生和專家骨科外科醫生的回答準確率分別為52.9%、64.7%和70.5%。ChatGPT的回答完整性得分也很高,分別為52.9%、73.5%和82.4%。整體而言,ChatGPT在骨科創傷手術中為不同對象提供有價值和準確回答的潛力表現出色。 PubMed DOI

研究評估了ChatGPT對假想氣管切開護理問題回應的品質,結果顯示適當性和整體表現中等偏高,但準確性較高。然而,部分回應缺乏細節差異且含有錯誤資訊。回應的可讀性高於患者水準,可能影響臨床結果。AI回應雖有適當性,但不完整或誤導資訊可能危害臨床。高閱讀水準也可能限制患者理解。因此,AI資訊不應成為唯一護理來源。 PubMed DOI

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI

這項研究評估了ChatGPT對肺癌手術病人問題的回答質量與準確性。研究中提出30個問題,九位胸腔外科醫生對回答進行評分,結果顯示平均質量分數在3.1到4.2之間,通常被認為是「良好」到「非常好」。不過,36.6%的回答存在重大不準確性,且所有回答都有小錯誤。雖然66.7%的醫生認為ChatGPT是準確的信息來源,但只有44.4%的人會推薦給病人。總體來看,ChatGPT在肺癌手術病人資訊方面有潛力,但仍需改進質量與準確性。 PubMed DOI

這項研究評估了ChatGPT在小兒重症監護病房(PICU)中,對父母問題的回應品質。研究針對三位不同病況的病人,檢視八個常見問題的回答。六位醫師根據準確性、完整性、同理心和可理解性進行評估。結果顯示,ChatGPT的回應普遍高品質,準確性和同理心得分均為5.0,且97%的問題得到完整回答。研究顯示,ChatGPT能有效融入病人特異性資訊,顯示其在醫療溝通中的潛力。 PubMed DOI