原始文章

這項研究發現,AI輔助護理紀錄(用ChatGPT 4.0)能讓護理人員省下約40%紀錄時間,且在完整性、易用性和流暢度上表現不錯。不過,準確性和實用性還有待加強。整體來說,生成式AI有潛力提升護理紀錄效率,但還需要再優化才能更好應用在臨床現場。 PubMed DOI


站上相關主題文章列表

本研究探討生成式人工智慧(GenAI)工具對護理教育的影響,特別是護理學生的使用情況與看法。透過對99名本科護理學生的線上調查,結果顯示92%的參與者使用GenAI獲取資訊和協助學術工作,並欣賞其快速提供簡化資訊的優點。然而,他們也擔心訂閱費用、過度依賴技術及資訊準確性等問題。參與者建議提供財務支持和早期指導,以更好地整合AI進護理教育。研究強調需對AI工具進行批判性評估,並建議教育者實施支持計畫,促進負責任的使用。 PubMed DOI

本研究探討AI模型(如GPT-3.5和GPT-4)在急診科生成病症鑑別診斷的表現,並與急診科醫師的準確性進行比較。結果顯示,ChatGPT-4的準確率為85.5%,略高於ChatGPT-3.5的84.6%和醫師的83%。特別是在腸胃主訴方面,ChatGPT-4的準確性達87.5%。研究顯示AI模型在臨床決策中具潛在應用價值,建議未來進一步探索AI在醫療中的應用。 PubMed DOI

這項研究比較了經驗豐富的社區護理師與先進的生成式人工智慧(GenAI)在診斷準確性和臨床決策能力的表現。研究於2024年5至6月進行,114名以色列護理師參與,並針對四個醫療案例進行問卷調查。同時,收集了三個GenAI模型的回應。結果顯示,在10字限制下,護理師的準確性優於GenAI,雖然GenAI回應速度較快,但常顯得冗長。研究認為,儘管GenAI有潛力輔助護理,但目前人類醫師在臨床推理上仍具優勢,需進一步研究才能有效取代護理專業知識。 PubMed DOI

大型語言模型(LLMs)在護理診斷和計畫的品質上仍有爭議,過去研究多集中於ChatGPT。我們開發了結構化護理評估模板及提示框架,評估ERNIE Bot 4.0和Moonshot AI的護理診斷與計畫,並與金標準比較。結果顯示,這兩個模型的輸出在範疇和性質上與金標準相似。結構化模板有效捕捉神經外科病人的特徵,提示技術則提升模型的泛化能力。研究顯示LLMs在臨床護理中的潛力,但整合進臨床環境仍面臨挑戰。 PubMed DOI

這項研究發現,護理學生如果有用ChatGPT來訓練,不只解決問題的能力更好,對AI的態度也比較正面,專業能力和整體滿意度都比傳統教學高。結果顯示,把ChatGPT融入護理教育,真的有助於提升學生的表現和學習態度。 PubMed DOI

研究發現,GPT-4在解讀護理紀錄表時,雖有潛力減輕紀錄負擔,但常遺漏重要資訊,表現不如護理專家。專家不僅更精確,還能補充背景說明。整體來說,AI還需加強訓練和驗證,才能真正協助臨床工作,避免增加醫護人員負擔。 PubMed

生成式AI像ChatGPT未來可協助醫療文件處理,減輕醫師行政負擔並提升紀錄標準化。不過,這也帶來偏見、臨床判斷影響、醫病關係改變等倫理疑慮,且出錯時責任歸屬不明。建議應主動告知病人、醫師審查AI草稿、訂定規範及錯誤通報機制,並強化多元訓練資料與醫學教育。 PubMed DOI

這項研究發現,ChatGPT-4o寫病史的品質跟住院醫師差不多,但速度快很多(只要40秒,醫師要15分鐘)。雖然AI有助提升效率和品質,但資料安全和隱私問題還沒解決,實際應用前還需要更多研究,特別是在複雜病例和不同臨床環境下的表現。 PubMed DOI

這篇綜述探討ChatGPT在護理領域的應用,包括臨床支援、教育和病人服務等。雖然它有助於提升效率和護理品質,但目前還有技術、倫理和法律上的挑戰。未來需加強技術、標準化流程,並整合多元資料,才能讓AI更可靠地協助護理工作。 PubMed DOI

這項研究發現,ChatGPT能快速產出真實的心血管臨床案例,有助於教學情境設計,但內容常有錯誤、資訊不全或不符護理標準。專家審查仍是確保臨床正確性和教學品質的關鍵步驟。 PubMed DOI