原始文章

**重點摘要:** 這項研究發現,將大型語言模型(LLMs)融入護理學生的問題導向學習(PBL)中,能顯著提升他們的批判性思考能力,特別是在歸納推理方面,效果比傳統PBL更好。使用LLM輔助的學生進步幅度更大,顯示LLM是護理教育中很有效的工具。 PubMed DOI


站上相關主題文章列表

本研究探討護理學生對大型語言模型(LLMs)的看法,並運用計畫行為理論(TPB)進行分析。研究於2024年1至6月進行,透過目的性和滾雪球抽樣招募24名來自中國13所醫學大學的護理學生,並進行半結構式線上訪談。分析結果顯示,影響學生採用LLMs的因素包括正面態度、媒體影響、使用者友好設計等促進因素,以及謹慎態度、組織壓力、數位素養不足等障礙因素。研究結果可為護理教育者提供整合LLMs的參考。 PubMed DOI

這項研究探討生成式人工智慧(GenAI)在老年護理教育中的應用,特別是設計適合老年人的活動。研究發現,使用像ChatGPT的GenAI工具能有效提升一年級護理學生的批判性思維和解決問題能力。參與者表示,透過GenAI的提示,任務變得更容易,認知負擔減輕。整體來看,將GenAI整合進護理教育中,有助於改善學習成果,讓學生更能應對學習挑戰。 PubMed DOI

這項研究探討了Gemini Advanced這個大型語言模型(LLM)在生成臨床小案例和導師指南的有效性,並評估其與問題導向學習(PBL)課程的學習目標的對齊程度。研究結果顯示,LLM生成的臨床小案例在對齊學習目標上得分較高,但原始案例在教育適切性和遵循PBL設計方面表現較佳。導師指南方面,LLM版本在流程和內容全面性上表現優異,但缺乏視覺元素。總體而言,建議醫學教育者利用LLM創造創新的學習體驗,同時注意其局限性。 PubMed DOI

這項研究探討了大型語言模型(LLM)在增強案例學習中的應用。結果顯示,LLM能夠根據學生的問題進行評估,成功遵循劇本的比例高達97.1%(857個案例中有832個)。即使在少數偏離的情況下,仍有96.0%的案例(24個中有25個)提供了合適的醫學回應。研究表明,LLM在教育上是可行的,但仍需進一步研究以了解其對學習成果的影響。 PubMed DOI

大型語言模型(LLMs)在護理診斷和計畫的品質上仍有爭議,過去研究多集中於ChatGPT。我們開發了結構化護理評估模板及提示框架,評估ERNIE Bot 4.0和Moonshot AI的護理診斷與計畫,並與金標準比較。結果顯示,這兩個模型的輸出在範疇和性質上與金標準相似。結構化模板有效捕捉神經外科病人的特徵,提示技術則提升模型的泛化能力。研究顯示LLMs在臨床護理中的潛力,但整合進臨床環境仍面臨挑戰。 PubMed DOI

大型語言模型在醫學教育應用越來越普遍,不只幫助老師設計課程、製作教材,也能給予學生回饋,提升語言和寫作能力。這篇綜述分析實際案例,說明LLMs對師生的好處,並討論遇到的挑戰及解方。研究建議醫學教育應更廣泛運用LLMs,以提升學習成效和病人安全。 PubMed DOI

這項研究發現,護理學生如果有用ChatGPT來訓練,不只解決問題的能力更好,對AI的態度也比較正面,專業能力和整體滿意度都比傳統教學高。結果顯示,把ChatGPT融入護理教育,真的有助於提升學生的表現和學習態度。 PubMed DOI

這篇研究發現,大型語言模型在製作日本放射技術師國考教材時,對文字題表現不錯,但計算題和影像判讀較弱。建議搭配程式工具解計算題,影像題則用關鍵字輔助。老師要主動監督和驗證內容。隨著LLM進步,教學方法也要跟著調整,才能確保非英語環境下的教學品質。 PubMed DOI

這項研究讓四款大型語言模型參加泰國醫師執照模擬考,發現它們分數都超過及格線,GPT-4表現最好,正確率高達88.9%。雖然大多數醫學主題都答得不錯,但在遺傳學和心血管題目上較弱。圖片題有進步空間,純文字題表現較佳。整體來說,LLMs對泰國醫學生準備考試很有幫助,但還需加強某些主題和圖片題的能力。 PubMed DOI

這項研究發現,大型語言模型(LLMs)在有明確、結構化提示下,能準確且一致地評分醫學生臨床紀錄,但如果只給簡單指示,結果會不穩定。LLM有時會算錯總分,需要外部協助。整體來說,經過優化後,LLM有潛力成為醫學教育自動評分工具,但針對更複雜的評分系統還需進一步研究。 PubMed DOI