LLM 相關三個月內文章 / 第 5 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究發現,AI聊天機器人(如ChatGPT、Copilot、Gemini)產生的假牙衛教內容,雖然有助於病患了解資訊,但內容長度、可讀性和正確性會因主題和來源而異。建議牙醫師在推薦AI生成的衛教資料前,務必先審核內容品質,確保資訊正確無誤。 相關文章 PubMed DOI 推理

這項研究發現,GPT-4o能準確辨識心電圖影像,並在少量範例學習下,以83%準確率分辨正常與異常心電圖,但辨識特定病理的準確率僅41%。雖然還不適合做詳細診斷,但在初步篩檢和分流上有潛力,未來可望成為方便的輔助工具。 相關文章 PubMed DOI 推理

MammaBoardGPT 結合歐洲指引和實際病例訓練,在25個乳癌案例中,治療決策有84%和腫瘤委員會一致,優於標準GPT-4的76%,且無完全不符情形。顯示其有助臨床決策,但仍需更多臨床驗證。 相關文章 PubMed DOI 推理

這篇論文提出「情感增強推理」(EAI)方法,透過結合情感訊號和視覺對比式解碼,有效減少大型語言模型在多模態生成時的幻覺現象。實驗證明,EAI 在 MSCOCO 和 GQA 資料集上,關鍵指標提升 4–8%,特別是在情感強烈的情境下效果更明顯,讓 AI 輸出更準確、更貼近人類情感。 相關文章 PubMed DOI 推理

這篇研究提出「雙重關係圖(DRG)」框架,結合大型語言模型和協同過濾技術,來提升課程推薦系統在資料稀疏時的表現。DRG 同時考量課程間和使用者與課程間的關係,顯著提升推薦準確度和連結覆蓋率,並優於現有方法。架構模組化,方便整合,程式碼將公開。 相關文章 PubMed DOI 推理

這項研究發現,AI(ChatGPT-4o)寫的科學論文在清晰度和可讀性上勝過人類醫師,但在技術正確性和深度上明顯不足,缺乏關鍵分析和背景。評審都能分辨出AI和人類的作品,且偏好同類型寫作。結論是AI能提升寫作表達,但無法取代人類的專業判斷,人工審查還是很重要。 相關文章 PubMed DOI 推理

這篇論文用Rodgers演化性概念分析法,回顧41篇文獻,釐清大型語言模型(LLMs)在護理教育的角色。LLMs被視為可取得、個人化又創新的互動工具,有助於提升學習成效並推動教育轉型。不過,文中也提醒要重視倫理問題,確保LLMs的應用符合護理教育的核心價值。 相關文章 PubMed DOI 推理

大型語言模型雖能減輕醫護行政負擔,但過度依賴恐影響批判思考與個別化照護。醫護人員需學習AI素養、主動驗證AI內容,並加強臨床推理訓練。AI應審慎導入,政策要重視準確性、倫理與安全,並將AI與批判性思考教育納入醫療專業訓練。 相關文章 PubMed DOI 推理

這項研究比較醫師單獨解讀與結合AI輔助的電診斷報告,結果發現兩者在報告品質上沒有明顯差異。醫師對AI信任度普通,覺得系統操作不太方便,對減輕工作量幫助有限。不過,AI在處理常規案例時,還是有機會幫醫師減少文書工作,讓醫師能更專注於複雜病人。 相關文章 PubMed DOI 推理

**重點摘要:** 這項研究比較了人類與AI(大型語言模型)在跨專業教育中分析學生反思的結果。雖然AI可以快速處理大量資料,但其分析結果和人類並不完全相同。因此,AI應該作為輔助工具,搭配其他評估方法一起使用,而不是完全取代人類分析。 相關文章 PubMed DOI 推理