LLM 相關三個月內文章 / 第 125 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT在判斷癲癇發作症狀和定位藥物難治型局部癲癇的致癲區時,表現不輸給癲癇專科醫師,尤其在額葉和顳葉的預測上更是突出。無論用公開資料還是台灣醫院的病例,ChatGPT的表現都很穩定,淨正向推論率也和專家差不多。未來隨著技術進步,ChatGPT有望成為協助癲癇手術規劃的好幫手。 相關文章 PubMed DOI 推理

這份研究比較了ChatGPT-4、Copilot和Gemini三款大型語言模型在美國外科住院醫師考題上的表現。結果顯示,ChatGPT和Copilot的正確率都接近八成,表現差不多;但Gemini的正確率只有五成多,尤其在定義題和臨床案例題上更弱。總結來說,Gemini的準確度明顯落後。 相關文章 PubMed DOI 推理

AI在婦產科醫學應用越來越廣,像機器學習和ChatGPT能提升診斷和治療效率,也幫助循證醫療。不過,大家還是會擔心AI的準確度和可靠性。AI應該當作醫師的輔助工具,不能完全取代臨床判斷。未來會持續強化個人化醫療,AI應用也會越來越普及,幫助改善病患照護品質。 相關文章 PubMed DOI 推理

這項研究發現,免費版GPT-3.5和Gemini在回答大一醫學選擇題時,常出現重複答題模式,且比學生更容易被干擾選項誤導,反覆犯同樣錯誤。整體來說,這些AI在技術性題目上的表現都不如受訓學生或專家,顯示醫學評量還是需要人類監督,也讓人質疑AI理解情境的能力。 相關文章 PubMed DOI 推理

這篇研究發現,大型語言模型在製作日本放射技術師國考教材時,對文字題表現不錯,但計算題和影像判讀較弱。建議搭配程式工具解計算題,影像題則用關鍵字輔助。老師要主動監督和驗證內容。隨著LLM進步,教學方法也要跟著調整,才能確保非英語環境下的教學品質。 相關文章 PubMed DOI 推理

**重點摘要:** 這項研究比較了由ChatGPT生成的同意書和專業人士撰寫的同意書,來探討牙醫系學生如何學習有關知情同意的知識。結果顯示,像這樣有老師指導的教學活動,有助於未來的牙醫師安全且有效地運用像ChatGPT這類的AI工具。 相關文章 PubMed DOI 推理

**重點整理:** 這項研究發現,醫學生在解決臨床案例時,無論ChatGPT給的答案是對還是錯,他們都很容易採納AI的建議,而且小組討論也無法有效修正AI帶來的錯誤。這顯示AI對學生的決策有很大的影響力,因此在醫學教育中使用AI時,必須特別強調批判性思考和適當的指導。 相關文章 PubMed DOI 推理

PEAR獎是由貝勒醫學院學生發起,專門表揚優秀的教育者,得獎者多為不同科別的近身師長。學生最重視老師的教學能力、親切態度和建設性回饋。得獎者普遍表示這個獎項帶來正面影響。這個低成本計畫不只突顯好老師的特質,也有助提升教育者的幸福感和教學動力。 相關文章 PubMed DOI 推理

ChatGPT-4o 在英美醫師執照考試表現亮眼,即使遇到全新題目也能高分,證明不是只靠背題庫。不過,遇到圖片型選項時表現就變差。這說明單靠出新題或圖片題,無法完全防堵 AI 作弊,還是得有嚴格監考和安全措施,才能確保考試公平。 相關文章 PubMed DOI 推理