LLM 相關三個月內文章 / 第 74 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究發現,ChatGPT-4在回答關節置換相關問題時,正確率只有66.9%,明顯低於骨科研究員和主治醫師。特別是在有圖片的題目上,表現更差。雖然ChatGPT可當作學習輔助,但還無法取代專業醫師的臨床判斷,未來還需更多研究來提升AI在醫療領域的應用。 相關文章 PubMed DOI 推理

這門研究所數位健康傳播課程加入AI、聊天機器人和AR/VR內容,讓學生跟上醫療科技趨勢。大多數學生反應正面,但有人質疑新內容和傳統方法的關聯。學生建議課程應更強調和實際公共衛生、臨床應用的連結,尤其要考量多元族群,才能突顯新科技的實用價值。 相關文章 PubMed DOI 推理

藥物標靶發現很重要,但傳統方法太複雜又耗時。現在,AI和大型語言模型(LLMs)能整合分析各種生物醫學資料,大幅提升標靶鑑定效率。針對基因、蛋白質等領域的專用LLMs,已在基因變異、蛋白質分析等方面有明顯進展。這篇綜述整理了最新發展、現有挑戰和未來應用方向。 相關文章 PubMed DOI 推理

EYE-Llama 是專為眼科資料訓練的大型語言模型,在多項醫學問答評測中表現都比一般型和其他醫學專用模型更好。這顯示針對特定領域訓練的模型,能大幅提升醫療問答的準確度與可靠性,對臨床決策和病患衛教都很有幫助。 相關文章 PubMed DOI 推理

這項研究證明,眼科醫師即使不懂程式,也能用ChatGPT-4分析自己的病患資料,輕鬆建立專屬於SMILE手術的計算器。ChatGPT-4的分析結果和傳統統計軟體相近,還能直接產生可用的網頁工具,讓臨床醫師更方便打造個人化手術輔助工具。 相關文章 PubMed DOI 推理

這篇文章指出,AI生成的改寫訊息(AIPasta)比傳統複製貼上(CopyPasta)更難被偵測,內容也更有變化。AIPasta會讓人以為有更多人支持某個觀點,進而提升對錯誤資訊的信任,尤其在政治議題上更明顯。雖然說服力未必更強,但AIPasta更容易躲過現有偵測工具,讓假訊息更容易擴散,對防堵錯假訊息帶來新挑戰。 相關文章 PubMed DOI 推理

這項研究比較GPT、Gemini和LLAMA三種大型語言模型,分析它們判斷社群媒體上HPV疫苗和加熱菸品相關貼文情緒的準確度。結果顯示,三款模型整體表現不錯,但在不同平台和議題上準確度有差異,特別是在辨識Facebook的「促進風險」和Twitter的「支持健康」訊息時較佳。研究提醒,選用這些模型時要特別注意其可能的偏誤。 相關文章 PubMed DOI 推理

目前多數歐盟國家對AI健康科技還沒明確的定價和給付規範,但新的評估框架正逐步出現。這篇文章用系統性文獻回顧,從2649篇文獻中篩選出13篇,並整合出涵蓋臨床、經濟、倫理、安全性和可用性五大面向、共35項標準的評估框架,有助於決策者和醫療單位更有效比較與評估AI健康科技。 相關文章 PubMed DOI 推理

這項研究發現,經過微調的AI語言模型(如JMedRoBERTa)已能準確判斷日文超音波檢查申請單的緊急排序,表現媲美放射科醫師,有望減輕人工審查負擔。不過,對於模糊案例和更大資料集,還需進一步驗證。 相關文章 PubMed DOI 推理

**重點摘要(繁體中文):** 開源、可在本地端部署的大型語言模型(LLMs),特別是 Llama 3 70B,能夠從非結構化的臨床紀錄中,準確判斷乳癌病人是否有接受過胚系基因檢測,其表現和人類專家一樣好。這種做法有機會提升醫療品質與效率,同時也能保護病人的隱私。 相關文章 PubMed DOI 推理