LLM 相關三個月內文章 / 第 98 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

AI聊天機器人在放射科應用越來越廣,能協助分流病患、選擇檢查、判讀影像、產出報告及溝通,提升效率和決策品質。不過,資料隱私、可靠性和倫理問題仍是推廣障礙,相關研究和法規正積極推動,盼讓AI更安全、負責任地應用於臨床。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4o用灰階加彩色都卜勒超音波(雙模態)判斷甲狀腺結節良惡性時,表現中等(AUC 66.3%,準確率65.1%)。加入剪切波彈性影像(三模態)後,雖然特異性提升,但敏感度和整體一致性反而下降,顯示ChatGPT-4o目前還不擅長整合多種影像資訊。 相關文章 PubMed DOI 推理

這項研究發現,Claude 3.5 在從放射科報告計算脊椎不穩定腫瘤評分(SINS)時,準確度跟臨床醫師差不多,表現也比 Llama 3.1 好,幾乎和專家標準一致。顯示先進的語言模型有機會協助醫師進行 SINS 評估,但還需要更多驗證才能正式應用在臨床上。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4o 和 Claude 3.5 Sonnet 在解讀未標註解剖圖的正確率都只有中等,差異不大。雖然 ChatGPT o1-preview 當 AI 評分員時,和專家評分有不錯的一致性,但目前這些 AI 還不夠穩定,暫時不適合直接用在解剖學教學。不過,AI 評分助手在教育研究上有發展潛力,未來還需要再改進。 相關文章 PubMed DOI 推理

這篇論文介紹一套讓大型語言模型應用在醫療領域的方法,包含拆解醫療流程、提升模型表現,以及設計代理人或鏈式系統。內容涵蓋臨床試驗、決策支援、影像分析等案例,也討論用LLMs發展醫療AI時會遇到的挑戰。 相關文章 PubMed DOI 推理

Zohny等人指出,雖然大型語言模型(LLMs)能協助醫病溝通,但若排除醫療專業人員,反而會增加風險,例如病患自主性降低、缺乏彈性、失去同理心與信任。只強調病患同意,可能忽略醫療決策去人性化帶來的傷害,這些問題必須被重視,才能真正讓LLMs造福病患。 相關文章 PubMed DOI 推理

**重點摘要:** AI,特別是大型語言模型和多模態系統,正在徹底改變醫學領域,像是提升診斷準確度、加強醫病溝通,以及提供更個人化的照護。這些技術能協助解讀複雜的資料,並支援臨床決策。不過,像是偏見、隱私、法規和系統整合等問題,還需要被解決,才能讓AI更廣泛地被採用。 相關文章 PubMed DOI 推理

PromptSED 是一套全新社群事件偵測工具,結合 prompt 技術和預訓練語言模型,能即時追蹤社群媒體上的新興話題。它具備主題選擇、抗雜訊和免訓練等優點,實驗證明效能優於傳統方法,並展現比大型語言模型更適合 SED 任務的優勢。 相關文章 PubMed DOI 推理

這篇文獻回顧整理了生成式AI在護理教育的應用,涵蓋評量、臨床模擬、教材開發和師生支援。混合型實施模式最有效,但仍面臨研究品質、數位平權和師資培訓等挑戰。建議訂定明確政策、加強師資訓練,並推動國際合作與標準化,確保AI在護理教育中負責任且有效運用。 相關文章 PubMed DOI 推理

這篇綜述分析270篇文獻,發現現有大型語言模型(如GPT-4)雖然能協助醫師處理多種臨床任務,但沒有單一模型能全面勝任所有需求,專業任務還需客製化。多數先進模型又是封閉原始碼,造成透明度和隱私疑慮。作者建議建立簡單易懂的線上指引,幫助醫師選擇合適的LLM。 相關文章 PubMed DOI 推理