LLM 相關三個月內文章 / 第 48 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇回顧整理了生成式大型語言模型在中風照護的應用現況,發現多數還在初步階段,主要用於決策支援、行政、病患互動等。挑戰包括正確性、穩定性、可解釋性及臨床落地。作者也提出發展可信賴gLLM的建議,強調需更多真實世界證據與安全驗證。 相關文章 PubMed DOI 推理

這篇回顧整理了60篇LLM在腫瘤醫學的應用研究,發現多用GPT模型,主要用於癌症診斷和治療,資料來源多元,常用提示工程。使用者包含醫師、病患和研究人員,領域適應有助提升表現。現有研究常見泛用性不足、樣本太少、偏誤和評估不一致等問題,未來需加強模型泛用性、減少偏誤並標準化評估。 相關文章 PubMed DOI 推理

這篇論文提出uMedGround架構,能自動從醫療報告中找出診斷用語及其在影像中的位置,省去手動標註。它結合多模態大型語言模型和視覺編碼-解碼器,並加入不確定性評估,提升結果可靠性。實驗證明,uMedGround表現優於現有方法,還支援視覺問答和類別定位,協助醫師解讀報告。 相關文章 PubMed DOI 推理

現在用 MTurk、Prolific 這類群眾外包平台做線上研究,雖然有資料品質問題,但靠品質控管還算可靠。不過,隨著像大型語言模型(LLMs)和 OpenAI “Operator” 這類 AI 工具出現,未來資料可能會遇到更難察覺的新風險。這份報告提醒大家要重視這些新挑戰,並呼籲持續討論和研究。 相關文章 PubMed DOI 推理

這項研究發現,目前AI檢測工具(如GPTZero等)雖然能中高準確度分辨神經外科期刊的人類與AI文章,但仍不夠可靠,容易誤判。ChatGPT寫的文章原創性高。研究呼籲需更完善的檢測方法及明確AI使用政策,以避免倫理爭議和誤用。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4和ChatGPT o1在醫療模擬教學回饋相關文章中,產生正確且相關的參考文獻表現不佳,只有約六成正確,且高度相關的僅兩成多。即使調整提示,效果也沒明顯提升,顯示這兩款模型在這方面還不夠可靠。 相關文章 PubMed DOI 推理

**重點摘要:** ChatGPT-4o 被用來回答 10 個常見的隆鼻手術後問題,耳鼻喉科醫師評價其回答非常準確且安全,沒有發現重大錯誤。這顯示 ChatGPT-4o 有潛力成為術後衛教的好幫手,特別是在醫師不方便即時回覆時,可以提供病患協助。 相關文章 PubMed DOI 推理

這項研究提出 MPLBind 方法,能更準確預測蛋白質突變對蛋白質-配體結合親和力的影響。MPLBind 結合配體特徵、突變周圍環境及蛋白質語言模型資料,預測效果優於現有模型。 相關文章 PubMed DOI 推理

這項研究發現,大型語言模型(LLMs)在分析醫學生反思敘事時,能有效提取簡單資訊,但對於情感等細膩內容仍需仰賴人工。建議未來可結合 LLMs 與人工分析,以提升醫學教育研究的效率與準確性。 相關文章 PubMed DOI 推理

台灣有六成營養師用過ChatGPT,主要用在行政工作。年輕、高學歷、在醫院工作的營養師用得比較多。沒用過的人會受社會影響力影響想不想用;有用的人則看工作需求、自信心和風險感受。研究建議加強正面支持和訓練,有助推廣ChatGPT在營養師工作上的應用。 相關文章 PubMed DOI 推理