LLM 相關三個月內文章 / 第 14 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

生成式 AI 像是 ChatGPT-4o 和 Gemini,已廣泛應用在公共衛生研究與溝通,特別是在寫作、摘要和翻譯上。文獻指出,這些工具能提升科學寫作效率和內容清晰度,也有助於科普。不過,仍需注意倫理和品質問題,並加強人為監督與訓練,才能發揮最大效益。 相關文章 PubMed DOI 推理

這篇研究推出首個由專家標註的心理健康錯誤資訊影音與留言資料集,來自 YouTube Shorts 和 Bitchute。結果顯示,大型語言模型能有效偵測這類錯誤資訊,但留言常加深污名與誤導,特定族群更易受害。作者呼籲,短影音平台上的心理健康錯誤資訊問題,亟需技術和公共衛生介入。 相關文章 PubMed DOI 推理

學習複雜又常變動的技術知識很難,因為文件又大又常更新。LLM加RAG雖然能幫忙,但文件越大涵蓋率越低。DaaDy和SQAD這兩種方法能提升LLM-RAG在大文件的問答效果。AIKIT平台整合LLM、RAG、向量資料庫等工具,讓你輕鬆用多種LLM管理回應,很適合訓練和教學。把文件分段也能提升問答涵蓋率。 相關文章 PubMed DOI 推理

這項研究發現,用大型語言模型(LLM)從場景描述產生的嵌入,和人腦處理複雜視覺資訊的方式很接近。這些LLM表徵不只可以預測大腦活動,還能根據大腦數據重建場景描述。即使訓練資料不多,這種方法也比很多現有模型更有效,顯示LLM嵌入是模擬大腦視覺處理的有力工具。 相關文章 PubMed DOI 推理

以色列一項針對122位醫療人員的調查發現,大家在生殖器皰疹管理上的知識有明顯落差,對本地指引也不太熟悉,只有約23%的人很了解指引。婦產科醫師表現最好。大型語言模型(LLMs)回答臨床問題時,通常比醫師更準確,但在指引細節上還是有困難。這顯示醫療人員教育要加強,LLMs也有機會幫助提升臨床指引的遵循度。 相關文章 PubMed DOI 推理

像 BioBERT 和 GPT 這類大型語言模型,現在在擷取和預測藥物交互作用上表現比傳統方法更好,準確率也很高。不過,還有資料品質、偏誤、解釋性不足等挑戰。未來要加強模型可解釋性、可靠性和臨床驗證,並整合多種病患資料,才能讓 LLMs 更安全有效地應用在用藥安全上。 相關文章 PubMed DOI 推理

o1 reasoning model 是新一代 AI 系統,研究發現它在臨床決策時的認知偏誤比 GPT-4 和人類醫師少,且表現較穩定。在 10 個案例中有 7 個完全沒偏誤,但遇到特定提示時還是會出現明顯偏誤。雖然 o1 有助減少偏誤和不一致,但仍無法完全避免,未來還需進一步研究其在醫療輔助上的限制。 相關文章 PubMed DOI 推理

這項研究發現,只要在提示詞中加入標註範例(in-context learning),就能大幅提升 GPT-4 標註放射科報告的準確度和一致性,尤其在複雜或主觀標籤、不同 CT 報告類型上效果更明顯。這方法讓 GPT-4 的表現更接近人工標註者,是實用又有彈性的自動化醫療標註工具。 相關文章 PubMed DOI 推理

這項韓國研究用大型語言模型分析4萬多則網路結核病提問,發現大家最常問藥物管理和副作用,像肝功能、皮膚問題、嘔吐等,也有捐血、移民、就業等新疑慮。LLMs分析比傳統方法更快又省錢,顯示結合社群資料和AI能更了解民眾健康需求,對未來醫療研究很有幫助。 相關文章 PubMed DOI 推理

本研究開發了一套結合RAG技術的聊天機器人,專門協助醫院員工查詢電子病歷(EMR)相關問題。系統用5,931筆專家驗證資料訓練,檢索準確率最高達97.6%,回應速度也很快(小於10毫秒)。這能幫助行政和帳務作業,減輕員工負擔,提升醫院效率。未來會進一步實際部署並評估長期成效。 相關文章 PubMed DOI 推理