LLM 相關三個月內文章 / 第 119 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇回顧分析156篇LLM在臨床和外科的研究,發現多數屬於概念驗證階段,應用於資料擷取、臨床建議、報告產生和病人聊天機器人。常見模型有ChatGPT、BERT等。僅四分之一認為LLM已準備好臨床應用,多數強調還需更多驗證。模型和評估方式差異大,建議建立標準化框架以確保安全有效整合。 相關文章 PubMed DOI 推理

這個研究用AI來評分藥學OSCE,結果發現AI的準確率超過93%,而且比老師評分還要穩定、不會有太大差異。AI評分39位學生只花不到五分鐘,效率遠勝人工,展現出AI在客觀性和速度上的明顯優勢。 相關文章 PubMed DOI 推理

這項研究提出一種新型深度學習架構,能從胸腔X光自動產生放射科報告,強調解釋性與準確性。模型先用多標籤分類找出透明的關鍵字,再結合自動調整和頻率策略處理罕見詞,最後由大型語言模型生成高品質報告。實驗結果顯示,這方法在IU-XRay和MIMIC-CXR資料集上表現優於現有技術,提升自動化報告的可靠性與可解釋性。 相關文章 PubMed DOI 推理

這篇研究提出 ShareBERT,透過重複利用 embedding matrix 來學習 hidden layers,大幅壓縮 BERT 參數到 500 萬(縮小 21.9 倍),但準確率還有 95.5%,而且沒用 knowledge distillation。這方法在不同模型和任務上都很穩定,也能跟其他壓縮技術搭配,特別適合資源有限的裝置。程式碼在:https://github.com/jchenghu/sharebert 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT在提供女性健康資訊時,大多能給出正確又容易理解的答案,尤其用對話方式問效果更好。不過,答案品質還是會受提問方式影響。未來若有醫療專業設計的提問指引,AI健康資訊會更可靠、更方便取得。 相關文章 PubMed DOI 推理

這項研究用ChatGPT 3.5製作口腔癌篩檢說明單,給布達佩斯的無家者看。23位參與者覺得AI寫的內容大致能懂,也願意讓AI用在醫療,但覺得用詞太專業、句子太長,還有些內容有刻板印象。整體來說,說明單對他們來說還是太難懂。參與者也願意一起改進內容,讓資訊更清楚、更吸引人。 相關文章 PubMed DOI 推理

這項研究用AI分析近2,000名對疫苗猶豫的護理師問卷,發現情緒耗竭最常見,且和對COVID-19嚴重性的看法及接種障礙有關。年紀越大的護理師倦怠感越高。結果顯示健康信念、疫苗猶豫和倦怠有關,建議應加強針對性的支持,提升醫護人員福祉。 相關文章 PubMed DOI 推理

這篇綜述介紹金屬有機骨架(MOF)研究中,文本探勘技術的發展,從早期人工方法到現在用大型語言模型自動化。內容涵蓋NLP和機器學習技術,並比較不同方法的準確度。也提到未來會結合自動化實驗室、多代理人AI和多模態LLM,幫助研究人員更有效推動MOF研究。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4o 和 DeepSeek V3 產生的慢性病衛教資料在長度、可讀性、可靠性和適用性上差不多,但 ChatGPT 的內容原創性較低。兩者寫的資料對一般病人來說太難懂,可靠性普通,實用性也不高。整體來看,這兩款 AI 產出的衛教資料還沒達到標準,臨床使用前還需要改進並加強人工審查。 相關文章 PubMed DOI 推理

這項研究比較深度學習(LLaMA 3.2 1B)和傳統機器學習(SVM)在偵測聊天紀錄中網路誘拐行為的表現。結果顯示,大型語言模型在辨識正面語氣的誘拐對話上明顯勝出,尤其LLaMA 3.2 1B模型F1分數高達0.99,顯示自動化偵測技術有明顯進步。不過,負面語氣的誘拐對話因手法隱晦,仍較難被偵測。 相關文章 PubMed DOI 推理