LLM 相關三個月內文章 / 第 89 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇論文介紹把大型語言模型結合強化學習,來自動化網路攻防的戰術規劃。研究團隊還公開了一個模擬環境,並開發了基於LLM的戰術代理人。實驗結果證明,這些代理人能有效提升網路攻防的自動化和靈活度,對資安領域未來發展很有幫助。 相關文章 PubMed DOI 推理

這項研究提出一套結構化治理框架,協助AI安全、有效、公平且值得信賴地融入醫療。經190位專家討論,針對臨床決策、真實世界證據及消費者健康三領域,分別設計治理模式。建議成立健康AI消費者聯盟、推動自願認證及依風險分級管理,強調透明、包容與彈性,為醫療AI應用提供明確指引。 相關文章 PubMed DOI 推理

這項研究比較了四款大型語言模型(ChatGPT、Gemini、DeepSeek、QWEN)在用 ROBIS 和 AMSTAR 2 工具評估系統性回顧時的表現。結果發現,Gemini 跟人類專家的評分最接近,準確率分別是 58% 和 70%。ChatGPT 和 QWEN 表現也不錯。有些機器人會低估偏誤風險或高估可信度。這是少數針對多款 LLM 自動化分析能力的比較研究。 相關文章 PubMed DOI 推理

這項研究評估「Future Me」聊天機器人,發現它能幫助研究生用科學方法規劃未來,方便又不帶批判,對自我反思很有幫助。不過,有些人覺得它回應太制式、情感不夠。這工具適合用來討論未來規劃,不適合處理緊急危機,建議當作輔助真人心理協助的工具,未來可加強情感回應。 相關文章 PubMed DOI 推理

這項研究比較 GPT-4o 和 Gemini-1.5-pro 兩款大型視覺-語言模型在自動化手術影片分析的表現。兩者在辨識手術器械和分類手術類型上表現不錯,但在病理分級和描述手術步驟方面較弱。利用情境學習可稍微提升結果。整體來看,這類模型未來有機會協助手術紀錄,若結合醫療專業知識,應用潛力更大。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT對家長常問的早產兒照護問題,回答大多正確、易懂,也符合兒科指引。不過,部分專業名詞解釋不夠清楚,像長期追蹤和感染風險等議題說明也較少。總結來說,ChatGPT可當家長輔助工具,但還是要配合醫師建議,未來建議多從家長實際使用經驗來評估成效。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4o 在回答有關家族性地中海熱(FMF)臨床問題時,無論是準確度、可靠性還是和指引的一致性,都比 LLaMA-3.1 表現更好。不過,兩者都還是有資訊不足的地方,內容也偏難懂,建議只能當作臨床專業的輔助參考,不能取代醫師的專業判斷。 相關文章 PubMed DOI 推理

這篇研究比較 SMILES、SELFIES、SMARTS 和 IUPAC 四種分子表示法在 AI 藥物設計的表現。結果顯示,IUPAC 生成的新穎性和多樣性最好,SMILES 在 QEPPI 和 SAscore 指標最優,SELFIES/SMARTS 則在 QED 表現較佳。這些結果有助於選擇最適合的分子表示方式來提升 AI 藥物開發效率。 相關文章 PubMed DOI 推理

澳洲皮膚科醫學會因應AI快速進步,特別針對大型語言模型和AI書記,更新了皮膚科AI應用指引。這篇文章回顧AI發展,並給澳洲皮膚科醫師最新建議,幫助他們在臨床上安全有效導入AI新技術。 相關文章 PubMed DOI 推理

這篇論文提出一套評估醫療AI倫理的框架,重點在分析AI對以人為本照護的影響。它從「病人參與度」和「醫師介入程度」兩方面切入,協助判斷倫理風險。若AI只輔助醫師、少與病人互動,倫理疑慮較低;但若AI高度自主、直接面對病人,則可能減少人性關懷。這框架希望促進醫療AI更負責任的設計與應用。 相關文章 PubMed DOI 推理