LLM 相關三個月內文章 / 第 27 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇論文提出用大型語言模型(LLMs)從少量經驗中萃取環境知識,並將這些知識應用在強化學習的獎勵塑形上,提升多任務學習的效率。方法泛用性高,能幫助不同RL任務。實驗證明在Minigrid和Crafter環境下,學習效率明顯提升。 相關文章 PubMed DOI 推理

研究比較了OpenAI的GPT-4o和專門調校的o1模型,針對100題耳鼻喉科問題測試。兩者答題正確率相近(o1為73%、GPT-4o為64%),差異不大,也沒出現重大錯誤。專業調校帶來的好處有限。結果顯示,AI在耳鼻喉科領域已有一定可靠性,但正式應用前還需持續驗證與監督。 相關文章 PubMed DOI 推理

我們開發了一套多角度驗證框架,專門評估像 GPT-4 這類大型語言模型產生的知識圖譜三元組品質,重點放在語意合理、本體型別相容和結構重要性。這方法應用在慢性腎臟病資料上,能有效辨識高品質三元組,對大規模醫學知識圖譜的建構和驗證很有幫助。 相關文章 PubMed DOI 推理

這項研究比較了三款 AI(ChatGPT-4o、Claude 3.5 Sonnet、ChatGPT-o1)在重症麻醉計畫擬定上的表現。結果顯示,三者整體品質差不多,但 ChatGPT-o1 的答案最準確、相關性最高,錯誤也最少且較不嚴重,較適合臨床應用。不過,還需要更多臨床驗證。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4.0回答骨科創傷問題時,雖然用詞簡單、易讀,但內容正確性和安全性不一定有保障,有些甚至可能有誤導或危險。建議AI產生的醫療資訊,臨床使用前一定要經過專家審核。 相關文章 PubMed DOI 推理

傳統疫情情報蒐集速度慢又仰賴人工,常常延誤疫情偵測。這篇文章提出用AI(像是大型語言模型、NLP和最佳化演算法)打造即時、可調整的疫情監測系統。新系統能整合多元資料、處理多語言、過濾假消息,還能協助醫療資源分配,提升早期警示和預測能力,解決現有速度、準確度和政策配合的問題。 相關文章 PubMed DOI 推理

這篇文章介紹一種新型神經網路模型ChatSOME,模仿人腦如何透過共同經驗和多種自我組織過程(如記憶、感知、情緒、注意力)來理解語言。不同於現有AI,ChatSOME能有意識地辨識無限視覺場景,並將其與情緒和語言連結,採用適應性共振理論來強化學習與記憶,並回顧神經網路發展歷程。 相關文章 PubMed DOI 推理

沙烏地阿拉伯多數兒科急診醫師對 AI 工具像 ChatGPT 持正面看法,認為有助於診斷、紀錄和學習。不過,遇到複雜議題時還是偏好傳統資源,也擔心 AI 準確度、病人安全和缺乏規範。大家都想用 AI,但認為需要明確指引和監督,才能安全有效整合進臨床和教學。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT對大多數常見眼科問題的回答都算適當且內容完整,易讀性大約是高中程度。不過,像青光眼和白內障這類較複雜的問題,ChatGPT的回答就比較不夠精確,建議遇到這類狀況還是要諮詢專業醫師。 相關文章 PubMed DOI 推理

這項研究評估14款開源大型語言模型,從心臟超音波報告中擷取臨床資訊。表現最佳的Gemma2:9b-instruct模型準確率很高,證明開源LLMs能有效且高效擷取醫療資料,是不需依賴專有模型的實用選擇。 相關文章 PubMed DOI 推理