LLM 相關三個月內文章 / 第 100 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇文章批評心理學太依賴統計模型,卻忽略了「測量」本身應該要把現實現象和數據明確連結。物理學會透過校準來確保這點,但心理學因為現象複雜、語言化,做不到。結果心理學的測量只剩下實用性,缺乏真正的理論基礎。作者認為,心理學要進步,得靠能分析開放式語言的AI,但不能只是用AI產生更多標準化指標,否則危機只會惡化。 相關文章 PubMed DOI 推理

HyenaCircle 是新一代深度學習模型,專門用來預測長型染色體外環狀 DNA(eccDNA),比起像 DNABERT 這類舊有模型,無論準確度還是穩定性都更好。它結合了大型語言模型技術、Nanopore 定序資料,並考慮兩側序列,讓長型 eccDNA 的鑑定更精確,對基因體學研究很有幫助。 相關文章 PubMed DOI 推理

到2030年,ChatGPT等AI工具可大幅提升護理研究的效率和創新,但也帶來倫理、資源不均和過度依賴等問題。專家建議要強化倫理監督、推動合作、提升AI素養,並確保資源公平,同時注意作者歸屬和信任,避免過度依賴AI,維護研究誠信。 相關文章 PubMed DOI 推理

這項研究發現,利用GPT模擬病人來訓練醫學生,不論在臨床考試成績、學習動機、溝通能力還是滿意度,都比傳統角色扮演更好。學生普遍覺得AI訓練更有效、更有趣,顯示AI有助於提升醫學教育品質。 相關文章 PubMed DOI 推理

認知偏誤常讓醫療決策出錯,對病人造成傷害。大型語言模型(LLMs)進入臨床後,可能會延續甚至加劇這些偏誤,但也有機會用客觀數據協助減少錯誤。本文討論 LLMs 如何影響醫療決策中的認知偏誤,以及它們可能帶來的風險與助益。 相關文章 PubMed DOI 推理

**重點整理:** 目前開源的視覺-語言模型(VLMs)在急性照護診斷任務上的表現很差(正確率≤40.4%),相比之下,GPT-4o 的正確率有68.1%。這顯示如果要讓開源VLMs適合用在急診和加護病房,還需要進行專門的訓練。 相關文章 PubMed DOI 推理

SynergyBug 是一套自動化錯誤偵測和修復系統,結合 BERT 與 GPT-3,能自動找出並修正軟體錯誤,減少人工介入。它分析錯誤回報和日誌,準確率高達 98.79%,表現比傳統方法更好,適合大規模應用,但還是需要人工監督來避免偏誤。 相關文章 PubMed DOI 推理

這項研究發現,不管是母語還是非母語讀者,他們在閱讀時大腦和大型語言模型的對齊情形都很接近,顯示人類閱讀有共通的運算機制。不過,像語言能力和專注力等個人差異,會影響這種對齊,尤其在非母語讀者身上更明顯。結果說明LLMs不只模擬人類閱讀,也能反映不同族群的差異。 相關文章 PubMed DOI 推理

MedKA 是一種新方法,結合醫學知識圖譜來提升醫療大型語言模型的表現。它建立了高品質臨床問答資料集訓練模型,並提出新評估指標檢查答案正確性。實驗證明,MedKA 在準確度和事實一致性上都比現有醫療 LLM 更好,特別是在用藥和診斷建議上。程式碼和資料已公開。 相關文章 PubMed DOI 推理

這項研究推出Bio-Copilot,一個結合AI與專家知識的生物資訊系統,能分析大量omics資料。它在多項生物資訊任務中表現優於現有AI(如GPT-4o),任務完整度也很高。Bio-Copilot還能建立詳細的人類肺細胞圖譜並發現罕見細胞,展現強大分析能力。這證明AI結合專家知識能加速生物學新發現。 相關文章 PubMed DOI 推理