LLM 相關三個月內文章 / 第 68 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了五款流行的AI聊天機器人在回答牙科專科住院醫師考試中的修復牙科問題的效果。共測試126個問題,結果顯示Copilot的準確率最高(73%),其次是Gemini(63.5%)和ChatGPT-3.5(61.1%)。雖然AI模型可作為教育工具,但在修復牙科的可靠性上仍有待加強,尤其在可拆卸局部假牙的準確率最低(50.8%)。未來的技術改進有望提升其在牙科教育中的應用效果。 相關文章 PubMed DOI 推理

這項研究評估了幾種蛋白質大型語言模型(LLMs),如ESM2、ESM1b和ProtBERT,在預測酶功能方面的表現,並與傳統的序列比對方法BLASTp進行比較。雖然BLASTp通常表現較佳,但LLMs,特別是結合全連接神經網絡時,超越了傳統的一熱編碼模型。ESM2被認為是最有效的LLM,尤其在挑戰性註釋任務中表現突出。研究顯示,LLMs雖未達到BLASTp的黃金標準,但在序列同一性低的情況下,能有效預測難以註釋的酶的EC編號,並強調兩者可互補,提升酶的註釋效果。 相關文章 PubMed DOI 推理

這項研究提出了一種新方法,利用大型語言模型(LLMs)為機器人生成複雜的長期任務計畫。過去的研究多集中於簡單的任務規劃,動作指令通常不超過十個。新方法透過讓LLM主動收集資訊並進行問答,精煉任務計畫,並能識別和解決長期任務中的模糊性,增強計畫細節。研究以烹飪任務為例,實驗結果顯示,這種方法成功提升了任務計畫的資訊量,填補了長期機器人任務研究的空白。 相關文章 PubMed DOI 推理

抗生素的處方需在有效治療與降低抗藥性風險之間取得平衡。目前對大型語言模型(LLMs)的研究缺乏標準化,顯示出識別其輸出中的偏見和錯誤資訊的必要性。教育未來醫療專業人員了解這些問題至關重要,以確保在抗生素處方中正確使用LLMs。這樣的教育能幫助他們掌握LLMs的優缺點,最終促進臨床決策的改善。 相關文章 PubMed DOI 推理

這項研究評估了醫療領域大型語言模型(LLMs)在遵循MI-CLEAR-LLM檢查表的表現,旨在提升報告的透明度與可重複性。透過系統性搜尋PubMed,找到159篇2022年11月到2024年6月間發表的相關文章。 主要發現包括: - 100%報告LLM名稱,96.9%報告版本,91.8%報告製造商。 - 54.1%報告訓練數據截止日期,6.3%記錄網路資訊訪問。 - 15.1%清楚記錄隨機性管理。 - 49.1%提供提示措辭,34.0%討論提示結構。 - 13.2%報告測試數據獨立性,56.6%提供網路數據網址。 總體而言,雖然基本識別報告良好,但隨機性、提示細節及測試數據獨立性等關鍵方面仍需加強。改善遵循檢查表可提升未來研究的透明度與可靠性。 相關文章 PubMed DOI 推理

這項研究探討如何利用Python腳本在Blender中管理3D牙科數據,特別是簡化和壓縮STL檔案。分析了十個來自不同影像技術的STL模型,並使用GOM Inspect評估檔案大小、準確性和處理時間。主要發現包括:檔案大小顯著減少(p<0.001),準確性無顯著差異,偏差在0.0 µm到6.8 µm之間,且所有模型精確度完美。處理時間與檔案大小成正比。總體而言,這種方法有效減少檔案大小並提高處理效率,且不影響準確性。 相關文章 PubMed DOI 推理

這項研究評估了 ChatGPT 4.0 在提供腹主動脈瘤(AAA)資訊的準確性,針對患者和醫生的問題進行了測試。結果顯示,對患者問題的平均準確度為 4.4,與血管外科學會(SVS)的指導方針一致性也不錯,平均評分為 4.2。不過,對於 AAA 破裂風險的問題,表現僅為中等,平均評分 3.4。整體來看,ChatGPT 4.0 在 AAA 資訊上表現良好,對患者教育和醫生知識提升有潛在幫助。 相關文章 PubMed DOI 推理

這個系統透過整合大型語言模型(LLMs)和知識圖譜,提升材料化學中聚合物科學的合成路徑識別。它解決了大分子命名的複雜性,並自動化文獻檢索、反應數據提取等任務。 主要特點包括: 1. **數據提取與結構化**:利用LLMs提取化學物質名稱,並組織成知識圖譜。 2. **逆合成路徑構建**:建立逆合成路徑樹,探索多種合成路徑。 3. **多分支反應路徑搜尋演算法(MBRPS)**:識別所有有效的多分支反應路徑,擴展逆合成規劃。 4. **聚酰亞胺合成應用**:成功生成全面的逆合成路徑樹,推薦優化路徑。 這項工作在自動化大分子逆合成規劃上有重大進展。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT-4在為臨床前醫學生創建急性哮喘模擬的有效性。結果顯示,所有模擬都符合基本醫學準確性。進階參數方面,55%的模擬提供延遲反饋,正確組與錯誤組的反饋效果差異明顯。79%的模擬能自主得出結論,且在全面反饋上兩組表現相近。總結來說,ChatGPT-4在基本模擬上表現優異,但延遲反饋的效果受使用者輸入影響,建議未來需進一步研究以確保其在不同情境下的穩定性。 相關文章 PubMed DOI 推理

這篇論文探討了OpenAI的GPT-4在區分癲癇發作與功能性/解離性發作的能力。測試中,GPT-4在41個案例上表現出來,最初在沒有範例的情況下準確率為57%,提供一個範例後提升至64%,但更多範例並未進一步改善。相比之下,經驗豐富的神經科醫生平均達到71%的準確率。值得注意的是,在醫生一致同意的案例中,GPT-4的準確率達到81%。這顯示GPT-4的表現仍有限,但若能獲得更多臨床數據,或許能提升其診斷能力。 相關文章 PubMed DOI 推理