LLM 相關三個月內文章 / 第 10 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究針對津巴布韋一所高等院校的放射學和藥學學生,調查他們對GenAI技術的認知、意願與擔憂。透過對147名學生的問卷調查,結果顯示74.83%的學生認為了解GenAI對醫療保健學生很重要,77.56%的人願意在日常中使用GenAI以節省時間。不過,56.46%的人擔心GenAI會減少人際互動,44.9%則認為會影響大學教育的價值。研究強調需解決這些擔憂,並建議未來研究應尋求技術與人際互動的平衡。 相關文章 PubMed DOI

在胸部X光片的分析中,傳統的標註系統多半只能提供簡單的存在與否標籤,缺乏靈活性。為了解決這個問題,我們推出了MAPLEZ,這是一種利用大型語言模型的創新方法,能從CXR報告中提取更詳細的資訊,包括發現的位置、嚴重程度及醫生的不確定性。研究顯示,MAPLEZ在標註質量上有顯著提升,宏觀F1分數提高3.6%,位置標註更是提升超過20%。此外,結合這些標註後,分類性能也有明顯改善。我們還提供了代碼和標註的訪問權限。 相關文章 PubMed DOI

這篇綜述探討大型語言模型(LLMs)在骨科的應用,指出它們在解決相關挑戰上的潛力。研究分析了2014年1月至2024年2月間的68項相關研究,主要集中在臨床實踐。結果顯示,LLMs的準確率差異很大,診斷準確率從55%到93%不等,ChatGPT在疾病分類中的準確率範圍更是從2%到100%。雖然LLMs的表現令人鼓舞,但預計不會取代骨科專業人員,反而可作為提升臨床效率的工具。呼籲進行更多高品質的臨床試驗,以了解其最佳應用。 相關文章 PubMed DOI

這項研究透過分析過去25年《醫學網路研究期刊》的出版物,探討數位健康研究的演變與趨勢。從PubMed檢索到8,068篇論文,並運用自然語言處理方法評估關鍵字。結果顯示,JMIR的出版量持續上升,2020年達到高峰,美國貢獻最多,中國則顯示顯著增長。研究主題已從早期的網路健康轉向COVID-19及機器學習等技術。預測未來幾年,人工智慧、數位健康和心理健康將成為重點,顯示數位醫學的持續演變。 相關文章 PubMed DOI

大型語言模型(LLMs)在各領域表現優異,但對於不準確性和資料來源虛構的擔憂,影響其在科學研究中的應用。為了解決這些問題,檢索增強生成(RAG)方法被提出,讓LLMs能夠訪問外部數據,增強推理能力。 LmRaC是一個新工具,利用用戶的實驗結果回答複雜科學問題,並從PubMed創建可靠的知識庫,確保答案準確且附有引用,降低錯誤資訊風險。它還能根據用戶提供的文件和數據,針對特定問題提供定制回應。 更多資訊可至GitHub倉庫查詢:https://github.com/dbcraig/LmRaC,或在Docker Hub找到LmRaC應用程式。 相關文章 PubMed DOI

這一章探討在臨床護理中提供充分資訊的挑戰,主要因為提取和運用過去醫療知識的困難。雖然人工智慧,特別是大型語言模型,在模式識別上有潛力,但常難以提供臨床所需的清晰解釋。此外,這些模型需要大量且有組織的數據集,而許多醫療領域的數據並不容易取得。作者建議透過可解釋知識的推理來整合臨床見解,並提出一個概念性協議,旨在處理多來源的稀疏數據,特別是在複雜健康狀況下的應用。 相關文章 PubMed DOI

這項研究探討如何從非結構化的病理報告中提取結構化資訊,儘管已有標準。作者提出一個實用框架,利用大型多模態模型和上下文感知的提示策略,提取如分級和大小等特定欄位。每個欄位都有信心值,顯示提取準確性。評估結果顯示準確率高達0.99,信心分數有效指標,並能自動檢測錯誤。提取的信息對預後目的高度相關。該框架的演示和結直腸癌數據已在線上提供,供進一步探索與應用。 相關文章 PubMed DOI

這項研究評估了ChatGPT對於常見肩部病理問題的回答準確性和完整性,包括二頭肌腱炎、旋轉袖撕裂等。三位經驗豐富的骨科醫生使用李克特量表進行評估,結果顯示ChatGPT的答案通常準確且完整,準確性分數介於5.1到5.8之間,完整性分數則在2.3到2.9之間。雖然ChatGPT可作為病患的有用資源,但仍建議病患應與醫療提供者確認線上資訊。 相關文章 PubMed DOI

這項研究評估了ChatGPT在提供肺動脈高壓(PAH)相關資訊的準確性與友善度。研究者從20位PAH患者的常見疑慮中,向ChatGPT提出八個問題,並由專家評估其回應的信任度、價值與風險。結果顯示,回應通常可靠且有價值,平均信任度為8.4,價值為7.9,感知風險則較低,平均為2.1。不過,回應的可讀性被評為「困難」,平均年級水平為13.52。因此,雖然ChatGPT能提供有用資訊,但患者仍需諮詢醫療專業人員以獲得個人化建議。 相關文章 PubMed DOI

這項研究探討AI生成的知情同意書在美容整形手術中的有效性,並與整形外科醫生的版本進行比較。研究分析了ChatGPT-4生成的表格與美國整形外科醫師協會(ASPS)提供的表格,針對五種常見手術進行評估。主要發現包括:ChatGPT生成的表格較短且易讀,準確性和完整性與ASPS相當,整體印象略高。研究建議AI生成的同意書可減輕外科護理的文件製作負擔。 相關文章 PubMed DOI