LLM 相關三個月內文章 / 第 71 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了ChatGPT(版本3.5和4)在解讀心肺運動測試(CPET)結果的有效性,特別針對不明原因的呼吸困難病人。分析150名病人後,專家肺科醫生建立了金標準來分類CPET結果。GPT-3.5的正確解讀率為67%,而GPT-4則顯示更高準確性,對呼吸限制的敏感度達83%。結合兩個模型的結果,敏感度提升至91%。研究指出,低工作率和峰值氧氣消耗量是解讀不準確的獨立預測因子,顯示這些AI模型在臨床上有潛在應用價值。 相關文章 PubMed DOI 推理

生成式人工智慧,特別是透過變壓器技術,正在改變人工智慧的應用方式。最近的實驗中,使用「SOLAR-10.7B-Instruct」模型從全國退伍軍人的多導睡眠檢查筆記中提取關鍵睡眠參數,如總睡眠時間、入睡潛伏期和睡眠效率。結果顯示,該模型在總睡眠時間和睡眠效率的準確度上與人類標註相當,且在提取入睡潛伏期方面超越人類標註7.6%。此外,模型的幻覺現象極少,展現出優秀的推理能力。 相關文章 PubMed DOI 推理

這項研究回顧了大型語言模型(LLMs)在醫療領域中所引發的人口統計偏見,並強調了相關的擔憂。從2018年到2024年,分析了24項研究,發現91.7%的研究識別出偏見,性別偏見最為普遍(93.7%),種族或民族偏見也高達90.9%。雖然偏見檢測有所改善,但有效的減緩策略仍在開發中。隨著LLMs在醫療決策中的重要性上升,解決這些偏見對建立公平的人工智慧系統至關重要。未來研究應考慮更廣泛的人口因素及非西方文化背景。 相關文章 PubMed DOI 推理

罕見疾病(RDs)每2000人中影響不到1人,但全球約7%的人口受到影響,主要是兒童,且通常缺乏特定治療。患者的診斷過程漫長,平均需5年,可能影響健康。機器學習(ML)能改善患者管理與診斷。我們利用MIMIC-III數據庫及其他醫療筆記,建立了一個標記數據集,旨在早期檢測罕見疾病。應用多種機器學習技術後,SVM的F-measure達92.7%,AUC達96%,顯示ML在精準診斷罕見疾病方面的潛力,為未來研究提供資源。 相關文章 PubMed DOI 推理

這項研究探討神經科醫師與人工智慧平台在多發性硬化症(MS)診斷和治療知識的準確性。37位專家和79位住院醫師回答了20道選擇題。結果顯示,專家的平均正確率為12.05題,住院醫師為9.08題,經驗較豐富的住院醫師表現較佳。MS診所的專家得分更高,平均17.67。人工智慧平台如ChatGPT-4.0的得分介於14到19之間,平均17.0,Claude 3.5得分最高。研究顯示人工智慧能有效輔助MS診斷與治療,但在複雜案例中仍有挑戰,未來需進一步研究其潛力與限制。 相關文章 PubMed DOI 推理

這項研究比較了人類撰寫的神經外科文章與ChatGPT生成的文章,評估其品質差異。研究選取10篇文章,5篇由人類撰寫,5篇由ChatGPT撰寫,並由專家根據整體印象、可讀性等進行評估。結果顯示,兩者在整體品質上無顯著差異,但ChatGPT的可讀性較高。專家識別作者的準確率為61%,偏好幾乎相等。結論指出,ChatGPT能產出與人類相當的文章,且可讀性更佳,顯示其在學術寫作中的潛在價值。 相關文章 PubMed DOI 推理

這項研究開發了一個中風診斷與預測工具,利用ChatGLM-6B大型語言模型,透過分析電子健康紀錄和非對比電腦斷層掃描報告中的自由文本,來提升中風的檢測與治療。研究使用了1,885名患者的數據進行訓練和驗證,並在335名患者的外部測試中進行評估。結果顯示,內部驗證準確率高達99%,外部測試則為95.5%和79.1%。該模型在識別缺血性和出血性中風方面表現優異,並有潛力改善中風識別及患者預後。 相關文章 PubMed DOI 推理

這項研究強調了解患者使用抗憂鬱藥物的經驗對提升依從性及以患者為中心的照護的重要性。患者的不依從性常因副作用、依賴性及對藥物效果的懷疑而影響。透過分析AskaPatient和Reddit等平台的討論,發現59.3%的對話表達中立情感,38.4%為負面情緒,主要是恐懼和悲傷。討論中「心理健康與人際關係」最常被提及,顯示對心理健康的關注。這些見解可協助醫療提供者制定個人化治療策略,提升患者滿意度及依從性,達到更具同理心的照護。 相關文章 PubMed DOI 推理

放射科醫師在診斷中扮演關鍵角色,作為病人和轉診醫師之間的獨立第三方,這種獨立性對於準確記錄異常、解決症狀與臨床印象的差異,以及管理偶然發現至關重要。隨著生成式人工智慧進入放射學,這種專業自主性變得更加重要。大型語言模型雖然能提升報告質量,但病人也開始利用這些工具來更好理解報告及其健康影響。 相關文章 PubMed DOI 推理

這項研究探討大型語言模型(LLMs),特別是GPT-4o,在公共衛生文件分析中的應用,像是社區健康改善計畫。研究比較了GPT-4o的半自動化輸出與人類分析師的表現。 主要發現包括: 1. **準確性**:GPT-4o的抽象準確率為79%,錯誤17次;人類分析師則為94%,錯誤8次。數據綜合方面,GPT-4o準確率僅50%,錯誤9次。 2. **時間效率**:GPT-4o在數據抽象上耗時較少,但考慮到提示工程和修正錯誤,實際節省不明顯。 3. **謹慎態度**:建議公共衛生專業人員謹慎使用生成式AI,權衡資源節省與準確性問題。 總之,GPT-4o在公共衛生內容分析上有潛力,但需注意其限制。 相關文章 PubMed DOI 推理