LLM 相關三個月內文章 / 第 153 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了兩個版本的ChatGPT在美國醫學執照考試(USMLE)風格問題上的表現,使用了900道選擇題。結果顯示,ChatGPT-4的準確率為71.33%,明顯高於AMBOSS用戶的54.38%和ChatGPT-3.5的46.23%。ChatGPT-4在準確率上比ChatGPT-3.5提升了25%,且在多次測試中的一致性也較高。雖然兩個模型在不同醫學主題上的表現有所不同,但問題的複雜性可能影響了表現變異性。總體而言,ChatGPT-4在醫學教育中展現出潛力,甚至在某些方面超越人類。 相關文章 PubMed DOI

這項研究探討大型語言模型(如GPT-4)如何提升術後病理報告的可讀性與理解度。研究分析了698份來自四家醫院的病理報告,重點在惡性腫瘤。透過創建詮釋性病理報告(IPRs)模板,發現使用IPRs後,病人的理解分數從5.23提升至7.98,醫生與病人溝通時間也減少超過70%。雖然未直接測量病人的治療結果,但改善的理解度和溝通效率可能對病人的參與度有正面影響,顯示人工智慧在醫療溝通中的潛力。 相關文章 PubMed DOI

這項研究探討了使用先進的大型語言模型,如ChatGPT 3.5和ChatGPT 4,來提升醫療紀錄中ICD-10代碼的分類準確性,特別是針對現有方法識別為假陰性的紀錄。研究在MIMIC IV數據集的802份出院摘要上進行,結果顯示ChatGPT 4的匹配率為86%到89%,明顯優於ChatGPT 3.5的57%到67%。雖然經驗豐富的人類編碼員表現更佳,但ChatGPT 4的準確性已達到人類編碼員的中位數。這顯示將這類模型整合進臨床編碼中,能提升醫療文檔的準確性,特別在複雜案例中。 相關文章 PubMed DOI

這項研究探討了健康錯誤資訊的影響,以及在COVID-19疫情期間社交媒體上更正貼文的有效性。研究分析了三年內來自事實查核機構和健康機構的更正貼文,重點在於不同屬性如何影響用戶互動。 主要發現包括: 1. 用戶互動趨勢顯示疫情期間的互動模式。 2. 貼文屬性(如風險、意識、數字等)對互動有顯著影響,強調意識和事實的貼文更受歡迎。 3. 用戶評論分為認知型和情感型,某些偏見評論對分享有負面影響。 研究強調有效傳遞錯誤資訊意識和事實內容能提升用戶互動,為改善公共健康溝通提供策略建議。 相關文章 PubMed DOI

自殺預防是全球健康的重要議題,每年約有80萬人因自殺而喪生。大型語言模型(LLMs)在數位服務中有助於自殺預防,但也帶來臨床與倫理挑戰。2024年2月的回顧研究分析了43項相關研究,發現大多數集中於自殺風險識別,並探討了LLMs在臨床應用中的潛力。研究指出,隱私和同意等倫理問題需特別注意,並強調多學科合作及高品質數據的重要性。生成性人工智慧的發展可能改善危機護理與教育,但需持續人類監督。 相關文章 PubMed DOI

人工智慧(AI)有潛力顯著改善急性和慢性疼痛的管理,並可能改變鴉片類藥物的處方方式及預防成癮的策略。這篇綜述探討了AI在預測鴉片類藥物相關結果的能力,並概述了提升這些模型臨床應用可靠性所需的步驟。機器學習模型已被開發用來評估手術後持續使用鴉片類藥物的風險,並預測使用障礙及過量的風險。此外,自然語言處理技術也能從臨床文檔中識別相關問題。總體而言,AI為優化疼痛管理和減輕鴉片類藥物使用風險提供了希望,旨在改善病人結果並應對鴉片危機。 相關文章 PubMed DOI

這項研究評估了幾種大型語言模型(LLMs)的準確性,包括GPT-3.5、GPT-4、Google Bard和Microsoft Bing,針對基本醫學科學考試的多選題。結果顯示,GPT-4的準確率最高,達89.07%,明顯優於其他模型。Microsoft Bing以83.69%緊隨其後,GPT-3.5和Google Bard則分別為67.02%和63.83%。研究指出,問題的難度與模型表現有關,GPT-4的關聯性最強。整體來看,GPT-4和Microsoft Bing可能成為學習醫學科學的有效工具,特別是對於簡單問題。 相關文章 PubMed DOI

這項研究評估了OpenAI最新的語言模型Chat Generative Pre-trained Transformer-4o在成人臨床心臟病自我評估計畫(ACCSAP)的表現。經過測試後,該模型對594個問題的正確回答率為69.2%。在純文本問題上表現較佳(73.9%),但在影像解讀上則較差(55.3%),尤其是心電圖問題得分僅56.5%。雖然模型在醫學影像解讀上顯示出一定能力,但準確性不穩定,特別是沒有文本輔助的影像。總體來看,該模型在醫學教育和臨床決策中仍有潛力,但影像解讀方面的限制明顯。 相關文章 PubMed DOI

這篇文章探討了ChatGPT在醫學寫作中的應用,特別是對一年級醫學生撰寫病例報告的協助。雖然ChatGPT並未專門訓練於醫學領域,但它在解讀臨床資訊上表現出色。研究顯示,ChatGPT能有效生成摘要、校對及提供醫學見解,成為醫學寫作的有用工具。不過,由於其限制,ChatGPT無法取代作者,應以合作方式使用。作者建議應制定指導方針,以優化ChatGPT等自然語言處理模型在臨床研究中的應用,而非完全禁止。 相關文章 PubMed DOI

短文本聚類面臨詞彙共現的挑戰,但研究顯示大型語言模型(LLMs)能有效生成嵌入,捕捉語義細微差異,改善聚類結果。透過高斯混合模型,聚類效果比傳統方法如doc2vec和潛在狄利克雷分配更明顯且易解釋。人類評審和生成型LLM的驗證顯示高一致性,顯示LLM能縮短聚類產出與解釋的距離。此外,LLM與人類編碼的比較揭示了兩者的偏見,質疑傳統將人類編碼視為最終標準的做法。 相關文章 PubMed DOI