LLM 相關三個月內文章 / 第 71 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

基於變壓器的語言模型(LLMs)在分析生物序列數據上表現優異,因為它們能學習複雜關係,類似於處理自然語言的方式。我們的研究聚焦於DNABERT,這是一個專為人類基因組訓練的DNA語言模型,使用重疊的k-mer作為標記。我們開發了一種方法來研究模型的學習過程,並評估其在特定任務中的有效性。結果顯示,雖然重疊k-mer模型在基因組相關任務中表現良好,但在學習較大序列上下文時卻面臨挑戰,這強調了檢視生物LLMs知識表徵的重要性。 相關文章 PubMed DOI

人工智慧(AI)正在革新生物醫學研究,特別是在頭痛疾病如偏頭痛的治療上。透過機器學習,AI能分析大量健康數據,幫助理解疾病機制並預測病人對治療的反應。未來的AI整合可能帶來精準治療,改善臨床實踐,提升病人結果,並減輕醫師負擔。 AI工具如大型語言模型可自動化臨床筆記,並識別有效藥物組合,降低醫師的認知負擔。此外,虛擬健康助理和可穿戴設備在偏頭痛管理中也扮演重要角色。儘管AI的潛力巨大,但仍需克服技術素養、隱私和法規等挑戰。 相關文章 PubMed DOI

這項研究評估了六個大型語言模型(LLM)的表現,並與生物醫學及健康資訊學課程學生的知識評估分數進行比較。研究涵蓋139名學生,包括研究生、繼續教育學生和醫學生,他們回答了多選題和期末考。結果顯示,這些LLM的得分介於學生的第50到75百分位之間,表現相當不錯。這引發了對高等教育中學生評估方法的思考,特別是在在線課程中,因為LLM的能力可能會挑戰傳統的評估方式。 相關文章 PubMed DOI

這項研究探討大型語言模型,特別是GPT-4,如何從語言中恢復感知資訊,這在哲學和認知科學中非常重要。研究分析了六個心理物理數據集,發現GPT-4的判斷與人類數據相符,能捕捉到感知表徵,如色輪和音高螺旋。值得注意的是,GPT-4在視覺任務上的表現並未顯著提升,因為它同時接受視覺和語言訓練。此外,研究還檢視了多語言的顏色命名任務,顯示GPT-4能反映英語和俄語之間的變異,突顯語言與感知的複雜關係。 相關文章 PubMed DOI

這篇文章探討了OpenAI的Sora技術,這是一種生成式視頻建模技術,對神經外科訓練的潛在影響。它能提供真實的手術模擬,提升學員的學習體驗和專業能力。研究重點在於如何將這技術整合進神經外科教育,並創建手術程序數據集來訓練模型,目標是實現高保真度的模擬。結果顯示,這技術在技能發展和評估上有顯著潛力,雖然面臨挑戰,但未來可能會顯著改善手術教育。 相關文章 PubMed DOI

這項研究探討了在專家指導下,ChatGPT生成的健康相關文本對父母醫療決策的影響。研究對象為116位18到65歲的父母,評估他們對兒科醫療主題的行為意圖及對生成內容的看法。結果顯示,經過適當指導的ChatGPT能在藥物、睡眠和飲食等方面影響父母的決策,且在道德性、可信度等評價上與專家內容差異不大,甚至在某些方面獲得更高評價。這強調了結合人類專業知識與AI生成內容的重要性。 相關文章 PubMed DOI

這項研究探討使用 GPT-3.5 生成醫療文件並附上 ICD-10 代碼,以增強低資源標籤數據。研究人員從 MIMIC-IV 數據集中生成了 9,606 份出院摘要,專注於不常見的代碼,並將這些數據與基線訓練集結合,創建增強數據集來訓練神經編碼模型。結果顯示,雖然數據增強略微降低整體模型表現,但對生成代碼的表現有所提升。儘管 GPT-3.5 能識別 ICD-10 代碼,但在處理真實數據時仍面臨挑戰,生成文件在多樣性和深度上需改進。 相關文章 PubMed DOI

本研究針對西班牙語電子健康紀錄(EHR)進行自動分類,並強調可解釋性的重要性。我們引入了一個新指標Leberage,來量化預測的決策支持水平,並評估三種解釋方法:SHAP、LIME和IG。使用長型變壓器處理長文檔,並識別影響ICD分類的相關文本片段。結果顯示,我們的方法在同樣任務上提升了7%的效果,且LIME的表現最佳。整體而言,這些技術有效闡明黑箱模型的輸出,Leberage指標則為可解釋性技術的貢獻提供了量化工具。 相關文章 PubMed DOI

一項研究比較了麻醉學研究員與ChatGPT在美國麻醉學委員會標準化口試中的表現。雖然研究員在某些主題上得分較高,但整體得分差異不大。考官能輕易辨識ChatGPT的回答,並指出其回答通常冗長且缺乏重點,雖然內容相關。研究顯示,ChatGPT的答案在評分上相當,但因冗長和不夠具體而被視為較劣。這項研究指出,隨著進一步訓練,像ChatGPT的人工智慧有潛力成為麻醉學訓練和考試準備的有用工具。 相關文章 PubMed DOI

這項研究探討了ChatGPT在協助十個子專科的組織病理學診斷中的有效性。研究中,專家病理學家評估了ChatGPT對臨床病理情境的回答,結果顯示其在62.2%的案例中提供有用答案,但32.1%的回答是正確的。儘管有一定的實用性,AI的錯誤率和文獻參考的準確性僅為70.1%,顯示出其不適合用於日常診斷。研究強調了人類專業知識的重要性,並提醒使用AI時需謹慎。 相關文章 PubMed DOI