LLM 相關三個月內文章 / 第 40 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇論文探討長期新冠對患者生活品質的影響,並分析他們如何透過社交媒體,特別是Twitter,分享經驗。研究重點在於2022年希臘語的貼文,將其情感分為正面或負面。透過情感分析和主題建模,識別與長期新冠相關的討論主題。研究中還使用了ChatGPT來標記主題,並由專家評估準確性。結果旨在揭示長期新冠的討論情況,增進對患者經驗的理解。 相關文章 PubMed DOI

這項研究提出了一種新方法,利用社交媒體數據分析心理健康,並透過大型語言模型和視覺化技術創建Chernoff Faces。研究人員從社交媒體收集了15,744則貼文,經過清理後精煉至2,621則。方法包括數據準備、特徵提取、視覺化和臨床驗證,並使用降維技術將複雜數據轉換為易懂的視覺格式。針對60位精神科醫師的調查顯示,這些視覺化結果有助於改善臨床評估,為未來研究提供基礎,特別是在增強心理健康診斷工具方面。 相關文章 PubMed DOI

這項研究探討五種知識管理方法在臨床決策支持系統中的應用,目的是提升醫療服務並追求零錯誤。方法包括: 1. **影像數據模式識別**:利用機器學習分析醫學影像,快速處理大量數據,但需克服影像質量和標註數據的挑戰。 2. **結構化醫療數據挖掘**:從電子健康紀錄中提取見解,提供即時分析,但可能面臨數據孤島問題。 3. **文本挖掘**:從醫學文獻中提取資訊,保持系統更新,但需處理大量非結構化數據。 4. **可計算知識設計**:創建正式的醫學知識表示,便於整合,但需持續維護。 5. **大型語言模型**:利用語言模型理解臨床知識,靈活但可能面臨準確性問題。 研究評估這些方法的優缺點,旨在指導有效的CDS系統開發。 相關文章 PubMed DOI

這篇論文探討流行病學和臨床癌症登記在改善腫瘤醫療及研究中的重要性,特別是在癌症影響日益擴大的情況下。文中指出醫療數據的多樣性帶來挑戰,使得腫瘤手動記錄變得困難。研究提出利用大型語言模型(LLMs)將非結構化醫療報告轉換為德國基本腫瘤數據集所需的結構化格式。結果顯示,將LLMs整合進醫院數據管理或癌症登記系統,能顯著提升癌症數據的質量與完整性,對於有效的診斷、治療及療效評估至關重要。這項研究為人工智慧在醫療數據處理及癌症護理中的潛力提供了新的見解。 相關文章 PubMed DOI

這項研究探討基於Transformer的命名實體識別(NER)模型,特別是標記級別與實體級別評估的差異。研究使用合成法語腫瘤報告數據集,對四個BERT模型進行微調,並評估其在兩個級別的表現。結果顯示,從標記級別轉向實體級別時,模型表現有明顯差異,強調了NER任務中評估方法的重要性。此外,雖然BERT模型表現不錯,但ChatGPT在識別法語複雜實體方面仍有挑戰。 相關文章 PubMed DOI

這項研究探討如何透過檢索增強生成(RAG)來提升從PubMed資料庫獲取醫療資訊的效果。研究將RAG與大型語言模型結合,旨在提高醫療專業人員獲得資訊的準確性和相關性。使用1,000個查詢的標記數據集進行評估,結果顯示在答案的相關性上有不錯的表現,但也指出在基礎性和上下文相關性方面仍需改進。 相關文章 PubMed DOI

這項研究提出了一種新方法,利用MIMIC-IV出院記錄來創建機器生成的醫學指令數據集,目的是微調專注於醫學的語言模型。研究團隊開發了包含指令和格式化為JSONL的出院記錄的大型文本數據集,經過三個關鍵階段的處理,最終得到51,385組有效數據,平均ROUGE分數為0.185。評估顯示,GPT-3.5的有效性率達88.0%,接近人類標註者的88.5%。這項研究顯示了自動化創建醫學自然語言處理數據集的潛力。 相關文章 PubMed DOI

生成式大型語言模型(LLMs)在醫療領域的應用日益增多,但目前缺乏針對法語醫療LLMs的評估框架。為此,我們開發了一個包含114個開放性問題的基準,旨在評估法語LLMs的醫療能力,並反映臨床情境的複雜性。初步測試七個擁有70億參數的流行LLMs,發現它們的性能差異顯著,顯示在醫療環境中實施LLMs前需進行徹底評估。我們的基準可作為快速評估法語醫療LLMs的資源,促進問責與標準化,提升其可信度與有效性。 相關文章 PubMed DOI

這項研究的目的是評估大型語言模型(LLM)在理解和推理關鍵醫療事件方面的能力,特別是拔管(extubation)。研究人員專注於LLM對表格數據的理解及識別變數重要性的能力。此外,研究還探討了將LLM與現有機器學習模型(如XGBoost)結合使用的潛力,以提升醫療決策的能力。 相關文章 PubMed DOI

您的研究強調了全面評估大型語言模型(LLMs)的重要性,透過結合多個任務和多樣化的評估者來達成。您對四個LLM在八個不同任務上的表現進行評估,並邀請了17位來自不同領域的評估者,這樣的做法讓我們對LLM的性能有更深入的了解。這種方法不僅展示了模型的能力,還突顯了任務和評估者的多樣性如何影響結果,可能提供對LLM熟練度的更細緻見解,並幫助識別其在不同情境下的優劣。 相關文章 PubMed DOI