原始文章

生成式人工智慧(GAI)技術,特別是大型語言模型(LLMs),在醫學領域的應用越來越普遍,尤其是在病人與臨床試驗配對方面。研究顯示,LLMs能有效匹配病人的健康紀錄與臨床試驗資格標準,並取得良好結果。雖然自動化配對有助於提升病人參與率和減輕醫療工作負擔,但也面臨挑戰,如可能帶來虛假希望、導航困難及需人類監督等問題。進一步研究對驗證LLM在腫瘤學中的安全性和有效性至關重要。 PubMed DOI


站上相關主題文章列表

研究使用大型語言模型改善病人與臨床試驗匹配,透過強化電子病歷與試驗標準相容性。提出的隱私資料擴增方法LLM-PTM,平均提升7.32%,且泛化能力比以往更好12.12%。案例研究顯示方法有效。 PubMed DOI

這項研究比較了不同大型語言模型在將病患配對到醫療臨床試驗上的效果。研究發現,當開源模型在專門的數據集上進行微調時,其表現可以與專有模型媲美。這項研究展示了開源模型在醫療應用中的潛力,並提供了一個數據集和一個經過微調的模型供公眾使用,以鼓勵在這個領域進行更多研究。 PubMed DOI

使用大型語言模型如GPT-3.5 Turbo和GPT-4可提升臨床試驗患者配對的效率和準確性。研究顯示GPT-4在患者記錄和AI技術中表現優異,有助於減少招募錯誤、減輕研究負擔、加速研究。然而,仍需進一步研究以驗證其在實際臨床數據中的效用。 PubMed DOI

這項研究探討大型語言模型(LLMs)在提升病人與臨床試驗(CTs)匹配的應用,並以資訊檢索為框架。研究開發了一個多階段檢索管道,結合BM25、Transformer排名器及LLM方法,數據來自TREC臨床試驗2021-23。結果顯示,微調的LLM在查詢形成、過濾及重新排名上表現優於傳統方法,提升了識別合格試驗的有效性。雖然LLMs具競爭力,但計算成本較高,效率降低。未來研究應聚焦於優化成本與檢索有效性之間的平衡。 PubMed DOI

這項研究著重於改善臨床試驗的患者配對過程,傳統上需手動審查電子健康紀錄,常導致患者錯失治療機會。近期大型語言模型的進展讓自動化配對成為可能,但現有研究多依賴有限的合成數據,未能反映真實醫療數據的複雜性。研究者對一個臨床試驗配對系統進行實證評估,使用實際的電子健康紀錄,並引入名為OncoLLM的自訂模型。結果顯示,OncoLLM的表現超越GPT-3.5,與醫生的效果相當,可能顯著提升患者配對效率,改善治療選擇的可及性。 PubMed DOI

大型語言模型(LLMs)在腫瘤學的應用正在改變病人照護的方式。它們能提供個性化的癌症資訊、協助診斷、監測治療進展,並促進後續照護。這些模型的潛在好處包括提高資訊可及性、個性化支持及提升醫療效率。然而,使用過程中也需注意數據隱私、偏見及知情同意等倫理問題。此外,法規方面需建立明確的批准流程、責任界定及持續監測機制,以確保安全與有效性。整體而言,LLMs在腫瘤學的整合需謹慎推進。 PubMed DOI

臨床試驗的病人招募常常困難,但TrialGPT提供了解決方案。它的框架包含三個主要模組: 1. **TrialGPT-Retrieval**:能有效篩選和檢索試驗,回收率超過90%,只用不到6%的資料。 2. **TrialGPT-Matching**:評估病人符合性,準確率達87.3%,與專家相當,並提供清晰解釋。 3. **TrialGPT-Ranking**:生成的試驗分數與人類判斷一致,排名準確度超越競爭對手43.8%。 使用者研究顯示,TrialGPT能減少42.6%的篩選時間,顯示出在病人與試驗匹配上的進展。 PubMed DOI

這篇評論探討了大型語言模型(LLMs)在醫療領域的臨床試驗現狀,共識別出27個試驗,其中5個已發表,22個仍在進行中。這些試驗涵蓋病人照護、數據管理、決策支持和研究協助等四大領域。雖然已發表的試驗顯示出潛在好處,但也引發了對準確性的擔憂。正在進行的試驗則探索病人教育和知情同意等創新應用。評論還指出評估LLMs快速變化特性的挑戰,並強調未來研究的方向。 PubMed DOI

大型語言模型(LLMs)是先進的人工智慧系統,能生成多種內容,應用於醫療保健的病人護理、工作流程、溝通等領域。它們能簡化文檔、改善病人溝通及協助診斷。然而,使用 LLMs 也帶來風險,如錯誤可能影響病人結果,特別是偏見和倫理問題。為了應對這些挑戰,針對特定任務設計的定制 LLMs,透過精心策劃的訓練數據來減少偏見,並採用提示工程、檢索增強生成等方法提升效能。 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是GPT-4,在製作癌症臨床試驗教育內容的潛力,旨在提升患者的理解。研究從ClinicalTrials.gov獲取知情同意書,生成簡短摘要和多選題,並透過患者調查和眾包註釋來評估其有效性。結果顯示,摘要內容可讀且具資訊性,患者認為有助於理解臨床試驗並提高參與意願。雖然多選題的準確性高,但當要求提供未明確列出的資訊時,GPT-4的準確性較低。整體而言,研究顯示GPT-4能有效生成患者友好的教育材料,但仍需人類監督以確保準確性。 PubMed DOI