原始文章

這項研究用小型transformer和GPT-4o模型來分類醫學文獻,判斷是不是RCT和是否跟腫瘤學有關,兩種方法的準確率都很高,尤其是RCT分類F1分數超過0.9。之後再用簡單規則式,準確找出腫瘤學RCT的腫瘤類型,讓後續專業處理更有效率。 PubMed DOI


站上相關主題文章列表

研究使用OpenAI的GPT-4模型分析非小細胞肺癌患者的電子健康記錄,結果顯示GPT-4在識別疾病階段、治療和進展方面比其他模型表現更好。這表示GPT-4在臨床表現型提取上比基於規則的模型更有效率,具有更高的精確度、召回率和F1分數。GPT模型在醫療領域有著重要的應用價值,因為它們提供了更好的上下文理解和臨床表現型識別能力。 PubMed DOI

這項研究著重於改善臨床試驗的患者配對過程,傳統上需手動審查電子健康紀錄,常導致患者錯失治療機會。近期大型語言模型的進展讓自動化配對成為可能,但現有研究多依賴有限的合成數據,未能反映真實醫療數據的複雜性。研究者對一個臨床試驗配對系統進行實證評估,使用實際的電子健康紀錄,並引入名為OncoLLM的自訂模型。結果顯示,OncoLLM的表現超越GPT-3.5,與醫生的效果相當,可能顯著提升患者配對效率,改善治療選擇的可及性。 PubMed DOI

臨床試驗的病人招募常常困難,但TrialGPT提供了解決方案。它的框架包含三個主要模組: 1. **TrialGPT-Retrieval**:能有效篩選和檢索試驗,回收率超過90%,只用不到6%的資料。 2. **TrialGPT-Matching**:評估病人符合性,準確率達87.3%,與專家相當,並提供清晰解釋。 3. **TrialGPT-Ranking**:生成的試驗分數與人類判斷一致,排名準確度超越競爭對手43.8%。 使用者研究顯示,TrialGPT能減少42.6%的篩選時間,顯示出在病人與試驗匹配上的進展。 PubMed DOI

在腫瘤學中,提取隨機對照試驗的納入和排除標準是一項複雜的任務,自動化方法能有效協助這項工作。一項研究分析了600個來自高影響力醫學期刊的試驗,發現500個用於模型開發,100個用於測試。測試結果顯示,基於規則的系統在局部疾病和轉移性疾病的F1分數分別為0.72和0.77,而基於變壓器的機器學習模型則達到0.97和0.88。大型語言模型GPT-4o也表現不錯,顯示自動化分類癌症試驗的可行性,雖然需要大量計算資源。 PubMed DOI

隨機對照試驗(RCTs)對循證醫學非常重要,但有些試驗使用虛構數據,影響研究的完整性。本研究探討利用GPT-4驅動的ChatGPT來簡化RCT評估過程。透過TRACT檢查表,ChatGPT能有效處理RCT論文的PDF,並準確回答檢查項目,與人類評估者的一致性達84%。此外,ChatGPT在數據提取方面也表現出色,對三個表格達到100%準確率。未來將致力於提升ChatGPT在多個RCT中的應用,實現更高的數據捕捉準確性及自動化處理。 PubMed DOI

研究發現,GPT-4在從乳癌和胰臟癌病歷中擷取腫瘤特徵及用藥資訊表現最佳,但遇到複雜推理時仍會出錯或資訊不完整。雖然大型語言模型有潛力協助臨床資料整理,但目前準確度還不夠,未來還需改進才能真正應用在臨床研究和照護上。 PubMed DOI

這項研究用GPT-4o和Llama3.3等大型語言模型,測試它們在227份人工合成病理報告中辨識和分類癌症的能力。結果顯示,這些AI模型在準確率、敏感度和特異性上都比傳統方法更優秀,有機會讓癌症登記流程更快、更可靠,提升公共衛生和臨床照護品質。 PubMed DOI

這項研究發現,讓 ChatGPT 直接讀取 NCCN 指南 PDF 並搭配提示語(PDF+Prompt),能大幅提升其在建議晚期非小細胞肺癌治療時的準確度和符合指引性,且回覆更清楚易懂。單靠提示語沒有效果。這表示,若大型語言模型能直接存取臨床指引,對腫瘤治療決策會更有幫助,但還需更多研究來驗證其他癌症和臨床情境的適用性。 PubMed DOI

這項研究發現,開源大型語言模型(LLM)在從腫瘤臨床試驗描述中萃取基因生物標記資訊,並將試驗資料結構化方面,表現比GPT-4等封閉模型更好。即使沒特別調整,開源模型就很厲害,經過微調後準確度還能再提升。這有助於病患媒合合適的臨床試驗。 PubMed DOI

我們開發了一套用大型語言模型(LLMs)自動分類腫瘤臨床試驗和文獻的系統,在多個資料集和任務上都表現優異,準確率超過94%、F1-score超過92%,回應有效性最高達99.88%。雖然還有提示敏感度和運算資源的挑戰,但未來LLMs有望成為醫學文獻分類的重要工具。 PubMed DOI