原始文章

這項研究旨在提升隨機對照試驗(RCT)出版物的報告品質,透過開發文本分類模型來檢視對CONSORT檢查表的遵循情況。研究使用了標註37個CONSORT項目的語料庫,訓練了多種模型,包括微調的PubMedBERT和BioGPT。主要發現顯示,微調的PubMedBERT模型在句子層級的微F1分數達0.71,文章層級為0.90。數據增強的影響有限,且針對方法的模型表現較佳。整體而言,這些模型能有效支持期刊編輯,改善RCT出版物的遵循情況。 PubMed DOI


站上相關主題文章列表

這項研究專注於將電子健康記錄中的文本組織成不同部分,並將其歸類為不同類別。研究人員結合了監督式學習模型中的特定數據集知識和大型語言模型(LLMs),發現零-shot LLMs 在跨領域數據上的表現優於監督式基於BERT的模型。通過集成技術結合兩種模型的優勢進一步提高了性能。 PubMed DOI

研究比較ChatGPT3與人類評估醫學研究摘要質量的能力,結果顯示兩者整體符合度有些微差異,但在特定領域表現不同。ChatGPT有助於自動化醫學文獻評估,或許提升準確性。未來的AI技術如GPT4可能提供更可靠的評估,進而改善患者治療結果。 PubMed DOI

RxBERT是在BERT基礎上訓練的模型,應用在FDA藥物標籤文件,提升了藥物資訊分析效能。在各種任務中表現優異,勝過其他自然語言處理模型,有助於提升藥物安全審查和監管決策效果。RxBERT能協助研究人員和FDA審查員更有效地利用藥物標籤數據,促進公共衛生進步。這研究凸顯了專業監管文件訓練語言模型的重要性。 PubMed DOI

研究評估了OpenAI的GPT和GPT-4在比較人類審查員時,對臨床研究論文標題和摘要的辨識表現。結果顯示,這些模型在篩選超過24,000個標題和摘要時表現準確且敏感,並展現了推理能力並修正錯誤。這些人工智慧模型有潛力優化審查流程、節省時間,並提升臨床研究品質,而非取代研究人員。 PubMed DOI

最新研究評估了ChatGPT在從隨機對照試驗(RCT)數據中產生科學摘要的表現,結果顯示ChatGPT的摘要雖然更易讀,但品質不如原始摘要。ChatGPT 3.5版和4版在遵循CONSORT-A檢查表方面表現較差。有必要進一步研究ChatGPT在醫學研究中的應用價值。 PubMed DOI

研究目標是開發NLP方法和資料集,辨識RCT出版物中的自我承認限制。團隊建立了限制類型資料模型,標記了200份RCT出版物,透過微調BERT模型識別限制句子。他們嘗試運用資料擴增技術處理小資料庫問題。最佳模型在辨識限制句和類型方面有顯著進展,這自動化方法有助提高研究透明度,支持臨床試驗文獻的證據綜合。 PubMed DOI

研究目標是開發文本分類模型,用來判斷隨機對照試驗報告是否符合 CONSORT 指南。研究者使用標註資料訓練模型,比較了不同方法後發現,微調 PubMedBERT 模型效果最好。數據擴增對模型有正面影響,尤其是使用 UMLS-EDA 效果較好。針對不同部分的特定模型,如方法部分,表現有所提升。總結來說,微調的 PubMedBERT 模型表現不錯,但仍有改進的空間,可提升期刊編輯工作流程及手稿品質。 PubMed DOI

這項研究評估大型語言模型(LLMs)在社交媒體健康相關文本分類的表現,並比較了不同模型的效果。結果顯示,基於人類標註數據的模型如RoBERTa和BERTweet表現優於基於GPT-3.5和GPT-4的模型。雖然LLM可用於數據增強,但僅依賴LLM標註數據訓練效果不佳。研究指出,LLM作為零樣本分類器能有效減少假陰性,並減輕手動標註負擔,顯示其在特定領域自然語言處理的潛力。 PubMed DOI

這項研究探討了一種三層篩選方法,利用GPT-3.5和GPT-4來提升雙相情感障礙治療的系統性回顧中標題和摘要的篩選效率。篩選分為三個層次:研究設計、目標患者及介入措施。結果顯示,GPT-4在敏感性和特異性上表現良好,顯示其在系統性回顧中的應用潛力。未來研究可考慮將此方法擴展至其他領域,以評估其更廣泛的有效性。 PubMed DOI

在循證醫學中,隨機對照試驗(RCTs)對臨床指導方針至關重要,但傳統的手動數據提取效率低。為了解決這個問題,我們開發了一個針對傳統中醫(TCM)RCT的自動化信息提取模型,使用Evi-BERT結合規則提取技術,從48,523篇研究中提取數據。我們的模型顯著提高了數據的可搜索性和提取效率,並保持高準確性,幫助醫師節省文獻審查時間,加速臨床試驗證據的識別,最終促進精確的臨床指導方針制定。 PubMed DOI