原始文章

這項研究比較了微調深度學習模型(基於PubMed摘要)與大型語言模型(ChatGPT-3.5)在不良藥物事件命名實體識別(NER)的表現。結果顯示,Hussain等人的微調模型達到97.6%的F1分數,遠高於ChatGPT-3.5的86.0%。雖然少量學習在數據有限時仍具實用性,但無法超越深度學習模型的表現。未來將探討使用GPT-4的少量提示及微調GPT-3.5的可能性。 PubMed DOI


站上相關主題文章列表

研究指出,GPT-3.5和GPT-4處理臨床數據時,只需少量訓練數據即可提取有價值資訊。透過改進提示策略,可增進模型在臨床命名實體識別任務表現,減少大量標註數據需求。雖GPT模型在臨床應用有潛力,仍需進一步改進。研究結果凸顯了量身定制的提示框架重要性,以提高大型語言模型在臨床環境性能。 PubMed DOI

研究使用大型語言模型分析社群媒體貼文中的不良事件,特別是與大麻相關的。結果顯示ChatGPT在辨識上表現接近人類,具有準確且高效的標註能力。雖然有限制,建議未來可嘗試其他模型和資料來源。總結來說,大型語言模型有助提升生物醫學研究效率。 PubMed DOI

關係抽取是NLP中的一個任務,專注於提取生物醫學實體之間的語義關係。研究者們正在研究使用大型語言模型如GPT-3.5-turbo和GPT-4來進行這項任務。在研究中,這些模型在EU-ADR、GAD和ChemProt三個標準數據集上進行了測試,並取得了不錯的成績。在某些情況下,GPT模型的表現甚至可以與BioBERT和PubMedBERT相媲美。 PubMed DOI

這項研究比較了不同語言模型在從電子健康記錄中提取藥物劑量信息方面的表現。結果顯示,GPT-4在準確標註藥物使用說明方面優於其他模型。該研究指出,像GPT-4這樣的大型語言模型有潛力自動化從醫療文本來源中提取有價值信息,減少手動標註的需求。 PubMed DOI

新藥開發和不良藥物反應檢測傳統上耗時且成本高,但隨著大規模醫療數據庫和大型語言模型的興起,藥物篩選變得更有效。本研究提出一個自動化高通量藥物篩選流程,具備多項優勢,包括估算藥物與疾病的關聯、整合藥物重新利用與監測、準確解析暴露時間等。研究分析了661萬名患者的數據,發現16,901對藥物-疾病組合顯著降低風險,11,089對則顯著增加風險,顯示出潛在的藥物重新利用和安全問題。這項研究展示了自然語言處理在藥物流行病學中的潛力。 PubMed DOI

大型語言模型(LLMs),像是OpenAI的ChatGPT,雖然能生成類似人類的文本,但在網路使用時會有數據隱私的風險,因為用戶資料會傳送到外部伺服器。為了解決這個問題,我們探討在安全的本地網路中使用開源的小型LLMs,特別是在需要保護數據的監管機構中。我們發現某些模型在少量或零樣本學習中表現不錯,甚至達到傳統神經網路的效果,顯示出在安全環境中使用開源LLMs的潛力。 PubMed DOI

藥物引起的肝損傷(DILI)是藥物安全性的重要議題,也是急性肝衰竭的主要原因。傳統的文獻搜尋方法因藥物相互作用的複雜性而效率不高,且手動整理容易出錯。近期,利用大型語言模型(LLMs)如LLaMA-2,研究人員開發了專門用於DILI分析的模型,並在CAMDA 2022的數據集上達到97.19%的準確率,顯示出LLMs在文獻識別上的潛力,可能簡化監管審查流程。 PubMed DOI

這項研究評估了大型語言模型(LLMs)在藥物審查中的表現,特別是劑量錯誤、藥物相互作用及基因組學建議的能力。研究測試了四個LLM,發現ChatGPT在劑量方案上表現良好,但對simvastatin的問題有例外。所有LLM都能識別warfarin的相互作用,但錯過metoprolol和verapamil的相互作用。Claude-Instant在治療監測上提供適當建議,而Gemini在基因組學上表現不錯。研究指出,LLM在藥物審查中有潛力,但整合進醫療系統對病人安全至關重要。 PubMed DOI

這段文字探討了從文本中識別和提取關鍵資訊的重要性,特別是在食品領域,對營養師和醫生很有幫助。文中提到命名實體識別(NER)和命名實體連結(NEL)的角色。大型語言模型(如ChatGPT)為這些任務提供了新機會。作者評估了ChatGPT-3.5和ChatGPT-4在食品數據的NER和NEL表現,並比較它們在生物醫學領域的能力。結果顯示,ChatGPT在NER上表現不錯,但在實體連結的有效性上則較低。作者提醒,雖然ChatGPT有潛力,但在食品和生物醫學的關鍵決策上不應過度依賴。 PubMed DOI

不良藥物事件(ADEs)對住院率影響顯著,且與高發病率和死亡率相關。傳統的藥物安全監測依賴於不良事件報告系統,但社交媒體如X(前身為Twitter)提供了有價值的患者見解。本研究探討使用大型語言模型(LLMs)進行ADE分類,結果顯示RoBERTa-large模型表現最佳,F1指標達0.8,微調後的ChatGPT則為0.75。特徵分析顯示某些術語在識別ADE中至關重要,顯示LLMs在藥物安全監測中的潛力。 PubMed DOI