原始文章

大型語言模型(LLMs),像是OpenAI的ChatGPT,雖然能生成類似人類的文本,但在網路使用時會有數據隱私的風險,因為用戶資料會傳送到外部伺服器。為了解決這個問題,我們探討在安全的本地網路中使用開源的小型LLMs,特別是在需要保護數據的監管機構中。我們發現某些模型在少量或零樣本學習中表現不錯,甚至達到傳統神經網路的效果,顯示出在安全環境中使用開源LLMs的潛力。 PubMed DOI


站上相關主題文章列表

討論了大型語言模型(LLM)如ChatGPT在醫療保健領域的應用和限制。儘管AI語言模型展現印象深刻能力,但在現實中,特別是在複雜領域如醫學中,仍存在不確定性。論文探討了在臨床實踐、科學寫作、醫學潛在濫用及討論公共衛生議題方面使用ChatGPT的可行性。強調了在醫學領域中教育人們正確使用和了解AI語言模型的必要性和風險。 PubMed DOI

大型語言模型如ChatGPT在醫療領域有多種應用,但也面臨AI幻覺和隱私問題。透過技術改進,如提示工程、溫度調整和本地部署,可提高安全性和準確性。重要的是,LLM無法取代醫療專業知識,強調需與醫護人員合作。 PubMed DOI

LLMs如ChatGPT可幫助監管機構處理龐大文件,但需克服專有信息處理、定製功能及輸出透明度挑戰。askFDALabel框架專為FDA藥物標籤開發,包含語義搜索和問答/文本生成模組,支援全面查詢。此框架可使小型LLMs成本效益地執行監管應用,展示了LLMs如何支持監管機構運作。 PubMed DOI

研究使用大型語言模型分析社群媒體貼文中的不良事件,特別是與大麻相關的。結果顯示ChatGPT在辨識上表現接近人類,具有準確且高效的標註能力。雖然有限制,建議未來可嘗試其他模型和資料來源。總結來說,大型語言模型有助提升生物醫學研究效率。 PubMed DOI

近期LLMs如ChatGPT在醫療保健領域受歡迎,但也帶來安全和倫理風險。為因應此挑戰,提出新方法評估LLMs在臨床護理中的可行性,強調安全、個人化護理和倫理。透過跨學科知識整合和文獻回顧,確定關鍵評估領域。由專家進行同行評審,確保科學嚴謹。在臨床腫瘤護理中評估九種LLMs後,有些被推薦使用,有些謹慎使用或不可使用。推薦使用特定領域的LLMs可支持醫療專業人員的決策。 PubMed DOI

LLMs在臨床試驗文件生成上有潛力。輝瑞挑戰使用LLMs自動化臨床試驗文件,尤其是為CSRs創建安全表摘要。評估顯示性能差異,特別是在事實準確性和寫作風格方面。團隊多使用GPT模型,改進方向包括表格輸入、上下文添加和微調。挑戰結果顯示LLMs在自動化CSRs中表格摘要有潛力,強調需優化人類輸入和持續研究。 PubMed DOI

研究評估了大型語言模型在醫療保健領域的應用,尤其是在改善患者護理方面。使用MIMIC-III數據庫的電子健康記錄,測試了這些模型在識別特定疾病患者方面的效能。GPT-4在辨識COPD、CKD、PBC和Cancer Cachexia患者方面表現優異,而ChatGPT和LLaMA3則稍遜。儘管LLMs有潛力,但在臨床應用前仍需解決錯誤、解釋不足和倫理問題。進一步研究將有助於提升模型訓練和設計,以更好地應用於醫療保健。 PubMed DOI

這項研究比較了微調深度學習模型(基於PubMed摘要)與大型語言模型(ChatGPT-3.5)在不良藥物事件命名實體識別(NER)的表現。結果顯示,Hussain等人的微調模型達到97.6%的F1分數,遠高於ChatGPT-3.5的86.0%。雖然少量學習在數據有限時仍具實用性,但無法超越深度學習模型的表現。未來將探討使用GPT-4的少量提示及微調GPT-3.5的可能性。 PubMed DOI

這項研究評估了ChatGPT-4在社區藥局的表現,包括藥物資訊檢索、標籤錯誤識別、處方解讀及決策支持等。結果顯示,ChatGPT對藥物查詢的回應相當滿意,能引用正確的藥物數據,並成功識別標籤錯誤。在臨床情境中,其建議與藥師相當,特別是在藥物反應評估和健康建議方面。研究指出,ChatGPT可能成為社區藥局的有用工具,但仍需進一步驗證其在不同查詢和病人群體中的有效性及隱私問題。 PubMed DOI

這項研究評估了大型語言模型(LLMs)在藥物審查中的表現,特別是劑量錯誤、藥物相互作用及基因組學建議的能力。研究測試了四個LLM,發現ChatGPT在劑量方案上表現良好,但對simvastatin的問題有例外。所有LLM都能識別warfarin的相互作用,但錯過metoprolol和verapamil的相互作用。Claude-Instant在治療監測上提供適當建議,而Gemini在基因組學上表現不錯。研究指出,LLM在藥物審查中有潛力,但整合進醫療系統對病人安全至關重要。 PubMed DOI