原始文章

這項研究分析超過9萬則推特,並精細標註1,000則推文,提升辨識藥物與膳食補充劑關係的能力。結合BioBERT和ChatGPT,關係偵測準確率很高(F1值最高0.99),但實體辨識較難,因為類型太像。這方法有助於監測補充劑使用和藥物交互作用,也證明傳統NLP和大型語言模型結合在醫療文本分析上很有潛力。 PubMed


站上相關主題文章列表

這項研究評估了ChatGPT-4在社區藥局的表現,包括藥物資訊檢索、標籤錯誤識別、處方解讀及決策支持等。結果顯示,ChatGPT對藥物查詢的回應相當滿意,能引用正確的藥物數據,並成功識別標籤錯誤。在臨床情境中,其建議與藥師相當,特別是在藥物反應評估和健康建議方面。研究指出,ChatGPT可能成為社區藥局的有用工具,但仍需進一步驗證其在不同查詢和病人群體中的有效性及隱私問題。 PubMed DOI

這段文字探討了從文本中識別和提取關鍵資訊的重要性,特別是在食品領域,對營養師和醫生很有幫助。文中提到命名實體識別(NER)和命名實體連結(NEL)的角色。大型語言模型(如ChatGPT)為這些任務提供了新機會。作者評估了ChatGPT-3.5和ChatGPT-4在食品數據的NER和NEL表現,並比較它們在生物醫學領域的能力。結果顯示,ChatGPT在NER上表現不錯,但在實體連結的有效性上則較低。作者提醒,雖然ChatGPT有潛力,但在食品和生物醫學的關鍵決策上不應過度依賴。 PubMed DOI

這項研究專注於利用先進的檢索增強生成(RAG)系統,結合更新版的膳食補充品知識庫2.0(iDISK2.0),提升膳食補充品資訊的準確性。iDISK2.0整合可信來源的數據並進行清理,提升質量。RAG系統結合生物醫學知識圖譜與大型語言模型,能提供準確的證據回應,解決獨立LLMs的錯誤資訊問題。評估結果顯示,準確率達99%和95%,顯著優於獨立LLMs。未來將擴展至其他生物醫學領域,並透過真實查詢增強評估。 PubMed DOI

這項研究用30個虛構案例發現,ChatGPT在建議生活型態改變上,跟睡眠專科醫師很接近,但比較容易建議多做醫療檢查。雖然是模擬資料,結果顯示LLM有潛力協助辨識睡眠健康風險並支援臨床,但還需要用真實資料再研究。 PubMed DOI

這項研究比較了四款主流AI(ChatGPT-3.5、ChatGPT-4、Ernie Bot、iFLYTEK Spark)辨識網路健康資訊真偽的能力。結果顯示,ChatGPT-4 準確率最高,Ernie Bot 和 iFLYTEK Spark 表現也不錯,ChatGPT-3.5 稍微落後。雖然整體表現佳,但在專業或複雜情境下還有進步空間。 PubMed DOI

這篇論文用大型語言模型產生了1.7萬則帶有不良藥物事件標註的合成推文,解決社群媒體上缺乏標註資料的問題。用這些資料預訓練的NER模型,在真實推文上表現更好,經人工標註資料微調後更創新高,證明合成資料能大幅提升ADE偵測效果,且資料集已公開。 PubMed DOI

這項研究發現,ChatGPT 和 Claude 在協助藥物安全專家偵測藥物交互作用(DDIs)方面表現相近,且都優於 Gemini,尤其在簡單案例中。不過,三款大型語言模型的特異性都不高,容易誤判沒有交互作用的情況。總結來說,LLMs 可作為輔助工具,但專業藥師仍不可或缺,特別是在排除不存在的 DDIs 時。 PubMed DOI

這項研究發現,ChatGPT(GPT-4)在協助藥物不良反應的系統性回顧時,能有效找出搜尋策略中遺漏的關鍵字。實驗中,ChatGPT用嚴格比對能找回49%遺漏詞,語意比對則達71%,顯示它在優化搜尋策略上很有幫助。 PubMed DOI

這篇研究發現,像 ChatGPT 這類大型語言模型在產生疾病、藥物和基因相關知識時,準確率很高,但在症狀相關詞彙上表現較差,主要因為症狀描述較口語化。此外,模型產生的 ID 常有錯誤或重複。整體來說,LLMs 若小心使用,對生醫領域還是有幫助,未來可透過 RAG 等方法提升可靠性。 PubMed DOI

研究發現,ChatGPT能準確從非結構化臨床紀錄中擷取癌症病患的關鍵資料,如Gleason分數和年齡(F1=0.99),對安寧照護和疼痛狀態的辨識也不錯(F1=0.86)。但few-shot提示有時反而降低準確度,加入背景資訊也未必有幫助。整體來說,ChatGPT有潛力協助電子病歷資料結構化,促進醫療研究資料共享。 PubMed