原始文章

這項研究探討大型語言模型(LLMs)在分析患者對緊急研究中免除知情同意(EFIC)過程的看法。研究分析了102個與兒科研究相關的社區訪談,使用五種LLMs,包括GPT-4,來評估情感並進行主題分類。結果顯示,LLMs在情感分析上與人類評審者一致性高(Cohen's kappa: 0.69),主題分類準確率也高(0.868)。雖然LLMs在數據分析上效率高,但仍應輔助人類判斷。未來研究應著重於將LLMs整合進EFIC過程,以提升分析效率與準確性。 PubMed DOI


站上相關主題文章列表

研究使用ChatGPT-4等大型語言模型協助分析醫療研究中的病患訪談資料。結果顯示,ChatGPT-4生成的訪談主題與問卷與人類相似,但速度較快,雖然問題稍嫌不夠精確。建議未來整合LLM與人類調查員,採取更有效的混合方法研究,以更全面了解病患觀點,同時需注意倫理與質性影響。 PubMed DOI

這項研究探討大型語言模型(LLMs)在質性主題分析中的應用,並將其表現與人類分析師在精神科環境中的表現進行比較。研究使用了一個700億參數的開源LLM,並透過先進的提示工程,能在幾分鐘內從半結構性訪談中生成主題。分析結果顯示,LLM生成的主題與人類創建的主題之間的相似性中等到顯著,顯示LLMs在質性研究中有潛力,能提升研究的可及性。 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是ChatGPT-4.0,對於三級醫療機構病人投訴的回應效果。研究比較了ChatGPT與病人關係部門的回應,結果顯示87.2%到97.3%的受訪者更偏好ChatGPT的回應,且其在適當性、同理心等方面得分較高。ChatGPT的回應平均較長,且與高得分有關。研究顯示,ChatGPT能有效提升病人投訴的解決效果,未來可進一步探討AI在醫療系統中的應用潛力。 PubMed DOI

這項研究探討大型語言模型(LLMs)在生成重症監護病房(ICU)病人出院摘要的表現,分析了匿名臨床筆記。三個模型中,GPT-4 API的表現最佳,準確識別41.5%的關鍵臨床事件,ChatGPT和Llama 2則分別為19.2%和16.5%。雖然GPT-4在資訊組織和清晰度上表現優異,但仍有小錯誤,且所有模型在敘事連貫性和重要數據的捕捉上存在挑戰。總體來看,這些LLM在生成出院摘要上有潛力,但仍需改進。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來改善醫療領域的質性訪談數據解釋。傳統的主題建模方法常常過於簡化,難以捕捉患者和醫療專業人員的細微經驗。研究發現,LLMs在數據解釋的效率和深度上表現更佳,顯示它們在整合人類觀點進入可持續醫療系統的發展中,可能扮演重要角色,並有助於解決該領域的挑戰。 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析社交媒體貼文,評估公眾對疫苗接種態度的應用。研究人員比較了不同LLMs的表現,包括GPT模型和開源替代品,並與基於規則的情感分析工具進行對比。結果顯示,使用表現最佳的LLMs進行少量提示能獲得最佳效果,而其他方法則有較高的誤分類風險。研究強調LLMs在公共衛生領域的潛力,建議將其納入公共衛生監測,以提升對健康政策公眾意見的評估能力。 PubMed DOI

這項研究評估了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在從腫瘤科電子健康紀錄中提取患者共病情況的表現。研究分析了250份病歷報告,結果顯示GPT-4在敏感性上表現優於GPT-3.5和醫生,達到96.8%。雖然醫生在精確度上稍勝一籌,但GPT-4的表現更一致,且能推斷出非明確的共病情況。整體而言,這些模型在提取資訊方面顯示出潛力,可能成為數據挖掘的重要工具。 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是GPT-4,在製作癌症臨床試驗教育內容的潛力,旨在提升患者的理解。研究從ClinicalTrials.gov獲取知情同意書,生成簡短摘要和多選題,並透過患者調查和眾包註釋來評估其有效性。結果顯示,摘要內容可讀且具資訊性,患者認為有助於理解臨床試驗並提高參與意願。雖然多選題的準確性高,但當要求提供未明確列出的資訊時,GPT-4的準確性較低。整體而言,研究顯示GPT-4能有效生成患者友好的教育材料,但仍需人類監督以確保準確性。 PubMed DOI

這項研究探討使用 Mistral 8x22B 大型語言模型 (LLM) 改善臨床試驗的知情同意書 (ICFs) 撰寫,針對複雜性和法律術語問題進行分析。研究中,四個臨床試驗方案的 ICF 由 LLM 生成,並由八位專家評估。結果顯示,LLM 生成的 ICF 在準確性和完整性上與人類版本相似,但在可讀性和可理解性上表現更佳,且在可行性上獲得滿分。整體而言,LLM 顯示出提升 ICF 可及性和清晰度的潛力,可能成為改善參與者理解的有效解決方案。 PubMed DOI