原始文章

這項研究發現,LLM像ChatGPT-4o能快速抓到結構和後勤主題,但人類分析師更能掌握情感和心理細節。結合兩者分析,有助提升健康研究的廣度和深度。作者建議未來可採用這種混合方式。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs)在質性主題分析中的應用,並將其表現與人類分析師在精神科環境中的表現進行比較。研究使用了一個700億參數的開源LLM,並透過先進的提示工程,能在幾分鐘內從半結構性訪談中生成主題。分析結果顯示,LLM生成的主題與人類創建的主題之間的相似性中等到顯著,顯示LLMs在質性研究中有潛力,能提升研究的可及性。 PubMed DOI

近年來,大型語言模型(LLMs)已被應用於醫療領域,特別是在前列腺癌的病患溝通上。我們的研究評估了三種LLM的效果,包括ChatGPT(3.5)、Gemini(Pro)和Co-Pilot(免費版),並與官方的羅馬尼亞前列腺癌病患指南進行比較。透過隨機和盲測,八位醫療專業人員根據準確性、及時性、全面性和使用友好性進行評估。結果顯示,LLM,尤其是ChatGPT,通常提供比指南更準確且友好的資訊,顯示出其在改善醫療溝通上的潛力。不過,不同模型的表現差異也顯示出需要量身定制的實施策略。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來改善醫療領域的質性訪談數據解釋。傳統的主題建模方法常常過於簡化,難以捕捉患者和醫療專業人員的細微經驗。研究發現,LLMs在數據解釋的效率和深度上表現更佳,顯示它們在整合人類觀點進入可持續醫療系統的發展中,可能扮演重要角色,並有助於解決該領域的挑戰。 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 PubMed DOI

這項研究評估了大型語言模型(LLMs)在複雜婦科癌症案例中的表現,主要針對三個模型:ChatGPT-4、Gemini Advanced和Copilot。研究使用了十五個臨床案例,六位專家根據多項指標評估模型的回應。結果顯示,Gemini Advanced的準確率最高,達81.87%,而ChatGPT-4和Copilot分別為61.60%和70.67%。雖然ChatGPT-4在遵循治療指導方針上稍好,但Gemini Advanced在答案的深度和焦點上更具優勢。研究指出,這些模型在婦科腫瘤學的臨床應用中有潛力,但仍需進一步精煉和評估。 PubMed DOI

這項研究探討了ChatGPT在醫學教育質性研究中進行主題分析的應用。由於質性分析複雜且耗時,研究評估了ChatGPT的有效性並與人類分析師比較。結果顯示,ChatGPT在大多數領域表現良好,但在可轉移性和分析深度上有所不同。六個關鍵主題包括:與人類結果的相似性、正面印象、數據連結清晰、提示影響、缺乏背景描述及理論基礎。雖然ChatGPT能有效識別關鍵數據,但深入分析仍需人類參與以增強深度。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析患者對緊急研究中免除知情同意(EFIC)過程的看法。研究分析了102個與兒科研究相關的社區訪談,使用五種LLMs,包括GPT-4,來評估情感並進行主題分類。結果顯示,LLMs在情感分析上與人類評審者一致性高(Cohen's kappa: 0.69),主題分類準確率也高(0.868)。雖然LLMs在數據分析上效率高,但仍應輔助人類判斷。未來研究應著重於將LLMs整合進EFIC過程,以提升分析效率與準確性。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析線上護理論壇專家文本的應用,目的是提升主題分析的效率。研究過程包括數據收集、主題建模、人為分類及LLMs的主題詮釋。結果顯示,人為詮釋與LLMs生成的詮釋有80%的相似度,且在三分之二的主題上達成共識。LLMs能識別子主題並提供額外見解,增強分析深度,但在質性研究中整合這些模型仍需謹慎。總體而言,LLMs在自動化質性數據詮釋方面展現潛力。 PubMed DOI

這項研究發現,GPT-4在總結腦瘤支持論壇貼文時,品質和效率都勝過GPT-3.5、Llama 3和傳統主題分析法,結果也跟人工分析相近,但速度快很多。雖然GPT-4很有潛力協助健康相關資料分析,但還是有模型偏誤和處理限制等問題需要注意。 PubMed DOI

這項研究比較了 ChatGPT 和 ERNIE Bot 在中英文乳癌資訊上的表現。結果顯示,英文版 ChatGPT 答案最準確、最實用,特別適合一般病患提問。不過,兩款 LLM 在專業問題上表現都不佳,且常缺乏佐證資料。目前還不適合完全依賴 LLM 做臨床決策,資料安全和法律風險也需注意,未來還要進一步研究。 PubMed DOI