原始文章

短文本聚類面臨詞彙共現的挑戰,但研究顯示大型語言模型(LLMs)能有效生成嵌入,捕捉語義細微差異,改善聚類結果。透過高斯混合模型,聚類效果比傳統方法如doc2vec和潛在狄利克雷分配更明顯且易解釋。人類評審和生成型LLM的驗證顯示高一致性,顯示LLM能縮短聚類產出與解釋的距離。此外,LLM與人類編碼的比較揭示了兩者的偏見,質疑傳統將人類編碼視為最終標準的做法。 PubMed DOI


站上相關主題文章列表

研究探討2020年6月1日至2023年12月31日期間,針對大型語言模型(LLMs)的主題建模方法。使用Web of Science和LexisNexis數據,聚焦於"Large language model"、"LLM"和"ChatGPT"等LLMs。評估LDA、NMF、CTM和BERTopic等方法,發現BERTopic表現最佳。新聞報導著重LLM應用,學術論文則更專業。研究提供LLMs未來挑戰見解,對LLM服務業者有幫助。 PubMed DOI

這項研究探討大型語言模型(LLMs)在質性主題分析中的應用,並將其表現與人類分析師在精神科環境中的表現進行比較。研究使用了一個700億參數的開源LLM,並透過先進的提示工程,能在幾分鐘內從半結構性訪談中生成主題。分析結果顯示,LLM生成的主題與人類創建的主題之間的相似性中等到顯著,顯示LLMs在質性研究中有潛力,能提升研究的可及性。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來改善醫療領域的質性訪談數據解釋。傳統的主題建模方法常常過於簡化,難以捕捉患者和醫療專業人員的細微經驗。研究發現,LLMs在數據解釋的效率和深度上表現更佳,顯示它們在整合人類觀點進入可持續醫療系統的發展中,可能扮演重要角色,並有助於解決該領域的挑戰。 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 PubMed DOI

您提出的將類別數據轉換為可解釋的數值特徵向量的方案,利用大型語言模型(LLMs)相當創新。透過LLMs識別類別屬性的關鍵特徵,能創建多維特徵向量,便於與數值數據進行綜合分析。 這種自動化轉換簡化了數據預處理,並且增加的可解釋性讓用戶能調整輸出,確保符合領域知識和分析需求。互動工具也能幫助用戶驗證和完善AI生成的特徵向量,提升數據轉換質量,增強對AI輸出的信任。 總之,這種方法有潛力顯著提升異質數據集的分析,結合LLMs的優勢與用戶調整,實現更好的可解釋性和可用性。 PubMed DOI

這篇論文探討如何將大型語言模型(LLMs)與單細胞基因表達數據結合,重點在基因嵌入矩陣和基因表達矩陣的整合。主要挑戰是有效合併這兩種數據,以提升細胞間距離的定義。作者提出了一個計算效率高的解決方案,顯著改善了六個真實數據集上相似細胞類型的聚類,顯示其在測量細胞間距離上的有效性。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來提升臨床試驗(CT)方案設計,特別是在資格標準的編碼與總結上。研究人員從ClinicalTrials.gov提取資格部分,並用標準化工具拆解成規則,再透過LLMs進行聚類分析。經過三個實驗評估聚類的有效性,結果顯示這些聚類與CT信息高度對齊,且保留了97%的分類性能。生成的資格部分在ROUGE分數上達到95%,顯示出這種方法在CT設計上具實用性與效率,並提供可視化管道供進一步探索。 PubMed DOI

這項研究探討了如何利用自然語言處理(NLP)分析精神醫療機構的專業發展訓練反饋。研究者針對「使用意圖」和「開放式反饋」進行分析,使用了主題建模、情感分析和基於大型語言模型(LLM)的聚類方法。結果顯示,主題建模對短小的「使用意圖」回應效果不佳,情感分析也無法準確捕捉情感基調。相對而言,LLM的聚類方法能有效生成有意義的聚類,顯示其在分析學習者反饋中的潛力。未來研究應進一步探索LLM在不同數據集的應用。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來進行大規模的人類記憶實驗,特別是針對自然敘事的分析。研究發現,隨著敘事長度增加,記憶表現會改善,但參與者常常只會總結長敘事,而非回憶具體細節。當敘事順序被打亂時,回憶表現顯著下降,但識別表現穩定,顯示參與者仍能根據理解重建故事。研究還利用LLM生成的文本嵌入來測量敘事的語義相似度,與回憶可能性有強相關性,顯示LLMs在記憶研究中的潛力。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析線上護理論壇專家文本的應用,目的是提升主題分析的效率。研究過程包括數據收集、主題建模、人為分類及LLMs的主題詮釋。結果顯示,人為詮釋與LLMs生成的詮釋有80%的相似度,且在三分之二的主題上達成共識。LLMs能識別子主題並提供額外見解,增強分析深度,但在質性研究中整合這些模型仍需謹慎。總體而言,LLMs在自動化質性數據詮釋方面展現潛力。 PubMed DOI