原始文章

這份報告探討了使用大型語言模型(LLMs)進行教育情感分析的初步結果。我們分析了學生報告中的質性描述,以評估他們對學業表現的情感狀態和態度。情感分析揭示了學生參與度的重要見解,並指出需要改進的地方。研究顯示,LLMs能有效分析文本數據,提供比傳統方法更深入的情感理解,顯示出在改善教育評估和干預方面的潛力。 PubMed DOI


站上相關主題文章列表

這項研究探討如何利用大型語言模型(LLMs)為高中生提供個性化建議,以提升他們的福祉和學業表現。研究分析了12名學生的數據,包括Fitbit指標和學校表現,並針對每位學生生成建議。結果顯示,雖然建議通常清晰可行,但與學生個別數據的對應程度有所不同,顯示出改進空間。研究強調了LLMs在個性化支持的潛力,但也需進一步驗證和完善,未來應聚焦於介入研究及解決倫理和數據隱私問題。 PubMed DOI

這項案例研究探討大型語言模型(LLMs)在自我發展測量中的應用,這對成人個性成長至關重要。研究評估專家與LLMs生成的自我發展階段分類的一致性,結果顯示加權Kappa值為0.779,顯示出顯著一致性,證明LLMs能有效自動化此過程。不過,在單句分析上仍有改進空間。研究結果顯示,自動化系統能提供穩健的數據,適用於多層次分析,對組織心理學和企業分析具價值。整體而言,這方法論可應用於其他LLMs的分類任務,展現其在文本分析中的潛力。 PubMed DOI

這項研究探討了如何利用自然語言處理(NLP)分析精神醫療機構的專業發展訓練反饋。研究者針對「使用意圖」和「開放式反饋」進行分析,使用了主題建模、情感分析和基於大型語言模型(LLM)的聚類方法。結果顯示,主題建模對短小的「使用意圖」回應效果不佳,情感分析也無法準確捕捉情感基調。相對而言,LLM的聚類方法能有效生成有意義的聚類,顯示其在分析學習者反饋中的潛力。未來研究應進一步探索LLM在不同數據集的應用。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析線上護理論壇專家文本的應用,目的是提升主題分析的效率。研究過程包括數據收集、主題建模、人為分類及LLMs的主題詮釋。結果顯示,人為詮釋與LLMs生成的詮釋有80%的相似度,且在三分之二的主題上達成共識。LLMs能識別子主題並提供額外見解,增強分析深度,但在質性研究中整合這些模型仍需謹慎。總體而言,LLMs在自動化質性數據詮釋方面展現潛力。 PubMed DOI

這項研究分析了七種大型語言模型(LLMs)在潛在內容分析的有效性,並與人類標註者進行比較。研究涵蓋情感、政治傾向、情感強度和諷刺檢測。結果顯示,無論是人類還是LLMs,在情感和政治分析上表現一致,LLMs的可靠性通常超過人類。不過,人類在情感強度評分上較高,兩者在諷刺檢測上都面臨挑戰。總體來看,LLMs,特別是GPT-4,能有效模仿人類的分析能力,但人類專業知識仍然重要。 PubMed DOI

這份報告探討了將大型語言模型(LLMs)與可穿戴技術結合的初步成果,目的是提供個性化建議,提升學生的福祉與學業表現。我們分析了學生的數據,包括可穿戴設備的指標和學術報告的質性反饋,進行情感分析以評估情緒狀態。研究顯示,LLMs能有效分析文本數據,提供實用見解,幫助了解學生的參與度並找出改進空間,顯示出LLMs在教育上的潛力,能更深入理解學生需求。 PubMed DOI

大型語言模型在醫學教育應用越來越普遍,不只幫助老師設計課程、製作教材,也能給予學生回饋,提升語言和寫作能力。這篇綜述分析實際案例,說明LLMs對師生的好處,並討論遇到的挑戰及解方。研究建議醫學教育應更廣泛運用LLMs,以提升學習成效和病人安全。 PubMed DOI

這項研究發現,大型語言模型(LLMs)在有明確、結構化提示下,能準確且一致地評分醫學生臨床紀錄,但如果只給簡單指示,結果會不穩定。LLM有時會算錯總分,需要外部協助。整體來說,經過優化後,LLM有潛力成為醫學教育自動評分工具,但針對更複雜的評分系統還需進一步研究。 PubMed DOI

這篇論文比較了 GPT-3.5-Turbo、FLAN-T5 和 BERT 等大型語言模型在健康社群媒體情感分析的表現。結果顯示,LLMs 比傳統工具(像 VADER)表現更好,但準確度還有進步空間。透過調整提示語和微調,尤其是 BERT,效果會更好。研究也建議未來要在標註資料少的情況下,持續優化這些模型。 PubMed

大型語言模型在心理科學等學術領域越來越重要,能協助教學、寫作和模擬人類行為。雖然帶來不少好處,但也有倫理和實務上的挑戰。這份摘要整理了最新進展、最佳做法,並提出未來發展方向,幫助學界更負責任且有效地運用LLMs。 PubMed DOI