原始文章

這項研究用機器學習分析職場問卷,提出新特徵選擇法,找出39個關鍵壓力指標,並結合多種模型,準確率超過九成,優於過去研究。方法經多重驗證,對新資料也有效。研究還用1D-CNN和創新資料轉換,讓語言模型能處理問卷資料。結果顯示,壓力和生物醫學因素關聯高,主要壓力來自工作量、溝通和環境。只需問卷即可即時監測職場壓力,實用性高。 PubMed DOI


站上相關主題文章列表

這篇文章探討了人工智慧,特別是大型語言模型(LLMs),在解決治療壓力和創傷相關問題的專業人員短缺方面的潛力。文章指出,LLMs能增強診斷評估、生成臨床筆記及提供治療支持。作者強調,克服在臨床環境中部署這些模型的挑戰很重要,包括確保AI系統的多元代表性,以避免護理資源的差異。此外,還需採用保護隱私的訓練方法,保障病人數據,同時利用公共數據集提升模型表現。 PubMed DOI

這篇文章探討了大型語言模型在職業醫學中的潛在優勢與挑戰。這些模型能協助醫療決策、病人篩檢、文件撰寫及醫護人員訓練,可能帶來成本降低和效率提升,還能減少人為錯誤。不過,它們也有準確性不足和提供錯誤建議的風險。此外,倫理問題和缺乏監管也增加了挑戰。文章建議,儘管未來有望改善,仍需進一步研究這些模型在職業醫學中的應用。 PubMed DOI

人工智慧(AI)發展迅速,尤其是大型語言模型的應用。雖然AI能提升工作效率,但也帶來工人面臨的風險,特別是在工業機器人和算法管理普及的情況下。為了應對這些挑戰,政府和企業提出了設計和使用可信賴、具倫理的AI的指導方針。職業安全與健康專業人士需專注於管理這些潛在風險,並提出五項風險管理策略,以確保工作場所的AI技術能最大化好處,並減少對工人的傷害。 PubMed DOI

抑鬱症對全球影響深遠,影響工作效率和殘疾率。雖然早期發現很重要,但現有的篩檢工具常缺乏客觀性。研究者正探索影像分析、血液標記及日記寫作等客觀指標。這項研究利用情感日記應用程式,評估91名參與者的日記文本,並使用GPT-3.5和GPT-4等大型語言模型進行抑鬱症檢測。結果顯示,微調後的GPT-3.5準確率達90.2%,顯示用戶生成的文本在臨床檢測抑鬱症上具潛力,未來可結合其他可測量指標進一步研究。 PubMed DOI

這項研究探討大型語言模型(LLMs)在健康心理學中如何增強健康評估,旨在克服傳統統計和機器學習方法的限制。傳統方法因線性評分而準確性不足,而機器學習則在可解釋性和數據需求上有挑戰。研究提出的ScaleLLM利用LLMs的自然語言理解能力,提供健康量表的專家評估。實驗結果顯示,ScaleLLM在身心健康評估的準確性和可解釋性上都有所提升,成為該領域的一個有前景的工具。 PubMed DOI

這項研究探討大型語言模型(LLMs)在精神科訪談中的應用,特別針對北韓脫北者的心理健康挑戰。研究目標是確認LLMs能否有效識別精神病症狀並總結壓力源。主要任務包括提取壓力源、識別症狀及總結訪談內容。結果顯示,使用GPT-4 Turbo模型後,73個記錄片段準確關聯精神病症狀,經微調後性能提升,平均準確率達0.82。LLMs生成的摘要在連貫性和相關性上得分高,顯示其在心理健康領域的潛力。 PubMed DOI

大學學生常面臨心理健康問題,因此需要有效的介入措施來提升自我認知與福祉。MindScape推出了一種創新的AI驅動日記,結合行為數據與大型語言模型,提供個性化的日記體驗,旨在增進自我認知。 一項為期8週的研究顯示,20名大學生使用MindScape後,正向情感增加7%,負向情感減少11%,孤獨感降低6%,焦慮和憂鬱也顯著下降。參與者對AI生成的定制提示表示重視,這項研究為未來探索AI日記對心理健康的影響奠定基礎。 PubMed DOI

這份報告探討了將大型語言模型(LLMs)與可穿戴技術結合的初步成果,目的是提供個性化建議,提升學生的福祉與學業表現。我們分析了學生的數據,包括可穿戴設備的指標和學術報告的質性反饋,進行情感分析以評估情緒狀態。研究顯示,LLMs能有效分析文本數據,提供實用見解,幫助了解學生的參與度並找出改進空間,顯示出LLMs在教育上的潛力,能更深入理解學生需求。 PubMed DOI

這項研究發現,大型語言模型和文字嵌入模型能從精神科病患的句子完成測驗中,準確辨識憂鬱症和自殺風險,尤其在分析自我概念相關內容時效果最好。最佳模型偵測憂鬱症的AUROC達0.841。雖然AI有潛力協助心理健康評估,但臨床應用前還需要更多改進和安全驗證。 PubMed DOI

**重點整理:** 大型語言模型可以準確分類安全事件通報(例如:職場暴力、溝通失誤),協助醫療機構快速掌握安全趨勢,並透過自動化分析來提升職場安全。 PubMed