原始文章

這項研究發現,社群媒體上關於自殺的討論常忽略弱勢族群的議題。研究團隊用AI生成補足這些缺漏主題的資料,讓機器學習模型訓練更全面。結果顯示,加入這些合成資料後,模型偵測自殺意念的準確度提升,有助於打造更包容的線上自殺風險偵測工具。 PubMed DOI


站上相關主題文章列表

自殺是重要的公共健康議題,人工智慧的進步,特別是大型語言模型(LLMs),在自殺檢測和預防上有顯著貢獻。這篇綜述分析了2018年到2024年間的29項研究,探討像GPT、Llama和BERT等模型在自殺預防中的應用。研究顯示,這些模型在早期檢測和預測方面通常表現優於心理健康專業人士。儘管LLMs展現出拯救生命的潛力,但仍需解決倫理問題,並與心理健康專家合作。 PubMed DOI

生成式人工智慧(genAI)在提升醫療保健方面潛力巨大,特別是心理健康護理,因為美國專業人員短缺。針對自殺相關查詢,我們評估了五個genAI工具的回應質量。結果顯示,79%的回應是支持性的,但只有24%提供危機熱線號碼,僅4%包含基於證據的干預資訊。雖然有害內容出現頻率不高,但開發者應在提供必要的心理健康資訊與降低風險之間取得平衡,確保心理健康的平等應成為優先事項。 PubMed DOI

自殺預防是全球健康的重要議題,每年約有80萬人因自殺而喪生。大型語言模型(LLMs)在數位服務中有助於自殺預防,但也帶來臨床與倫理挑戰。2024年2月的回顧研究分析了43項相關研究,發現大多數集中於自殺風險識別,並探討了LLMs在臨床應用中的潛力。研究指出,隱私和同意等倫理問題需特別注意,並強調多學科合作及高品質數據的重要性。生成性人工智慧的發展可能改善危機護理與教育,但需持續人類監督。 PubMed DOI

這項研究針對自殺這一公共衛生議題,運用機器學習模型來識別有風險的個體,特別針對14至25歲的青少年。研究使用德國危機熱線的數據,開發預測自殺意念和行為的方法,並與傳統文本分類進行比較。基於變壓器的模型表現優異,達到0.89的宏觀AUC,並成功識別與自殺風險相關的語言特徵。研究結果顯示,這些模型能有效輔助臨床決策,未來可探索多模態輸入及時間性因素。 PubMed DOI

這篇論文針對自殺預防的議題,提出了一種新穎的深度學習方法,專門用來檢測來自SuicideWatch subreddit的自殺意圖貼文。研究介紹了RoBERTa-CNN模型,結合了RoBERTa架構和卷積神經網絡(CNN),提升了在大型數據集中的模式識別能力。該模型在自殺與抑鬱檢測數據集上測試,達到98%的平均準確率,且標準差僅0.0009,顯示其穩定性。研究強調數據質量對訓練有效模型的重要性,建議透過手動清理或使用OpenAI API來降低噪音。 PubMed DOI

這項研究發現,主流AI語言模型在評估退伍軍人自殺風險和治療建議上,表現常與專業人員不同,容易高估或低估風險,且各AI模型間差異大。雖然AI有時能與人類判斷一致,但治療建議不夠穩定,像ChatGPT-4o就全都建議住院。AI目前只能當輔助工具,不能取代專業判斷,臨床應用前還需要更多研究和專家監督。 PubMed DOI

這項研究發現,大型語言模型和文字嵌入模型能從精神科病患的句子完成測驗中,準確辨識憂鬱症和自殺風險,尤其在分析自我概念相關內容時效果最好。最佳模型偵測憂鬱症的AUROC達0.841。雖然AI有潛力協助心理健康評估,但臨床應用前還需要更多改進和安全驗證。 PubMed DOI

這項研究用GPT-3.5產生的合成資料訓練BERT模型,能自動從電子病歷自由文本中抓出難治型憂鬱症的關鍵預後因子。模型在真實臨床資料上辨識20個相關因子,F1分數最高達0.85。這方法有助於用日常紀錄偵測DTD,不需用到敏感資料或花錢請專家標註。 PubMed DOI

這項研究用YouTube留言分析鴉片類藥物混用經驗,並分辨正負面影響。團隊運用GPT-3.5 Turbo等AI技術,準確辨識高風險用藥和過量風險,F1-score高達0.95,優於傳統方法。結果顯示,AI分析社群媒體有助於更了解鴉片危機,並提升介入策略效果。 PubMed DOI

這項研究發現,像ChatGPT-4這類大型語言模型,能準確評估自殺新聞是否符合WHO指引,結果和人工審查者高度一致。代表AI有機會協助媒體負責任地報導自殺議題,能即時、大規模給記者回饋,對推動公共衛生很有幫助。 PubMed DOI