原始文章

這項研究探討了 COVID-19 疫情期間攻擊性語言的增加,並利用機器學習技術來解決這個問題。研究建立了一個檢測和轉化中文仇恨言論的框架,並編制了包含 30 個疫情相關術語的數據集。開發的兩層檢測模型準確率分別為 94.42% 和 81.48%。結合生成式 AI 和 LDA 主題模型,提升了改寫效率,並有效減少敵意,保持核心意義。這種方法提供建設性的改寫建議,促進積極公共討論,幫助遏制仇恨言論。 PubMed DOI


站上相關主題文章列表

LLMs如ChatGPT在AI領域帶來革命性變革,對科研有幫助,但也帶來倫理挑戰。在醫學等領域可能影響公共衛生,快速生成文本可能散播錯誤資訊,形成「AI資訊疫情」。需要快速制定政策因應,準確檢測AI生成文本仍是挑戰。 PubMed DOI

深度神經網絡應用在臨床決策,可提升診斷效率減輕醫師負擔。對於罕見疾病,標記數據不足。新的醫學多模式大型語言模型(Med-MLLM)可從未標記數據中學習,快速適應罕見疾病。處理視覺(如X光)和文本(如醫學報告)數據,適用於臨床任務。在COVID-19中證明Med-MLLM有效,僅需少量標記數據即可提供準確決策支持。 PubMed DOI

LLMs透過AIGC改變生活,但需了解其限制。研究發現ChatGPT等LLM生成的內容存在性別、種族偏見,歧視女性、黑人。ChatGPT偏見最少,且能拒絕有偏見提示。 PubMed DOI

研究評估了防止大型語言模型(LLMs)生成健康虛假資訊的保護措施。測試四個LLMs,發現有些保護措施有漏洞,有些持續生成虛假資訊。研究建議加強監管、透明度和定期審計,以防止LLMs散播健康虛假資訊。 PubMed DOI

社群媒體對生活有負面影響,解決方法有限。大型語言模型如ChatGPT可提供支持、監控使用,但需注意風險,如錯誤和隱私問題。謹慎使用這些模型,才能有效處理問題性社群媒體使用,造福個人和社會。 PubMed DOI

大型語言模型(LLM)應用廣泛,包括心理健康領域。然而,使用LLM強化的對話人工智慧(CAI)協助抑鬱症患者面臨人性化和情境韌性挑戰。觀點論文探討這些挑戰,提出跨學科解決方案,結合哲學、心理學和計算機科學。為了負責地設計和應用LLM增強的CAI支援抑鬱症患者,提出建議。 PubMed DOI

這篇文章探討了人工智慧,特別是大型語言模型(LLMs),在解決治療壓力和創傷相關問題的專業人員短缺方面的潛力。文章指出,LLMs能增強診斷評估、生成臨床筆記及提供治療支持。作者強調,克服在臨床環境中部署這些模型的挑戰很重要,包括確保AI系統的多元代表性,以避免護理資源的差異。此外,還需採用保護隱私的訓練方法,保障病人數據,同時利用公共數據集提升模型表現。 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 PubMed DOI

這項研究探討了OpenAI的ChatGPT如何協助公共衛生工作者開發疾病傳播模型,以制定感染控制策略。透過案例研究,公共衛生工作者與ChatGPT合作,創建符合10天流行病學數據的數學模型,並進行代碼生成、精煉和除錯,估算基本繁殖數(Ro)和最終疫情規模。最終模型重現疫情曲線,Ro為4.19,最終疫情規模達98.3%。研究顯示,ChatGPT能加速模型開發,降低技術門檻,改善全球疫情應對能力,特別在資源有限的環境中。 PubMed DOI

這項研究探討生成式人工智慧模型中的文化偏見,特別是五個版本的OpenAI語言模型如何影響使用者表達並強化主導文化價值觀。研究發現,這些模型多反映英語系和新教歐洲國家的文化。為解決這問題,研究人員測試了一種叫做文化提示的方法,結果顯示這方法能改善後期模型(如GPT-4)在71-81%的評估地區的文化一致性。研究建議持續使用文化提示和評估,以減少生成式人工智慧中的文化偏見。 PubMed DOI