原始文章

這項研究探討了邊緣社群成員,特別是分享種族歧視經歷的人,如何在社交媒體上面對壓制。結果顯示,無論是演算法還是人類使用者,都不成比例地刪除這些帖子,顯示出系統性問題。研究指出,目睹這種壓制會對黑人美國人的社群感和歸屬感造成負面影響。為了對抗這種沉默,研究提出了一個介入措施,旨在減少不同政治觀點之間的壓制行為,促進網路空間的公平與包容。 PubMed DOI


站上相關主題文章列表

政治討論對民主至關重要,但網路對話往往會造成分裂。學者和團體正在努力進行干預,以改善網路討論。一項研究顯示,使用人工智慧工具提供基於證據的建議,可以增進有爭議話題的網路對話,提升被認知的理解、改善對話品質、民主互惠和語氣,而不改變內容或政策態度。 PubMed DOI

研究者提出利用人工智慧辨識網軍帳號的方法,不需分析文字,透過分享行為辨識。這種方法在2016年俄羅斯干預活動中表現良好,能高準確度辨識網軍。相較於文字分析,這種行為辨識方法更具優勢,尤其對抗大型語言模型生成的虛假內容。這個解決方案展現了檢測各種實體參與影響活動的潛力,值得未來深入研究。 PubMed DOI

研究發現大型語言模型在醫療系統中可能持續散播有害、不準確、種族相關的內容。四個模型在種族醫學和誤解情境下表現不一,都散播種族醫學觀念,且回應不一致。這引發對LLMs在醫療環境可能造成潛在傷害的擔憂,因為它們持續散播已被揭露的種族主義觀念。 PubMed DOI

這篇論文強調了評估人工智慧與人類溝通的公平性很重要,特別是像GPT-3這樣的語言模型。研究發現,GPT-3在討論氣候變化和黑人運放時,與不同族群互動時,對少數族群的使用者體驗較差,且在支持社會議題的態度上也有改變。GPT-3對少數族群的回應中,使用了較多負面表達。研究指出,對話式人工智慧系統應優先考慮多元性、公平性和包容性。 PubMed DOI

LLMs透過AIGC改變生活,但需了解其限制。研究發現ChatGPT等LLM生成的內容存在性別、種族偏見,歧視女性、黑人。ChatGPT偏見最少,且能拒絕有偏見提示。 PubMed DOI

社群媒體對生活有負面影響,解決方法有限。大型語言模型如ChatGPT可提供支持、監控使用,但需注意風險,如錯誤和隱私問題。謹慎使用這些模型,才能有效處理問題性社群媒體使用,造福個人和社會。 PubMed DOI

在學術圈裡航行不易,尤其對於少數族群更具挑戰。打造多元、公平、包容的學習環境至關重要。人工智慧工具可助平等競爭,提供指導與支持。雖無法取代導師,但可為有益補充。應鼓勵接受人工智慧,對面對偏見者有助。機構應教導社群如何道德運用人工智慧。 PubMed DOI

這項研究探討了 COVID-19 疫情期間攻擊性語言的增加,並利用機器學習技術來解決這個問題。研究建立了一個檢測和轉化中文仇恨言論的框架,並編制了包含 30 個疫情相關術語的數據集。開發的兩層檢測模型準確率分別為 94.42% 和 81.48%。結合生成式 AI 和 LDA 主題模型,提升了改寫效率,並有效減少敵意,保持核心意義。這種方法提供建設性的改寫建議,促進積極公共討論,幫助遏制仇恨言論。 PubMed DOI

這項研究探討了ChatGPT 3.5和4.0在提供HIV相關指導時,如何受到種族、族裔、性取向和性別認同的影響,並分析了對污名和歧視的提及。研究人員收集了300個回應,發現ChatGPT 4.0更能認同HIV相關的歧視,特別是針對黑人、西班牙裔、LGBTQ+和跨性別者,並涵蓋了肯定身份、專業護理和社會支持等主題。這些結果強調了評估AI技術在減少健康差異方面的重要性。 PubMed DOI

這個專案旨在改善使用者在Twitter上接觸到經過驗證的新聞,解決極化和錯誤資訊問題。研究持續兩週,參與者達28,457人,使用28個由GPT-2創建的機器人,針對非政治主題的推文回應,分享相關新聞連結,並鼓勵關注新聞機構。結果顯示,與機器人互動的使用者更可能關注新聞帳號,尤其是女性機器人的回應更受歡迎。不過,這些效果主要限於已對政治感興趣的使用者,顯示在社交媒體上促進新聞參與的挑戰。 PubMed DOI