原始文章

這項研究探討生成式人工智慧模型中的文化偏見,特別是五個版本的OpenAI語言模型如何影響使用者表達並強化主導文化價值觀。研究發現,這些模型多反映英語系和新教歐洲國家的文化。為解決這問題,研究人員測試了一種叫做文化提示的方法,結果顯示這方法能改善後期模型(如GPT-4)在71-81%的評估地區的文化一致性。研究建議持續使用文化提示和評估,以減少生成式人工智慧中的文化偏見。 PubMed DOI


站上相關主題文章列表

研究發現大型語言模型(LLMs)如ChatGPT-3在輸出中存在偏見,類似人類對某些內容的偏見。模型呈現出對性別刻板印象、社會性、負面、威脅相關和反直覺的偏見。這些結果顯示模型訓練數據可能包含這些內容,可能放大人們對吸引但不一定具信息性內容的偏好。 PubMed DOI

研究發現GPT-3.5在模擬人類行為上有限制,容易出現「正確答案」效應。即使改變資料或答案,結果仍一致。有研究顯示GPT-3.5傾向右派價值觀。這顯示在社會科學中使用大型語言模型存在挑戰,也引發對未來由AI主導可能帶來的思想單一性的擔憂。 PubMed DOI

這篇論文強調了評估人工智慧與人類溝通的公平性很重要,特別是像GPT-3這樣的語言模型。研究發現,GPT-3在討論氣候變化和黑人運放時,與不同族群互動時,對少數族群的使用者體驗較差,且在支持社會議題的態度上也有改變。GPT-3對少數族群的回應中,使用了較多負面表達。研究指出,對話式人工智慧系統應優先考慮多元性、公平性和包容性。 PubMed DOI

大型語言模型如GPT-3.5-turbo和GPT-4在醫療保健領域有潛力,但可能受到訓練時的偏見影響,影響其在醫療環境中的實用性。研究指出,這些模型可能對白人族群預測較高的醫療成本和較長的住院時間,並對困難醫療情況下的存活率持過於樂觀的看法。未來需研究減少語言模型中的偏見,特別是在醫療保健領域,確保對所有患者公平且準確評估。 PubMed DOI

LLMs透過AIGC改變生活,但需了解其限制。研究發現ChatGPT等LLM生成的內容存在性別、種族偏見,歧視女性、黑人。ChatGPT偏見最少,且能拒絕有偏見提示。 PubMed DOI

研究使用Schwartz的基本價值理論評估大型語言模型(LLMs)中的價值構念,發現LLMs存在動機偏見,與人類價值有所偏離,對心理健康應用存在道德疑慮。研究強調透明度和對齊過程的重要性,以確保LLMs在提供心理健康護理時公平。 PubMed DOI

這篇論文探討了利用大型語言模型(LLMs)如GPT來標註文化數據的方法,以便有效分析不同領域的文化現象。研究顯示LLMs在探討人文文化議題上的潛力,能處理複雜數據並解釋不同社會或歷史時期故事中的主題或文本中的心理構造。這些應用展現了LLMs在文化人類學、心理學、歷史學等領域的益處。 PubMed DOI

心理研究中使用大型語言模型(LLMs)引起關注,但「GPTology」的使用限制和風險令人擔憂,可能影響像ChatGPT這樣的模型。我們需了解LLMs在心理研究中的限制、道德問題和潛力,解決其對實證研究的影響。重要的是認識全球心理多樣性,謹慎看待LLMs作為通用解決方案,發展透明方法從AI生成的數據中做可靠推論。多元化人類樣本,擴展心理學方法,確保科學包容可靠,避免同質化和過度依賴LLMs。 PubMed DOI

這段文字探討了人工智慧系統與人類價值觀對齊的挑戰,區分了強價值對齊和弱價值對齊。強對齊需要高級認知能力,讓人工智慧理解意圖並建立因果關聯,這對識別潛在風險至關重要。作者指出像ChatGPT、Gemini和Copilot等模型在這方面的不足,並分析了詞嵌入的差異。文中提出「帶有詞彙轉換字典的中文房間」的思想實驗,進一步探討這些概念。最後提到的研究旨在實現弱對齊,雖然能產生可接受的回應,但不保證其真實性。 PubMed DOI

大型語言模型(LLMs),像是GPT-3.5-turbo和GPT-4,對醫療專業人員有潛在的協助能力,但可能帶有訓練數據中的偏見,影響其在醫療情境中的有效性。本研究分析這些模型在預測住院、費用和死亡率時的表現,發現它們對白人族群的預測較高,且在困難醫療情況下過於樂觀。這些偏見反映了醫療不平等,強調了進一步研究的必要性,以減少語言模型中的偏見,確保所有病患都能獲得公平和準確的醫療結果。 PubMed DOI