原始文章

這項研究探討了人們對生成式人工智慧的看法,特別是在社會和個人挑戰建議方面。共招募3,308名美國參與者,結果顯示: 1. **能力認知**:當知道建議來自AI時,人們常會貶低AI的能力,但不會貶低建議內容。 2. **挑戰建議**:在社會和個人挑戰中,這種貶低現象一致出現。 3. **偏好AI建議**:若過去對AI建議有正面經驗,個人更傾向於尋求AI的建議。 這反映出人們對AI的理解和信任,尤其在良好互動後。 PubMed DOI


站上相關主題文章列表

研究發現人工智慧生成的訊息能有效讓人感受到被聆聽,且辨識情緒能力較人類強。然而,當知道回應來自AI時,被聆聽感受較低。AI在提供情感支持並避免過多建議方面表現出色,但挑戰在於如何不貶低其回應。 PubMed DOI

研究發現人們認為GPT-4的道德評估比人類更好,但也能分辨兩者。結果顯示人們可能會接受人工智慧的道德指導,強調在道德問題上保障人工智慧語言模型的重要性。 PubMed DOI

研究發現,人們對於心理健康支持,當不知道回應來源時,更信任人工智慧;但一旦知道來源,則更偏好人類。人們信任人工智慧取決於實用性,而非真實性或專業性。透明度影響觀感,知道來源後更偏好人類。結果顯示揭露回應來源如何影響人們對心理健康護理中信任和接受人工智慧的態度。 PubMed DOI

研究探討人們對道德或技術主題文字的看法,比較人類作者和ChatGPT。結果顯示,人們普遍對ChatGPT的評分較低,顯示對演算法的不信任。這暗示使用大型語言模型可能會有潛在影響。 PubMed DOI

研究指出,ChatGPT 對道德決策有影響,但不是所有決策都受影響,尤其是負面情緒的。ChatGPT 的建議會影響超越道德判斷的決策,但不會在推薦低回報時有影響。擁有較高無效恐懼的人更容易受專家和 AI 建議影響,但信任 AI 不是關鍵。 PubMed DOI

生成式人工智慧可提升個人創造力,但可能限制集體創新,因為內容相似。實驗顯示,對於缺乏創意的作者,使用AI點子有助提升創造力和寫作品質。然而,AI生成的故事相似度高,可能降低多樣性。這個困境凸顯個人創造力與集體創新的取捨。對支持創造力的研究者、政策者和從業者具啟發意義。 PubMed DOI

這篇論文研究人們對人工智慧評估人類特質的看法,發現大多數人更重視人工智慧的能力而非道德,即使接觸到像是 ChatGPT 這樣的先進人工智慧模型。結果顯示,儘管科技進步,人們仍認為人工智慧在評估道德方面較弱,持續保有這樣的信念。 PubMed DOI

這項研究顯示,AI生成的醫療建議相比人類醫師的建議,存在明顯的偏見。在兩項研究中,2,280名參與者對不同來源的醫療建議進行評估,結果發現標示為AI或人類與AI結合的建議,被認為不如人類醫師的建議可靠且缺乏同理心。參與者對有AI參與的建議表現出較低的遵循意願,顯示出數位醫療建議中普遍存在反AI的偏見。這強調了未來研究需要探索減輕這種偏見的策略,以發揮AI在醫學領域的潛力。 PubMed DOI

這項研究調查青少年使用生成式AI聊天機器人(如ChatGPT)做作業的頻率及其幫助程度,特別關注他們的執行功能(EF)技能。研究分為兩部分,針對平均年齡14歲和17歲的青少年。結果顯示,14.8%的年輕參與者和52.6%的年長參與者使用AI,ChatGPT最受歡迎。執行功能較弱的青少年覺得AI工具對作業更有幫助,但年輕組的學業成就與AI使用無顯著關聯。這是首個將執行功能與青少年AI使用聯繫的研究,建議進一步探討AI在教育中的整合及其挑戰與機會。 PubMed DOI

這項研究探討外科住院醫師申請審核者辨識AI生成的個人陳述的能力及其看法。研究使用ChatGPT創建三份AI陳述,並與三份成功申請的醫學生陳述比較。結果顯示,審核者正確辨識AI陳述的比例僅59%,且66.7%的人反對在個人陳述中使用AI。大多數參與者認為AI會影響他們對申請者的看法。這項研究強調了辨識AI生成內容的挑戰,並對其在住院醫師申請中的影響表示擔憂。 PubMed DOI