原始文章

最近人工智慧的進展促進了影像合成模型的發展,例如OpenAI的DALL·E 2,能創造出類似人類藝術作品的作品。研究顯示,參與者對AI生成的藝術作品有明顯偏好,但另一組參與者能更準確地識別出AI作品,顯示人類藝術與AI藝術之間有可辨識的差異。這引發了關於AI在藝術領域影響的討論,包括著作權、真實性及人類創造力的演變等問題。 PubMed DOI


站上相關主題文章列表

這項研究比較了人類和人工智慧在創意潛力上的表現,使用了類似「替代用途任務」的任務,發現AI,特別是GPT-4,在原創性和詳述性方面比人類參與者更具創意。這表明目前的AI語言模型比人類具有更高的創意潛力。 PubMed DOI

研究評估了2022年《外科腫瘤學年鑑》中人類和AI生成的科學文章,結果顯示人類文章中有9.4%可能是AI生成的,而AI文章中有43.5%可能是AI生成的。這突顯了檢測器表現的不同,也凸顯了隨著AI技術進步,持續評估的重要性。 PubMed DOI

生成式人工智慧可提升個人創造力,但可能限制集體創新,因為內容相似。實驗顯示,對於缺乏創意的作者,使用AI點子有助提升創造力和寫作品質。然而,AI生成的故事相似度高,可能降低多樣性。這個困境凸顯個人創造力與集體創新的取捨。對支持創造力的研究者、政策者和從業者具啟發意義。 PubMed DOI

這項研究探討了人們對生成式人工智慧的看法,特別是在社會和個人挑戰建議方面。共招募3,308名美國參與者,結果顯示: 1. **能力認知**:當知道建議來自AI時,人們常會貶低AI的能力,但不會貶低建議內容。 2. **挑戰建議**:在社會和個人挑戰中,這種貶低現象一致出現。 3. **偏好AI建議**:若過去對AI建議有正面經驗,個人更傾向於尋求AI的建議。 這反映出人們對AI的理解和信任,尤其在良好互動後。 PubMed DOI

這項研究探討非專業讀者是否能分辨AI創作的詩與人類詩人的作品。結果顯示,參與者在識別AI詩時困難重重,準確率僅46.6%,甚至低於隨機猜測。更有趣的是,他們常將AI詩誤認為人類創作。AI詩在節奏和美感上獲得較高評價,導致誤判。研究指出,非專家在區分時常用錯誤推理,認為AI詩簡單且吸引,卻誤解人類詩的複雜性為不連貫。 PubMed DOI

這項研究探討了生成式人工智慧(如ChatGPT)在標準化創造力測試中的表現。結果顯示,雖然ChatGPT能生成大量內容,但其創意質量僅屬於平均水平。研究強調AI創造力的隨機性及對訓練數據多樣性的依賴,呼籲我們重新評估傳統創造力的衡量標準,特別是在AI的情境下。研究指出人類參與引導AI達成真正原創性的重要性,並建議進一步探討人類與AI的合作及評估AI創造力的方法。 PubMed DOI

這項研究探討人類評審者在辨識ChatGPT生成的科學摘要與原始摘要的準確性。來自不列顛哥倫比亞大學的41名外科實習生和教職員參加了線上調查,結果顯示只有40%能正確識別原始摘要,而63.4%偏好AI生成的摘要。分析指出,偏好原始摘要的受訪者更容易正確識別。這顯示人類在區分AI與人類生成內容上面臨挑戰,並且對AI生成的摘要有明顯偏好,突顯了AI在學術寫作中的影響及其倫理考量。 PubMed DOI

這項研究探討醫療專家與人文學者在辨識醫學生與ChatGPT生成文本的能力。研究於2023年5月至8月進行,35位專家分析了兩篇醫學主題的文本,並被要求找出AI生成的部分。結果顯示,專家們在70%的情況下正確識別AI文本,兩組專家之間差異不大。雖然內容錯誤影響不大,但冗餘、重複和連貫性等風格特徵對他們的判斷至關重要。研究建議未來可在不同學術領域進一步探討,以提升辨識能力。 PubMed DOI

這項研究評估人類是否能區分由人類撰寫的醫學手稿與AI生成的手稿,特別是使用ChatGPT 3.5。研究於2023年10月進行,51位醫師參與,隨機審閱三篇手稿。結果顯示,參與者識別作者的準確率不高,特異性55.6%,敏感性31.2%。高影響因子的手稿較易識別,而影響因子低的則較難。與AI互動頻率高的人更能正確識別作者。總之,研究顯示生成式AI的醫學手稿難以區分,凸顯學術出版的潛在影響及對AI內容認識的需求。 PubMed DOI

在2023年中,有一項研究針對40名藥理學畢業專題的學生,評估他們對新型協作多媒體評估的體驗,該評估使用了人工智慧(AI)。研究發現,學生最初將AI視為個人導師,並將其角色分為仲裁者、神諭者和量化者。然而,實際上AI的使用主要集中在創意生成和數據分析,並未有小組利用AI生成最終的書面內容。這顯示學生對AI在評估中的角色存在疑慮,強調了教育者和學生需要更清晰的指導,以有效整合AI於學習和評估中,維持評估的完整性。 PubMed DOI