原始文章

這項研究發現,ChatGPT-4在實驗心理學研究提案的創造力上,整體表現比研究生更優,尤其在原創性和意義性方面更突出。論文也探討了AI和人類在回應上的差異,以及未來AI應用於科學創造力時可能遇到的挑戰和發展方向。 PubMed DOI


站上相關主題文章列表

生成式人工智慧技術正在革新科學寫作、洞察發現和程式碼開發。提示工程對於最大化人工智慧的效率和品質至關重要。研究人員應該將他們的專業知識與人工智慧結合起來,但不要過度依賴它,以確保高品質的科學研究。 PubMed DOI

這項初步研究探討了人類撰寫的讀者來信與ChatGPT生成的來信的可讀性,特別是ChatGPT是否能模仿人類的寫作風格。研究中生成了針對先前文章的反對信,並由八位教授評估這些信件的可讀性。結果顯示,人類撰寫的信件在可讀性上被認為與ChatGPT生成的信件相當,甚至更佳。研究強調,人類的熱情和個人風格對有效溝通仍然至關重要,並呼籲進一步探討AI的潛力與限制。 PubMed DOI

這篇論文評估像 ChatGPT 這類聊天機器人在科學寫作中的影響,探討其潛在好處與倫理問題。ChatGPT 能自動生成草稿,可能簡化研究者的寫作過程,但也帶來了區分人類與 AI 生成文本的挑戰,特別是在著作權和科學溝通的完整性上。檢測真實作者身份的複雜性需要仔細的批判性閱讀與分析。這項研究旨在提供關於將 AI 工具整合進學術寫作的優缺點的平衡觀點。 PubMed DOI

這篇論文探討了ChatGPT如何幫助人類產生創意解決方案。透過五個實驗,參與者使用ChatGPT(GPT-3.5)進行腦力激盪,針對選擇禮物、創造玩具、重新利用物品及設計創新家具等任務提出想法。研究發現,與傳統方法相比,ChatGPT顯著提升了創造力,尤其在產生漸進式新想法方面表現突出。研究建議,ChatGPT擅長將不相關的概念融合,產生更清晰且具表達力的建議。 PubMed DOI

這項研究系統性評估了GPT-3.5和GPT-4在心理科學領域的四個關鍵能力。首先,作為研究圖書館員,GPT-4在生成虛構參考文獻的準確性上明顯優於GPT-3.5。其次,GPT-4在識別研究倫理問題方面表現出色,成功糾正了大部分明顯和微妙的違規。第三,兩者都能重現文化偏見,顯示出數據生成的潛力。最後,兩者在預測新數據方面的能力有限。總體來看,雖然GPT模型有所進步,但在生成新見解和可靠參考文獻上仍有待加強。 PubMed DOI

最近大型語言模型(如ChatGPT和Bard)在教育領域的應用引發了對學術論文寫作潛在濫用的擔憂。本研究探討這些模型是否能生成關於醫學生個人經歷和倫理困境的非結構性論文,並檢視其是否能與人類作品區分。 研究團隊收集了47篇學生的原創論文,並利用這些內容生成相同數量的AI論文。分析結果顯示,AI生成的論文在情感和分析思維的語言使用上較學生作品更為頻繁。儘管存在語言特徵的差異,兩個LLMs在反映學生對倫理困境的經歷方面均表現出高度有效性。 PubMed DOI

這項研究探討了ChatGPT對學術寫作的創造力與抄襲影響,透過半結構式訪談收集了來自不同國家的10位研究者的看法。分析後發現五個主要主題:機會、人類協助、引發思考、省時和負面態度。雖然大多數研究者對ChatGPT持正面看法,但也擔心寫作技能下降和抄襲問題。他們認為,創造力可能會演變為使用像ChatGPT的工具,並強調需對其使用進行規範與承認。 PubMed DOI

這項研究探討了生成式人工智慧(如ChatGPT)在標準化創造力測試中的表現。結果顯示,雖然ChatGPT能生成大量內容,但其創意質量僅屬於平均水平。研究強調AI創造力的隨機性及對訓練數據多樣性的依賴,呼籲我們重新評估傳統創造力的衡量標準,特別是在AI的情境下。研究指出人類參與引導AI達成真正原創性的重要性,並建議進一步探討人類與AI的合作及評估AI創造力的方法。 PubMed DOI

這項研究探討人類評審者在辨識ChatGPT生成的科學摘要與原始摘要的準確性。來自不列顛哥倫比亞大學的41名外科實習生和教職員參加了線上調查,結果顯示只有40%能正確識別原始摘要,而63.4%偏好AI生成的摘要。分析指出,偏好原始摘要的受訪者更容易正確識別。這顯示人類在區分AI與人類生成內容上面臨挑戰,並且對AI生成的摘要有明顯偏好,突顯了AI在學術寫作中的影響及其倫理考量。 PubMed DOI

這項研究比較AI(ChatGPT和scite Assistant)和人類寫的科學論文,評估正確性、可讀性和被接受度。結果顯示,人類寫的論文品質最高,尤其是跟骨骨折主題。AI寫的論文內容大致正確,但引用準確度不一,ChatGPT表現較好。結論是AI能輔助科學寫作,但還是需要嚴格查證,才能確保內容正確。 PubMed DOI