原始文章

AI和機器學習在肩膀和肘部手術等領域的應用迅速增加,顯示出提升診斷準確性和降低成本的潛力。不過,使用AI進行研究和寫作也帶來了內容準確性、版權和抄襲等問題的擔憂。研究指出,即使是資深外科醫生也難以辨識AI生成的內容,而AI檢測工具的效果較好。因此,在學術工作中整合AI時,必須謹慎,以維護學術的完整性和可靠性。 PubMed DOI


站上相關主題文章列表

人工智慧(AI)進步很大,對各行業和科學研究都有好處。但人們擔心AI可能會製造出具有說服力的假科學論文。一項研究使用GPT-3模型創作了一篇假的神經外科文章,顯示AI能製造逼真的欺詐內容。雖然AI生成的論文看起來真實,但專家能辨識錯誤。需要更好的檢測方法,防止AI被濫用,也要看到AI在真實科學寫作和研究上的潛力。 PubMed DOI

大型語言模型是人工智慧的一部分,透過語言規則、統計和機器學習處理文本。在醫學和骨科手術領域廣泛應用。雖然能產生高質量科學文本,但也可能誤導,引發研究不端和錯誤信息。為確保安全使用,學術出版需建立指南和篩選流程。 PubMed DOI

AI在科學文章生成上的應用增加,尤其是ChatGPT推出後。研究分析醫學期刊文章,探討AI使用情況及抄襲相關性。發現ChatGPT推出後,AI生成文本增加,且使用因文章類型及原始國家而異。抄襲與AI使用無直接關聯,但懷疑為AI生成的文章抄襲率較高。使用翻譯軟體與高AI使用率有關。研究強調檢測AI生成內容的需求,建議標記機器人生成文本以防抄襲及科學不端。 PubMed DOI

研究發現2023年科學文章中AI使用明顯增加,尤其是ChatGPT 3.5推出後。亞洲作者及2023年投稿文章更可能使用AI。這引起對原創性和抄襲問題的關注,凸顯AI在學術寫作中帶來的創意機遇和道德挑戰。 PubMed DOI

ChatGPT是一個能夠創造類似人類寫作的語言模型,很難區分真假。研究測試人們是否能分辨AI生成的摘要和人類寫的,以及AI檢測器的準確性。骨科醫師和教授們辨識AI生成的摘要,結果喜憂參半。檢測AI內容對防止科學出版的虛假資訊至關重要,需要更多研究改進檢測方法。 PubMed DOI

這項研究比較了由一個大型語言模型(LLM)生成的摘要與人類撰寫的摘要在醫學研究領域的情境下。研究發現,根據骨科醫師的評估,LLM生成的摘要在可區分性和質量方面均不如人類撰寫的摘要。這項研究建議在醫學領域使用LLM進行科學寫作時要謹慎。 PubMed DOI

這項研究比較了在骨科和運動醫學領域中人類撰寫和人工智慧生成的科學文獻。研究人員發現,無論是專家還是AI檢測軟體都無法區分人類撰寫的文本和大型語言模型(LLMs)生成的文本。這項研究指出,需要進一步研究以了解在學術寫作中使用人工智慧的影響,並確保科學的完整性。 PubMed DOI

人工智慧生成內容(AIGC)可助研究,但濫用或引發倫理問題。研究發現,大多數外科期刊已有AIGC使用指引,但缺乏明確規範。期刊應統一標準,以確保品質。 PubMed DOI

評審人員在肩膀和肘部手術領域的測試中,發現區分人工智慧生成和原創研究摘要的挑戰。他們對人工智慧生成的辨識率為62%,但有38%的原創摘要被誤認為人工智慧生成。GPTZero工具生成的摘要被認為具有較高的人工智慧概率。在抄襲檢測方面,人工智慧生成的摘要得分較低。評審人員表示區分人類和人工智慧生成的內容相當困難,不實際的數據有助於識別人工智慧生成的摘要,而寫作風格則導致原創摘要被誤認。 PubMed DOI

這項研究評估了GPT-4撰寫放射學社論的能力,並與人類撰寫的社論進行比較。分析了來自八本期刊的十六篇社論,結果顯示AI撰寫的社論在評分上表現較好,但人類撰寫的文章在整體感知上仍較受青睞。編輯們在配對評估中,有82%更傾向於出版人類撰寫的文章。研究結論指出,雖然GPT-4能產出高品質文章,但編輯對人類內容的偏好依然明顯。 PubMed DOI