原始文章

研究發現,ChatGPT-4已能寫出接近高影響力期刊標準的科學論文討論與結論段落,專家評分僅略低於人類,且多數認為大幅修訂後可發表。不過,AI仍有過度套用模式及產生錯誤或虛構文獻的疑慮。 PubMed DOI


站上相關主題文章列表

評審人員在肩膀和肘部手術領域的測試中,發現區分人工智慧生成和原創研究摘要的挑戰。他們對人工智慧生成的辨識率為62%,但有38%的原創摘要被誤認為人工智慧生成。GPTZero工具生成的摘要被認為具有較高的人工智慧概率。在抄襲檢測方面,人工智慧生成的摘要得分較低。評審人員表示區分人類和人工智慧生成的內容相當困難,不實際的數據有助於識別人工智慧生成的摘要,而寫作風格則導致原創摘要被誤認。 PubMed DOI

這項研究探討了ChatGPT在科學文章審查中的有效性,並與傳統人類研究者的結果進行比較。研究人員對17篇有關醫療專業人員使用數位工具的文章進行系統性回顧,並透過特定提示引導ChatGPT分析。經過四次迭代後,ChatGPT的結果與原始回顧相當,但人類作者提供了更深入的分析和詮釋。雖然兩者在宏觀主題上相似,但人類驗證仍然重要,以確保研究的徹底性和深度。總體而言,ChatGPT在增強科學文獻產出方面展現潛力,但需依賴人類指導以達最佳效果。 PubMed DOI

這項研究探討了生成式人工智慧,特別是ChatGPT,對骨科文獻的影響,分析了AI生成文章的普遍性、AI檢測器的準確性,以及文章特徵與被判定為AI生成的可能性之間的關係。研究分析了240篇2023年後的骨科期刊文章,並發現AI檢測器能有效識別AI生成內容,但有些檢測器表現不佳。雖然AI生成文本的比例略有增加,但與期刊、文章類型或提交時間等因素並無一致關聯。結論強調需謹慎監督以維護研究完整性,並進一步發展AI檢測工具。 PubMed DOI

這項研究比較了人類撰寫的神經外科文章與ChatGPT生成的文章,評估其品質差異。研究選取10篇文章,5篇由人類撰寫,5篇由ChatGPT撰寫,並由專家根據整體印象、可讀性等進行評估。結果顯示,兩者在整體品質上無顯著差異,但ChatGPT的可讀性較高。專家識別作者的準確率為61%,偏好幾乎相等。結論指出,ChatGPT能產出與人類相當的文章,且可讀性更佳,顯示其在學術寫作中的潛在價值。 PubMed DOI

這項研究評估人類是否能區分由人類撰寫的醫學手稿與AI生成的手稿,特別是使用ChatGPT 3.5。研究於2023年10月進行,51位醫師參與,隨機審閱三篇手稿。結果顯示,參與者識別作者的準確率不高,特異性55.6%,敏感性31.2%。高影響因子的手稿較易識別,而影響因子低的則較難。與AI互動頻率高的人更能正確識別作者。總之,研究顯示生成式AI的醫學手稿難以區分,凸顯學術出版的潛在影響及對AI內容認識的需求。 PubMed DOI

這項研究探討了ChatGPT-4在生成科學摘要方面的能力,分析了十篇來自PubMed的整形外科文章。研究使用Flesch-Kincaid年級水平和可讀性評分來評估生成的摘要。結果顯示,雖然ChatGPT生成的摘要在可讀性上略高,但評估者90%的時間偏好ChatGPT的版本,並認為其更清晰簡潔。整體來看,研究顯示ChatGPT能有效生成高品質的科學摘要,但仍需進一步研究來確認這些結果。 PubMed DOI

這項研究比較AI(ChatGPT和scite Assistant)和人類寫的科學論文,評估正確性、可讀性和被接受度。結果顯示,人類寫的論文品質最高,尤其是跟骨骨折主題。AI寫的論文內容大致正確,但引用準確度不一,ChatGPT表現較好。結論是AI能輔助科學寫作,但還是需要嚴格查證,才能確保內容正確。 PubMed DOI

這篇文章評估ChatGPT-4o在撰寫整形外科文獻回顧的表現。雖然它在大綱規劃和摘要整理上表現不錯,但內容常太籠統,引用文獻也常出錯或亂編。21個參考文獻中,只有5個是真的。醫療專業人員也難分辨AI寫的摘要和真的。總之,ChatGPT能輔助寫作,但引用和內容都要再三查證。 PubMed DOI

研究發現,脊椎外科醫師無法分辨ChatGPT和真人寫的fellowship自傳,且AI寫的自傳在可讀性和品質上表現更好,更容易獲得面試推薦。這顯示AI工具能產出高品質申請文件,也引發招生流程相關討論。 PubMed DOI

這項研究發現,近年約有16.7%的骨科期刊論文含有明顯AI生成內容,且不同期刊間比例不一。研究強調,隨著AI工具普及,科學出版界急需訂定明確規範和道德標準,以確保論文品質與誠信。 PubMed DOI