原始文章

這項研究探討了人類評審、重複量化分析(RQA)和AI檢測工具GPTZero在辨別人類與AI生成的個人陳述的有效性,特別針對物理治療師教育計畫的申請。研究分析了50份梅奧診所的申請者陳述與50份由Google Gemini生成的陳述。結果顯示,人類評審在辨識上表現一致且準確,而RQA和GPTZero也各有優勢。研究強調,未來應結合這些方法,以提升對個人陳述的評估,確保學術誠信。 PubMed DOI


站上相關主題文章列表

這項研究探討了ChatGPT生成的整形外科住院醫師個人陳述是否能與人類撰寫的內容相媲美。研究結果顯示,AI生成的陳述平均得分為7.48,而人類撰寫的為7.68,兩者之間並無顯著差異。評估者對於陳述來源的識別準確率為65.9%,顯示AI生成的內容越來越精緻。這強調了在住院醫師申請中,需更新評估標準以應對人工智慧的影響。 PubMed DOI

這項研究探討醫療專家與人文學者在辨識醫學生與ChatGPT生成文本的能力。研究於2023年5月至8月進行,35位專家分析了兩篇醫學主題的文本,並被要求找出AI生成的部分。結果顯示,專家們在70%的情況下正確識別AI文本,兩組專家之間差異不大。雖然內容錯誤影響不大,但冗餘、重複和連貫性等風格特徵對他們的判斷至關重要。研究建議未來可在不同學術領域進一步探討,以提升辨識能力。 PubMed DOI

這項研究評估人類是否能區分由人類撰寫的醫學手稿與AI生成的手稿,特別是使用ChatGPT 3.5。研究於2023年10月進行,51位醫師參與,隨機審閱三篇手稿。結果顯示,參與者識別作者的準確率不高,特異性55.6%,敏感性31.2%。高影響因子的手稿較易識別,而影響因子低的則較難。與AI互動頻率高的人更能正確識別作者。總之,研究顯示生成式AI的醫學手稿難以區分,凸顯學術出版的潛在影響及對AI內容認識的需求。 PubMed DOI

這項研究探討了人工智慧檢測器在辨別學生撰寫的論文與AI生成論文的效果,參與者為190名低年級解剖學與生理學的學生。研究分析了50篇論文,使用四種AI檢測器,並由人類評分者評估48篇。結果顯示,人類評分者的準確率為84-95%,而AI檢測器則為93-98%。假陽性率低,AI檢測器僅有1.3%的錯誤分類。學生調查顯示,許多人認為AI生成的論文優於自己的作品。整體來看,結合使用AI檢測器對教師評估學生作品是有效的策略。 PubMed DOI

這項研究探討了如何區分人類撰寫的摘要與ChatGPT生成的摘要,分析了160篇摘要,並使用了三種AI檢測工具和一個抄襲檢測器。研究發現,所有方法對摘要來源的判斷都有誤,學者的經驗影響檢測準確性,資深學者表現最佳。GPTZero和相似性檢測器在識別來源上特別有效。研究建議人類專家與AI工具合作,能提升識別學術摘要的準確性。 PubMed DOI

這項研究探討生成式人工智慧(GAI)對耳鼻喉科住院醫師申請個人陳述的影響。研究比較GAI生成的陳述與成功申請者的陳述,並由21位評審進行10分制評分。結果顯示,GAI生成的陳述在真實性、可讀性、親和力和整體品質上均優於申請者的陳述。雖然GAI的陳述被認為結構良好,但評審者對AI生成內容的個人參與感到擔憂,這引發了對個人陳述角色及AI使用倫理的討論。 PubMed DOI

自從ChatGPT問世後,2024年皮膚科住院醫師申請的個人陳述中,AI生成內容明顯變多。研究分析1,500份資料,發現這幾年AI使用比例差異很大,統計上也有顯著差異。這顯示申請者越來越依賴AI,未來需要針對AI使用和揭露訂定更明確的規範。 PubMed DOI

這項研究比較AI(ChatGPT和scite Assistant)和人類寫的科學論文,評估正確性、可讀性和被接受度。結果顯示,人類寫的論文品質最高,尤其是跟骨骨折主題。AI寫的論文內容大致正確,但引用準確度不一,ChatGPT表現較好。結論是AI能輔助科學寫作,但還是需要嚴格查證,才能確保內容正確。 PubMed DOI

研究發現,脊椎外科醫師無法分辨ChatGPT和真人寫的fellowship自傳,且AI寫的自傳在可讀性和品質上表現更好,更容易獲得面試推薦。這顯示AI工具能產出高品質申請文件,也引發招生流程相關討論。 PubMed DOI

這項研究發現,近年約有16.7%的骨科期刊論文含有明顯AI生成內容,且不同期刊間比例不一。研究強調,隨著AI工具普及,科學出版界急需訂定明確規範和道德標準,以確保論文品質與誠信。 PubMed DOI