原始文章

這項研究探討了人類評審、重複量化分析(RQA)和AI檢測工具GPTZero在辨別人類與AI生成的個人陳述的有效性,特別針對物理治療師教育計畫的申請。研究分析了50份梅奧診所的申請者陳述與50份由Google Gemini生成的陳述。結果顯示,人類評審在辨識上表現一致且準確,而RQA和GPTZero也各有優勢。研究強調,未來應結合這些方法,以提升對個人陳述的評估,確保學術誠信。 PubMed DOI


站上相關主題文章列表

研究比較物理治療師教育計畫申請者的個人陳述和OpenAI的ChatGPT所生成的陳述複雜度,發現ChatGPT生成的較複雜。透過循環量化分析(RQAs)區分兩者,確定性是主要區分因子。建議RQA可幫助招生委員會辨識AI生成的陳述,需重新評估招生過程中個人陳述的重要性。 PubMed DOI

這項研究探討外科住院醫師申請審核者辨識AI生成的個人陳述的能力及其看法。研究使用ChatGPT創建三份AI陳述,並與三份成功申請的醫學生陳述比較。結果顯示,審核者正確辨識AI陳述的比例僅59%,且66.7%的人反對在個人陳述中使用AI。大多數參與者認為AI會影響他們對申請者的看法。這項研究強調了辨識AI生成內容的挑戰,並對其在住院醫師申請中的影響表示擔憂。 PubMed DOI

這項研究探討了生成式人工智慧工具(如ChatGPT和Google BARD)在醫學生撰寫住院醫師申請個人陳述的表現。研究發現,教職員能正確識別88%的真實陳述和90%的BARD生成陳述,但只有44%的ChatGPT陳述被正確辨識。整體準確率為74%。雖然AI能生成有說服力的陳述,但在表現人文和個人化元素上仍有不足。因此,住院醫師選拔委員會應重視這些人性化指標,以提升評估的準確性。 PubMed DOI

最近大型語言模型(如ChatGPT和Bard)在教育領域的應用引發了對學術論文寫作潛在濫用的擔憂。本研究探討這些模型是否能生成關於醫學生個人經歷和倫理困境的非結構性論文,並檢視其是否能與人類作品區分。 研究團隊收集了47篇學生的原創論文,並利用這些內容生成相同數量的AI論文。分析結果顯示,AI生成的論文在情感和分析思維的語言使用上較學生作品更為頻繁。儘管存在語言特徵的差異,兩個LLMs在反映學生對倫理困境的經歷方面均表現出高度有效性。 PubMed DOI

最近,人工智慧的進展讓區分人類和AI生成的文本變得困難,因此對檢測工具的需求增加。本研究針對高等教育的研究生入學過程,專注於識別AI生成的推薦信和意向書,以確保申請者的真實能力被公平評估。研究分析了福坦大學的3,755封推薦信和1,973份意向書,並利用GPT-3.5 Turbo API生成AI版本。結果顯示,透過足夠的訓練數據,可以開發出有效的檢測模型,並已在GitHub上公開代碼供測試。 PubMed DOI

這項研究探討了ChatGPT生成的整形外科住院醫師個人陳述是否能與人類撰寫的內容相媲美。研究結果顯示,AI生成的陳述平均得分為7.48,而人類撰寫的為7.68,兩者之間並無顯著差異。評估者對於陳述來源的識別準確率為65.9%,顯示AI生成的內容越來越精緻。這強調了在住院醫師申請中,需更新評估標準以應對人工智慧的影響。 PubMed DOI

這項研究探討生成式人工智慧,特別是ChatGPT,在醫學住院醫師和專科醫師申請中的個人陳述創作應用。研究評估了四份個人陳述,兩份由AI生成,兩份由申請者撰寫,並透過調查了解計畫主任對這些陳述的看法。結果顯示,主任在辨識AI生成的陳述時遇到困難,且AI生成的陳述在可讀性和原創性上表現較佳。不過,主任對申請者使用AI的誠信和工作倫理表示擔憂,建議醫學訓練計畫應明確對AI使用的立場。 PubMed DOI

這項研究探討了生成式 AI 模型(如 ChatGPT、Gemini 和 Claude)在 K-12 教育中的應用,強調其在各科目的優勢,並討論學術不誠實的倫理問題。研究使用傳統機器學習模型和大型語言模型來檢測高風險寫作評估中的 AI 生成內容,並評估檢測方法的效果,考慮改寫工具的影響。研究還引入新方法,利用同義詞資訊識別人性化的 AI 文字,並探討數據集大小對模型表現的影響,以指導未來的數據收集。 PubMed DOI

這項研究探討醫療專家與人文學者在辨識醫學生與ChatGPT生成文本的能力。研究於2023年5月至8月進行,35位專家分析了兩篇醫學主題的文本,並被要求找出AI生成的部分。結果顯示,專家們在70%的情況下正確識別AI文本,兩組專家之間差異不大。雖然內容錯誤影響不大,但冗餘、重複和連貫性等風格特徵對他們的判斷至關重要。研究建議未來可在不同學術領域進一步探討,以提升辨識能力。 PubMed DOI

這項研究評估人類是否能區分由人類撰寫的醫學手稿與AI生成的手稿,特別是使用ChatGPT 3.5。研究於2023年10月進行,51位醫師參與,隨機審閱三篇手稿。結果顯示,參與者識別作者的準確率不高,特異性55.6%,敏感性31.2%。高影響因子的手稿較易識別,而影響因子低的則較難。與AI互動頻率高的人更能正確識別作者。總之,研究顯示生成式AI的醫學手稿難以區分,凸顯學術出版的潛在影響及對AI內容認識的需求。 PubMed DOI