原始文章

這項研究探討生成式人工智慧(GAI)對耳鼻喉科住院醫師申請個人陳述的影響。研究比較GAI生成的陳述與成功申請者的陳述,並由21位評審進行10分制評分。結果顯示,GAI生成的陳述在真實性、可讀性、親和力和整體品質上均優於申請者的陳述。雖然GAI的陳述被認為結構良好,但評審者對AI生成內容的個人參與感到擔憂,這引發了對個人陳述角色及AI使用倫理的討論。 PubMed DOI


站上相關主題文章列表

這項研究探討耳鼻喉科住院醫師選拔中,人工智慧模擬的決策是否受到人口統計偏見影響。研究使用OpenAI的GPT-4和GPT-4o模擬選拔委員會的決策,結果顯示RSC成員在種族、性別和性取向上存在偏見,特別偏好與自己相似的申請者。最新的ChatGPT-4o則顯示出對黑人女性和LGBTQIA+申請者的偏好,強調在選拔過程中需注意和減少這些偏見,以確保未來醫療人力的多樣性和代表性。 PubMed DOI

這項研究探討了ChatGPT生成的整形外科住院醫師個人陳述是否能與人類撰寫的內容相媲美。研究結果顯示,AI生成的陳述平均得分為7.48,而人類撰寫的為7.68,兩者之間並無顯著差異。評估者對於陳述來源的識別準確率為65.9%,顯示AI生成的內容越來越精緻。這強調了在住院醫師申請中,需更新評估標準以應對人工智慧的影響。 PubMed DOI

這項研究探討了人類評審、重複量化分析(RQA)和AI檢測工具GPTZero在辨別人類與AI生成的個人陳述的有效性,特別針對物理治療師教育計畫的申請。研究分析了50份梅奧診所的申請者陳述與50份由Google Gemini生成的陳述。結果顯示,人類評審在辨識上表現一致且準確,而RQA和GPTZero也各有優勢。研究強調,未來應結合這些方法,以提升對個人陳述的評估,確保學術誠信。 PubMed DOI

大型語言模型在醫學教育領域的應用越來越普遍,尤其是在編輯和生成書面內容上。這引發了學術界對AI生成內容的倫理使用和披露的討論,但目前對於研究生醫學教育申請者在撰寫申請材料時使用AI,尚無明確指導方針。這篇文章探討了使用AI的各種面向,包括對申請審查的影響及抄襲的倫理問題,並呼籲建立相關指導方針,以維護申請過程的公正性。 PubMed DOI

這篇論文探討人工智慧(AI)在醫學,特別是學術外科中的重要性,強調其在影像識別、臨床決策和行政任務的應用。大型語言模型如GPT-4和Google的Bard在文本生成上帶來變革,能協助外科醫生撰寫手稿和申請補助。不過,AI的使用也引發了偏見、透明度和智慧財產權等倫理問題。論文回顧了AI的運作、潛在偏見及其負責任使用的重要性,並提出在學術和臨床環境中應強調透明度和倫理訓練的指導方針。 PubMed DOI

多數整形外科住院醫師訓練計畫主任認為個人陳述有點重要,但普遍認為用 ChatGPT 等 AI 協助撰寫是不道德的。只有少數計畫會用 AI 偵測工具,而且多數主任對辨識 AI 內容沒信心。雖然部分人接受有限度使用 AI(如發想、編輯),但超過一半主任認為寫個人陳述時用 ChatGPT 都不道德。 PubMed DOI

自從ChatGPT-4問世後,耳鼻喉科學術論文中,AI生成文字的比例明顯增加,尤其在影響力較低的期刊和英語系國家作者中更明顯。現有AI偵測工具不夠準確,透過分析特定形容詞的出現頻率,成為辨識AI內容的新方法。未來需加強研究和透明化工具,規範AI在科學寫作的應用。 PubMed DOI

這項研究發現,ChatGPT在模擬腫瘤科病例下,能用結構化提示產生高品質的醫師和病人信件,內容正確、完整又相關,且沒有安全疑慮。病人信件也寫得清楚易懂,適合一般人閱讀。雖然偶爾有小錯誤,但多數人願意接受AI信件。建議未來可和真人信件進一步比較。 PubMed DOI

自從ChatGPT問世後,2024年皮膚科住院醫師申請的個人陳述中,AI生成內容明顯變多。研究分析1,500份資料,發現這幾年AI使用比例差異很大,統計上也有顯著差異。這顯示申請者越來越依賴AI,未來需要針對AI使用和揭露訂定更明確的規範。 PubMed DOI

研究發現,脊椎外科醫師無法分辨ChatGPT和真人寫的fellowship自傳,且AI寫的自傳在可讀性和品質上表現更好,更容易獲得面試推薦。這顯示AI工具能產出高品質申請文件,也引發招生流程相關討論。 PubMed DOI