原始文章

這項研究評估生成式預訓練變壓器(GPT)在牙科領域創建科學摘要的效果。研究人員從十篇牙科放射學文章中收集原始摘要,並用其他十篇文章的內容提示ChatGPT生成摘要。五位評估者根據七個標準對生成的摘要和原始摘要進行評分。結果顯示,GPT生成的摘要在拼寫和標點符號上最具區別性,整體準確性平均為60%。雖然GPT的表現優異,但線上檢測器仍能識別AI生成的內容。 PubMed DOI


站上相關主題文章列表

大型語言模型如ChatGPT能夠產生逼真文字,但在科學寫作中的正確性和完整性有疑慮。研究指出,ChatGPT生成的醫學摘要可能不夠準確,容易被檢測器誤認為真實。人類審稿者難以區分生成的內容和原始摘要,顯示出模糊和公式化的模式。雖然能夠產生可信的科學摘要,但僅限於生成的資料。人工智慧檢測器有助於維護科學標準,但其道德使用仍存在爭議。 PubMed DOI

這項研究探討了使用ChatGPT的免費版本是否能夠使用準確但虛構的資料生成高品質的學術會議摘要。生成的摘要寫得很好,符合指引,只有一個虛假參考文獻。ChatGPT在經過適當的作者審查後,可能成為一個有用的科學寫作工具,但在科學和醫學領域的使用引起了一些擔憂。 PubMed DOI

研究發現ChatGPT在牙科知識評估中表現,ChatGPT3.5比ChatGPT4更準確。建議牙科學生將ChatGPT當作輔助學習工具,而非主要來源,以免誤導。 PubMed DOI

研究比較ChatGPT3與人類評估醫學研究摘要質量的能力,結果顯示兩者整體符合度有些微差異,但在特定領域表現不同。ChatGPT有助於自動化醫學文獻評估,或許提升準確性。未來的AI技術如GPT4可能提供更可靠的評估,進而改善患者治療結果。 PubMed DOI

ChatGPT是一個能夠創造類似人類寫作的語言模型,很難區分真假。研究測試人們是否能分辨AI生成的摘要和人類寫的,以及AI檢測器的準確性。骨科醫師和教授們辨識AI生成的摘要,結果喜憂參半。檢測AI內容對防止科學出版的虛假資訊至關重要,需要更多研究改進檢測方法。 PubMed DOI

研究評估使用人工智慧模型ChatGPT生成臨床研究論文摘要的效果。30篇基礎研究論文透過ChatPDF生成摘要,專家評估後發現,生成摘要質量低、格式差異大、結論不正確,且與原摘要相似度低。使用ChatGPT生成摘要時,可能會有質量和準確性問題。 PubMed DOI

最新研究評估了ChatGPT在從隨機對照試驗(RCT)數據中產生科學摘要的表現,結果顯示ChatGPT的摘要雖然更易讀,但品質不如原始摘要。ChatGPT 3.5版和4版在遵循CONSORT-A檢查表方面表現較差。有必要進一步研究ChatGPT在醫學研究中的應用價值。 PubMed DOI

人工智慧的進步帶來了像ChatGPT和Bard這樣的語言模型,可以產生類似人類寫作的文字。研究比較了它們在撰寫脊椎外科結構摘要方面的表現。結果發現,ChatGPT的摘要符合期刊指南,而Bard的字數更準確,且與人類撰寫的摘要更相似。人工智慧檢測難以區分人工智慧和人類生成的摘要,引發道德疑慮。使用這些工具時需謹慎。 PubMed DOI

本研究探討生成式人工智慧工具ChatGPT對牙科研究寫作的影響,分析2018至2024年間在PubMed的牙科出版物摘要。研究對299,695篇摘要進行關鍵字分析,發現ChatGPT發布前每10,000篇論文中出現的「信號詞」頻率為47.1,發布後增至224.2,增幅顯著。其中「delve」的使用增幅最大。研究顯示生成式人工智慧在牙科研究中的採用逐漸增加,雖然可能提升生產力,但也引發對偏見和不準確性的擔憂,強調需制定明確指導方針以確保學術出版的責任性。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0版本在生成和評分醫學研究摘要的能力。研究期間為2023年8月至2024年2月,訓練聊天機器人根據文獻創建10個摘要,並與現有摘要進行比較。五位外科醫生評審發現,AI生成的摘要與人類撰寫的質量相當,評分中位數相似。雖然版本1的評分接近評審者的評價,但版本2則偏向給予較高分數。整體而言,研究顯示AI能有效生成難以區分的醫學摘要,顯示其在醫學研究中的潛力。 PubMed DOI