原始文章

在科學出版中,作者排序對研究者的認可和職業發展非常重要。最近的研究顯示,20%的作者面臨榮譽作者的問題。這項研究評估了顎面外科和耳鼻喉科的作者貢獻指導方針。2024年3月16日,研究者檢索了Scopus索引的期刊,發現21本期刊中只有8本遵循CRediT系統,147篇手稿中僅38.8%報告了貢獻。報告的貢獻與實際作者身份的協議分數為65.3%。研究強調了這些期刊中標準化貢獻系統的低採用率,未來需進一步研究以確保公平的作者認可。 PubMed DOI


站上相關主題文章列表

評估在學術外科領域使用大型語言模型的優缺點。LLMs如ChatGPT和Bard可簡化行政工作、提升臨床研究效率,但需克服泛化、內容驗證、倫理、病人隱私、偏見和法律挑戰。為了安全公平地運用LLMs,需要研究預防措施。儘管有限制,LLMs有望提升外科手術效率,維護病人護理。建議進一步探索LLM應用,同時注意潛在風險。 PubMed DOI

研究探討AI文本生成工具對耳鼻喉科學文獻的影響,發現ChatGPT發布後,AI生成內容明顯增加,尤其在摘要、引言和討論部分。非英語系國家作者使用AI生成文本比例較高。研究引起對AI內容準確性和錯誤風險的擔憂,強調需要進一步研究,並凸顯科學出版對AI工具的依賴。 PubMed DOI

這項元研究評估了放射學期刊中關於大型語言模型(LLMs)使用的政策。結果顯示,43.9%的期刊有相關政策,其中43.4%針對作者,29.6%針對審稿人,25.9%針對編輯。許多期刊討論了LLM的使用細節、名稱、驗證及角色,但僅少數提及其潛在影響。研究指出,LLM政策的存在與出版商有顯著關聯,並建議制定共享的報告指導方針,以提升科學寫作的質量與透明度,強調目前的探索仍需進一步發展。 PubMed DOI

這篇論文反對將人工智慧(AI)系統,特別是大型語言模型(LLMs),列為科學論文的作者。作者認為,LLMs 無法對其產出負責,這是成為作者的必要條件。他們指出,AI 工具不具備有意義的寫作能力,也缺乏持久身份,並討論了 AI 作為作者可能對學術出版造成的負面影響。最後,作者質疑僅為了發表而使用 AI 生成更多研究的價值,並建議應該能夠識別過去 AI 使用的工具,以防止其成為作者。 PubMed DOI

這項研究探討耳鼻喉科住院醫師選拔中,人工智慧模擬的決策是否受到人口統計偏見影響。研究使用OpenAI的GPT-4和GPT-4o模擬選拔委員會的決策,結果顯示RSC成員在種族、性別和性取向上存在偏見,特別偏好與自己相似的申請者。最新的ChatGPT-4o則顯示出對黑人女性和LGBTQIA+申請者的偏好,強調在選拔過程中需注意和減少這些偏見,以確保未來醫療人力的多樣性和代表性。 PubMed DOI

大型語言模型(LLMs)對醫學寫作和出版影響深遠,最近的綜述文章強調了其應用、挑戰及未來影響。調查顯示,LLMs在科學寫作中被廣泛使用,帶來了許多好處與挑戰。它們在文獻搜尋、研究設計、寫作輔助等方面表現出色,並在同行評審過程中也扮演重要角色。為了確保學術工作的完整性,研究人員需驗證AI生成內容的準確性,並建立人類與AI的協作流程。未來需解決LLMs的限制,並持續更新相關政策,以維護醫學寫作的品質。 PubMed DOI

這篇評論探討了大型語言模型(LLMs)在眼科應用的倫理影響,分析了47篇相關文章。雖然LLMs在教育、研究、臨床決策和手術協助等方面有潛力,但也存在準確性不足、可能產生有害建議及數據隱私等倫理問題。評論強調在醫療中謹慎整合人工智慧的重要性,需有人的監督和透明度,以維持倫理標準。為了充分發揮LLMs的優勢,必須認識並解決這些倫理挑戰,並促進負責任的使用。 PubMed DOI

這項研究評估了多個大型語言模型(LLMs)在耳鼻喉科及頭頸外科臨床選擇題的表現。使用4,566個問題的數據集,結果顯示GPT-4表現最佳,正確率達77.1%,其次是MedPaLM的70.6%。其他模型如Llama3、GPT-3.5和PaLM2的正確率分別為66.8%、58.5%和56.5%。提供推理提示能提升準確性,GPT-4更修正了31%的錯誤。雖然LLMs在耳鼻喉科的理解上有差異,但GPT-4在教育上仍具潛力,需注意其局限性。 PubMed DOI

本研究調查了韓國醫學期刊中人工智慧(AI)指導方針的情況,特別是大型語言模型(LLMs)的影響。調查顯示,前100名期刊中僅有18%設有相關指導方針,遠低於國際水平。不過,預計到2024年初,這一比例將增至57.1%。高影響力期刊更可能擁有這些指導方針,通常要求作者披露LLM使用情況,並禁止AI作為作者。雖然韓國在這方面落後,但隨著時間推進,情況有明顯改善,仍需加強標準化與合作,以促進倫理使用。 PubMed DOI

這項研究評估了醫療領域大型語言模型(LLMs)在遵循MI-CLEAR-LLM檢查表的表現,旨在提升報告的透明度與可重複性。透過系統性搜尋PubMed,找到159篇2022年11月到2024年6月間發表的相關文章。 主要發現包括: - 100%報告LLM名稱,96.9%報告版本,91.8%報告製造商。 - 54.1%報告訓練數據截止日期,6.3%記錄網路資訊訪問。 - 15.1%清楚記錄隨機性管理。 - 49.1%提供提示措辭,34.0%討論提示結構。 - 13.2%報告測試數據獨立性,56.6%提供網路數據網址。 總體而言,雖然基本識別報告良好,但隨機性、提示細節及測試數據獨立性等關鍵方面仍需加強。改善遵循檢查表可提升未來研究的透明度與可靠性。 PubMed DOI