原始文章

這項元研究評估了放射學期刊中關於大型語言模型(LLMs)使用的政策。結果顯示,43.9%的期刊有相關政策,其中43.4%針對作者,29.6%針對審稿人,25.9%針對編輯。許多期刊討論了LLM的使用細節、名稱、驗證及角色,但僅少數提及其潛在影響。研究指出,LLM政策的存在與出版商有顯著關聯,並建議制定共享的報告指導方針,以提升科學寫作的質量與透明度,強調目前的探索仍需進一步發展。 PubMed DOI


站上相關主題文章列表

討論眼科研究使用大型語言模型(LLMs)如ChatGPT的影響,探討其好處、道德疑慮和解決方案。LLMs在研究中有幫助,但也帶來道德挑戰,尤其是科學誠信。建議眼科期刊制定針對LLM使用的指南,強調訂定LLM道德指南的重要性,確保在眼科研究中負責任使用。 PubMed DOI

大型語言模型(LLMs)正在改變放射學和醫學領域,越來越多的文章正在利用它們。放射科醫師需要了解LLM的概念、技術基礎、風險和倫理,以安全地應用這項技術。本篇評論涵蓋了放射學中的LLMs,包括它們的歷史、技術方面、應用、優點、缺點、風險、倫理和未來前景。 PubMed DOI

研究探討大型語言模型(LLMs)如OpenAI的ChatGPT在醫學上的應用,總結了在醫療保健領域的表現,討論了倫理和法律問題,提出未來研究方向。分析了55篇研究,指出LLMs在某些任務上有潛力,但也有限制,如訓練數據偏見和倫理問題。呼籲建立標準評估方法,發揮LLMs在醫療上的潛力。 PubMed DOI

DL和LLMs在放射學中發揮重要作用,但仍需解決挑戰,確保臨床可靠性。放射科醫師應了解這些技術,並堅持醫學安全和道德。 PubMed DOI

大型語言模型(LLMs)可能改變放射學,但整合時需注意隱私、透明度和準確性問題。工具應針對放射學進行優化,以因應限制。放射學領域仍在研究LLM,商業產品已出現。放射科醫師應保持資訊更新,積極引導LLM實施,以提高患者護理效益並降低風險。 PubMed DOI

大型語言模型(LLMs)在醫學科學手稿製作上有很大進步,省時、準確、幫助非英語使用者。雖然有好處,也可能產生錯誤和偏見,需要監控。對準確性、作者身份和透明度的道德問題需解決。《美國急診醫學雜誌》使用LLM,要求透明和作者負責,顯示政策應適應新技術。 PubMed DOI

這篇論文回顧了自然語言處理技術,特別是大型語言模型在放射科報告中提取結構化數據的應用。雖然放射影像使用普遍,但報告中的自由文本常未被充分利用。根據PRISMA-ScR指導方針,分析了2023年8月1日從五個資料庫中找到的34項研究。結果顯示,大多數研究集中在前變壓器和編碼器模型上,外部驗證時性能下降。LLMs可能增強信息提取的普遍適用性,但面臨外部驗證不足和報告粒度問題等挑戰。 PubMed DOI

大型語言模型(LLMs)正在改變自然語言處理(NLP)領域,為放射科醫師提供提升工作的機會。NLP是人工智慧的一個分支,透過演算法分析文本數據。近期的進展,如注意力機制和變壓器架構,讓像GPT-4和Gemini這樣的模型能生成類似人類的文本,並分析大量資料。 不過,LLMs也有其限制,例如依賴訓練數據的質量,可能會產生不準確的輸出。儘管如此,LLMs在放射學的應用逐漸受到重視,幫助醫師提取有價值的見解,改善工作流程,最終提升病患護理品質。 PubMed DOI

大型語言模型(LLMs)對醫學寫作和出版影響深遠,最近的綜述文章強調了其應用、挑戰及未來影響。調查顯示,LLMs在科學寫作中被廣泛使用,帶來了許多好處與挑戰。它們在文獻搜尋、研究設計、寫作輔助等方面表現出色,並在同行評審過程中也扮演重要角色。為了確保學術工作的完整性,研究人員需驗證AI生成內容的準確性,並建立人類與AI的協作流程。未來需解決LLMs的限制,並持續更新相關政策,以維護醫學寫作的品質。 PubMed DOI

這項研究探討放射科住院醫師計畫主任對住院醫師申請者使用大型語言模型(如ChatGPT)撰寫個人陳述的看法。八位主任參加了調查和焦點小組討論,評估了五位申請者的四種不同版本的陳述。結果顯示,LLM生成的陳述質量被評為一般或更差的比例達56%,而人類撰寫的則為29%。主任們雖然對區分兩者的能力不自信,但能準確識別人類撰寫的陳述。焦點小組討論中,主任們對AI影響個人陳述的真實性和價值表示擔憂,並指出AI生成內容中申請者的聲音減弱。這項研究突顯了AI在住院醫師申請過程中的挑戰與影響。 PubMed DOI