原始文章

這篇論文探討大型語言模型(LLMs),如GPT-4o,對科學發現的影響,特別是在假設生成方面。作者展望未來,學術界將更多利用這些模型來提升研究效率。文章提出的核心問題是如何加速科學發現,並識別了兩個挑戰:有效利用模型知識及評估其研究效能。作者提出知識驅動的想法鏈(KG-CoI)來生成假設,以及IdeaBench進行可自訂的基準測試,目的是激發創新,促進人類與人工智慧的合作。 PubMed DOI


站上相關主題文章列表

在分子生物學中,探索分子間的關聯性至關重要,而大型語言模型(LLMs)的出現大幅推進了這一領域。這些模型在自然語言處理和圖像生成上表現優異,能夠從龐大數據集中捕捉複雜關係,成為基礎模型。 目前的數據集涵蓋RNA、DNA、蛋白質序列及單細胞和空間轉錄組,為模型開發提供了豐富基礎。未來,基礎模型的發展將專注於提升可解釋性、整合多組學數據及增強預測能力,對於改進我們對生物系統的理解及治療策略具有巨大潛力。 PubMed DOI

這篇論文探討大型語言模型(LLMs)對自然科學和社會科學的影響,特別是透過生成代理模型(GABMs)模擬人類行為。研究涵蓋網絡科學、演化博弈論等領域,顯示LLMs能預測社會行為、增強合作及模擬疾病傳播。雖然LLMs能模仿公平性和合作,但仍面臨提示敏感性和幻覺等挑戰,影響行為一致性。未來研究應聚焦於完善模型、標準化方法,並探討LLMs與人類互動可能帶來的新合作行為,重塑決策過程。 PubMed DOI

隨著科學文章數量快速增加,如何組織和提取資訊成為一大挑戰,顯示出自動化的必要性。本研究探討利用大型語言模型(如OpenAI的GPT-4.0)來提取科學文獻中的關鍵洞察。我們開發了名為ArticleLLM的系統,透過手動基準微調來提升模型表現,並採用多演員LLM策略,結合多個微調模型的優勢,增強提取效果。本研究顯示LLMs在關鍵洞察提取上的潛力,並強調協作微調的好處,有助於提升學術文獻調查與知識發現的效率。 PubMed DOI

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI

將大型語言模型(LLMs)整合進科學工作流程中,既有機會也有挑戰。四組科學家提供不同觀點:Schulz等人認為LLMs能提升研究生產力;Bender等人警告過度炒作,主張專注於可解釋的專用工具;Marelli等人強調透明性與負責任使用,呼籲標示LLMs貢獻;Botvinick和Gershman則認為人類應對科學探究負最終責任。這場對話旨在確保LLMs的使用能提升科學實踐,同時維持倫理與問責。 PubMed DOI

大型語言模型(LLMs),像是ChatGPT,已經徹底改變了學術界的科學寫作與研究,提供了全方位的支援。生成式人工智慧(GAI)工具在假設形成、方法設計、數據分析到手稿準備等各階段都有所改善。這篇評論專注於LLMs在血液學研究中的應用,特別提到提示工程和檢索增強生成(RAG)框架等技術。這些技術能幫助研究人員創造更準確的內容,並降低錯誤資訊的風險。儘管GAI工具提升了研究質量,但也強調了科學誠信、倫理考量及隱私保護的重要性。 PubMed DOI

大型語言模型(LLMs)如ChatGPT已經改變了人機互動和語言分析。這些模型基於自然語言處理和機器學習的進步,特別是變壓器模型的引入,能更有效理解上下文。 LLMs的訓練過程分為預訓練和監督式微調,讓模型學習語法和推理能力。然而,它們也有缺陷,常生成聽起來合理但不正確的資訊,可能誤導使用者。因此,在使用LLMs時,特別是在敏感領域如放射學,必須謹慎評估其輸出。 PubMed DOI

大型語言模型正帶動材料科學革新,讓自動化材料發現成真,像是資料擷取、性質預測都更有效率。不過,目前還有專業知識整合不夠、資源消耗大等問題。未來要加強LLM的適應性、效率和可信度,才能讓這些技術在實際應用上更可靠、更公平。 PubMed DOI

大型語言模型在心理科學等學術領域越來越重要,能協助教學、寫作和模擬人類行為。雖然帶來不少好處,但也有倫理和實務上的挑戰。這份摘要整理了最新進展、最佳做法,並提出未來發展方向,幫助學界更負責任且有效地運用LLMs。 PubMed DOI

研究人員用GPT-4提出乳癌新藥物組合,選用多種原本非治療癌症的FDA核准藥物,兩兩搭配後進行細胞實驗。結果發現,有些AI建議的組合效果比現有治療還好,顯示大型語言模型在新藥開發和科學假說產生上很有潛力。 PubMed DOI