原始文章

這篇論文探討大型語言模型(LLMs),如GPT-4o,對科學發現的影響,特別是在假設生成方面。作者展望未來,學術界將更多利用這些模型來提升研究效率。文章提出的核心問題是如何加速科學發現,並識別了兩個挑戰:有效利用模型知識及評估其研究效能。作者提出知識驅動的想法鏈(KG-CoI)來生成假設,以及IdeaBench進行可自訂的基準測試,目的是激發創新,促進人類與人工智慧的合作。 PubMed DOI


站上相關主題文章列表

人工智慧,特別是大型語言模型(LLMs),現在被廣泛運用,因為能跟人類溝通。透過大量網路資料訓練,LLMs能產生各種專業文本。研究指出,GPT-4能在不到一小時內寫出完整的藥學手稿。雖然LLMs在科學研究有潛力,但仍需要人類參與,如參考文獻和數據驗證。該研究探討了將LLMs融入科學研究的優勢和挑戰。 PubMed DOI

像GPT-4這樣的先進語言模型的發展正在改變分子研究領域。我們對GPT-4和GPT-3.5的比較顯示,GPT-4在分子優化的某些領域表現優異,但在處理複雜分子時卻遇到困難。我們建議未來的研究方向,以克服這些挑戰並增進分子科學的發展。 PubMed DOI

大型語言模型如GPT-4、Bard和Claude,透過高效的文本處理能力,改變醫學等領域的學術寫作。雖然這些模型能生成類似人類內容,有助於文獻回顧和假設制定,但人工智慧生成內容的準確性引發道德疑慮。本文討論LLMs對醫學寫作的影響、道德挑戰,以及辨識人工智慧生成文本的方法,同時思考LLMs在學術出版和醫學領域的未來。 PubMed DOI

這篇論文提出了一個評估大型語言模型(LLMs)在生物醫學知識編碼的框架,特別針對抗生素研究。框架分為三個步驟:流暢性、提示對齊和語義一致性,並評估事實知識和回應的具體性。研究涵蓋了ChatGPT、GPT-4和Llama 2等十一個模型,透過生成化合物定義和確定化合物與真菌關係的任務進行評估。結果顯示,雖然流暢性有所提升,但事實準確性仍有待加強,對LLMs作為生物醫學知識庫的可靠性提出了疑慮,並強調需要更系統的評估方法。 PubMed DOI

這項研究探討大型自然語言模型如GPT-3和GPT-4如何幫助社會心理學研究者生成新假設。由於該領域發現眾多,整合想法變得困難,可能會錯過重要聯繫。研究採用兩種方法:首先對GPT-3進行微調,使用數千篇社會心理學摘要,專家評分後發現其生成的假設在清晰度和創新性上與人類相似;其次不微調使用GPT-4,結果顯示其生成的假設在多個維度上評分更高。總體來看,這些模型能有效支持假設生成。 PubMed DOI

這項研究強調環境科學中創新研究方法的必要性,以應對氣候變遷和生物多樣性喪失等全球挑戰。由於現有文獻的複雜性,識別有意義的研究主題變得困難。傳統文獻計量學無法捕捉新興跨學科領域,但人工智慧(AI)和大型語言模型(LLMs)的進步提供了新機會。研究發現,GPT-3.5在分析環境科學前沿主題上表現更佳,顯示跨學科研究、AI和大數據對解決環境挑戰的重要性。LLMs可成為研究人員的寶貴工具,提供未來研究方向的靈感。 PubMed DOI

隨著科學文章數量快速增加,如何組織和提取資訊成為一大挑戰,顯示出自動化的必要性。本研究探討利用大型語言模型(如OpenAI的GPT-4.0)來提取科學文獻中的關鍵洞察。我們開發了名為ArticleLLM的系統,透過手動基準微調來提升模型表現,並採用多演員LLM策略,結合多個微調模型的優勢,增強提取效果。本研究顯示LLMs在關鍵洞察提取上的潛力,並強調協作微調的好處,有助於提升學術文獻調查與知識發現的效率。 PubMed DOI

將大型語言模型(LLMs)整合進科學工作流程中,既有機會也有挑戰。四組科學家提供不同觀點:Schulz等人認為LLMs能提升研究生產力;Bender等人警告過度炒作,主張專注於可解釋的專用工具;Marelli等人強調透明性與負責任使用,呼籲標示LLMs貢獻;Botvinick和Gershman則認為人類應對科學探究負最終責任。這場對話旨在確保LLMs的使用能提升科學實踐,同時維持倫理與問責。 PubMed DOI

大型語言模型(LLMs),像是ChatGPT,已經徹底改變了學術界的科學寫作與研究,提供了全方位的支援。生成式人工智慧(GAI)工具在假設形成、方法設計、數據分析到手稿準備等各階段都有所改善。這篇評論專注於LLMs在血液學研究中的應用,特別提到提示工程和檢索增強生成(RAG)框架等技術。這些技術能幫助研究人員創造更準確的內容,並降低錯誤資訊的風險。儘管GAI工具提升了研究質量,但也強調了科學誠信、倫理考量及隱私保護的重要性。 PubMed DOI

大型語言模型(LLMs)如ChatGPT已經改變了人機互動和語言分析。這些模型基於自然語言處理和機器學習的進步,特別是變壓器模型的引入,能更有效理解上下文。 LLMs的訓練過程分為預訓練和監督式微調,讓模型學習語法和推理能力。然而,它們也有缺陷,常生成聽起來合理但不正確的資訊,可能誤導使用者。因此,在使用LLMs時,特別是在敏感領域如放射學,必須謹慎評估其輸出。 PubMed DOI