原始文章

近年來,AI發展越來越仰賴大量資料和高運算資源,導致開發成本高、取得不易,也不太環保。Neurosymbolic AI 結合多種方法,用較少資料和資源,就能達到強大效果,是更永續的選擇。 PubMed DOI


站上相關主題文章列表

目前增強大型語言模型的策略主要是透過擴大模型規模、數據量和計算能力,並進行後處理和微調。然而,這樣的調整可能會影響模型的可靠性。我們的研究發現,雖然模型在簡單任務上表現不錯,但在低難度領域的準確性卻不穩定,特別是人類監督能夠發現的錯誤。早期模型常避免回答,而新模型則可能給出看似合理但實際錯誤的回應。這顯示出對通用人工智慧的重新設計是必要的,尤其是在需要可預測錯誤的應用中。 PubMed DOI

大型語言模型(LLMs)的環境影響引發了不同看法。一些研究指出,訓練和使用LLMs會產生顯著的碳足跡,而另一些則認為LLMs可能比傳統方法更可持續。我們的分析顯示,儘管LLMs對環境有影響,但在美國,它們的效率可能高於人力勞動。經濟考量可能促使人類與LLMs共同工作,而非單純取代。隨著LLMs規模增長,能源消耗可能上升,這凸顯了持續研究以確保其可持續性的重要性。 PubMed DOI

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,尤其是面對大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能削弱公眾對媒體的信任;偏見問題,因訓練數據可能不具代表性;隱私問題,若數據中含有個人資訊;以及過度依賴,可能影響批判性思維。 為了應對這些挑戰,開發和部署LLMs時必須重視安全與倫理,並促進研究人員、政策制定者和業界的合作,確保技術能服務於更大公益。 PubMed DOI

大型語言模型(LLMs)能理解和產生自然語言,正改變醫療、教育、金融等產業,提升效率和準確度。不過,LLMs也有倫理、偏見和高運算成本等問題。本文分析其發展、應用和限制,並探討未來趨勢。 PubMed DOI

這篇論文探討生成式AI如何結合神經科學和生理學,推動精神醫學發展。AI能協助資料分析、實驗設計、臨床支援,還有助於發現新生物標記和建構症狀模型。作者強調AI與神經科學互相促進,但也提醒要注意數據品質、隱私和資源限制,建議在精神健康照護中審慎運用AI。 PubMed DOI

近期有論文討論藥物開發建模該用 QSP 還是 AI/ML。LLM 分析後認為,QSP 適合機制探討和符合法規,AI/ML 則擅長處理複雜資料和創新。LLM 建議混合兩者最理想,能發揮各自優勢,也顯示 LLM 有助於整合討論,促進 QSP 與 AI/ML 的平衡應用。 PubMed DOI

這篇評論(為三部曲第二部)探討AI在神經醫學的應用,包括診斷、病患互動和個人化治療,也談到責任歸屬、AI黑盒子等倫理問題,並思考AI是否會有自我意識。作者強調AI雖能改變照護模式,但仍需倫理監督與人類主導,並為下一部聚焦全球健康與數據分析做準備。 PubMed DOI

OpenAI 2023 年的 Democratic Inputs 計畫,讓 10 個團隊設計大眾參與生成式 AI 的方式。作者訪談後發現,這些專案常有未明說的假設,建議未來 AI 公共參與應更多元,也不一定要由科技業主導。 PubMed DOI

AI 和機器學習正大幅改變定量系統藥理學(QSP),像自動化資料擷取、混合模型和大型語言模型等新工具,讓 QSP 建模更簡單、協作性更高,有助加速和個人化藥物開發。不過,驗證、倫理、法規和整合複雜生物資料等挑戰仍待克服。整體來說,AI/ML 將徹底革新 QSP,推動治療創新。 PubMed DOI