原始文章

這項研究指出,生成式人工智慧(GAI)對電子廢棄物的影響相當重大,特別是大型語言模型需要大量計算資源。預測顯示,從2020到2030年,GAI可能產生120萬到500萬噸的電子廢棄物,受多種因素影響。快速更換伺服器的做法可能會加劇這個問題。不過,若在GAI的價值鏈中採用循環經濟策略,電子廢棄物的產生可減少16%到86%。這凸顯了隨著GAI技術進步,積極管理電子廢棄物的重要性。 PubMed DOI


站上相關主題文章列表

生成式人工智慧(GAI)和大型語言模型(LLM)已廣泛應用於各個領域,包括醫療保健。GAI在蛋白質結構和藥物發現等任務中有潛力,LLM則在醫療保健領域有多樣應用。區分通用LLM和專為醫療保健設計的模型至關重要,考量到這個領域的廣泛應用和相關出版物。 PubMed DOI

生成式人工智慧(GAI)是一項在各個領域具有潛力的新技術。在環境心理學研究中,像是ChatGPT這樣的工具可以幫助理解、實施和溝通。然而,為了負責任地使用,倫理考量、指引、培訓以及學術評估的改變至關重要。 PubMed DOI

GenAI LLMs,如ChatGPT,有潛力在醫療保健領域帶來重大影響。研究指出,這些技術可改善醫療服務效率,但也需面對道德及安全挑戰。未來應該加強研究,專注於實證或臨床領域,以推動這些技術在醫療保健中的應用。 PubMed DOI

生成式人工智慧(GenAI)能創造原創內容,模仿人類思考,對醫療保健等領域影響深遠。不過,它也帶來網路安全的隱憂,如數據隱私、數據中毒、偏見及不準確輸出等問題。為了降低這些風險,建議採取風險緩解策略,強化GenAI的網路安全。此外,了解GenAI的複雜性與風險,對於在醫療產業中發揮其潛力至關重要,能成為變革的推動力。 PubMed DOI

電動車和可再生能源的發展需要在電化學儲能系統上取得進展,如燃料電池和鋰離子電池等。這些技術雖然前景看好,但面臨高成本和材料稀缺等挑戰。本研究提出一種新穎的生成式人工智慧整合方案,利用生成對抗網絡、自編碼器和大型語言模型,改善材料發現和電池設計等方面。研究強調納米和微米尺度的互動對提升效率和延長壽命的重要性,並探討GenAI在儲能領域的挑戰與未來方向,旨在促進可持續的能源解決方案。 PubMed DOI

大型語言模型(LLMs)的環境影響引發了不同看法。一些研究指出,訓練和使用LLMs會產生顯著的碳足跡,而另一些則認為LLMs可能比傳統方法更可持續。我們的分析顯示,儘管LLMs對環境有影響,但在美國,它們的效率可能高於人力勞動。經濟考量可能促使人類與LLMs共同工作,而非單純取代。隨著LLMs規模增長,能源消耗可能上升,這凸顯了持續研究以確保其可持續性的重要性。 PubMed DOI

這篇綜述文章探討生成式人工智慧(AI)在心理學的影響,特別是像ChatGPT這類工具的應用。文章分析了2015至2024年間的研究,強調生成式AI在數據分析、行為建模和社交互動模擬上的優勢。它比較了傳統研究方法與AI驅動方法的效率,並討論了理論與倫理挑戰,特別是偏見問題。最後,文章展望生成式AI在心理學的未來,提出改進建議和數據隱私措施,強調對倫理問題的重視對維護研究完整性的重要性。 PubMed DOI

生成式人工智慧,像是ChatGPT,最近因能生成類似人類的文本而受到關注,但在教育上的應用引發爭議。這篇回顧探討了整合這類技術所面臨的挑戰,並提出解決策略。研究發現抄襲是主要問題,還有責任、隱私、安全、歧視及數位鴻溝等風險。為了應對這些挑戰,提出了符合倫理和教學原則的實用策略。整體而言,這篇回顧強調了對生成式人工智慧在教育中影響的深入考量。 PubMed DOI

這篇評論強調人工智慧(AI)在數位健康和生物工程等領域對環境的影響,特別是其能源需求和碳足跡常被忽視。雖然AI常被擬人化,強調「溫暖」和「關懷」,但這可能掩蓋其生態後果,並優先考量人類利益。分析呼籲轉變觀點,讓研究者認識AI的物質性和生態足跡,並提倡在AI設計中擺脫以人類為中心的思維,以促進對地球及其生命形式負責任的科學發展。 PubMed DOI

這篇論文探討生成式人工智慧(GenAI)對研究生醫學教育(GME)的影響,指出其帶來的機會與風險。機會包括減輕電子健康紀錄的負擔、增強臨床模擬、個性化教育、支持研究與分析,以及改善臨床決策。不過,論文也提到風險,如AI輸出不準確、過度依賴AI資訊、學術誠信問題、潛在偏見及隱私風險。隨著GenAI技術的進步,理解其優缺點將變得相當重要。 PubMed DOI