原始文章

這篇論文提出AI發展分為四個世代,從資訊型、代理型、實體型到未來可能的意識型AI。每一代的進步都靠演算法、運算力和資料推動。作者回顧AI七十年歷史,強調科技如何帶動AI演變,也提醒隨著AI越來越自主,倫理和社會問題更需重視,發展過程中要負責任地治理。 PubMed DOI


站上相關主題文章列表

生成式人工智慧,像是ChatGPT,最近因能生成類似人類的文本而受到關注,但在教育上的應用引發爭議。這篇回顧探討了整合這類技術所面臨的挑戰,並提出解決策略。研究發現抄襲是主要問題,還有責任、隱私、安全、歧視及數位鴻溝等風險。為了應對這些挑戰,提出了符合倫理和教學原則的實用策略。整體而言,這篇回顧強調了對生成式人工智慧在教育中影響的深入考量。 PubMed DOI

這篇論文探討人工智慧(AI)在醫學,特別是學術外科中的重要性,強調其在影像識別、臨床決策和行政任務的應用。大型語言模型如GPT-4和Google的Bard在文本生成上帶來變革,能協助外科醫生撰寫手稿和申請補助。不過,AI的使用也引發了偏見、透明度和智慧財產權等倫理問題。論文回顧了AI的運作、潛在偏見及其負責任使用的重要性,並提出在學術和臨床環境中應強調透明度和倫理訓練的指導方針。 PubMed DOI

大型語言模型(LLMs)徹底改變了人工智慧,特別是在生成文本方面。這些模型透過大量文本訓練,能生成連貫且具上下文的內容,應用範圍廣泛,從聊天機器人到內容創作,展現出驚人的語言理解與生成能力。它們能執行摘要、問答及創意寫作等任務,並透過微調技術針對特定需求進行客製化。隨著技術進步,LLMs 的應用也在擴展,並引發了關於倫理、偏見及社會影響的討論,標誌著人工智慧的一次重大進步。 PubMed DOI

雖然 ChatGPT 這類 AI 很厲害,但我們對它們可能帶來的「存在性風險」還不太清楚。這些風險可能從公平性、問責性等議題慢慢演變而來。論文討論了 AI 可能造成的傷害,以及像 AI 對齊、過度信任、安全、開源、醫療和社會影響等減緩風險的方法。 PubMed DOI

這篇評論探討生成式AI和大型語言模型如何協助保護像能源、水資源、運輸等重要基礎設施,免於網路攻擊。內容涵蓋信任、隱私、韌性等挑戰,並回顧AI資安表現的評估標準,也討論Agentic AI主動防禦的應用,最後提出整合AI強化資安的發展方向。 PubMed DOI

AI 最早源自哲學和數學,1956年成為正式學科。隨著機器學習、神經網路和大數據進步,AI 現在能處理醫療、影像、語音和語言等複雜任務。AI 發展快速,大家也越來越重視如何負責任地運用它,發揮好處並解決相關問題。 PubMed DOI

美國現行法律無法有效處理生成式AI帶來的隱私、公平和福祉等風險,對AI公司責任的規範也不夠明確。作者建議建立新的「負責任AI法律框架」,納入基本價值觀、訂定安全標準,並針對AI特性設計專屬責任規則,以更主動地保障民眾權益。 PubMed DOI

生成式AI有機會提升基層醫療的效率和品質,像是自動化行政、協助教學、整合病患資料等。不過,目前還需要更多由基層醫療主導的嚴謹研究,確保對醫師和病患都安全有效。作者建議學界應主動訂定研究方向,並展開國際合作來評估Gen AI的應用。 PubMed DOI

生成式AI正加速新藥開發、蛋白質與基因研究,也推動個人化醫療和農業創新,像是培育更優良作物。它還促進合成生物學和永續發展。不過,資料隱私和公平性等倫理問題也要一起重視,才能確保負責任的應用。 PubMed DOI

GPT-4等生成式AI能提升臨床效率,尤其在複雜照護上,但因推理過程不透明,容易引發安全疑慮。這在精神健康照護特別重要,因為該領域有獨特需求。作者提出CRITiCS架構,強調醫師需持續參與並理解AI推理,同時呼籲建立AI負責任使用的共識。 PubMed DOI