原始文章

這篇論文提出AI發展分為四個世代,從資訊型、代理型、實體型到未來可能的意識型AI。每一代的進步都靠演算法、運算力和資料推動。作者回顧AI七十年歷史,強調科技如何帶動AI演變,也提醒隨著AI越來越自主,倫理和社會問題更需重視,發展過程中要負責任地治理。 PubMed DOI


站上相關主題文章列表

人工智慧在語言模型領域的進步對我們產生了深遠影響,能處理超越人類能力的提示,並擔任提示工程師。透過促進人工智慧與回應者、合規監護人之間的對話,可實現高品質、負責任的解決方案。新的人工智慧協作模型強調負責任的自主性,對現實挑戰至關重要。這種方法確保結構化互動和自主決策,提升對人工智慧對話流程、合規性和負責任決策的理解。ChatGPT在實驗性人工智慧-人工智慧對話中的應用展現了潛力。 PubMed DOI

生成式人工智慧(GenAI)能創造原創內容,模仿人類思考,對醫療保健等領域影響深遠。不過,它也帶來網路安全的隱憂,如數據隱私、數據中毒、偏見及不準確輸出等問題。為了降低這些風險,建議採取風險緩解策略,強化GenAI的網路安全。此外,了解GenAI的複雜性與風險,對於在醫療產業中發揮其潛力至關重要,能成為變革的推動力。 PubMed DOI

人工智慧(AI)在自然語言處理的發展,特別是ChatGPT,已經改變了許多領域,包括知識評估。這種生成式AI能提升寫作效率,但也引發對資訊準確性和倫理的擔憂。在教育和科學寫作中,建立明確的使用指導方針至關重要。此外,AI對人際互動和睡眠的影響也需關注。為了有效整合AI,必須透過持續研究和公共討論來平衡其優缺點。 PubMed DOI

這篇論文探討如何透過科技實現「資訊民主化」,特別是生成式人工智慧(GenAI)在心理健康領域的應用。它回顧了資訊獲取的歷史變遷,指出GenAI技術的出現為心理健康資源提供了更好的獲取途徑,並可能改變醫療提供者與病人之間的關係。不過,將GenAI整合進心理健康領域也帶來了倫理問題和風險。論文提出了一個策略性問卷,評估AI應用的好處與風險,並主張心理健康專業人員應參與技術開發,以確保GenAI的進展既有效又符合倫理,並以病人需求為中心。 PubMed DOI

這篇綜述文章探討生成式人工智慧(AI)在心理學的影響,特別是像ChatGPT這類工具的應用。文章分析了2015至2024年間的研究,強調生成式AI在數據分析、行為建模和社交互動模擬上的優勢。它比較了傳統研究方法與AI驅動方法的效率,並討論了理論與倫理挑戰,特別是偏見問題。最後,文章展望生成式AI在心理學的未來,提出改進建議和數據隱私措施,強調對倫理問題的重視對維護研究完整性的重要性。 PubMed DOI

這篇論文探討人工智慧(AI)在醫學,特別是學術外科中的重要性,強調其在影像識別、臨床決策和行政任務的應用。大型語言模型如GPT-4和Google的Bard在文本生成上帶來變革,能協助外科醫生撰寫手稿和申請補助。不過,AI的使用也引發了偏見、透明度和智慧財產權等倫理問題。論文回顧了AI的運作、潛在偏見及其負責任使用的重要性,並提出在學術和臨床環境中應強調透明度和倫理訓練的指導方針。 PubMed DOI

大型語言模型(LLMs)徹底改變了人工智慧,特別是在生成文本方面。這些模型透過大量文本訓練,能生成連貫且具上下文的內容,應用範圍廣泛,從聊天機器人到內容創作,展現出驚人的語言理解與生成能力。它們能執行摘要、問答及創意寫作等任務,並透過微調技術針對特定需求進行客製化。隨著技術進步,LLMs 的應用也在擴展,並引發了關於倫理、偏見及社會影響的討論,標誌著人工智慧的一次重大進步。 PubMed DOI

AI 最早源自哲學和數學,1956年成為正式學科。隨著機器學習、神經網路和大數據進步,AI 現在能處理醫療、影像、語音和語言等複雜任務。AI 發展快速,大家也越來越重視如何負責任地運用它,發揮好處並解決相關問題。 PubMed DOI

美國現行法律無法有效處理生成式AI帶來的隱私、公平和福祉等風險,對AI公司責任的規範也不夠明確。作者建議建立新的「負責任AI法律框架」,納入基本價值觀、訂定安全標準,並針對AI特性設計專屬責任規則,以更主動地保障民眾權益。 PubMed DOI

生成式AI正加速新藥開發、蛋白質與基因研究,也推動個人化醫療和農業創新,像是培育更優良作物。它還促進合成生物學和永續發展。不過,資料隱私和公平性等倫理問題也要一起重視,才能確保負責任的應用。 PubMed DOI