原始文章

美國現行法律無法有效處理生成式AI帶來的隱私、公平和福祉等風險,對AI公司責任的規範也不夠明確。作者建議建立新的「負責任AI法律框架」,納入基本價值觀、訂定安全標準,並針對AI特性設計專屬責任規則,以更主動地保障民眾權益。 PubMed DOI


站上相關主題文章列表

人工智慧(AI)發展迅速,尤其是大型語言模型的應用。雖然AI能提升工作效率,但也帶來工人面臨的風險,特別是在工業機器人和算法管理普及的情況下。為了應對這些挑戰,政府和企業提出了設計和使用可信賴、具倫理的AI的指導方針。職業安全與健康專業人士需專注於管理這些潛在風險,並提出五項風險管理策略,以確保工作場所的AI技術能最大化好處,並減少對工人的傷害。 PubMed DOI

將大型語言模型(LLMs)整合進電子健康紀錄(EHRs)中,雖然能提升數據分析和病患照護,但也帶來隱私、法律及操作上的挑戰。主要問題包括病患未經同意的數據使用、缺乏監管、AI醫療失誤責任不明、數據偏見及重用風險。為了保護病患,特別是脆弱族群,臨床醫師應推動病患教育、倫理實踐及健全監督,確保LLMs的使用既安全又有效。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,特別是大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能被用來製造假新聞或操控輿論;模型中的偏見可能導致不公平對待某些群體;隱私問題則涉及敏感資訊的洩露;過度依賴LLMs可能使使用者做出不良決策。 為了應對這些挑戰,需實施強有力的安全措施,並促進開發者、政策制定者和倫理學家的合作,以確保LLMs能以有益和倫理的方式服務人類。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,尤其是面對大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能削弱公眾對媒體的信任;偏見問題,因訓練數據可能不具代表性;隱私問題,若數據中含有個人資訊;以及過度依賴,可能影響批判性思維。 為了應對這些挑戰,開發和部署LLMs時必須重視安全與倫理,並促進研究人員、政策制定者和業界的合作,確保技術能服務於更大公益。 PubMed DOI

人工智慧(AI)正在改變醫療保健,但也帶來了倫理和法規挑戰。本研究旨在建立一個可信賴的AI框架,強調透明度和公平性,並提供可行策略以在臨床中實施。透過文獻回顧,發現目前AI治理存在缺口,提出了適應性監管框架和可量化的可信度指標。研究強調多方參與和全球合作的重要性,以確保AI創新能解決醫療需求。實現可信賴的AI需要技術進步、倫理保障和持續合作,促進負責任的創新並提升病人結果。 PubMed DOI

將大型語言模型和生成式人工智慧應用於醫療領域,帶來新的法律風險,主要包括算法偏見和數據安全問題,可能侵犯個人權益。此外,醫療數據的管理和商業化也引發所有權爭議。隨著人工智慧的深入應用,醫療傷害的責任判定變得更複雜。為應對這些挑戰,需實施算法審查、加強數據管理、明確數據所有權及建立授權協議,並根據具體過失公平分配責任。 PubMed DOI

這篇評論探討生成式AI和大型語言模型如何協助保護像能源、水資源、運輸等重要基礎設施,免於網路攻擊。內容涵蓋信任、隱私、韌性等挑戰,並回顧AI資安表現的評估標準,也討論Agentic AI主動防禦的應用,最後提出整合AI強化資安的發展方向。 PubMed DOI

這篇論文批評現有讓 AI 對齊人類價值的方法(像 RLHF),認為只追求「有幫助、無害、誠實」不夠全面,甚至會互相衝突。作者強調,AI 安全不能只靠技術,還要結合倫理、制度和政治等社會層面來考量。 PubMed DOI

AI技術發展迅速,現有法規難以跟上,特別是在生技製藥這種高度管制產業,嚴格規範反而可能阻礙創新。本文回顧現行法規,強調需為AI醫療產品建立專屬法規,並提出混合式監管評估方法,藉由案例說明,盼兼顧創新與安全。 PubMed DOI

GPT-4等生成式AI能提升臨床效率,尤其在複雜照護上,但因推理過程不透明,容易引發安全疑慮。這在精神健康照護特別重要,因為該領域有獨特需求。作者提出CRITiCS架構,強調醫師需持續參與並理解AI推理,同時呼籲建立AI負責任使用的共識。 PubMed DOI