原始文章

美國現行法律無法有效處理生成式AI帶來的隱私、公平和福祉等風險,對AI公司責任的規範也不夠明確。作者建議建立新的「負責任AI法律框架」,納入基本價值觀、訂定安全標準,並針對AI特性設計專屬責任規則,以更主動地保障民眾權益。 PubMed DOI


站上相關主題文章列表

生成式人工智慧(GenAI)能創造原創內容,模仿人類思考,對醫療保健等領域影響深遠。不過,它也帶來網路安全的隱憂,如數據隱私、數據中毒、偏見及不準確輸出等問題。為了降低這些風險,建議採取風險緩解策略,強化GenAI的網路安全。此外,了解GenAI的複雜性與風險,對於在醫療產業中發揮其潛力至關重要,能成為變革的推動力。 PubMed DOI

人工智慧(AI)發展迅速,尤其是大型語言模型的應用。雖然AI能提升工作效率,但也帶來工人面臨的風險,特別是在工業機器人和算法管理普及的情況下。為了應對這些挑戰,政府和企業提出了設計和使用可信賴、具倫理的AI的指導方針。職業安全與健康專業人士需專注於管理這些潛在風險,並提出五項風險管理策略,以確保工作場所的AI技術能最大化好處,並減少對工人的傷害。 PubMed DOI

這篇論文探討如何透過科技實現「資訊民主化」,特別是生成式人工智慧(GenAI)在心理健康領域的應用。它回顧了資訊獲取的歷史變遷,指出GenAI技術的出現為心理健康資源提供了更好的獲取途徑,並可能改變醫療提供者與病人之間的關係。不過,將GenAI整合進心理健康領域也帶來了倫理問題和風險。論文提出了一個策略性問卷,評估AI應用的好處與風險,並主張心理健康專業人員應參與技術開發,以確保GenAI的進展既有效又符合倫理,並以病人需求為中心。 PubMed DOI

生成式人工智慧(AI)在醫療保健中有潛力提升診斷準確性和個性化治療,但其快速且未受監管的使用引發了多項倫理問題。主要問題包括AI可能產生誤導性資訊,導致誤診,強調了醫師監督的重要性。此外,許多大型語言模型缺乏透明度,可能削弱病人和醫療提供者的信任。AI的監管不足也使得病人數據安全和合成數據的有效性成為挑戰。為確保AI的安全使用,需建立嚴格的數據安全標準和跨學科的監督機制,以保障病人的安全和信任。 PubMed DOI

將大型語言模型(LLMs)整合進電子健康紀錄(EHRs)中,雖然能提升數據分析和病患照護,但也帶來隱私、法律及操作上的挑戰。主要問題包括病患未經同意的數據使用、缺乏監管、AI醫療失誤責任不明、數據偏見及重用風險。為了保護病患,特別是脆弱族群,臨床醫師應推動病患教育、倫理實踐及健全監督,確保LLMs的使用既安全又有效。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,特別是大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能被用來製造假新聞或操控輿論;模型中的偏見可能導致不公平對待某些群體;隱私問題則涉及敏感資訊的洩露;過度依賴LLMs可能使使用者做出不良決策。 為了應對這些挑戰,需實施強有力的安全措施,並促進開發者、政策制定者和倫理學家的合作,以確保LLMs能以有益和倫理的方式服務人類。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,尤其是面對大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能削弱公眾對媒體的信任;偏見問題,因訓練數據可能不具代表性;隱私問題,若數據中含有個人資訊;以及過度依賴,可能影響批判性思維。 為了應對這些挑戰,開發和部署LLMs時必須重視安全與倫理,並促進研究人員、政策制定者和業界的合作,確保技術能服務於更大公益。 PubMed DOI

將大型語言模型和生成式人工智慧應用於醫療領域,帶來新的法律風險,主要包括算法偏見和數據安全問題,可能侵犯個人權益。此外,醫療數據的管理和商業化也引發所有權爭議。隨著人工智慧的深入應用,醫療傷害的責任判定變得更複雜。為應對這些挑戰,需實施算法審查、加強數據管理、明確數據所有權及建立授權協議,並根據具體過失公平分配責任。 PubMed DOI

這篇評論探討生成式AI和大型語言模型如何協助保護像能源、水資源、運輸等重要基礎設施,免於網路攻擊。內容涵蓋信任、隱私、韌性等挑戰,並回顧AI資安表現的評估標準,也討論Agentic AI主動防禦的應用,最後提出整合AI強化資安的發展方向。 PubMed DOI

這篇論文批評現有讓 AI 對齊人類價值的方法(像 RLHF),認為只追求「有幫助、無害、誠實」不夠全面,甚至會互相衝突。作者強調,AI 安全不能只靠技術,還要結合倫理、制度和政治等社會層面來考量。 PubMed DOI