科技應用 人工智慧技術 人工智慧系統 系統開發指引 美國、英國聯合釋出全球首個 AI 安全標準《安全AI系統開發指引》 《安全AI系統開發指引》強調AI的安全性、透明度和責任,要確保AI技術的安全開發和應用,減少資安風險。 美國網路安全暨基礎架構安全管理署 (CISA)與英國國家網路安全中心 (NCSC)共同釋出首個針對全球人工智慧制定安全標準《安全AI系統開發指引》 (Guidelines for Secure AI System Development),標榜從設計階段提高系統安全,藉此避免可能的資安風險發生。 《安全AI系統開發指引》由美國、英國、法國、德國、日本、韓國、新加坡在內18個國家,以及微軟、Google、OpenAI、Anthropic、Scale AI等業者參與制訂,強調提供人工智慧技術開發 Mash Yang 1 年前