英国和美国,以及来自其他16个国家的国际合作伙伴,发布了安全人工智能(AI)系统发展的新指导方针。
美国网络安全和基础设施安全局(CISA)表示:“该方法优先考虑客户的安全成果所有权,拥抱激进的透明度和问责制,并建立安全设计是重中之重的组织结构。”
国家网络安全中心(NCSC)补充说,其目标是提高人工智能的网络安全水平,并帮助确保该技术以安全的方式设计、开发和部署。
该指南还建立在美国政府持续努力的基础上,通过确保新工具在公开发布前进行充分测试,来管理人工智能带来的风险。有护栏到位,以解决社会危害,如偏见和歧视,隐私问题,并为消费者建立强大的方法来识别人工智能产生的材料。
这些承诺还要求企业致力于通过漏洞奖励系统,为第三方发现和报告其人工智能系统中的漏洞提供便利,以便能够迅速发现和修复这些漏洞。
NCSC表示,最新的指导方针“帮助开发人员确保网络安全既是人工智能系统安全的必要先决条件,也是从一开始到整个开发过程中不可或缺的一部分,被称为‘安全源于设计’的方法”。
这包括安全设计、安全开发、安全部署以及安全运营和维护,涵盖了人工智能系统开发生存周期内的所有重要领域,要求组织建模其系统所面临的威胁,并保护其供应链和基础设施。
这些机构指出,其目的也是为了打击针对人工智能和机器学习(ML)系统的敌对攻击,这些攻击旨在以各种方式导致意外行为,包括影响模型的分类,允许用户执行未经授权的操作,以及提取敏感信息。
NCSC指出:“有很多方法可以达到这些效果,比如在大型语言模型(LLM)领域进行即时注入攻击,或者故意破坏训练数据或用户反馈(被称为‘数据中毒’)。”