鉴于复杂而恶意的网络攻击越来越多,网络安全是微软的首要任务。该公司正在不断更新其安全基础设施,以保护自己免受威胁,并建议其合作伙伴也这样做。 一个被忽视的方面通常是其人工智能系统的安全。微软计划通过发布一个名为Counterfit的新工具来解决这个问题。 Counterfit是微软创建的一个开源工具,用于自动化组织的AI系统的安全测试。鉴于人工智能系统在各行业的使用量很大,其最终目标是让企业对其人工智能系统的稳健性和可靠性有很高的信心。微软指出,在它调查的28个组织中,有25个认为他们没有正确的机制来保护人工智能系统,他们的安全专业人员也没有很好地处理针对它们的威胁。 Counterfit最初是一套可用于攻击AI模型的脚本。微软首先在自己的内部测试中使用它,但现在,Counterfit已经发展成为一个自动化工具,可以大规模地攻击多个AI模型。该公司表示,它已经成为自己的人工智能“红队”业务的主要工具,他们用它来执行和自动化目前正在开发和生产的人工智能服务的对抗性安全测试。 使用Counterfit的好处是,它与环境、模型和数据无关。这意味着,它可以在企业内部、边缘和云中使用,以测试任何类型的人工智能模型,这些模型依赖于几乎任何形式的输入数据,包括文本和图像。 微软表示,Counterfit对于使用Metasploit或PowerShell Empyre的安全团队来说很容易使用。它可以用于渗透测试和漏洞扫描,它还可以记录对人工智能模型的攻击,因此数据科学家可以利用其遥测技术来进一步加强其人工智能系统的安全性。 【来源:cnBeta.COM】