>科技>>正文

DARPA意图开发阻止欺骗机器学习算法的防御措施

原标题:DARPA意图开发阻止欺骗机器学习算法的防御措施

  [据军事嵌入式网站2019年2月9日报道] 美国国防先期研究计划局(DARPA)创建了保证人工智能抵御欺骗的稳健性(GARD)项目。该项目旨在开发新一代对机器学习(ML)模型对抗性欺骗攻击的防御。

目前的防御工作旨在阻止特定的、预定义的对抗性攻击,且在测试时仍然容易受到超出其设计参数的攻击。GARD寻求以不同方式接近机器学习防御——通过开发基于广泛的防御来解决特定场景中的众多可能攻击。

DARPA信息创新办公室(I2O)的项目经理Hava Siegelmann博士表示,“过去10年,研究人员一直致力于实现能够完成实际任务并使其更高效的实用机器学习。我们已从这项工作中受益,并迅速将机器学习纳入许多企业。但是,我们很少关注机器学习平台的固有漏洞——特别是在改变、破坏或欺骗这些系统方面。”他还称,“由于该技术越来越多地在我们最关键的一些基础设施中使用,因为对机器学习防御需求迫切。当处于起步阶段的攻击方法已经成熟到更具破坏性的程度时,GARD项目旨在防止在不久的将来可能发生的混乱。我们必须确保机器学习是安全的,不能被欺骗。”

GARD对对抗性人工智能的新型响应将集中于三个主要目标:

1.可防御机器学习理论基础的发展和基于它们的新防御机制的词汇;

2.在各种环境中创建和测试防御系统;

3.构建一个新的测试平台,用于表征相对于威胁场景的机器学习防御性。

通过这些相互依存的项目要素,GARD旨在创建具有严格标准的抗欺骗机器学习技术,以评估其稳健性。

GARD将探索许多潜在防御的研究方向,包括生物学。Siegelmann表示,“我们期待产生的那种广泛基于情景的防御可被看到,例如,在免疫系统中,识别攻击,赢得胜利,并记住攻击,以便在未来的交战中创造更有效的反应。”

GARD将致力于解决当前的需求,同时也将考虑未来的挑战。该项目最初将专注于最先进的基于图像的机器学习,然后发展到视频、音频和更复杂的系统——包括多传感器和多模态变化。它还将寻求解决能够在其生命周期内进行预测、决策和适应的机器学习。(工业和信息化部电子第一研究所 宋文文)返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
投诉
免费获取
今日搜狐热点
今日推荐