【微软雷德蒙研究院】对抗机器学习工业视角,Adversarial Machine Learning

2020 年 2 月 24 日 专知


基于对28个组织的采访,我们发现行业从业者没有配备战术和战略工具来保护、检测和响应对他们的机器学习(ML)系统的攻击。我们利用了访谈中的见解,并列举了在传统软件安全开发环境下保护机器学习系统的视角上的差距。我们从两个角色的角度撰写本文:开发人员/ML工程师和安全事件响应人员,他们的任务是在设计、开发和部署ML系统时保护ML系统。本文的研究目的是为了使研究者们能够在激烈竞争的ML时代对工业级软件的安全开发生命周期进行修订和修正。


地址:

https://arxiv.org/abs/2002.05646



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“AMLI” 就可以获取对抗机器学习工业视角》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

对抗机器学习(Adverserial Machine Learning)作为机器学习研究中的安全细分方向,在一定程度上保证模型的安全性
医疗中的自动机器学习和可解释性
专知
24+阅读 · 2019年4月1日
Arxiv
38+阅读 · 2020年3月10日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员