不做AI恶魔!谷歌发布AI七原则,将终止与美国防部Maven项目合作

【导读】Google内部早前经历了一场抗议风波,源于谷歌与五角大楼的一次秘密合作。事件披露后掀起了谷歌内部和社会各界的一场巨大风浪,今天,谷歌CEO终于表明了态度,发布了谷歌AI七原则。谷歌表示将终止与美国防部Project Maven的合作,但仍将继续与各国政府和军队在许多其他领域开展合作。


作者 | Will Knight, Sundar Pichai

编译 | 专知

翻译 | Xiaowen

 

谷歌创建了一套人工智能道德准则,禁止开发自主武器。

 

这一声明发生在一场大规模的内部抗议之后。这场内部抗议的起因是Google秘密与美国国防部合作Project Maven项目,这项在内部被称为Maven项目的目标是提高无人机打击的准确性等。

 

几千名的员工共同签署了一封公开信表示抗议,抵制五角大楼AI项目Project Maven。上个月,十几名谷歌员工因此事愤而辞职。

 

这场骚动引发了许多人对科技如何帮助未来战争自动化的担忧。然而,情况并不简单。

 

人工智能可以帮助使某些武器系统更安全、更不容易出错。人工智能在国防工业中也有许多应用,谷歌不想否认它的云AI技术巨大的潜在市场。

 

谷歌CEO Sundar Pichai在今天的一篇博客文章中宣布了这一新规则。它提出了七条指导谷歌使用人工智能的原则,指出它应该有利于社会;避免算法偏见;尊重隐私;接受安全测试;对公众负责;保持科学严谨性。

 

Pichai也不厌其烦地声明,谷歌不会允许其人工智能技术被用于开发任何可能造成伤害的东西,包括“武器或其他技术,其主要目的或实施目的是造成或直接伤害他人”。

 

Pichai说,谷歌还将避免开发违反国际公认的人权准则的监视技术,或任何违反国际法的技术。

 

人工智能正在迅速发展,谷歌也遇到了其他涉及人工智能项目的问题。比如,谷歌的一种计算机视觉系统反复错误地将非洲人视为大猩猩。今年4月,谷歌放弃了“不要作恶(Don’t be evil)”的座右铭,但保留了一种理想主义的文化。

 

人工智能的军事用途可能会越来越有争议,因为这项技术正在以新的方式被采用,企业也在寻求尽可能广泛地销售他们的云人工智能技术。

 

机器学习和人工智能在智能国防工作中将不可避免地变得更加重要。包括亚马逊(Amazon)和微软(Microsoft)在内的其他美国科技公司,已经与五角大楼竞购了一项价值数十亿美元的云计算项目。

 

经过这场风波,最终,谷歌云CEO Diane Greene 在上周五谷歌员工早会上宣布,Project Maven合同将于2019年到期,此后不再续签。但谷歌方面表示,虽然他们不开发用于武器的人工智能,但仍将继续与各国政府和军队在许多其他领域开展合作,包括网络安全、培训、征兵、退伍军人的医疗保健以及搜索和救援。这些合作非常重要,谷歌将积极寻找更多途径,加强这些组织的关键工作,确保服役人员和平民的安全。

 

以下是Google CEO Sundar Pichai正式发表的声明:《AI at Google: our principles》



从本质上讲,人工智能是一种能学习和适应的计算机编程。它不能解决所有问题,但它改善我们生活的潜力是深远的。在谷歌,我们使用AI让产品变得更有用-从垃圾邮件分类,到你可以自然交谈的数字助理,以及让你享受乐趣的照片。

 

除了我们的产品之外,我们还使用AI来帮助人们解决紧急问题。一对高中生正在建造人工智能传感器来预测野生动物的风险。农民们正在使用人工智能来监测他们的牲畜的健康状况。医生们开始使用AI来帮助诊断癌症和预防失明。这些明显的好处就是为什么谷歌在人工智能的研究和开发上投入了大量资金,并通过我们的工具和开源代码使其他人可以广泛使用AI技术。

 

我们认识到,这种强大的技术对它的使用提出了同样重要的问题。人工智能的发展和使用将对未来的社会产生重大影响。作为人工智能的领导者,我们深感有责任纠正这一问题。因此,今天,我们宣布七项原则来指导我们的工作。这些不是理论概念,而是具体的标准。这将积极管理我们的研究和产品开发,并将影响我们的业务决策。

 

我们承认,这一领域是动态的、不断演变的,我们将以谦逊的态度对待我们的工作,致力于内部和外部的参与,并愿意随着时间的推移调整我们的做法。

 

AI应用的目标




除上述目标外,我们不会在下列应用范围内设计或部署AI:


1、对社会有益

新技术的扩大对整个社会的影响越来越大。人工智能技术的进步将在医疗、安全、能源、交通、制造业和娱乐等广泛领域产生变革性影响。在我们考虑人工智能技术的潜在发展和使用时,我们将考虑到广泛的社会和经济因素,并将在我们认为总体可能带来的好处远远超过可预见的风险和不利因素的情况下进行。

 

AI还提高了我们理解大规模内容含义的能力。我们将努力利用人工智能提供高质量和准确的信息,同时继续尊重我们经营的国家的文化、社会和法律规范。我们将继续深思熟虑地评估何时在非商业基础上提供我们的技术。

 

2、避免制造或加强不公平的偏见

AI算法和数据集可以反映、增强或减少不公平的偏差。我们认识到,将公平与不公平的偏见区分开来并不总是简单的,在不同的文化和社会中是不同的。我们将寻求避免对人的不公正影响,特别是与种族、族裔、性别、国籍、收入、性取向、能力和政治或宗教信仰等敏感特性有关的人。

 

3、建立并测试安全性

我们将继续发展和应用强有力的安全保障措施,以避免产生危害的意外后果。我们将把我们的人工智能系统设计得适当谨慎,并根据人工智能安全研究中的最佳做法加以开发。在适当情况下,我们将在受限环境中测试人工智能技术,并在部署后对其运行情况进行监测。

 

4、对人负责

我们将设计可以提供适当的反馈,相关的解释和说明的人工智能系统。我们的人工智能技术将受到适当的人的指导和控制。

5、纳入隐私设计原则

我们会把我们的私隐原则纳入AI技术的发展和使用中,我们会给予通知和同意的机会,鼓励有隐私保障的架构,并对资料的使用提供适当的透明度和管制。

 

6、坚持科学卓越的高标准

技术创新植根于科学方法和公开探究、知识严谨、正直和协作的承诺。人工智能工具有潜力在生物学、化学、医学和环境科学等关键领域开启科学研究和知识的新领域。我们在努力推动人工智能发展时,追求高标准的科学卓越。

 

我们将与一系列利益相关者合作,以科学严谨和多学科的方法促进这一领域的领导力。我们将通过发布教育材料、最佳实践和研究来负责任地共享AI知识,使更多的人能够开发有用的人工智能应用。

 

7、可用户符合这些原则的用途

许多技术有多种用途。我们将努力限制潜在的有害或滥用的应用。当我们开发和部署人工智能技术时,我们将根据以下因素评估可能的用途:

  • 主要目的和用途:技术和应用程序的主要用途和可能的应用,包括解决方案与有害用途的关系或适应程度。

  • 性质与独特性:我们提供的技术是独一无二的还是普遍可用的

  • 规模:这项技术的使用是否会产生重大影响?

  • 谷歌的参与:我们是提供通用工具,为客户集成工具,还是开发自定义解决方案。

 

我们不会继续的AI应用




除上述目标外,我们不会在下列应用范围内设计或部署AI:

1. 造成或可能造成整体伤害的技术。在存在重大损害风险的情况下,只有在我们认为利益远远大于风险的情况下,我们才会着手进行,并将纳入适当的安全限制。


2. 其主要目的或实施目的是造成或直接助长对人的伤害的武器或其他技术。


3. 收集或利用信息进行违反国际公认规范的技术。


4. 其目的违反广泛接受的国际法和人权原则的技术

 

我们要明确的是,虽然我们不开发用于武器的人工智能,但我们将继续与各国政府和军队在许多其他领域开展合作,包括网络安全、培训、征兵、退伍军人的医疗保健以及搜索和救援。这些合作非常重要,我们将积极寻找更多途径,加强这些组织的关键工作,确保服役人员和平民的安全。

 

长期的人工智能




虽然我们选择这样应用人工智能,但我们知道在这场讨论中仍有很多不一样的声音。随着人工智能技术的进步,我们将与一系列利益相关者合作,利用科学、严谨和多学科的方法,促进这一领域的领导力。我们将继续分享我们改进人工智能技术和实践的经验。

 

我们相信这些原则是我们公司和AI未来发展的正确基础。这种方法与2004年我们最初的创始人信中提出的价值观是一致的。我们在信中明确表示,我们打算采取长远的发展,即使这意味着进行短期的利弊权衡。我们当时说过,现在我们终也相信。


原文地址:https://www.blog.google/topics/ai/ai-principles/

-END-

专 · 知

人工智能领域主题知识资料查看与加入专知人工智能服务群

【专知AI服务计划】专知AI知识技术服务会员群加入人工智能领域26个主题知识资料全集获取欢迎微信扫一扫加入专知人工智能知识星球群,获取专业知识教程视频资料和与专家交流咨询


请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料

请加专知小助手微信(扫一扫如下二维码添加),加入专知主题群(请备注主题类型:AI、NLP、CV、 KG等)交流~

关注专知公众号,获取人工智能的专业知识!

点击“阅读原文”,使用专知

展开全文
Top
微信扫码咨询专知VIP会员