谷歌 CEO 公布 AI 七原则 但继续与美国军方合作

针对此前不断发酵的与美国军方合作IAI技术应用事件,今天,谷歌CEO桑达尔•皮查伊(Sundar Pichai) 发表了题为《AI at Google: our principles》的署名文章,列出谷歌发展AI的七项原则,阐述了谷歌在研发和使用AI时将遵循的目标。Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。但是,谷歌并不会终止与美军的合作。

去年秋天,谷歌与美国国防部接洽,并开始秘密合作Project Maven项目,根据双方协议,谷歌会为美国军方的无人机提供AI技术。

据悉,五角大楼项目「Project Maven」主要应用深度学习计算机视觉技术,旨在帮助国防部门从图像和视频中提取值得注意的对象。该项目是在2017 年4 月由时任副国防部长Bob Work 在一份备忘录中首次披露的。

一贯以“不作恶”为原则的谷歌,在有侵犯隐私、违背伦理的风险下,是否应该接下巨额合同?此事引发了谷歌几千名员工联名上书桑达尔•皮查伊,集体抵制谷歌参与一个旨在提高无人机打击能力的项目。联名信中写到,“我们认为谷歌不应该卷入战争”,并要求谷歌宣布永远不会“发展战争技术”。

此事发酵了很长时间,直到上周五,谷歌云CEO Diane Greene 在上周五谷歌员工早会上宣布,Project Maven合同将于2019年到期,此后不再续签。

今天,桑达尔•皮查伊通过官方渠道发布了名为《AI at Google: our principles》的文章,列出了谷歌发展AI的7项原则,阐述了日后产品研发过程中的直到思想,和原则对业务决策的影响。

 

以下为桑达尔•皮查伊署名的原文(翻译):

AI的核心是可以学习和适应的编程计算。它不能解决所有的问题,但是在提升我们生活质量上有很大潜力、意义深远。在谷歌,我们利用AI使产品更有用,从在邮箱中防止垃圾邮件刷屏,到可以自然对话的语音助手,再到能能突出有趣的部分让你体验更好的照片应用。

在产品之外,我们利用AI帮助人们解决紧急的问题。一对高中生做出了AI驱动的传感器以预测野外火灾;农民利用AI检测牧群的健康;医生开始利用AI检测癌症、预防失明。这些显而易见的益处就是谷歌在AI领域大力研发的初衷,人们通过我们的工具和开源代码广泛地使用AI技术。

我们意识到,这样有力的技术在应用中引发了同等强烈的讨论。AI的发展与应用将在未来多年对我们的社会产生重大的影响。作为AI领域的领导者,我们深感责任在肩。所以今天,我们宣布7项原则来指导我们今后的工作。这里没有理论概念,都是会主导我们的产品研发和影响商业决策的,实实在在的标准。

我们深知AI领域是不断变化和发展的,无论对内对外,我们都会在工作中保持谦逊,并愿意随着时间推移调整我们的策略。

AI应用的目标

我们将根据以下的目标来评估AI技术的应用,我们相信AI应该:

1、对社会有益

新技术对社会的渗透日渐深远,AI的爆发会对所有的领域引发影响,包括健康、安防、能源、运输、制造和娱乐在内的诸多产业。对于AI的潜在发展和应用,我们会考虑各种社会和经济因素,并在实质性的益处大于可预见的风险的前提下保持前行。

AI也提升了我们的理解能力,我们将继续努力,利用AI提供高质量、准确的信息,在尊重文化、社会、法律道德的框架下运营。同时,我们也将评估何时在非商业场景应用我们的技术。

2、避免制造或加强不公平的偏见

AI算法和数据集可以反映、加强或减少不公平的偏见。我们认识到区分公平与不公平的偏见并不容易,它因文化与社会环境而异。我们力求避免对人们造成不公平的影响,尤其是与种族、民族、性别、国际、收入、性取向、能力、政治或宗教信仰等敏感特征有关的人们。

3、为安全而建立并经受考验

我们会继续发展和应用强有力的安防措施,以避免造成有危害的意外结果。我们会小心地设计我们的AI系统,并寻求AI安防研究领域的最佳实践。适当的情况下,我们会在受限的环境下测试我们的AI系统并在部署后监控运行。

4、对用户负责

我们会设计提供反馈、请求和解释的AI系统,我们的AI技术也会接受适当的人类调控。

5、纳入隐私设计原则

在发展和应用AI技术的时候我们会纳入隐私原则,我们将提供通知和同意,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。

6、鼓励科技美德的高标准

技术创新根植于科学的方法、开放式的调研、严谨的学术、正直的品格和通力的合作。AI工具有潜力开拓科学研究和重大领域的新领域,包括生物、滑雪、医药和环境科学。在AI发展过程中我们渴望科学美德的高标准。

我们将在AI领域与很多相关者合作,以科学严谨和多学科的方式来全面引领领域发展。我们将通过推出教育材料,最佳实践案例和研究,负责任地分享人工智能知识,使更多人能够开发有用的人工智能应用。

7、适用这些原则的应用

很多技术都有很多的应用。我们将努力限制技术的有害应用或滥用。随着我们开发和部署AI技术,我们将根据以下因素评估用途。

  1. 初衷与用途:技术的应用,也包括了其解决方案与被滥用可能的相关性
  2. 性质与独特性:我们是提供独特的技术还是更普遍的技术
  3. 规模:该技术的使用是否会产生重大影响
  4. 谷歌的参与:我们是提供通用工具,为客户集成工具,还是开发自定义解决方案

哪些AI应用我们不追求

除了上述目标,我们不会在以下应用领域设计或部署AI:

  1. 造成或可能造成伤害的技术:在有风险隐患的前提下,我们只会在我们认为益处远远大于风险的时候继续,并将纳入适当的安全限制。
  2. 武器或其他技术:即主要目的或实施是造成或直接促进对人们的伤害的技术。
  3. 收集或使用信息进行监视的技术:即违反国际公认的规范的技术。
  4. 违反普遍接受的国际法和人权原则的技术。

我们要明确的是,我们没有开发用于武器的AI,但我们将继续与其他许多领域的政府和军方合作。其中包括网络安全、培训、征兵、退伍军人医疗、搜索和救援。这些合作很重要,我们将积极寻找更多的方法来加强这些组织的关键工作,并确保服务人员和平民的安全。

长期的人工智能

虽然这是我们选择与AI打交道的方式,但我们理解很多其他的观点。随着人工智能技术的发展,我们将与一系列利益相关方合作,在这一领域推广有思想的领导力,采用科学严谨、多学科的方法。我们将继续分享我们在改进人工智能技术和实践方面的经验。

我们相信这些原则是我们公司和AI未来发展的正确基础。这种做法与2004年我们最初的《创始人的信》中提出的价值观是一致的。信中我们明确表示过,打算从长远的角度出发,即使这意味着要做出短期的权衡。这一理念我们当时说过,现在我们更加相信。

 

原文地址:https://www.blog.google/topics/ai/ai-principles/

稿源:环球网,封面源自网络;

谷歌 CEO 公布 AI 七原则 但继续与美国军方合作

© 版权声明
THE END
喜欢就支持一下吧
点赞0
分享
评论 抢沙发

请登录后发表评论