谷歌公布AI七项原则

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

  6月8日,谷歌CEO Sundar Pichai 发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,阐述谷歌在研发和使用AI时将遵循的目标。Pichai明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器或其他以人身伤害为主要目的的技术、违反国际公约收集或使用信息的技术,以及违反人权和国际法的技术。

  Pichai在文中写道,“这些不是理论概念,而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策”。

  Pichai还表示,这些原则是谷歌和人工智能未来发展的正确基础。这种做法与2004年谷歌成立之初“创始人的信”中所提出的价值观一致。

  以下为文章全文:

  Google的AI:我们的原则

  Sundar Pichai, CEO of Google

  AI 的本质,是能够学习和适应不同情境的计算机编程技术。它不能解决所有问题,但它在改善我们生活方面具有深厚的潜能。在 Google,我们应用 AI 技术使得产品更加实用——比如,剔除垃圾邮件,让撰写邮件变得更加轻松;创造能与你自然交流的数字助手;以及能够为你筛选出有趣照片的相册。

  除了自身的产品,我们也正在使用 AI 来帮助人们解决迫在眉睫的问题。两名高中生制作了 AI 驱动的传感器来预测发生森林、草原火灾的风险。牧民正使用 AI 监测其牛群的健康状况。医生已经开始使用 AI 帮助诊断癌症并防治失明。这些明确的福祉正是 Google 投入大量资源用于 AI 技术开发,并通过开发工具和开源代码,让这一技术得以更广泛使用的原因。

  我们认识到,如此强大的技术也同样会引发该如何使用的重要问题。如何开发和应用 AI 技术,将在未来对社会产生重大的影响。作为 AI 技术的引领者之一,我们深感到责任重大,我们必须正确处理这个问题。所以今天,我们宣布七条指导我们未来工作开展的原则。这些原则不是概念,而是具体的标准,它们将积极地管理我们的研究和产品开发工作,并影响我们的业务决策。

  我们承认,这一领域正在快速发展、变化,我们将怀着谦逊的态度开展工作,承诺与来自公司内、外各方沟通交流,并愿意随着时间的推移,根据所学经验不断调整工作方式。

  AI 应用目标

  我们在评估 AI 应用时,将考虑到以下目标。我们相信 AI 应当:

  1。 造福于社会

  新技术的应用将被不断拓展并逐渐影响到整个社会。AI 的进步将对诸多领域产生变革性影响,比如医疗、安全、能源、交通、制造和娱乐等。我们考虑潜在的 AI 技术开发和应用时,将把广泛的社会经济因素考虑在内,当其可能带来的福祉远大于可见的风险和负面影响时,我们才会付诸实施。

  AI 也提高了我们理解海量内容意义的能力。我们将努力通过使用 AI 提供高质量、准确的信息,与此同时继续尊重所在国家的文化、社会和法律规范。我们也会仔细评估何时在非商业的基础上提供我们的技术。

  2。 避免制造或强化不公平的偏见

  AI 的算法和数据集能够反映、强化,或潜在减少不公平偏见。我们认识到区别公平与不公平偏见并不总是那么简单,不同的文化和社会背景也会有所差别。我们将努力避免对人们产生不公正的影响,尤其是那些与敏感特征有关的,比如种族、民族、性别、国籍、收入、性取向、生理残疾以及政治倾向或宗教信仰。

  3。 为安全而建造和测试

  我们将继续开发和应用强有力的安全和保障措施,以避免意料之外的结果产生风险危害。我们将把 AI 系统设计为适度慎重,并将努力按照 AI 安全性研究领域中的最佳实践开发。在合适的情况下,我们将在受限可控的环境中测试 AI 技术,并在部署后监测它们的运行情况。

  4。 对人负责

  我们将设计 AI 系统并为其提供恰当的机会反馈,做出相关解释和请求。我们的 AI 技术将受恰当的人类指导和控制。

  5。 纳入隐私设计原则

  我们将在 AI 技术的开发和使用中纳入我们的隐私原则。我们将提供告知与许可的机会,鼓励具有隐私保护的架构,并且在数据的使用方面提供恰当的透明度和掌控。

  6。 坚持科学卓越的高标准

  科技创新根植于科学的研究方法,以及对开放式探究、理性严谨、诚信及协作的承诺。AI 工具有潜力在诸如生物,化学,医药与环境科学等关键科研领域,开拓科学研究和知识的新领域。我们致力于在推进 AI 开发时,坚持科学卓越的高标准。

  我们将与广泛的利益相关方一起,凭借科学上的严谨性以及多学科的方式,在这一领域提升考虑周全的领导力。我们也会通过发布教学材料,最佳实践和研究,分享我们的AI知识,让更多人能够开发实用的 AI 应用。

  7。 根据这些原则提供使用

  许多技术都具备多种用途。我们将尽力限制潜在的有害应用或滥用。当我们开发和部署 AI 技术时,我们将考虑以下因素评估该技术可能的用途:

  主要目的和用途:技术与应用的主要目的以及可能的用途,包括这一方案与有害使用的相关性和可适用性

  本质与独特性:我们提供的技术是否独特还是具有更广泛的可获得性

  规模:这种技术的使用是否会产生重大影响

  Google 参与的性质:我们是提供通用工具,为客户集成工具,还是开发定制化解决方案

  我们将不会进行的 AI 应用

  在以上原则基础上,我们将不在以下领域进行 AI 的设计和部署:

  1。 导致或有可能导致整体危害的技术。若存在产生危害的实质风险,我们只会在确认其好处远远超过风险的情况下才会推进,并加入适当的安全限制。

  2。 主要目的或应用是为了导致或直接造成人身伤害的武器或其他技术。

  3。 收集或使用信息以用于违反国际公认准则的监控的技术。

  4。 其目的违背公认的国际法和人权原则的技术。

  我们想明确地告诉大家,尽管我们不会开发 AI 用于武器,我们仍然会与政府和军队在诸多其他领域合作。包括网络安全、培训、军队招募、退伍军人健康医疗、以及搜救等。这些合作非常重要,我们会主动寻求更多方式来强化与这些机构的合作,保障军方服役人员和平民的安全。

  长远的 AI

  这就是我们如何开展AI的方式。我们也知道,这个话题还有很多不同的声音。随着 AI 技术的进步,我们将与广泛的利益相关方一起,凭借科学上的严谨性以及多学科的方式,在这一领域提升考虑周全的领导力。我们将继续和大家分享我们在改进 AI 技术和实践中学到的知识。

  我们相信这些原则是我们公司以及 AI 未来发展的正确基础。这一做法和 2004 年最初的创始人公开信中公布的价值观一致。在信中我们清晰地表明了我们希望有长远的眼光,即使这意味着我们将在短期有所舍弃。这是我们当时的诺言,也是我们今日的信念。

随意打赏

谷歌ai中国中心谷歌 语音 ai谷歌ai围棋谷歌搜索引擎谷歌开源ai谷歌ai对话谷歌ai医疗谷歌ai开源谷歌语音ai谷歌ai画画
提交建议
微信扫一扫,分享给好友吧。