“伦理”人工智能对开源意味着什么?

作者:Glyn Moody

人工智能对开源来说既是威胁,也是机遇。

说人工智能(AI)最近备受关注是轻描淡写了。它被广泛认为是可能迎来计算领域下一个重大变革的因素,但该领域最近一个有趣的发展对开源具有特殊的意义。这关系到“伦理”人工智能的兴起。

2016 年 10 月,白宫科技政策办公室、欧洲议会法律事务委员会以及英国下议院科学技术委员会都发布了关于 如何为人工智能的未来做好准备 的报告,其中伦理问题是这些报告的重要组成部分。去年年初,《阿西洛马人工智能原则》发布,随后于 2017 年 11 月发布了《蒙特利尔人工智能负责任发展宣言》。

关于伦理人工智能可能或应该意味着什么的抽象讨论在 2018 年 3 月变得非常现实。当时披露,谷歌赢得了 五角大楼的 Maven 项目 的部分合同,该项目使用人工智能来解释空中无人机收集的大量视频图像,以便 改进后续无人机袭击的目标定位。当此事曝光后,在谷歌内部引起轩然大波。数千名员工签署了一份内部请愿书,致公司首席执行官桑达尔·皮查伊,要求他取消该项目。数百名研究人员和学者发出了 公开信支持他们,一些 谷歌员工辞职抗议

后来有消息透露,谷歌曾希望赢得价值数亿美元的进一步国防工作。然而,面对大规模抗议,谷歌管理层宣布,在目前的合同于 2019 年到期后,将不再寻求任何进一步的 Maven 项目合同。为了回应关于其偏离最初 “不作恶” 座右铭的批评,皮查伊发布了 “谷歌的人工智能:我们的原则”,尽管 有些人对此不以为然

亚马逊微软 也面临着关于如何构成对其人工智能技术的伦理使用的类似问题。但谷歌的情况有所不同,因为与五角大楼的 Maven 项目交易的关键是开源软件——谷歌的 TensorFlow

……一个用于高性能数值计算的开源软件库。其灵活的架构允许在各种平台(CPU、GPU、TPU [张量处理单元])以及从桌面到服务器集群,再到移动和边缘设备上轻松部署计算。它最初由谷歌人工智能组织内部的 Google Brain 团队的研究人员和工程师开发,对机器学习和深度学习提供强大的支持,并且灵活的数值计算核心被用于许多其他科学领域。

长期以来,人们已经接受开源项目的创建者无法阻止他们的代码被用于他们可能不同意甚至强烈谴责的目的——这就是为什么它被称为自由软件。但是,谷歌将开源人工智能工具用于与五角大楼合作,确实提出了一个新问题。“伦理”人工智能的兴起对开源世界究竟意味着什么?社区应该如何回应?

伦理人工智能为开源带来了重大机遇。“伦理”的一个重要方面是透明度。例如,《阿西洛马人工智能原则》包括以下内容

7) 失败透明度:如果人工智能系统造成损害,应该有可能确定原因。

8) 司法透明度:自主系统参与司法决策的任何行为都应提供令人满意的解释,并可由 компетентный 人类权威机构进行审计。

更广泛地说,人们正在认识到“黑盒”人工智能方法是不可接受的。如果此类系统要部署在后果可能严重且危险的领域——或许是生死攸关的问题,例如无人机袭击——独立专家必须有能力审查底层软件及其运行情况。法国英国 政府已经承诺以这种方式公开其算法。开源软件为基于透明度的伦理方法提供了天然的基础。

当前对伦理人工智能的兴趣意味着开源社区应该推动以自由软件许可证发布底层代码。尽管这超出了简单的透明度,但开源方法在每个计算领域(桌面可能除外)的显着成功,为以下论点增加了分量:这样做不仅对透明度有利,而且对效率也有利。

然而,人工智能在带来巨大机遇的同时,也对自由软件构成了真正的威胁——并非直接威胁,而是因为该领域的大部分重大突破都是由拥有广泛资源的公司取得的。他们自然对从人工智能中赚钱感兴趣,因此他们最终将其视为将带来新产品的研发工作的一部分。这与 Linux 形成对比,Linux 首先是一个社区项目,涉及与行业的广泛——且受欢迎的——合作。目前缺失的是独立于任何公司运行的大型开源人工智能项目。

已经有一些举措将开源和人工智能的世界结合在一起。例如,2018 年 3 月,Linux 基金会启动了 LF 深度学习基金会

……一个伞状组织,它将支持和维持人工智能、机器学习和深度学习领域的开源创新,同时努力使这些关键的新技术可供世界各地的开发人员和数据科学家使用。

LF 深度学习的创始成员包括 Amdocs、AT&T、B.Yond、百度、华为、诺基亚、Tech Mahindra、腾讯、Univa 和中兴通讯。通过 LF 深度学习,成员们正在努力创建一个中立空间,工具和基础设施的制造者和维护者可以在其中互动并协调他们的努力,并加速深度学习技术的广泛采用。

作为该计划的一部分,Linux 基金会还宣布了 Acumos AI

……一个平台和开源框架,可以轻松构建、共享和部署人工智能应用程序。Acumos 标准化了运行开箱即用的通用人工智能环境所需的基础设施堆栈和组件。这使数据科学家和模型训练师能够专注于他们的核心竞争力并加速创新。

这两者都是值得欢迎的步骤,但创始成员名单再次强调了该组织是如何由公司主导的——其中许多来自中国,中国正在成为该领域的领导者。这并非巧合。正如 《解读中国的 AI 梦想》 报告所解释的那样,中国政府已明确表示希望成为人工智能“超级大国”,并准备为此投入资金和精力。该国有限的隐私保护法律使事情变得更容易。因此,包括个人数据在内的大量数据可用于训练人工智能系统——这对当地研究人员来说是一个真正的福音。至关重要的是,人工智能被视为一种社会控制工具。应用包括先发制人的审查、预测性警务 以及引入 “社会信用体系”,该体系将不断监控和评估中国公民的活动,评估他们的可信度水平,并据此奖励或惩罚他们。

鉴于中国当局已公布的优先事项,当地公司开发人工智能技术不太可能在伦理问题上付出超过口头上的承诺。正如最近涉及谷歌、亚马逊和微软的事件表明的那样,西方公司是否会做得更好尚不清楚。这为开源留下了一个至关重要的角色——充当负责任的人工智能软件开发的灯塔。只有当领导者站出来提出并启动雄心勃勃的人工智能项目,并且编码社区拥抱并帮助实现这些计划时,才能实现这一目标。如果这种情况没有发生,那么 30 年来在解放软件及其用户方面所做的工作可能会因新一代运行闭源代码的神秘黑盒——以及世界——而变得毫无意义。

图片归属:Cryteria

Glyn Moody 自 1994 年以来一直撰写关于互联网的文章,自 1995 年以来一直撰写关于自由软件的文章。1997 年,他撰写了第一篇关于 GNU/Linux 和自由软件的主流专题文章,该文章发表在 Wired 上。2001 年,他的著作《反叛代码:Linux 与开源革命》出版。从那时起,他广泛撰写关于自由软件和数字权利的文章。他有一个 博客,并且活跃于社交媒体:在 Twitter 上的 @glynmoody。

加载 Disqus 评论