互联网+ 电子商务 智能家居 地理信息 高端装备 信息安全 3D打印 工业4.0 人工智能 光伏 新能源汽车 消费品 集成电路 移动支付 汽车 数据中心
中国智能网联汽车G20峰会 (2017)
当前位置:首页 > 产业动态 > 工业 > 装备制造 > 正文

目前,人类为AI制定的道德框架很失败

发布时间: 2017-11-15 00:00     来源: 36氪

   前不久,一个名为AI Now的新研究机构发布了报告呼吁,要进一步提高人工智能对社会影响的关注度。在这个报告发布之后,Wired记者Scott Rosenberg对该研究机构的创始人之一Kate Crawford进行了访谈。进一步挖掘了该报告背后传递的想法。Kate Crawford认为,在人工智能成为一种灾难之前,必须要将其安放好。

目前,人类为 AI 制定的道德框架很失败
  Kate Crawford,AI Now创始人之一。
  关于人工智能的道德问题,并不乏报道。但大多数都是轻量级的——充满了关于“公私合作”、关于把人放在第一位之类的陈词滥调。他们不承认人工智能创造出的社会困境有多棘手,也不承认解开这些难题有多么困难。但AI Now研究所(一家位于纽约大学的新研究机构)的新报告并非如此。报告指出,科技行业正以一种不容置疑的态势,竞相使用人工智能来重塑社会,这并不会带来任何可靠和公平的结果。
  两周前发布的这份报告是由Kate Crawford和Meredith Whittaker完成,他们是AI Now的联合创始人。Crawford、Whittaker和他们的合作者在一个密集但易于获得的35页报告中列出了研究议程和政策路线图。他们的结论并不是胡说八道:他们说,到目前为止,我们将人工智能保持在道德标准上的努力是失败的。
  他们写道:“人工智能的新伦理框架需要超越个人责任,在设计和使用人工智能的过程中,让强大的工业、政府和军事利益承担责任。”当科技巨头开发人工智能产品时,“用户同意、隐私和透明度往往被忽视,而只专注于聚合数据,为利润驱动的商业模式服务……”与此同时,在警务、教育、医疗和其他环境中引入人工智能系统,在这些环境中,算法的失误可能会毁掉一个人的生活。有什么我们可以做的吗?本周,Crawford与我们一起讨论了为什么人工智能的道德规范仍然一团糟,以及采取什么样的实际步骤可能改变这一局面。
  Scott Rosenberg(下文略):在新报告的最后,你直截了地方说,“当前为人工智能的道德规范制定的框架正在失败。”这听起来很可怕。
  Kate Crawford(下文略):很多人都在谈论我们是如何提出这个领域的道德规范的。但仍然没有一个能够落地的。包括IEEE,Asilomar,以及其他一些组织都带头做了很多的工作。我们现在看到的是高层次原则之间的鸿沟,和大规模机器学习系统日常开发的实际情况。这显然是非常重要且真实存在的。
  我们阅读了过去两年出版的所有关于人工智能和算法系统的道德准则。然后我们研究了理想和实际情况之间的区别。现在最迫切需要的是,这些道德准则伴随着非常强大的问责机制。我们可以说,我们希望人工智能系统遵循最高的道德原则,但我们必须确保有某种利害关系。通常,当我们谈论道德规范时,我们会忘记谈论权力。人们往往会有最好的意图。但我们看到的是,人们缺乏对真正的权力不对称如何影响着不同群体的思考。
  这份报告透露出来的基础信息似乎是,我们可能发展得太快了,以至于我们没有花时间来做这件事。
  我可能会用不同的方式来表达。时间是一个因素,但优先级也是一个因素。如果我们花很多的钱,聘请了许多人去思考和研究这些体系带来的广泛的社会和经济影响,那么我们就会有一个更强大的基础。实际上,谁在创造行业标准说,好,这是你需要经过的基本的预发布试验系统;这是你应该如何公开展示你怎样在不同类型的人群中测试你的系统;这些是你应该如何准备在你的系统或产品背后建立的信心界限?这些都是我们在药物测试和其他关键任务系统中所使用的东西,即使是在城市的水安全问题上也是如此。
  但只有当我们看到它们失败时,例如在像弗林特、密歇根这样的地方,我们才意识到我们对这些基础设施的依赖程度,对所有人来说都是安全的。就人工智能而言,我们还没有这些系统。我们需要训练人们去测试人工智能系统,并创造出这些安全与公平的机制。这是我们现在可以做的事情。在将这些系统部署到人类身上之前,我们需要在安全与公平的优先次序上增加一些紧迫感。
  在人工智能成为灾难之前,你想要把它安放好。
  我认为我们必须这样做。
  目前科技行业的格局是由几家大公司主导的。为什么会这样?
  这是核心问题。作为这个领域的研究人员,我会去了解我所知道的工具。实际上,我们可以通过提高研究的水平和严谨程度来做大量的工作。我们认为,我们可以做出改变:在这些系统的设计中,谁能获得一席之地?目前,它是由工程和计算机科学专家推动的,他们设计的系统涉及从刑事司法、医疗保健到教育等方方面面。但是,就像我们不希望联邦法官优化神经网络一样,我们也不应该指望一个工程师能理解刑事司法系统的运行机制。
  因此,我们有一个非常强烈的建议,即人工智能行业应该从计算机科学和工程以外的领域聘请专家,并确保这些人拥有决策权。如果你已经设计了一个系统,而你已经准备好部署它,那么仅仅在最后引入咨询顾问是远远不够的。如果你不通过刑事司法体系或预见性监管的方式来考虑系统偏见的传播,那么很有可能的是,你正在设计一个基于历史数据的系统,将会使这些偏见延续下去。
  解决这一问题不仅仅是技术上的问题。这不是仅仅通过调整数字来试图消除系统的不平等和偏见的问题。
  这是一种“内部重组”的计划。但是现在,情况看起来更像是研究人员坐在外面,他们得到了一些数据,然后他们得出了这些爆炸性的研究结果表明事情有多糟糕。这可能会引起公众的关注,并赢得媒体的报道,但你是如何从内部改变事物的呢?
  当然,当我们思考人工智能行业的数据能力和来源时,这并不难。我们应该把这看作是一个底线安全问题。你会影响一个人获得工作,摆脱监狱,进入大学等方面的能力。至少,我们应该对这些制度如何变得更公平、以及这些决策对人们生活的重要性有深入的了解。
  我不认为这是个很大的要求。我认为,这些系统中最负责任的生产商确实希望它们能很好地工作。这是一个开始用强有力的研究和强有力的安全门槛来支持这些良好意愿的问题。这并不超出我们的能力范围。如果人工智能将以如此快的速度进入我们的核心社会机构,我认为这是绝对必要的。
  你是微软研究院的成员,而Meredith Whittaker则隶属于谷歌。你难道不能走到合适的会议上说,“我们为什么不做这个?”
  毫无疑问,我和Meredith在公司都有一席之地,这就是我们会提出这些建议的一部分原因。我们知道这些系统是如何建立起来的,我们可以明白一些积极的步骤,可以让它们变得更安全、更公平。这也是为什么我们认为在一个独立的环境中工作是非常重要的,我们也可以在科技公司之外做研究,帮助这些系统尽可能地感受到它们将要进入的复杂的社会领域。
  我们的报告花了六个月的时间,这不仅仅是一群人说,嘿,这是我们的想法和建议。它来自于与顶级研究者的深入讨论。这些建议是可以实现的,但并不容易。这也不是像人们扔烟雾弹,说:“一切都很好,我们已经处理好了。”我们认为,干预是必要的,而且是紧急的。
  在过去的18个月里,我们看到人们对这些围绕着偏见和机器学习的问题兴趣激增,但人们通常只把它当作纯粹的技术问题来理解。而不是认为,要理解这一点,我们需要拓宽视野。想想我们是如何理解这些系统偏见的,以及如果我们没有意识到这一点,这将会一直延续下去。
  五年前,有一种说法认为,数据是中立的。但事实证明,情况并非如此。但现在有了新的说法——数据可以中立化。这两个说法都不正确。数据将永远铭记历史的印记。在这些数据集里,记载着人类的历史。因此,如果我们想要用它来训练一个系统、提出建议或自主做出决定,我们需要深刻地意识到历史是如何运作的。这比纯粹的技术问题要大得多。
  说到历史,在奥巴马执政的末期,这种研究得到了政府的大量支持。既然特朗普政府似乎不感兴趣,你现在对这个项目有多乐观?
  政府绝对应该密切关注这些问题,然而,这不仅仅是美国的问题。目前欧洲正在发生的事情至关重要——印度和中国也一样。欧盟严格的新数据隐私规定将于明年5月开始实施。我们将继续做我们认为会对未来指导政策产生影响的研究。只要我们的决定什么时候、在什么地方被采纳,这远高于我们的付出。但我们现在能做的是尽最大的努力,这样当人们做出关于系统安全、权利和自由,或者劳动和自动化的决定时,他们就可以基于强有力的实证研究来制定政策。
  你还需呼吁在创造人工智能的团队中有更大的多样性,而不仅仅是在专业领域。
  它远比招聘更重要——我们必须谈论职场文化,我们必须谈谈这些关于包容性的问题现在是多么困难。尤其是在James Damore的备忘录之后,我们需要做多少工作,从来都不是那么明显。如果你的办公室都是同质的,他们都有相同的生活经历和教育背景,而且他们都很富有,他们对世界的看法将会反映他们已经知道的事情。当我们在制造能够影响如此众多不同人群的系统时,这可能是危险的。因此,我们认为,多样性和包容性至关重要,而且这也不仅仅是一组在合适的时间被拿出来说和调用的词汇。

收藏