人工智能面临的最大挑战不是技术?

    (图片来源: Alamy)

    人工智能如今随处可见,它已经扎根于我们的生活。人工智能以这样或那样的方式触及我们生活的大多数方面,从在网上决定购买什么书籍或机票,到我们的求职申请是否成功,再到我们是否获得了一笔银行贷款,甚至罹患癌症后要接受何种治疗方法,都离不开它。

    所有这些事情——甚至包括其他更多的事情——现在都可以由复杂的软件系统以基本上全自动的方式来决定。人工智能在过去几年当中实现的巨大进步相当引人注目,它有可能会在很多方面让我们的生活变得更加美好。

    在刚刚过去的几年中,人工智能的崛起已经成为不可避免的趋势。大量的资金被投入到人工智能初创公司中。许多现有的科技公司——包括亚马逊、脸书和微软在内的一些巨头——都开设了新的研究实验室。毫不夸张地说,现在软件就意味着人工智能。

    人工智能已经在多项实践活动中证明了自己——从给照片贴标签到诊断疾病。有人预测它带来的巨变堪比互联网,甚至更大。我们询问了一组技术专家,这个人工智能无处不在的快速变化的世界对人类来说意味着什么?值得注意的是,他们当中几乎所有人的反应都围绕着道德问题。

    谷歌的研究总监、机器学习领域的先驱彼得·诺维格(Peter Norvig)说,受数据驱动的人工智能技术是该公司最近取得的众多胜利成果背后的推动力,现在关键的问题是找出确保这些新系统让整个社会得到改善的方法——而不仅仅是让控制它们的人受益。他说:”人工智能已被证明在实践任务领域相当有效——从给照片贴标签,到理解口头和书面的自然语言,再到帮助辨别疾病,现在的挑战是确保每个人都能从这项技术当中受益。”

    一个重要问题在于,这种软件的复杂性常常意味着不可能确切搞清楚某种人工智能系统行为方式背后的原因。根据目前人工智能的运行方式——它建立在一项非常成功的被称为机器学习的技术基础上——你无法揭开盖子,一探里面的究竟。所以我们选择相信它。那么我们的挑战就是要想出新的办法来监控或者审核人工智能目前正在发挥重大作用的众多领域。

    对哈佛大学法学院的互联网法律学教授乔纳森·齐特林(Jonathan Zittrain)来说,目前存在的一个威胁是,计算机系统变得越来越复杂,这可能使它们无法获得必要的监督。他说:”随着我们的系统———在技术的帮助下———变得越来越复杂而且紧密耦合,我担心人类的自主性会减弱。如果我们’设置完毕就不再管它’,我们可能会对某个系统的发展进化方式感到后悔,并哀叹没有一个明确的位置来考虑道德因素。”

    人工智能技术将可以让机器人完成更复杂的工作,例如日本这种为顾客提供服务的售货机器店员。我们专家组的其他人也表达了同样的忧虑。北卡罗来纳州杜克大学人类与自主性实验室(Human and Autonomy Lab)的主管米西·卡明斯(Missy Cummings)问道:”我们将如何能够证明这些系统是安全的?”卡明斯曾是美国海军的首位女性战斗机飞行员之一,目前是一位无人机专家。

    人工智能需要监督,但目前还不清楚要怎样做到这一点。卡明斯称:”目前,我们还没有想出被大家普遍接受的办法。而且,在没有一个行业标准对这些系统进行测试的情况下,这些技术也很难被广泛推行。”

    然而,在这样一个瞬息万变的世界,监管机构常常发现自己要扮演追赶者的角色。在很多关键领域,比如说刑事司法系统和医疗保健领域,相关公司已经在探索利用人工智能做出假释决定或者诊断疾病的有效性。但是,一旦把决定权交给机器,我们就面临失控的风险——谁敢保证这个系统每一次都能作出正确决定?

    微软研究院首席研究员达娜·博伊德(Danah Boyd)称,关于那些正在被写进这种系统的价值观以及谁将最终为它们负责,有一些很严肃的问题。她说:”监管机构、民间社会和社会理论家越来越强烈地希望看到这些技术是公平并且符合道德准则的,但这些想法充其量不过是模糊的概念。”

    存在道德问题困扰的其中一个领域是工作场所。人工智能技术将使机器人承担更复杂的工作并替代更多的工人。例如,苹果公司和三星集团的供货商富士康科技集团已经宣布,该公司打算用机器人替代6万名工厂工人。还有福特汽车位于德国科隆的工厂,让机器人和工人一起并肩工作。

    在许多工厂,人类已经在和机器人一起工作———有人认为,这种被取代的感觉可能给精神健康带来冲击。更重要的是,如果自动化程度的提高给就业造成重大影响,也可能给人类的精神健康带来冲击。生物伦理学家、美国前总统巴拉克·奥巴马的前医疗顾问伊齐基尔·伊曼纽尔(Ezekiel Emanuel)称:”如果要找出给人们的生活带来意义的事情,你会发现有三样:有意义的关系、强烈的兴趣和有意义的工作。有意义的工作是构成个人身份的一个非常重要的元素。”他指出,在工厂倒闭导致就业岗位流失的地区,出现自杀、药物滥用和抑郁症的风险可能增大。

    由此导致的结果是我们可能需要更多的伦理学家。麻省理工学院的法律和伦理学专家凯特·达林(Kate Darling)称:”公司会追随市场激励的方向———这不是一件坏事,但正因为这一点,我们不能指望他们遵守道德标准。如果有适当的监管,会起到帮助作用。在私底下或者每当我们拥有一项新技术的时候,我们已经发现了这个问题,而且想出了应对它的办法。”

    达林指出,包括谷歌在内的许多知名大公司已经设置了伦理委员会,用来监督他们人工智能技术的开发和部署。有观点认为这种现象应该变得更普遍。她说:”我们不想扼杀创新,但可能已经到了大家都希望创建一些这类组织的时候。”

    对于谷歌伦理委员会的成员以及该机构实际职能的详细情况,我们还知之甚少。但是去年9月,Facebook、谷歌和亚马逊联合推出了一个名叫OpenAI的非营利组织,针对人工智能带来的大量安全性和隐私性问题,研究解决方案。这是一个致力于研究和推动开放源人工智能为所有人谋福利的组织。谷歌的诺维格称:”公开研究机器学习技术以及通过公开刊物和开放源代码传播这种技术是非常重要的一点,这样我们都能共享研究成果。”

    如果我们想要研究行业和道德标准并完全搞清楚什么是利害攸关的东西,那么创建一个由伦理专家、技术专家和企业领导人组成的顾问团队就是非常重要的一件事。我们要解决的问题是如何利用人工智能技术在我们已经做到最好的基础上让人类社会变得更美好。齐特林称:”我们要做的是少担心科幻小说中机器人接管地球的局面,多想想如何运用技术帮助人类思考和做决策,而不是完全取代人类的自主性。”