人工智能的反弹钝化
作者:Ziv Carmon
2020-09-01
摘要:如果大科技公司不小心,基于人工智能的系统的深远有益影响可能会在2020年代被钝化。

展望下一个十年,我们看到了很多乐观的理由。大数据分析、人工智能和机器学习的快速发展将在未来十年内极大地造福人类,使我们更加安全,更加快乐。企业也将获得巨大的利润,到2030年,基于人工智能的全球GDP增量可能达到22万亿美元。

由这种新技术驱动的消费平台已经大规模普及。Netflix1.58亿强大的全球用户群和亚马逊20182330亿美元的净销售额只是众多例子中的两个,证明了这种受欢迎程度。

然而,算法系统仍然存在争议。世界各地的媒体以持续的怀疑态度记录了它们的崛起,并以爆发的丑闻作为点缀,这很可能预示着一场全面的反击。对人工智能最熟悉的反对意见集中在隐私问题上,人们普遍认为科技公司对我们的了解比我们同意的更多,并怀疑这些公司是否可以信任,负责任地使用我们的数据。

如果算法平台的便捷性和预测的准确性导致用户觉得自己的自主性或者自由意志受到了损害,那么算法平台的便捷性和预测的准确性可能会适得其反。科技公司不应该将其产品的普及与自动化和优化整个客户旅程的全权委托混为一谈。尽管人们很欣赏算法为他们做出看似不必要的选择,但当他们的遵从被认为是既成事实时,他们会做出消极的反应。

自主性威胁的证据

这种现象,我们称之为自主性威胁,在各种研究中都有表现,例如,在最近的一项研究中,我们中的两个人发现,当顾客认为他们的未来选择可以根据过去的模式进行预测时,他们就会倾向于远离他们最喜欢的选项,并做出不同的选择。换句话说,消费者为了重新建立自己的自主感,违反了自己的偏好。

我们还怀疑,自主性威胁在持续的人工智能反弹中扮演着隐秘的角色。例如,2018年的剑桥分析公司丑闻,该公司正是针对Facebook用户进行欺骗性的政治广告,这显然是关于隐私的。然而其中涉及的利害关系--2016年美国总统大选,却引发了广告影响选举结果的问题,从而威胁到民主所依赖的选民自主权。对隐私和自主权的担忧对接产生了特别凶猛的市场反应--一天之内就从Facebook的市值中抹去了近400亿美元。

对于科技公司来说,缓冲自主性威胁需要了解三个不同的点。

独特性和自主性

可预测性和自主性

隐私和自主权的重叠

在其中任何一个领域侵犯太多,都可能引发消费者的反弹。此外,企业还可以采取一些措施来增强用户的自主意识,从而降低出现不良反应的可能性。

独特性和自主性

首先,人们希望被视为独特的个体,而不是与他人互换。例如,当客服聊天机器人代替人类客服人员提供建议时,这就成了一个问题。即使机器人提供了一流的建议,用户也可能会反感被当作是他们的问题不够特别,无法得到一个人的单独关注。

学术研究发现,即使在高风险的情况下也是如此,比如医疗诊断。患者会选择去看人类医生,即使他们被告知机器人会提供更准确的统计学诊断,出于一种根深蒂固的信念,即机器人无法解释他们的独特情况。

除了进行简单的调整,比如机器人用名字称呼客户,公司还可以通过确保消费者在策划他们的体验时始终有发言权来应对这种自主性威胁。尽管这有时会与便利性背道而驰,但重要的是要记住“宜家效应”,即亲自组装自己平装家具的汗水有助于买家对自己的购买产生更多的粘性。研究发现,当一个重要的决定(比如在两种产品之间)显得过于简单时,消费者会给自己创造更多的心理工作。因此,一个消除所有脑力劳动的“完美”选择过程可能会引起消费者的反感。

可预测性和自主性

其次,人们希望能够改变自己的想法。如果数据驱动的平台让他们感觉被锁定在过去的选择中,自主性威胁可能会被触发,购物者可能会做出次优选择,就像上述“可预测性”的研究一样。

但有趣的是,在同一项研究中,当用“一致”而不是“可预测”来描述他们的选择时,消费者感到的威胁较小。通过转变他们的信息传递方式,公司可以促进消费者所期望的行为的持续性--例如,将营销信息框定为深化专业知识或完成任务的邀请。

此外,使消费者能够改变他们的选择,创造了很少有人工智能驱动的公司所利用的机会。帮助人们改善生活,例如,通过更好的饮食、戒烟等。对于这些公司来说是相当可行的,因为可以开发算法来识别可能准备做出不同选择的客户的明显迹象。这样的消费者可能会像我们中的一个人所展示的那样,购买小包装的不健康零食,而不是性价比更高的大号零食,以确保他们不能屈服于暴饮暴食的诱惑,这是一种叫做“预承诺”的自我控制策略的例子。

然后,企业可以为预先承诺的消费者提供选择,帮助他们实现大规模的生活方式改变--这可能是企业和公众健康的双赢。也就是说,只要企业尊重消费者的自主权,向消费者提供预承诺选项,消费者可以根据自己的意愿接受、拒绝或推迟,而不是替消费者选择。

隐私与自主权重叠的地方

第三,我们必须记住,隐私和自主权是部分重叠的概念。自由意志的一个关键部分是决定我们愿意与他人分享哪些行为和偏好,以及我们希望保持隐私。当隐私被剥夺时,我们的部分自主权也会随之消失。

互联网隐私的岌岌可危正变得难以忽视。大科技公司在这个问题上的松懈,不仅对成年消费者有影响,对下一代也有影响。美国联邦贸易委员会最近对YouTube罚款1.7亿美元,因为它收集了13岁以下儿童的数据。

显然,许多公司认为他们别无选择,只能在隐私问题上玩得又快又松,这样他们就可以收获训练算法所需的消费者数据。但研究表明,更严格和透明的隐私政策可能会给用户和公司带来更好的结果,这或许是因为强化自主权有助于舒缓对隐私的敏感度。2015年《科学》杂志上的一篇论文认为:“[对个人信息]的控制可以减少对隐私的担忧,这反过来又会产生意想不到的效果。” 该论文接着引用了一项发现,当人们觉得决定权在自己手中时,他们竟然愿意将自己的私人信息发布到网上。矛盾的是,当明确给出不泄露的选项时,参与者选择透露更多信息,而不是谨慎行事。

自主性和隐私在其他方面也会相互影响。我们中的一个人的研究表明,当公司追踪消费者现有的偏好,而不是那些仍在形成的偏好时,他们创造的自主性威胁较小。我们推测,这种区别将适用于电子商务--购买历史将是算法追踪的公平游戏,而购买的准备活动(搜索历史、价格比较等)应该是禁区。

监管的幽灵

我们的斯隆文章是出于严重的担忧而写的,如果大科技公司不小心的话,人工智能解决方案的深远有益影响可能会被反弹钝化。

随着新的十年开始,媒体报道警告说,“人工智能监管的潮水正在上升”,可能包括直接禁止机器人收集数据,甚至对算法的透明度要求。如果不做出改变,以安抚消费者普遍存在的自主意识和侵犯隐私的行为,可能的结果将是越来越多的公众愤怒,随后可能是监管部门的打击。

我们认为,监管行动对创新的威胁远大于我们提出的与自主权相关的相当温和的建议。让我们希望科技行业能够注意,这样我们就不必发现了。


热门文章