正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2012-12-28 10:46

谷歌“为善主义”的界限:当人类成为一颗螺丝钉

谷歌在做什么?《谷歌眼镜之初体验:下一个杀手级产品》 文中曾谈到,“谷歌眼镜具备一些史无前例的功能,而且把握住了正确的发展方向。”

是的,无论产品的结果如何,谷歌一直在引领着我们的生活的方向,而这种方向如今被冠上了“为善主义”的名字,即谷歌旗下产品通过对用户认知的理解,自发的提供对用户有价值的信息和服务——即便你并未提出过类似的要求。

英国《金融时报》作家叶夫根尼•莫罗佐夫,对这种现象提出了思考,虎嗅网节选如下:

奥斯卡•王尔德(Oscar Wilde)曾写道:“世界未来系于机械奴隶制、奴隶制的机器”。如果放在今天,这名爱尔兰作家可能会成为Google Now的拥趸。

Google Now不像Siri那么夸夸其谈。它能通过分析谷歌手中关于你的现有信息,为你的问题预先准备好答案。

这一切之所以成为可能,是因为谷歌能够预测你的信息需求。其预测基于某些关于你的身份、需求、想去什么目的地的理论。对于很多活动而言,这一理论无需很深奥就能产生精确的预测。谷歌不必猜测你的政治立场就能注意到,你经常在周一开车去机场。

但最新版Google Now也生成了完全不同的提示。每个月末,谷歌都会愉快地报告(你甚至从未问过!)你步行了或者骑车了多少英里。这种干预可就不是天气状况之类的小事了。在这里,谷歌假设,与开车之类的方式相比,走路更加重要,或许更加道德。它明确无误地在其应用上“烙上了”道德标签,这种做法可被称为“算法说服”(algorithmic nudging)。

谷歌为善的威力和诱惑只会与日俱增。随着谷歌的各项服务整合为一体——地图、邮箱、日历、视频、图书,谷歌越来越了解我们在道德上的失败之处。随着谷歌开始通过其无人驾驶汽车、智能眼镜、智能手机等产品介入我们与建成环境之间的互动,“算法说服”的空间也在扩大。

在一个谷歌主宰的世界里,也没有必要禁止超大杯苏打饮料,因为智能眼镜可以让你认为,手里拿的苏打饮料杯子比实际体积大。这不是科幻小说:日本的研究人员最近推出了一种头戴式光学系统,真的能对食物份量产生这种效果。

此类技术给人类主人带来一种相当悲哀的形象。人类不再被视为能够思考的公民,而是在一个痴迷于自我优化的系统中被当作螺丝钉,仿佛该系统本身的构成是没有争议的。

我们必须给企业的为善主义设定清晰的界限,保护我们的政治进程不受善意的谷歌工程师的干扰。或许,这些工程师可以构建一张卡片,提醒政客时刻记住我们投票选择他们的原因。
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: