Managershare:你对什么变得有兴趣,互联网世界就只让你看见什么,最终呈现在我们面前的将不再是真实完整的世界。
《连线》杂志的马特・霍楠(Mat Honan)做了一个试验,他在自己的 Facebook 上连续点赞 48 小时,即便是不喜欢的内容也点赞。他想要看看这样点下去对于 Facebook 给他展示的内容到底有什么影响。
我们都知道 Facebook 使用算法判断用户信息流的内容。点赞操作也被计入到算法考虑的因素范围之内。马特的连续点赞实际上是在不断加强机器人程序的推荐。他将点赞的范围限于 Facebook 网站范围之内,我们都知道 Facebook 的 Like 按钮可以嵌入到其他网页上面。
试验开始了
马特开始在信息流里依次对内容点赞。有喜欢的,有他讨厌的,甚至痛恨的。他都点了。至于 Facebook 在点赞操作之后给出的新推荐内容,他也点了。接着是一些新闻报道,优惠卷内容,亚马逊促销。他都点了赞。
接着,在很短的时间内,奇妙的事情发生了,一小时之内,马特的信息流里面已经没有人类的踪迹了。全都是品牌推广和广告消息。
与此同时,来自 Upworthy 和 Huffington Post 的内容也到处泛滥。在试验的第一晚,马特看了一下他的消息流,从上到下依次是:Huffington Post、Upworthy、Huffington Post、Levi"s 广告、Huffington Post、Upworthy。
在睡觉之前,他想起来自己应该点赞些关于加沙冲突的内容。于是他点赞了一条支持以色列的消息。转天早上,他的信息流内容完全转向极右。他还是要继续点赞,当然。于是他又点了第二修正案和反移民法案的页面。
马特发现即便是在同样的时刻,Facebook 的移动端和桌面端页面内容是不同的。在移动端上几乎没有和人相关的消息,都是网站内容或者广告什么的,而在桌面端——虽然也充斥着品牌推广内容——仍旧能够看到好友动态。显然,在移动端寸土寸金的屏幕上,Facebook 想要将用户的注意力放在从人的身上挪开。
当试验进行到第二天的时候,马特的 Facebook 内容已经变得面目全非了。系统给他推荐的全是极右翼的内容,他已经担心自己会上黑名单了。
真正的问题
马特认为,这次试验凸显的问题也正是人类社会的一个关键问题。人们纷纷给自己设置了政治和社会观点的“过滤器”,进而不断强化他们原有的立场。如今人们阅读和收看的内容都是极其细分的,只会针对各自独特的兴趣。
马特的这次试验还严重干扰他的好友信息流。他的编辑约翰・布拉德利(John Bradley)以为他的账户被盗用了。而另一位好友的信息流则全是马特点赞的消息。马特在 Facebook 的一个好友注意到了这件事,并联系了该公司的 PR 部门,想要和马特谈谈。但是他的试验已经结束了,马特的点赞列表里多出了上千条。他自己说:
我对一切点赞,将这里的一切变成了我讨厌的东西。说实话,我真的讨厌它。我讨厌点赞。