围观改变中国(围观改变中国,算法改变围观) 让我们先回到2010年。7年前,《新周刊》将年度传媒网站的荣誉颁发给了"新浪微博"。一时间,"围观改变中国"成为了庙堂之中的热议话题。学者们宣称,微博弥补了传统媒介在信息发布方面的缺陷。网络世界因此充满了欣喜若狂、奔走欢呼的身影。似乎所有人都笃信,"互联网赋权"真正让每个人都拥有了观看和表达的机会。一路走下来,从博客到微博,再到微信,公共信息的传输效率和透明度在互联网高速公路的黎明下一路奔跑。 自那一年起,那些微弱的声音,在网络空间中被放大成震耳欲聋的公共话语。可曾记得,2010年,甘肃泥石流灾害中,一位19岁的男孩王凯,他用一部老式手机,在微博上独自直播灾情,几小时后,便有近万人转发;河北大学内,一位自称"我爸是李刚"的肇事司机触动了微博网友的神经,成为了公共讨论的热点话题;同样是2010年,上海市静安区突发大火,近60人遇难,微博上点燃了数不尽的蜡烛。围观让人们站在一起,让弱小变强大、让立场被倾听、让尊严被捍卫。 如今,在2017年,在我们重新回顾这句尘封已久的口号时,其中那些冲动的欢愉已经逐渐淡去,留下来的,更多是壮志未酬的莽撞,或许还有更多深藏的韵味。社交媒体上的围观,远比我们想象的复杂。围观只是一个简单的动作,激情沉淀后,我们才腾出时间,仔细考察我们究竟在围观什么。 人们观看新闻的方式,在2010年之后,经历了天翻地覆的改变。记者作为传统媒体的把关人,权力不断式微,逐渐让位于风头正劲的"算法"。如果我们稍微留意一下这两年的畅销书,不论是"大数据时代"还是"算法革命",我们都不得不去相信,这是一个从不缺少黎明的年代。不过,另一方面,这一切似乎也都印证着马克思的预言——人被自己发明的机器所取代。 当然,算法对人的取代往往是悄然进行的,我们在屏幕上看到的,只是一个简单的结果——不论是推特上的"trending"、微博上的"热门话题"、今日头条中推送的新闻。对此,美国学者塔尔顿吉莱斯皮提出了一个有趣的问题:当推特为我们介绍"trending"时,它究竟是什么意思?同样道理,换成当今中国,我们似乎也应该回答这样一个问题:当微博向我们展示"热门话题"时,它在展示什么?它展示的是热门么?这显然是一个同义反复的答案,很难让我们满意。 具体的细节只有算法的制作者才知道,作为一项商业机密,我们自然无从知晓。算法宣称自己的高效与自动化,宣称自己摒弃了传统新闻业把关人的偏见。甚至稍有不慎,我们的逻辑便会从"自动化"一路滑向"中立性"。果真如此么?在这样一个时代,我们见证的,分明是另一种技术的偏见。 这样的案例在美国已经很多了。 算法中有性别歧视:2007年,研究者发现当她在谷歌中搜索"她发明了"这个短句时,谷歌会提醒她说:你的意思是"他发明了"么? 算法中有性取向歧视:2009年,超过5万本对同性恋友好的书籍从亚马逊的销售清单中消失,因为这些书籍被算法自动归类为"成人"商品。 算法中更有哭笑不得的错误:2016年,挪威作家汤姆伊格兰德为了纪念越战,发布了著名摄影作品《燃烧弹女孩》,这张曾荣获普利策新闻奖的作品被判定为色情图片,遭到删除。 一言以蔽之:算法的自动化,并不意味着,它天生就能确保自己的中立与公正。它带给我们的不仅是高效的便捷,或许还有更多意外的麻烦。借用美国记者卢克多梅尔那本《算法时代》的副标题来说,便是"算法解决了我们的所有问题……然后又创造出更多问题"。不过,对技术的质疑似乎并不是这个时代的主旋律,当这本书被翻译成中文版时,副标题已经被悄悄改成了"新经济的新引擎"。 当然,如同一切新生事物一样,我们需要对算法保持一种更加宽容的态度。算法不断在科学前沿的阵地上进取,我们当然有理由期待它的不断完善。但社会学家似乎对这个问题抱有谨慎的乐观:在他们看来,算法与其说是人类进取的阵地,不如说是权力纠葛的战场,里面聚集着各种商业利益、政治考量、文化偏见。 2017年,算法的乐观派们遭受了不少来自官方媒体的打击。今日头条作为其中的代表,站在了聚光灯下接受拷问,官方媒体将"个性推荐"视为"伪个性化"的低俗诡计,让人们沉迷在"自己想看的世界中"。7月,《人民日报》发表评论《新闻莫被算法"绑架"》;9月,人民网再次连发文章,"三评算法推荐"。这四篇文章表达了官方媒体对"算法"新闻足够的警惕与质疑。总结起来,这些质疑无非是三个方面:第一,算法推送中的法律问题(如版权)迟迟未能得到解决。第二,算法推送让新闻更加低俗。第三,算法推送让人们的信息更加封闭。 第一项批评并非什么新鲜事。想想早期电影史中的色情片、早期互联网发展中的猖獗盗版,人类历史上,新技术的发明与扩散的伊始,似乎总是在新的道德边界和法律边界上游走。不过,任何改变人类命运的技术,也莫不是要从这些边界中逐渐抽身,完成自己的合法化过程。那么,我们又该如何为后两项批评找到借口呢?人们真的会因此生活在自己的"信息茧房"中,沦落为低俗至死的一代么? 所谓"信息茧房",在传播学中有着不同的名号,有人称之为回声室效应(echo chamber),也有人称之为过滤器气泡(filter bubble),不论名字怎么取,意思还是那个意思:人们受困于自己热爱的信息,"失去了探索未知、创造不同可能性的机会"。换句话讲,严肃内容太累,不如我们一起让算法帮我们享受各自的低俗。不过,如果我们仔细考察这样的定义,似乎又会嗅到一丝熟悉的味道。同样的批判号角似乎在上世纪早已经打响,沃尔特李普曼断言公众是偏见的囚徒,尼尔波兹曼的寓言更是会恰如其分地传到我们耳边:我们总是担心会被那些我们憎恶的东西毁掉。但讽刺的是,如今真正毁掉我们的,却恰恰是我们无比热爱的东西。太阳底下没有什么新鲜事可言。如果借用马东与许知远的辩论在这里发问,也许再合适不够了:我们真的可曾变得更好? 我们无法凌驾于法律,责备商业的道德。技术从不会在社会中自行生长,尤其是如今,它一定会夹带着资本的利益,一路如雪球般越滚越大。不管创业者是否愿意公开承认,这很大程度上决定了用户的沉浸度是衡量一项新技术的重要指标。2016年年底,张一鸣骄傲地宣称,今日头条已经累计有6亿的激活用户,每天每个用户使用76分钟,1.4亿活跃用户。800位算法工程师帮助今日头条每天处理60亿次用户请求,这一切都是技术带来的福祉。 当然,没有人愿意公布自己的算法,另一边,又在不断更新完善着自己的算法,这样一来,在算法的黑箱两端,批判者与资本之间隔岸观火,也令本来就稀薄的批判更加不得要领。无奈的是,我们只能从日常中不断揣测端倪,比如就在现在,微博告诉我,一位大陆歌手要过生日了;微信则看一看告诉我,一位韩国偶像自杀身亡,他的遗书中早有端倪。我想我愿意祝贺,也愿意哀悼,但我不知道,自己还应该做点什么。 7年前,我们信誓旦旦地宣称:围观改变中国。这本没有什么问题,但7年后,我们似乎渐渐意识到,算法正在悄悄地改变着我们的围观。它决定带给我们什么的同时,也决定了为我们遮蔽什么。技术在公共性方面能做的,似乎并没有我们想的那么多。算法是如何为我们的围观供给草料?它是一个称职的筛选者么?我的答案是,目前并不是,对于未来,我愿意保持谨慎的平和,并不乐观,因为那个称职的、理想的,甚至完美的筛选者,可曾出现在人类的历史中呢?我愿意期待的,更多是对技术的反思与调整。如尼古拉斯卡尔所讲: "对于科技带给我们的好处,我们往往非常敏感;对于科技带给我们的麻烦,我们却非常迟钝。不过,如果我们想要对一种新科技做出实事求是的评价,就不能让技术的光芒蒙蔽了我们的内心。"