先来做一个小实验。如果你所在的办公室,同事里有男有女,也处于不同的年龄段,你们可以打开某头部短视频平台上同一个以“两性冲突”为主题的短视频,大概率会有一个惊奇的发现:虽然你们看的是同一个短视频,但你们看到的竟然是完全不一样的评论区。男性网友看到的是维护男性利益的评论区,女性看到的是支持女性立场的评论区,甚至哪怕性别一样,但年龄不一样,评论区也会有所差异。
这就是短视频平台算法的新“进化”——为不同的人“量身定做”不同的评论区。11月6日,《中国青年报》就报道了这一现象。本应是观点碰撞之地的评论区,随着算法技术的入侵,“差别”的大门被关上,评论区向你推送的评论都在支持你的观点。不同观点、不同世界之间被筑起了厚实的墙壁,使网络用户深陷信息茧房之中。
如今我们对于平台“算法”已经不陌生了。如果说早期的信息平台的信息流呈现,是“编辑推荐制”,由专业编辑把关,为用户呈现更有价值的信息;移动互联网时代的信息流,则是“算法推荐制”主导,平台的算法模型不断收集用户的浏览足迹,推测出用户的兴趣爱好,并基于此源源不断向用户推荐同一类信息。
更喜欢阅读自己感兴趣的内容,近乎人的一种本能,这也就产生了信息的同温层效应。所谓“同温层”是指大气层中的平流层,在平流层里面,大气基本保持水平方向流动,较少有垂直方向的流动。信息同温层,指涉就是,算法迎合了用户的主观偏好,让用户只接受自己感兴趣或者与自己观点一致的信息,对于兴趣以外或者观点不同的信息,算法就会帮用户屏蔽掉,这时,信息的流动方向便与同温层大气相似。
处于信息同温层虽然很舒适,但它带来的副作用也显而易见:将用户困于信息茧房中。我们看似在信息的海洋里遨游,可实际上我们一直困在狭隘的信息孤岛中,彼此隔绝,相互孤立,缺乏共识。
以前至少还有自由发表观点的评论区。算法虽然只向你推荐你感兴趣的信息,但信息底下的评论区,就有可能充斥着各种各样的声音,让用户“被动”去接收与自己立场相左的观点。这有助于避免用户深陷信息茧房,避免用户以为全世界就是围绕自己的立场转,从而学会尊重不同、接纳不同。
可如今,算法也“算计”到了评论区,连评论区都可以为你“量身定做”。你是爱狗人士,评论区就主要都是爱狗的评论,你不喜欢狗狗,评论区就变成主要控诉“犬祸”的评论;在两性议题的评论区里,你是一名男性,你看到的是挞伐女权太“过火”的评论,你是一名女性,看到的评论区就变成了女性应该继续团结起来打倒男权……
“量身定做”的评论区,进一步迎合了人们的信息同温层偏好,进一步将用户困于信息茧房中。这看似制造了一个更“和谐”、更舒适的评论区,实际上加剧了不同立场群体之间的隔阂、对立、误解与撕裂。评论区虽然没有“争论”,但现实生活中的冲突却更加激烈。
必须高度警惕“量身定做”的评论区,必须加强对平台算法的监管。科技向善,算法也必须“向善”。一方面,我们期盼互联网主管部门能够从顶层设计层面出发,出台有关平台“算法”的相关监管方案,杜绝算法过度收集用户信息,杜绝算法滥用,杜绝算法操纵人心、“操控”舆论;另一方面,用户也要有主动“破茧”的意识,走出信息同温层,兼听则明,保持清醒,才可能抵达一个真正辽阔的世界。