1. 图片加载失败
  2. 发现网>3C > 正文
信息茧房,如何破除?
2020-12-30 09:56:27
文章来源
新浪科技

  互联网给我们制造了一个信息海洋,但“算法”和“自我选择”却在编织一个个信息茧房。


  算法推荐,即利用算法和大数据,对用户进行画像以实现信息的个性化精准推送,目前在购物、社交、短视频、新闻分发等领域均已广泛实践。


  “信息茧房”这一概念,最初是在桑斯坦的《信息乌托邦——众人如何生产知识》一书中提出的,意指在信息传播中,因公众自身的信息需求并非全方位的,公众只注意自己选择的和使自己愉悦的领域,久而久之,会将自身像蚕茧一般桎梏于“茧房”中。


  信息茧房既包括算法推荐造成的茧房,也包括用户的自身选择将自我陷入茧房之中。


  信息茧房现象及其存在原因


  信息茧房现象在信息传播过程中较为普遍,其产生的主要原因在于个体追求个性化的主观需求,而算法推荐技术的发展则导致其更为显著。


  1


  信息茧房现象在算法推荐中的表现


  在购物平台中,首页基本是前一次搜索物品的同款;在短视频平台中,观看某一视频时多看了几遍,接下来刷到的视频内容都是相似的;在聚合类新闻平台中,搜索或者点赞、评论了某新闻,随后接触到的是大量关于该新闻的内容......


  算法推荐所想达到的目标是实现用户的个性化体验。信息的确在算法推荐技术的推动下变成了“千人千面”的状态,满足了用户的偏好,但对于单个用户来说,其接触的信息持续性地处于“单人单面”的状态,导致用户深陷信息茧房而不自知。


  一般而言,人工智能的发展需要经历弱人工智能、强人工智能和超人工智能的发展阶段。现阶段内容算法推荐的智能化水平处于弱人工智能阶段,导致推送结果存在缺陷,如“头条”现阶段主要的推荐方法是基于内容的推荐系统,简言之,推送的内容与受众之前的阅读内容类似程度较高,这可能导致用户只能看到与上次阅读主题相同的内容,无法突破特定的主题,这显然无法与用户全面的阅读需求和兴趣相匹配,造成信息获取的“茧化”。


  2


  信息茧房产生和加剧的原因


  个体主观偏好


  即使是在日常的生活中,“挑食”这一现象就足以洞见人们对自己的喜爱事物总是希望多加获取,即如果餐桌上都是爱吃的菜,那也就不存在挑食的行为了。


  信息茧房的形成也是如此,人们对自己爱买的东西、爱看的新闻总是带有一定的偏好,并乐于沉浸在这种同质化世界中。


  个体的主观偏好自然而然地引导人们尽量接触与自己观点相吻合的信息,同时竭力避开相抵触的信息,这种选择性接触实际上造成的是一个又一个的信息茧房,但由于此时仍是公众自我选择的结果,因此,虽然该信息茧房已经产生,但称不上是一个媒介伦理问题。


  算法推荐技术的推动


  算法技术被运用于个性化推荐,这实际上也与个体的主观需求有关。为了满足公众日益增长的个性化需求,“注意力经济”之下,算法技术被不断地开发利用于个性化推荐之中,以增强用户黏性。


  短时间内人的注意力是有限的,若用户被锁定在由算法精准推送的某类固定信息中,久而久之,会造成思维固化、认知结构单一,甚至会模糊或淡化对现实社会的真实感知,间接地剥夺了用户对其他信息的“知情权”。


  因此,当算法介入公众的选择时,信息茧房问题逐渐显现出来了。


  过去,用户可能意识到是自己的主动选择造就了所接触信息的同质性,对“信息茧房”效应保有一份距离,而当下“信息茧房”却是用户接收新闻即产生的,很难被察觉和意识到。


  算法推荐当中的算法运行过程会按照计算机语言设定的程序运行,即通过编写建模逻辑算法,机械性的重复操作可被同样机械性的计算机循环运算取代。


  算法推荐中“信息茧房”加剧的主要原因在于算法机械性,即算法总是根据设定好的程序对用户进行画像,再向用户进行新闻精准推送。


  尽管算法的模型有很多种,并且也可以采用切换式混合的方式去优化结果,但是不论如何,其所基于的算法程序总是带有一定的机械性,例如算法总是基于用户历史行为,按照其预先设定的程序进行新闻推送,使得被推送的新闻在题材、体裁、内容上等均缺乏一定的新颖性。长此以往将会造成更坚固的信息茧房。


  为何要破除算法推荐中的信息茧房?


  1


  过度个性化


  信息茧房应当对算法推荐中用户盲目追求个性化以及平台无条件满足用户个性化需求的行为提出一定要求。


  用户追求个性化是其自由,但过度追求信息的个性化,一味寻求自我偏好的满足,对于个人的信息获取以及成长发展来说或许并非益事。另外,目前看来,所谓的“信息茧房”并不全是用户自身喜好所造成的,而是当下用户注意力资源成为商业趋利竞争的对象所导致的,而这实际上侵害了公众对除推送之外的其他信息的知情权,并且很有可能因此而限制公众个人视野,强化固有偏见,甚至导致社会分化加剧。


  以国外某社交平台为例,其算法将会据此对民众进行精准的信息投放,在美国总统大选期间,支持共和党的民众无法接收到关于民主党的新闻内容;在英国脱欧公投期间,支持脱欧的民众无法看到有关英国留在欧盟有利的新闻言论。


  民众在看到的信息都由自己的在线历史行为决定,算法会自动过滤用户不感兴趣的新闻,而自动推送用户感兴趣的新闻。


  在算法推荐机制下,通过算法过滤处理的信息在来源、题材、体裁等方面会被限制,用户的信息会被自身喜好不断固化。久而久之,会使成用户的视野越来越窄,甚至可能出现桑斯坦说的“不同群体之间无法沟通,造成群体极化现象”。


  2


  在一定程度上与公共利益相悖


  从社会层面来说,信息茧房所带来的是公共领域的逐步丧失和社会文化基本功能的削弱,“茧房”之中的同质化信息,影响着公共事务的讨论,呈现出封闭化的趋向,这与哈贝马斯所阐释的“公共领域具有开放性、平等讨论性以及涉及的内容具有公共性”不一致。


  与此同时,“茧房”内的信息主要迎合了用户的偏好,更多地是站在用户赞成、支持的立场,缺乏一定的对抗和思辨,最终将进一步固化社会群体的刻板印象,阻碍社会共识的形成,影响社会的整体稳定。


  这表明算法推荐在一定程度上并未考虑到公共领域中绝大多数公民的利益,由算法推荐加剧的信息茧房问题更是在一定程度上限制了公众接触新知识和新观点的范围和途径,使得公众无法接触到完整的信息。


  大破除之道


  1


  强化企业责任,提高用户素养


  首先,作为算法推荐技术的实际应用者,平台企业应当对信息茧房问题负起责任。目前一些算法推荐平台已经在反思算法推荐技术带来的伦理问题,对此也进一步明确了自身的立场,这是企业自身为打破用户的信息茧房所转变的伦理立场。


  其次,提高用户算法素养是挣脱信息茧房的关键一步。用户必须清楚地意识到“我在获取信息”,而拒绝沉浸于算法推荐日复一日的同质化信息内容当中。


  与此同时,用户算法素养的提升还在于对算法推送技术进行主动了解。根据凯西·戴维森的说法,用户的受教育程度与算法素养基本成正比,因此算法应该融入教育哲学,作为第四个“R”(“阅读”“书写”“文学”“算法”,即reading,riting,rithmetic,rithms),从而避免其被束缚在算法推送所带来的信息茧房中而无法挣脱。


  2


  改进算法推荐机制,增设专业把关人


  改进算法推荐技术,主要目的在于打破信息茧房的封闭空间,同时提高整个平台空间的优质氛围。


  一是突破单一推荐模式。从形式来看,应当将个性化搜索和个性化推荐相结合,这在绝大多数算法推荐平台中都得以应用,但在个性化推荐环节,主要适用的是协同过滤推荐算法和基于内容的推荐算法,信息收集模式和依据信息进行用户画像的模式均过于单一,应当在此基础上进行完善,在满足用户个性化需求的同时力争从更多的角度进行用户画像,防止信息呈现的结果过于单一。


  二是让算法推荐机制推荐更有公共价值、更有专业水准、多方面平衡的内容。从该层面讲,算法推荐事实上真正要做的是在内容层面提高优质信息的推送权重,通过算法甄别和提取对用户最有价值的信息,并且能够在更大的社会关系框架中提供相关知识和关系图谱,满足人们更深层次的认知需求。


  三是增设专业把关人,将公共价值重新还原到信息传播本身当中,特别是对于新闻行业来说,不能把传播完全交由算法运作,具有专业素养的把关人仍有存在的必要性。


  在算法推荐中,目前的人工编辑通常只能决定内容的推荐状态,而无法决定其具体的呈现位置,即用户最终能否看到此条内容基本由算法决定,人工编辑干预较少。因此,从该层面来讲,人工编辑在智能媒体时代的把关职能比在传统媒体时代要大大减弱。


  算法还引发了新闻分发标准的变革,即由传统媒体时代新闻编辑与分发中判断新闻价值所依据的“时效性、重要性、接近性、显著性、趣味性”五要素转变为算法对用户关联度、新闻实用性和用户兴趣度的高度关注和依赖。


  此外,以算法应用为主的应用软件是典型的技术驱动平台,公司的核心利益指标主要由技术部门承担,编辑团队的话语权由此不可避免地被削弱,传统意义上的把关职能弱化。


  为此,必须考虑到人工编辑团队把关功能弱化所带来的弊端,采取一些创新举措,如国外某社交平台在新闻推荐上舍弃了原有的标签算法,推出了新闻聚合功能插件Moments,以人工编辑筛选、整合信息,形成当天热点事件的整合推送。


  3


  加强对算法推荐规则的规制


  在算法推荐中,用户将自身对信息的选择权和决策权在一定程度上让渡给了算法,这也意味着算法将成为法律监管的核心。


  针对信息茧房问题,除了企业和相关技术人员的自律、算法推荐技术的改进、人机协调等,还需要一定的法律制度予以规制,但法律并非无所不包,对于信息茧房这样的伦理问题,法律只能针对实际造成的损害进行规制。


  因此,将算法纳入法律的渠道,不是信息茧房问题的直接解决方式,而是期望能够从宏观上强化对算法自身的法律监管,从源头上防止信息茧房负面效应的进一步扩大。通过分析算法推荐技术的推荐倾向与推荐标准,评估其可能产生的一系列后果及影响,为算法设置“底线”。


  对此,在法律监管中应注意纳入以下几个方面:算法决策规则的标准;算法的审查程序及规则;算法利用用户信息的底线。应用平台如需利用算法推荐技术,必须进行事前备案,相关部门需要不定期抽检算法推荐技术的运行情况,同时接收用户的投诉举报,在发现推荐决策规则异常后,立刻要求相关平台进行解释说明,并对其行为进行惩戒。此举将有助于防止算法推荐平台滥用算法推荐技术从而加剧信息茧房问题。


  总之,信息茧房并非是新出现的问题,其历史由来已久,只是算法推荐技术的出现使得该问题更为凸显。换言之,信息茧房是必然存在的事物,也并非是一个全然负面的事物。我们要警惕的是随着算法推荐技术的深入发展,信息茧房引发的信息鸿沟扩大、群体偏见和刻板印象固化、间接操纵公共领域等负面问题。


责任编辑:陈雯

信息茧房

破除

免责声明

发现网登载此文出于传递更多信息之目的,并不意味赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。违法、不良信息举报和纠错请联系本网。

  • 京ICP备05049267号

  • 京ICP备05049267号-1

  • 京公网安备11010102001063

  • 版权所有 发现杂志社