面对“大数据杀熟”等乱象我们需要什么样的“算法”?

   2020-11-16 11

  您是否有过类似经历:在求职网站填写一份有关工作喜好的调查,网站会自动推送匹配的岗位;打开购物软件,发现页面上多是近期搜索或浏览过的商品;通过App阅读一条养生信息,随后便会经常收到养生知识、养生产品的广告推送……伴随着信息技术迅猛发展、大数据广泛应用,算法推荐技术正在将人们带入个性化、定制化、智能化更强的信息传播时代。

  因为算法推荐,互联网平台越来越能抓住用户的心,帮助人们更加方便、精准地获取信息,也牢牢吸引了用户的注意力。据不完全统计,当前基于算法的个性化内容推送已占整个互联网信息内容分发的70%左右。算法推荐逐渐成为各平台“基本操作”的同时,诸如低俗劣质信息精准推送、“大数据杀熟”等乱象也凸显出来。

  作为数字经济的重要推动力,算法如何实现更高质量发展?移动互联时代,我们究竟需要怎样的“算法”?

  “看完一个短视频后,平台会自动推荐很多相关视频,很方便。”在北京一家企业工作的陈辉是某款网络对战游戏的“发烧友”,平时喜欢通过手机观看相关短视频来提高操作水平。他发现,随着刷短视频的频率增加,平台推荐的相关视频越来越多,“游戏攻略、英雄介绍、对战视频都有,电商平台还会推荐鼠标、键盘。”

  这些平台的自动推荐功能,运用了一种叫算法推荐的技术。这是一种通过人工智能分析和过滤机制对海量数据进行深度分析、完成信息内容与用户精准匹配的技术。

  自从1994年美国明尼苏达大学研究组推出第一个自动化推荐系统,算法推荐技术如今已深入到资讯、社交、电商、短视频、搜索引擎等平台和互联网应用中。

  互联网平台变得越来越“懂”用户,在极大方便用户获取信息的同时,也容易引发一些用户尤其是青少年不同程度的沉迷问题。

  “说好只看5分钟,结果一刷就是几小时。”贵州省贵阳市的林忠信说,他12岁的儿子最近迷上刷一些恶搞的短视频,不仅影响学习成绩,与同伴一起进行户外活动的时间也少了。

  从去年5月底开始,全国主要网络短视频平台中推广青少年防沉迷系统。在“青少年模式”下,大多数平台主要推送教育类、知识类等有益内容。但是,在缺乏监护人照管监督的情况下,防沉迷系统效果容易打折扣。

  有受访者反映,一些新闻资讯、网络社交等平台的个性化推送存在“泛娱乐化信息多、低俗内容多、未经核实内容多”的“三多”现象;一些网络社交等平台防沉迷手段较少,容易导致青少年沉迷和盲目模仿。

  北京大学中国社会与发展研究中心主任邱泽奇对记者表示,对自我的偏好是人类认知偏好的一部分,“偏好”阅读可能加速形成“信息茧房”效应和“情绪传染”效应,前者易导致视野局限,后者易使个人情绪受他人感染。

  一些喜欢网购的人还可能因遭遇“大数据杀熟”而蒙受损失。一些平台利用算法技术给不同类型消费者数据“画像”,判断其偏好、用户黏合度、价格敏感度等,使不同用户看到的价格或搜索的结果不同。通常是老用户看到的价格比新用户贵,或搜索到的结果比新用户少。

  今年“双11”期间,北京消费者韩女士发现,她通过某App预订一家酒店,“同一时间,不同手机”预订,价格相差约1000元。

  9月中旬,微博上发起的一个投票显示,有1.5万人认为自己遇到价格明显差异的情况,占所有投票人员的近八成。

  算法技术的重要意义在于,将此前基于人力的“人找信息”转变成基于电脑自动化运算的“信息找人”,既极大解放了人力,又更高效地完成了人和信息的匹配。

  从2012年起,互联网平台今日头条在业内较早将算法推荐系统应用到资讯领域的产品中,实现了系统的自动学习推荐。据今日头条算法架构师曹欢欢介绍,推荐系统综合考量内容特征、用户特征、环境特征等因素进行决策。例如,环境特征包括上班期间、上班路上、下班休息等不同场景下用户的兴趣偏好信息。

  为帮助用户发现更多兴趣点,今日头条不断引入多领域的优质内容生产者,并运用算法推荐给用户;推出“灵犬”反低俗助手,剔除低俗信息。推荐系统还增加了消重和打散策略,前者旨在消除内容相似文章推荐,后者降低了同领域或主题文章的推荐频率。

  不过,在头部互联网平台切实严格自律的同时,仍有一些采编流程不规范、管理不严的网络社交媒体、新闻客户端在业务导向上走偏了。主要表现在:

  ——向用户推荐劣质信息。部分平台为留住用户,不断向用户推荐其关注过的相似内容,其中掺杂低俗媚俗、色情暴力、真假难辨、缺乏深度、价值观导向错乱等信息。一些互联网平台为增加点击率和流量,还会进行人工推荐,主动推荐“博眼球”、打“擦边球”信息,很多用户直呼“辣眼睛”。这反映出一些平台社会责任感缺失,更忽视了价值观建设。

  ——增加用户权益保护难度。一些算法推荐的内容过度强化用户偏好,影响了用户对于信息内容的自主选择权,加剧“信息茧房”效应,极易造成个体与社会的隔离,缺乏对当下国情世情的深刻认识和判断。由于依托于用户浏览记录等数据,算法推荐若设计不当,还可能侵犯用户个人隐私。

  ——进行“大数据杀熟”。中国传媒大学大数据研究中心教授沈浩介绍,对于算法而言,通过用户数据量以及数据更新频次,可轻易判断出是“生客”还是“熟客”。结果是平台大赚,商家、消费者利益受损,还容易导致垄断。

  一方面,奉行“流量至上”的单一价值导向。一些平台为应对竞争,将用户停留时间作为重要考核指标,忽视了自身作为“把关人”的角色定位。而“把关人”必须用积极健康、符合公序良俗的价值观,指引算法推荐的设计和应用,方能确保推送内容价值导向正确。

  另一方面,过度追求“利益至上”,利用其信息不对称优势侵犯消费者合法权益。这是一个需要引起足够重视的法律问题。

  “一些算法的顶层设计思路存在问题。”中国社科院信息化研究中心主任姜奇平对记者表示,英国著名数学家、逻辑学家图灵等学者在勾画人工智能图景时提出,人和机器是对等、双向互进的关系,但现在一些算法设计呈现出人与机器的关系是单项的。比如在大数据方面,迷信相关分析,忽略因果分析。在定义算法效率方面,只把专业化效率定义为效率,而实际上多样化效率也是一种效率。

  有网友最近在一个问答平台发文称,自己在某社交平台和朋友聊天时提到了一款扫地机,随后该平台出现了扫地机器人的广告。在跟帖中,很多网友疑问:“平台是否可能利用算法等技术,抓取用户聊天记录进行广告精准投放?”

  App专项治理工作组专家何延哲今年9月表示,四部委App专项治理工作组在对App多批次检测中尚未发现App有“窃听”行为。但App“窃听”在技术实现上是有一定可能性的,相关部门有必要出台规定,明确企业进行大数据“画像”时能否使用个人语音信息,让用户更放心。

  从另一角度看,社会舆论的疑问其实指向了大数据、算法等技术应用的价值导向问题。如何规范使用大数据、算法技术,让其变得更有“温度”、更让人放心?需要建立起一套行之有效的监管体系、评价系统,确保算法设计者、操作者以健康、正确、积极的价值观,指引算法推荐的设计和应用。

  例如,正在公开征求意见的《个人信息保护法(草案)》规定,个人认为自动化决策对其权益造成重大影响的,有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。

  11月10日,国家市场监管总局发布的《关于平台经济领域的反垄断指南(征求意见稿)》规定,基于大数据和算法,根据交易相对人的支付能力、消费偏好、使用习惯等,实行差异性交易价格或者其他交易条件;对新老交易相对人实行差异性交易价格或者其他交易条件;实行差异性标准、规则、算法;实行差异性付款条件和交易方式等,都可能被认定为“大数据杀熟”等不正当竞争行为而面临更严格监管。

  北京大学电子商务法研究中心主任薛军对记者表示,应针对算法运用的场景、对公民基本权益的影响,对算法进行不同强度的监管。除了法律规定需更加明确外,可以建立某种社会化的评议机制,对平台运用算法产生的后果进行评价,要求平台基于公共价值予以优化。

  压实平台的社会责任。曹欢欢表示,今日头条已不完全依赖算法推荐,而是一个综合“算法+热点+搜索+关注”的通用信息平台,以帮助用户拓展兴趣。用户还可以选择关闭“个性化推荐”按钮或“永久清除历史行为”,自主选择获取信息的方式。

  “应该在算法技术内讲价值伦理,把人之为人的一面当作技术本身来考虑,倡导企业在商业行为中履行社会责任。”姜奇平认为,对算法推荐技术和平台的监管应确保公平和效率、个人信息开发与保护、个人信息与平台信息等方面的平衡,在促进数字经济服务业态健康发展层面考虑,可按照个性化信息服务所得和付出的均衡原则进行政策调整。他建议,确保消费者对信息采集者的服务好坏有评判权,使消费者始终处于主动地位。

  有专家认为,监管部门应督促企业调整业务逻辑,将正面价值取向、用户高品质追求作为关键标签纳入算法顶层设计之中;政府、学校、家长、平台各方应责任共担,不断提升青少年网络素养。

  (原题为《随着信息技术发展、大数据广泛应用,算法推荐让信息传播更加个性化、定制化、智能化,但也出现了一些乱象——我们需要什么样的“算法”?》)

  随手刷刷短视频,“投其所好”的推送纷至沓来;无意间点开一个新闻链接,相关的资讯接踵而至……借助算法推荐,信息的传播效率和精准度大幅提升,每个人都能拥有一份专属的“个人日报”。信息获取已经从“大海捞针”进入“私人定制”时代。

  毋庸置疑,算法推荐凭借对用户浏览数据的精准分析,满足了个性化的阅读需求,也降低了人们获取信息的成本。但不可否认,这种推荐方式在“越用越懂你”的同时,也将一些人推向了固步自封的“舒适圈”。比如,一些算法以兴趣为导向,推荐用户喜欢看的、愿意读的,却屏蔽掉了其他信息。人们看似浏览了很多内容,实际只是在不断重复中强化固有的喜好和对事物的看法。一旦沉浸其中,探索世界多样性的动力和欲望难免降低,最终加剧了“信息茧房”效应,将自己的生活桎梏在“茧房”中。

  每个人对信息都有各自需求,这是人之常情;通过技术手段满足人们对某类信息的偏好,同样无可厚非。但一些不负责任的算法设计,已经不是单纯地“量身定制”,而是刻意地逢迎和取悦用户偏好,将泥沙俱下的网络信息一股脑、无休止地推荐出来,甚至纵容虚假信息、低俗内容肆意传播,导致受众尤其是一些鉴别力、自控力不强的青少年越来越“偏”。

  凡此种种,表面看是以算法推荐为核心的技术问题,但根源在技术设计、相关平台业务导向出了问题。一些互联网平台认为,流量越多,收益预期越高,也更容易获得资本的青睐和支持。然而,当唯流量马首是瞻、算法主导一切时,信息平台也就异化为纯粹的利益平台。行业内有句话:“把用户当成猪,别管喂什么,养肥就行。”可见,在一些企业经营者眼中,算法的价值取向也要给流量让路,这就走偏了。

  规范用好算法推荐技术,打破“信息茧房”的桎梏,不仅需要一些企业“校正”价值取向,更离不开相关各方的共同发力。比如,能否让消费者更方便自由地“关闭算法”?针对算法推荐存在的漏洞和盲区,监管部门如何进行更加精细的管理?为促使企业肩负起公共价值观导向的责任,如何将价值评价作为关键指标纳入产品设计中……总之,只有在内容的生产、分发、监管等环节同时下功夫,我们才有望驶离“信息孤岛”,拥抱更为广阔、理性的天地。

  人类学家尼克·西弗曾指出,算法是文化生活的一部分,不能仅从数学逻辑的角度去理解。这意味着,算法在实践中不应片面追求效率,还必须兼顾公共价值观、社会道德等价值内容。而这部分内容产生的社会影响,并不是数字可以直接计算出的。

  个性化内容推送本质上是解决大数据时代下海量信息内容分发的一种技术,应当客观、公正地看待技术。算法创新了信息传播业的分发模式,顺应了大数据的时代背景,我们应当充分发挥算法的最大效用,同时也要适时适度规范算法,做到善用算法。

  技术承载着价值,利用算法处理和推荐信息,就要对信息内容的社会影响负责。涉及的用户规模越大,就越要注重社会责任。算法推荐使用者对自己推荐的信息内容应认真把关,不能以牺牲导向为代价片面追求经济效益,也不能将把关程序全部交给机器。我们应充分利用算法技术,大范围、精准化把握受众需求,特别是要准确洞察用户的价值偏好,有的放矢做好精准传播,从而实现主流价值的有效抵达。

  算法虽无罪,但是算法不能只给用户“易牙、竖刁、卫开方”,这些人都是想尽一切办法来讨好齐桓公。算法也要给用户他们理智时喜欢的“管仲”。齐桓公理智时喜欢管仲,但是大多数时间,他爱的是总会取悦于他的佞臣,算法更应该主动地去了解用户的高级目标,而不是追随用户本能的喜好。

  数据的快速汇聚对个人信息的保护提出严峻考验。如何在促进数据产业创新发展的同时,强化个人信息保护;如何平衡好挖掘数据价值和用户隐私保护的关系,是每个互联网企业必须面对的问题。特别是进入5G时代,数字资产即将成为推动社会创新进步的重要力量,企业合规使用数据,把握好数据使用和个人信息保护的“度”至关重要。

  算法困境的出路在于算法人性化。整个社会变迁过程中,人们最稀缺的是时间。因为人们没有时间搜索,所以会选择信任人给出来的信息,这样的“信息茧房”效应是人在一个海量信息中形成的生存之道。这种“茧房”要突破其实很容易,只要选择的生活变了,“茧房”马上就会消失。

  应防止互联网平台利用其信息不对称优势侵犯消费者合法权益。如何准确界定“杀熟”而又不损害新业态的活跃性,对执法人员提出更高的要求。


特别提示:本信息由相关企业自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。
举报 收藏
相关行情
推荐行情
点击排行
浙ICP备2021030705号-2