正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2021-09-10 11:35

在我地盘这儿,算法得听我的

在互联网与人们生活深度融合的同时,算法也在不知不觉间“入侵”我们的日常点滴,比如人们逐渐习惯平台首页推荐出现的都是自己感兴趣的内容。而《互联网信息服务算法推荐管理规定(征求意见稿)》的颁布打破了这一“入侵”。毫无疑问,未来算法推荐将迎来大变革,个人信息安全也会愈发受到重视。


本文来自微信公众号:人人都是产品经理(ID:woshipm),作者:吴之猫,题图来自:视觉中国


2012年,美国的一位父亲怒气冲冲地投诉他家附近的塔吉特超市,因为超市为他未成年的女儿不断发送各种婴儿用品的优惠券。而后来,没想到这位父亲发现他的女儿真的怀孕了——算法比这位父亲更早地知道了他女儿怀孕。


从那时起,大数据和算法伴随着这个故事开始广泛流行。


2021年,算法已经悄然变得比我们自己更懂自己。有时候只是心里念着一样东西,随便打开一个购物APP,就看到一模一样的东西出现在了首页的推荐清单里。驾车时我们也无需记忆各种复杂的地图,只需要输入起点和终点就能得到算法匹配出的最优路线。


而当一件一件的事情变成了一个一个的算法,一个一个的人变成了各式各样的算法标签,不仅是外卖员困在了算法里,不容任何差错地追赶算法给出的最优路径;每个人也似乎都按照算法给出的画像生活,看算法认为你感兴趣的新闻,看算法推荐给你的有趣的视频,购物平台也早已为你生成了你需要购买的物品清单……


算法带来的便利渐渐消除掉了人们的温情和对未知的好奇心,不由得让人们开始反思怎样让算法融入而不是控制我们的生活。


一、算法推荐服务专项管理规定出台


2021年8月27日,国家互联网信息办公室颁布了《互联网信息服务算法推荐管理规定(征求意见稿)》(以下简称“《意见稿》”),从国家层面开始对算法推荐服务进行监督和管理。


《意见稿》对目前算法推荐服务存在的问题提出了相应的管理规定,我们先来解读一下对几个热点问题的规定。


1. 不得进行大数据“杀熟”


大数据“杀熟”可谓是算法带来的最为严重的问题之一,各大平台利用大数据算法对用户个人进行画像分析,对不同用户实施差别化定价。特别是对于价格不敏感的老用户收取更高的费用来补贴新用户,把老用户当“韭菜”来割。这样的行为也引起了社会普遍的不满。


对此,《意见稿》第十八条专门提出,“算法推荐服务提供者向消费者销售商品或者提供服务的,应当保护消费者合法权益,不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实行不合理的差别待遇等违法行为”



2. 规范各类推荐榜单及热搜


对于各类榜单和热搜,当人们研究清楚了相应算法的规则,不免会有人利用规则漏洞采取各种各样的方法来操控榜单。


我们经常看到众多流量明星的内容频繁出现于微博热搜榜之中,活跃于各大媒体的推荐榜单之中,而这些内容却始终没有与流量一致的反响程度和价值。


《意见稿》第十一条提出,“算法推荐服务提供者应当加强算法推荐服务版面页面生态管理,建立完善人工干预和用户自主选择机制”,希望能够通过人工干预来弥补推荐算法缺乏价值判断的漏洞。


第十三条更是明确规定,“算法推荐服务提供者不得利用算法虚假注册账号、非法交易账号、操纵用户账号,或者虚假点赞、评论、转发、网页导航等,实施流量造假、流量劫持”,从源头限制算法推荐服务提供者既制定算法规则,又利用算法漏洞操控推荐内容。



3. 用户享有算法控制权


《意见稿》第十四条规定,“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图、运行机制等”


用户在看到推荐给自己内容的同时,有权利了解背后的算法运行机制,查看推荐这些内容的原理。


此外,第十五条规定中要求,“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项”,意味着用户在享有对算法推荐机制知情权的同时,可以直接接受拒绝算法推荐服务,将算的控制权也交还于用户手中。



4. 用户自主选择算法标签


关于推荐算法的用户标签,《意见稿》第十条规定,“不得设置歧视性或者偏见性用户标签”


但“歧视性”和“偏见性”的范围比较难界定,比如性别、年龄、收入这些常用的用户标签严格来说可能都带有一些歧视和偏见的色彩。同时,《意见稿》的第十五条提出“算法推荐服务提供者应当向用户提供选择、修改或者删除用于算法推荐服务的用户标签的功能”。


也就是用户可以调整自己的用户画像,这与目前基于真实数据的画像相比,会带来主观感情色彩的失真,使得推荐服务其实是基于用户理想中的自己做出的推荐,对推荐算法后续的效果的评价和调优造成比较大的困难。



二、对产品和运营的影响


目前《意见稿》还在公开征求意见的阶段,但结合2021年8月20日通过的《中华人民共和国革新信息保护法》(以下简称“《信息保护法》”)来看,国家已经下决心开始对数据和算法服务进行监督和管理。


我们不妨试想一下,当《意见稿》和《信息保护法》正式执行之后,可能会对互联网产品和运营带来哪些影响。


1. 精准广告服务将受到约束


从微信开始在朋友圈进行广告推送以来,基于地区、性别、爱好等用户标签进行精准定向的广告投放成为了广告行业的新趋势。


微信的朋友圈广告还可以看到好友的点赞和评论,看看有哪些好友一起被这个广告推荐算法所选中。看到不符合自身情况的广告推送,也总会看到广告下面恶搞和吐槽的评论。


近几年,今日头条、抖音、微博等平台也都推出了精准广告服务,比如抖音可以根据位置、性别等信息精准地推送视频广告。


这半年我频繁地在抖音上刷到家旁边驾校的推广视频,很惊讶抖音是怎么分析出我是没有考驾照的?另一方面我又苦于无法关闭这些广告,因为我之前学过驾照但没有通过考试,对于考驾照这件事一直在拖延和逃避,每次刷到广告都会勾起不好的回忆。


精准广告已然成为了数字时代针对个人进行精准营销的典型模式,但似乎却没有人在意那些用户数据是否真的可以随意获取和使用。


《信息保护法》第四十四条,明确了“个人对其个人信息的处理享有知情权、决定权,有权限制或者拒绝他人对其个人信息进行处理”。在正式执行之后,如果大部分用户选择拒绝这些产品对个人信息进行分析和利用,那么精准广告服务也就失去了最为基础的数据支撑,精准广告服务的发展也会受到比较严重的限制。


《意见稿》中也明确指出:用户可以“选择、修改和删除用于算法推荐服务的用户标签”;“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项”。


即便用户选择授权个人信息的使用,用户也有权利修改自身的用户标签,也就让所谓的“精准”大打折扣。


同时,用户有权利拒绝针对个人特征或者全部的算法推荐服务,这让平台可能需要通过补贴等形式鼓励用户使用,那么也会进一步增加精准广告业务的成本。


2. 从预测需求回归到满足需求


伴随着大数据和算法的不断发展,个性化的推荐功能成为了几乎每个产品设计的重点之一,众多互联网产品的主页都是以算法推荐服务为核心进行设计的,以展示出产品“千人千面”的特点。


而这也是在人们没有意识到信息的重要性或没有途径保护个人信息的背景下的产物。当个人可以拒绝个人信息的授权和算法推荐服务时,互联网产品也需要回归到自身的内容和服务来重新进行定义和设计。互联网产品可能会迎来一波改版升级潮。


没有了个性化的推荐,并不代表没有了用户个性化的需求,企业更需要将战略重点集中到怎样能够直接地获取到用户的需求、怎样更快更好地满足个性化的需求上来。


对于产品运营而言,失去了用户个性化推荐这条途径,推荐界面的内容也可以回归企业自身的运营策略,减少单个用户的偏好对整体运营策略的影响。


其次,产品运营也更需要与用户建立深度的连接,更多地与用户进行直接的沟通交流,而不是过分地依赖于数据分析,依赖于可能连运营人员自己都无法理解的算法给出的结果。


3. 算法推荐服务产品化


《意见稿》中明确地提出,“不得设置歧视性或者偏见性用户标签”,“算法推荐服务提供者应当向用户提供选择、修改或者删除用于算法推荐服务的用户标签的功能”。


如果用户标签开放给用户自己选择,用户标签就不能像在后台处理和分析一样随意频繁地进行调整,标签的设置需要经过周密的思考和测试。


为了避免标签太敏感和直接,还需要为每个标签起个萌萌哒的名字,以便让用户更容易接受。


让推荐算法和用户标签支持用户自己进行调整,其实是将算法推荐服务进行了产品化。当用户根据自己的真实需要对推荐服务进行了调整之后,推荐结果也由“算法认为用户想要的”真正转变成为“用户想要的”。哪个产品的定制算法可以真正满足用户需求,也就更容易受到用户的喜爱。


与此同时,需要制定相应的运营策略来鼓励用户进行算法的调整和更新,而且也可以结合产品自身的会员体系和成长体系,不断增加产品的用户粘性。


三、未来与趋势


1. 个人数据安全赛道兴起


对于个人信息,我们不是希望禁止所有对于个人信息的调取,真正恐惧的是不知道自身的信息都被哪些人和机构所使用。


现在似乎随便一个陌生的电话推销员,就知道你的姓名、身份证号、家庭住址等种种的个人信息。


《信息保护法》为个人信息的保护提供了法律依据,《意见稿》也为算法推荐服务制定了相关的管理规定。但个人依旧无法主动掌控个人信息的使用,依然需要依赖于个人信息处理者遵守相关的规定。法律法规和管理办法都只能在事后追究违反者的责任,当面对巨大的利益时,可能还是会有人铤而走险。


目前,企业纷纷向数字化转型,在企业端积累了越来越多的数据,企业的数据安全成为了备受关注的领域,但对于个人信息安全,还是鲜有人关注。


我还是认为随着国家的监管力度的加大和个人信息保护意识的觉醒,个人数据安全一定会成为一个新的热点赛道。


在数字时代,数据是最重要的财富,而个人的数据信息也应该由个人来掌控,不能未经允许就被利用或者买卖。


我们可以尝试在特定的领域,通过与区块链等技术的结合,实现完全由个人来管理自己的个人信息的授权,让个人能够追溯和查看个人信息每一次的调用记录。


希望能有一天,社会也能够像为知识付费一样,为获取个人的数据而付费


2. 算法To B的时代来临


近些年,伴随着数据技术和移动互联网的发展,面向C端用户的各类互联网产品能够收集和获取到海量的用户使用数据。


在个人信息没有被重视和保护之前,能获取到的数据几乎就等同于可以进行分析的数据,面向C端用户的各类算法得到了迅速的发展,已经可以实现“千人千面”的用户画像。


算法离不开数据,随着民众个人信息安全意识的提高以及国家对于个人信息的保护的加强,个人信息不再可以未经授权的随意使用,面向C端用户的算法应用场景也会越来越受限制。


但算法远远不止推荐算法这一类,在供应链管理、质量控制、辅助决策等面向B端的应用场景中,算法能够极大地帮助企业用户提升生产和运营效率。


而且随着越来越多的企业向数字化转型,企业也能够积累越来越多高质量的生产运营数据,企业对自身生产运营数据的处理和分析不会像用户数据一样受到限制,企业也希望能够有更多的算法来让这些数据产生价值,我们或许将会迎来一个算法To B的大时代。


3. 可解释性>算法结果


Alpha Go战胜李世石之后,人们都惊叹于Alpha Go在第二场第37手的神来之笔,惊叹人工智能和算法已经可以自己学习并超越人类。


此后,人们遵循着“有足够的数据和足够好的算法就可以训练出和Alpha Go一样的人工智能”的逻辑,在人类生活的各个领域不断进行着类似的尝试,而从AlphaGo到今天,似乎也没有出现比Alpha Go更为轰动的人工智能。


Alpha Go之所以能够轰动世界,不是因为那一步从来没有人能够想到过的棋,而是人们能够一致地理解和解释这一步棋的精妙。


围棋是人类发明的游戏,人们能够完整地整理出围棋的所有规则,而且这些规则是所有人都统一的。


在很多很多的领域,人类的探索可能都还没有揭开最表面的那层面纱,对于同一个问题人类社会都没有一个统一一致的规则和答案。


对这类问题,算法的得出结果的过程可以被人们所解释,往往比结果本身更为重要


算法可以被解释,意味着人们可以进一步分析朝什么样的方向可以优化算法,人们也可以知道在何种情况下参考算法给出的结果。


就如购物平台的商品推荐,我个人基本上想要买什么东西,搜索之后就很快下单了。而推荐算法可能比较依赖于我的搜索记录,结果推荐给我的大都是我已经买过的商品。


如果我能够看到并且调整推荐的算法,可能我会将搜索记录的权重调整得更低一些。


或许将来在推荐栏里看到了一袋大米,能够同时看到“距您上次购买大米已经一个月了,您可能需要再次购买一袋”的推荐理由,这样类似沟通交流形式的推荐更容易让我接受,也更有帮助。


又或许在2012年,塔吉特超市推荐婴儿用品的优惠券时,能够说明推荐的理由,那位父亲也就不会那么气愤地去投诉超市了。


本文来自微信公众号:人人都是产品经理(ID:woshipm),作者:吴之猫

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: