摘要:他说:“有人利用了算法,屏蔽了多角度来的消息。很多恶是人为造成的,尤其是利用了科学、科技手段、技术能力后,那造成的恶比普通人造成的恶要大。”
导语:为什么说算法没有价值观,但人一定要有?本文与大家探讨。
最近这段时间,有两件事情蛮触动我的。
第一个,是农夫山泉董事长钟睒睒炮轰算法,向今日头条、抖音公开宣战。
他说:“有人利用了算法,屏蔽了多角度来的消息。很多恶是人为造成的,尤其是利用了科学、科技手段、技术能力后,那造成的恶比普通人造成的恶要大。”
最后,他喊话张一鸣,要求对方承担起文明整治的责任。
第二个,是最近中央网信办、工信部、公安部、市场监管总局四部门联合发文,开展“清朗·网络平台算法典型问题治理”专项行动。
文件中列举了一些算法乱象:
比如,同质化推送营造“信息茧房”。算法推送你想看的,诱导用户沉迷。
比如,盲目追求利益侵害新就业形态劳动者权益。文件直指一些外卖平台,要求严防“一味压缩配送时间导致配送超时率、交通违章率、事故发生率上升等问题”。
比如,大数据杀熟。根据用户年龄、职业、消费水平等特征,对相同商品实施差异化定价。
比如,算法向上向善服务缺失。文件要求平台提供有利于未成年人、老年人身心健康的信息。
监管部门的态度是很明确的,这些“算法乱象”必须改变。
关于平台算法,一直以来有很多的讨论。也有人问我:“Cherry,你怎么看这件事?”
我想先告诉你3个概念:上瘾、信息茧房、仇恨袋。
我们一个个讲。
什么是上瘾?你可能听过生物学上的一个著名实验——“老鼠也疯狂”。
一只老鼠被连上了一个电极,每当老鼠按下按钮,就有微小的电流刺激它的大脑。
但老鼠被电后不仅没有躲开,反而越来越兴奋。
12个小时的时间里,老鼠足足按了7000次按钮,最后力竭而死。
原来,电极刺激了大脑区域的快感中枢,于是老鼠上瘾了,掉入了这个“快感陷阱”里。
在算法时代,快乐容易,上瘾也容易,我们很容易变成这只疯狂的老鼠。
你想想,你是不是也是这样的?
下班回家,本打算放松一下,打开手机,刷短时间,一看就是好几个小时,根本停不下来。
之所以这样,是因为算法设计常常利用大脑中的多巴胺奖励系统来引发上瘾行为。
比如,你刷到一个喜欢的视频,多巴胺就会分泌一下。多巴胺会给你带来愉悦感和满足感,使你产生想要继续这种行为的冲动。
平台通过算法,精准推送你喜欢的视频内容,不断刺激你大脑释放多巴胺,久而久之你就会上瘾。最后,你的时间就耗在了这些低级的娱乐上。
这个世界遵循等价交换的原则,凡是让你上瘾的东西,必定也让你痛苦。
一方面,上瘾让你把时间都浪费在一些“廉价的快乐”上,损害你的身心健康;另一方面,上瘾会导致额叶皮层结构萎缩,损伤大脑,导致记忆力、注意力下降。
2018 年美国国家卫生研究院(NIH)的一项研究发现,每天使用智能手机超过 7 小时的 9 至 10 岁儿童的大脑会出现明显的萎缩。
更重要的是,算法不断推送与你兴趣、观点相符的内容,而较少看到其他不同类型的信息。
久而久之,“信息茧房”就会逐渐构建起来。
信息茧房什么是“信息茧房”?这是由哈佛大学教授凯斯·R·桑斯坦提出一个概念。
简单来说,就是在信息传播中,如果一个人只关注自己选择的领域,或者只关注使自己愉悦舒服的东西。
时间久了,便会像蚕一样,将自己封闭在自我编织的“茧房”之中。
现在大数据兴起,算法推荐越来越高级,平台会基于你的浏览记录、阅读习惯,迅速摸清你的喜好,给你主动推荐你最感兴趣的内容。
比如,当你在社交媒体上点赞认同了某一个观点时,过几个小时后,它又有一篇近似的资讯推荐给你。
你每天都被定制化的信息流包裹着,只看见自己想看的,听见自己想听的。你当然会很高兴,因为你会觉得这个世界就是你所理解和认识的样子。
但,真的是如此吗?
我给你举个例子:你知道吗?在美国,有很多人相信地球是平的。
曾经有机构针对美国人做了一项调查,结果显示34%的美国人不确定地球是不是圆的。同时,每50个美国人里面,就有一个是“地平说”的捍卫者。
之所以有这么多人相信“地球是平的”,这和平台算法推荐脱不了关系。
这种看似荒诞的论调,在推特、YouTube等平台上被推荐了几亿次,因为有的人喜欢,算法每天都在变着法地给人们推送“地球是平的”的内容。
观点不断重复,认知不断强化,令越来越多的人相信了“地球的平的”这种说法。
甚至,有一位美国发明家为了证明地球是平的,发射自制载人火箭,结果因火箭坠毁而身亡。
当你陷入到“信息茧房”中,你会丧失全面看待事物的能力,你的思维会变得狭隘,离世界的真相,越来越遥远。
不光如此,你的茧房越大,认知越固化,往往越富有攻击性。
你可能听过“仇恨袋”的故事。
仇恨袋希腊神话中,有一个英雄叫海格力斯。传说有一天,他走在坎坷不平的路上,看见脚边有个像鼓起来的袋子的东西,很难看,他便踩了那东西一脚。
谁知,那东西不但没有被他踩破,反而膨胀起来,并成倍地增大。
海格力斯被激怒了,于是,他捡起一根碗口粗的木棍砸那个怪东西,没想到那东西膨胀得更大,竟然把路给堵死了。
就在这时,一位智者出现了,告诉他,这个东西叫“仇恨袋”。你越是愤怒,充满仇恨,它就会越胀越大;相反,你若不理它,它就会变小如初。
算法喂养的世界里,我们的认知不断被固化,偏见不断被加深。极端的观点,愤怒的情绪,激化的矛盾,令“仇恨袋”越长越大。
尤瓦尔·赫拉利在《智人之上》提出了一个观点:企业在要求算法提高用户参与度的时候,就开始了一个走向偏激与极端的过程。
他讲了一个例子,YouTube主播发现,如果发布满是谎言、让人愤慨的视频,会受到算法青睐,视频会被推荐给大量观众,于是自己的人气会飙升。
相较之下,如果不刺激人们愤怒的情绪,坚持只谈事实,算法常常对他们的作品视而不见。
经过几个月的强化学习,算法让许多YouTube主播都成了喷子。
这也是为什么在一些平台上,噱头、情绪、非理性、偏激等方面的内容大行其道的原因。
对于用户而言,被裹挟在这样的信息洪流中,很容易失去是非的判断,再加上算法推荐,营造出一种“不光是我一个人这么想”虚假的认同,就更容易强化偏见,助长群体对立,每个人的意见越来越不相容。
我之前说过,任何生意,都是做人性的生意。当你利用了人性中的恶的一面,或许会有爆发式的增长,但能长久吗?一定是不可以的。
科技应该向善,应该激发人良善、美好的一面。算法不能只有精度和准度,还应该要有温度。
归根结底,算法解决的是人与人之间的事。人,才是丈量算法的尺度。
因此,企业在算法设计、开发和应用过程中必须遵循“作为人,何为正确”的朴素价值观,遵循基本的伦理原则,要“利人”而不能“损人”。
而这也正是企业的应尽之责,应有之义。
最后,我想说:科技的发展,不是为了作恶,而是向善。科技向善的背后,其实是人心向善。算法固然没有价值观,但人一定要有。唯有心存敬畏,有所为有所不为,你才能走得更远。
不想被困在信息茧房里,你就要学会独立思考。
每天学习,精进,提升你的认知能力。
如何深度思考,抓住本质,找到做事的方法?
不追过程就拿不到结果,具体该怎么追?
又该如何奖优罚劣,激励员工创造更大业绩?
如何养成良好的工作习惯,提升管理效率?
如何写周报、开周会,开启动会,做业务复盘……
以上内容你都可以在《一线管理者的3大管理体系》中找到答案。不仅有干货,还有20个管理工具实战模板,18讲精致实用课程,助你进化管理思维与实战能力。
来源:张丽俊说管理一点号