> 800字/天 x 120天

撕烤一切:作业:转述纪录片

2022.02.12 00:00

作业:转述纪录片《The Social Dilemma 社交的困境》

这部纪录片整理了近几年来对主流社交软件公司的前高级雇员的采访,深刻分析了社交网络背后的道德问题。

一般来说,这种一对一采访内容的堆砌很容易让观众感到枯燥,而本片的导演却巧妙地设计出三条主线交叉前行,让你看得聚精会神,如同看了一场挖掘行业黑幕的电影。

第一条主线是对这些工程师和科学家的采访,导演没有简单地、独立播放每个人的采访内容,而是把所有采访内容聚合起来,按照话题的进展,让每个专家针对某个共同话题讲述自己的观点,而且通过剪辑,确保他们彼此所讲内容不是简单重复,而是互相支持和递进深入,让观众从多角度理解一个话题背后的原理,社交软件公司的企图,及其对人类社会造成的影响。

第二条主线是虚拟了一个普通家庭,家里有三个孩子,孩子们都沉浸在各自的社交网络之中,尤其通过Ben和Ella这两个孩子身上所发生的事情,展现了社交软件如何攫取他们的注意力,影响他们的心智健康。剧情推进的速度和采访内容同步,专家们刚讲完一个原理,就通过剧情演示出在现实生活中它是如何表现在孩子们身上的,让观众彻底明白事情的原因和后果。

第三条主线是虚拟了某个社交软件的后台,有三个分析师扮演计算机算法的替身,他们为每一个用户建立了一个数据模型,将Ben的人形吊起来分析,通过不断推送各种信息,分析Ben的反馈,不断修正这个模型,从模糊的人形一直精修到如同真人一般,纤毫毕现。每当前台的孩子们在手机上做了什么动作,后台的算法就开始分析其反馈,推送广告、推送下一个需要他看的内容。直到把Ben变成一个可以任意左右的无脑人。

如此,这三条线同步推进,再配合着一些真实的新闻报到,演绎了一场虚实交替的社交网络的故事,让观众于平淡中感到深深的恐惧。

主要受访人包括:
Tristan Harris,谷歌“人道科技中心”的前“设计伦理”专家
Justin Rosenstein,脸书前工程师,谷歌前工程师,Asana联合创始人
Tim Kendall,Facebook前执行官,负责将业务赢利化,曾任Pinterest总经理,现任职Momen公司CEO
Sandy Parakilas,脸书前运营经理,Uber前产品经理
Jeff Seibert,推特前执行官,Serial Tech的创始人
Bailey Richardson,女,Instagram初创者之一
Jaron Lanier,计算机科学家,Virtual Reality(虚拟现实)概念的始创者
Roger McNamee,脸书初期投资人,风险投资人
Shoshana Zuboff,女博士,哈佛商学院退休教授,《监督资本主义的时代》的作者
Chamath Palihapitiya,脸书前增长副总
Anna Lembke,博士,斯坦福大学药学院,药物成瘾药学院长
Sean Parker,脸书前首席执行官
Jonathan Haidt, 博士,纽约大学斯坦恩商学院社会心理学家,《正义的思维:为什么政治和宗教把好人扯碎》作者
Randima (Randy) Fernando,NVIDIA前产品经理,“用心学院”前院长,“人道科技中心”的联合创始人
Cathy O’Neil,女博士,数据科学家,《数学破坏性武器》作者
Guillaume Chaslot,YouTube前工程师,IntuitiveAI的CEO,AlgoTransparency的创始人
Renee Diresta,“Stanford Internet Observatory斯坦福互联网观察报”的研究经理
Cynthia M. Wong,女,“Human Rights Watch”的前互联网高级研究员
Alex Roetter,推特前高级工程副总裁
Maria A. Ressa,女,Rappler 的CEO

主要观点如下(此处的总结远不如纪录片表达得更为震撼):

社交软件公司主要有三个指标:
1 参与度目标,让你一直滑动屏幕不停歇;
2 增长目标,让你不断回来,并邀请更多好友观看;
3 广告目标,确保能从你们的观看和互动中赚尽可能多的钱。

每一个目标背后都有一个算法支撑,算出来应该给你看什么才能让这三个指标上升。

你看过的所有视频,赞过的所有内容,这些数据都会进入系统,经过算法计算,越来越精准地描绘出你的模型,预测你未来的行为。包括你会想去哪里,什么样的视频能点燃你的兴趣,然后把类似视频推送给你。

人类的思维是有弱点的,这是数百万年进化的结果,人类有着基本的生物学欲望去和他人联络,这种欲望的满足直接影响多巴胺的释放。人类正因为如此才得以聚居在一起。而社交媒体能帮助我们优化彼此连接,所以这种载体会让人成瘾,成为一种毒品。

比如你收到一个邮件,说有人在一张照片里圈出了你,你肯定会点击邮件去看那张照片,这是人类的本性。脸书发现了这个功能后,就尽情利用,这是增加点击量的绝佳按钮。

算法就是利用这种心理学弱点吸引人们、说服人们。这就像变魔术,魔术师是最早知道人们的注意力是如何工作的,即使是专人士也会被幻象所欺骗。

你不断刷新内容,你不知道什么时候能刷出来什么,就像玩儿老虎机。此时你脑中就可以被植入一个无意识的习惯,让你在无意识中就在大脑深层次被编程。这种下拉更新机制就是设计科学的应用成果。

将人工智能引擎指引到人类自身,通过反向工程,去发现是什么可能引发我们的反应,就像刺激蜘蛛身上的神经看看能引发哪条腿动作。这就像监狱试验,把人关进矩阵之中,从中收割金钱和数据,利用人的动作牟利,而人们根本不知道发生过什么。

如果某种东西叫做“工具”,它就会忠实地呆在那里,耐心地等你去使用。比如自行车,它问世以来没人会责备自行车破坏了人与人直接的关系,破坏了民主。如果这东西不是工具,它就会对你有所图谋,引诱你,操纵你,从你身上获利。以前我们把技术当做工具,现在我们利用工具让你成瘾从而便于操纵你。社交媒体根本就不是工具,它并不是等在那里等你去使用,它有它自己的目标,他有自己的手段,使用心理学来对付你。

社交软件的设计没有考虑对儿童的心理保护,只是在想如何向他们推荐最佳的内容,或者让孩子更加擅长给照片加滤镜,这绝不仅仅是吸引孩子的注意力而已,而是逐渐深入孩子的大脑,剥夺了他们的判断力和自我身份的认知(通过给自己的照片加滤镜)。

人类的进化使得人们关注部落里其他人对你的感受和想法,但这种进化无法告诉你如何关注上万人对你的看法,也从没有让你每隔5分钟就需要获得一次他人的认可(点赞)。如果你收到负面反馈,或得不到足够的认可,就会陷入抑郁和焦虑。

孩子们被技术工程师所操纵,操纵他们的注意力以至无法完成作业,让他们拿不切实际的审美标准来比对自己。我们有以前有过保护措施,孩子们看动画片时,我们会要求电视台不能在此期间播放儿童不宜的广告。后来有了YouTube,吸走了孩子们的全部注意力,都去看YouTube的儿童频道,所有保护措施和法规都消失了。我们这是在训练整整一代人在孤独、害怕时,向数码产品寻找安慰,这让我们自我心理调节能力下降了。

有一种说法是,报纸、广播、电视的发明,也是为了抓取人们的注意力借以卖广告赚钱,网络只不过是进化到了一个新的层次,我们需要去适应这些新事物,学会与它们共存。但这种说法显然忽略了一件事,计算机的算力增长了万亿倍,而人类的身体、大脑、体质根本没有大的变化,完全跟不上计算机的发展。屏幕的一端是你缓慢进化了上百万年而来的大脑,另一端是数千名工程师和超级计算机,他们跟你的目的完全不同,试想,谁会赢?

当我们谈到人工智能,可能会摧毁人类,比如你可能会想到“终结者”,无人机,但你可能没有想到的是,人工智能其实已经在运营着人类的当今世界了。

技术超越人类时有两个点,一是超越人类的能力和智慧的高点,最终取代人类,但是在此之前还有一个交叉点,即技术超越了人类的弱点,这个超越点就是成瘾、极端分化、激进、被激化的愤怒、过度虚弱等,碾压人类的天性和人性,这是对人性的碾压。

即使是两个非常亲密的朋友,他们有着完全相同的朋友圈,他们在脸书上也绝不会看到相同的新闻推送,甚至截然不同,因为计算机会计算出最适合你的推送。这种推荐算法是系统控制的。

我们上维基百科,里面的内容对所有人都是相同的。试想有一天你发现那上面的内容因人而异,有人出钱让维基百科这样做,于是它就开始监视你、计算出要做什么才能让出资人获益,那就是让用户产生行为和认知的改变,于是就改变了所有的词条,这就是脸书今天所做的事情,YouTube也是这样推送的。

篮球运动员Kyrie Irving就是掉进了这种算法推送的兔子洞而相信“地球是平的”这种阴谋论,后来不得不在电视上对他说过“地球是平的”这一阴谋论的观点而道歉,并责怪这是YouTube导致的,是YouTube给了他一个“兔子洞”。

这就像2.7亿人每个人都有自己的真实世界,同时又有着自己的“楚门世界”。楚门会接受他所看到的“楚门世界”里的一切,而无暇接触真实世界。时间一久,你会有一种错觉,每个人都认同你的观点,因为给你推送的所有新闻都是和你观点极其相似的内容。一旦进入到了这种状态,你就很容易被操纵了。就像被魔术师操纵一样。

硅谷中有很多人相信这样一种说法,说有人正在建造一个全球性超级大脑,我们每个用户都只是其中一个可交互的神经元,就像一个小小的编程元素,被程序操纵,服务于这个超级大脑。你啥也不是,没人给你钱,也没人告诉你真相,你不能自我了结,有人会通过程序操控你这个计算节点。

麻省理工学院做过一个研究,推特上传播的虚假新闻比真实新闻传播速度快6倍。这就是一个利用虚假信息牟利的商业模式,允许把不受监管的信息发送给更多人,卖出更好价钱,以此牟利。脸书有数十亿个新闻发布账户,你无法分别谁是真实的。

如果我想操纵竞选,就去脸书上的某个阴谋论小组,找到100个深信地球是平的、登月是假的的人员,然后让脸书给我推荐1000个类似这样的人,脸书会很开心地给我推荐几千个这样的人,然后我就可以给他们发送更多阴谋论的内容。

想像一下,如果这世界上没有人相信真相(比如,所有人都应该打疫苗),所有人都认为政府在欺骗他们,一切都是阴谋论,不能信任任何人,痛恨反对我的所有人……,这个世界将走入怎样的境地。

而这种情况正在大规模发生。我们技术界的人创造了工具,可以动摇和侵蚀社会结构,每个国家都在发生这样的事情。

这不仅是在政治上支持谁的问题,它创造了动荡,创造了不再愿意聆听对方观点、不再信任对方的的双方。

我的想要把这个系统拍卖给出价最高的竞买者吗?还是利用它寻找目标人群,向他们发送定制化假信息,从而创造文化战争?我们想这样做吗?

我们创造了这样一个世界,在线交往是主流社交方式,尤其是对于年轻一代来说。而为人与人之间的每次互动提供经济资助的却是狡猾的第三方。他们出钱给社交软件公司去操纵用户,这意味着一整代年青人的沟通、文化都被操纵了,软件公司为这些第三方提供了一个正中间的坐席以方便他们操控这一切。

如果我们不能就什么是真相达成一致,或不同意存在真相,我们就彻底完了。这是埋藏在所有问题之下的问题,因为如果我们不能认同真相,我们就无法找到任何解决问题的办法。

一般人认识不到这一点,认为我们只是在用手机而已,就算背后有个超级大脑在指指点点有什么威胁?其实,技术本身不是威胁,但技术有能力把社会中最坏的东西带出来,这些肮脏的东西才是人类存亡的威胁。如果技术创造了动乱、彼此不信任、孤独、疏远、两极分化、黑入大选、干涉平民政治,分散公众的注意力,使人们无法关注真正的问题,社会就无法自愈,会因混乱而瓦解。

如果这种情况持续20年,我们很可能因故意忽视这一问题而毁掉我们的文明,会无法应对气候变化,会瓦解世界上的民主制度,毁坏世界经济,可能人类都无法生存,这真的是生死存亡的问题。

“抓取人们的注意力”的这种竞争还会继续下去,技术会更加融入我们的生活,AI会更擅长预判是什么内容能让我们持续盯着屏幕。如果你不知道自己身在矩阵,你怎能能在矩阵中醒来?

技术,即可能是乌托邦,也可能带来反向乌托邦。我看到的是一群被商业模式困住的人,他们受制于经济利益刺激、股东压力,无法做出赚钱之外的任何事。

但这是我们自己建造的东西,我们有责任去改变它。吸引注意力这种商业模式并不是我们想要对待人类的方式,脱离这种不健康的模式社会才能变得健康。我们应该要求把这种产品设计得更人性化,不要把人当做待提取的资源。
要改变这一切,听起来挺疯狂,但我们需要这样做。无论何时能实现,我们必须这样做。

影片最后,专家们也给出了自己的一些建议,如何让自己和家人远离这种陷阱,若您有兴趣可以去片尾看看。

撕烤一切

Comments
Write a Comment