来源:滚动播报
(来源:千龙网)
《算法焦虑:数字时代的恐惧》安东尼·埃利奥特 著 徐法寅 译 格致出版社
刷不完的精准推送、躲不开的用户画像、日渐收窄的信息视野——你是否也正被算法裹挟着陷入莫名的焦虑?安东尼·埃利奥特的《算法焦虑》恰逢其时地剖开了这场数字时代的集体困境。这位敏锐的社会学家并未沉溺于技术末日论,而是直指问题核心:算法本应消除不确定性,却在无形中催生了新的不安。算法已深度嵌入生活肌理,甚至让我们主动交出判断权,陷入“外包自主”的陷阱。那些被“算法黑箱”遮蔽的运行逻辑,那些制造“信息茧房”的精准投喂,那些侵蚀主体性的隐形操控等,书中均有详细透彻的解析。
自动化社会承诺,强大的预测算法会满足“人类的需求”,实现“消费者的欲望”,这也是其吸引力所在。在高度自动化的社会中,预测分析和智能算法是市场重新校准“真实需求”和“潜在欲望”的切入点和落脚点。预测算法对我们个人的影响,以及高级自动化对我们社会的影响,不仅仅是数据权力的强制性影响、算法偏见的危险、行为期货市场中出售给大公司的大量私人数据,其影响还包括一种弥漫性焦虑。这种焦虑已经发生在全球层面,包括各种各样却又紧密相连的恐惧、不祥预感、幻灭和怀疑,也包括重复出现的、令人压抑的想法:自动化的逻辑和常规化的计算控制会影响这个世界及其制度对人类、事物、地点和事件的作用方式。因此,自动化社会中的生活会充满永无休止的试炼和焦虑。
我们可以分析一下这些不同的算法焦虑的显著特征。下面四个特征尤其突出。
机器智能:
暗引偏好,催生隐性焦虑
第一,机器对人类偏好、兴趣和欲望的估算范围和深度都是令人震惊的。社交媒体成瘾、心理健康、军事化、性取向、监管和治理、过度数据消费、自动化的沉迷行为——这些有什么共同点?一些人认为,这种发展是道德伦理与社会数字化之间出现巨大裂痕造成的。然而,这种观点显然缺乏说服力。虽然大多数例子涉及道德后果,但算法焦虑的范围显然更加广泛。不仅道德层面受到影响,而且身份、亲密关系、意识形态和制度生活也都受到影响。对算法计算和自动推荐的焦虑既涉及道德伦理和日常生活,也涉及亲密关系和社会制度,还涉及政治生活和个人生活。这种焦虑,是因为机器智能在很大程度上暗中影响我们,引导我们的偏好,进行我们不曾要求或不需要的计算。
对社会控制的焦虑和恐惧不仅仅是一种普遍的主观感受,而且是我们这个时代影响深远的社会现实;不祥的预兆牢牢地扎根于算法社会。由于“算法焦虑”贯穿整个自动化生活,个人越来越多地根据预测分析的逻辑和具有施为性的大数据来理解自我意识、自信心和个人忧虑。然而,事实证明,焦虑可能不是那么容易回避的。
预测算法:
加速错位,放大失控感
第二,“算法焦虑”的困扰,不仅仅是指预测算法的力量扭曲了我们对时间的体验和对未来的观念。我们谈论“算法焦虑”,是为了强调速度、活力、动力和加速的深度数字错位。预测分析以计算概率的形式呈现,并承诺会超越我们的无知,同时会提高速度、削弱连续性。算法帮助我们应对持续变化的世界,但同时也以同样的速度促进生活的持续变化。传统的意义建构形式和生活行为规范似乎无法适应一个充满算法、机器学习和高能计算的世界。正因如此,焦虑让人们普遍地认为“算法比我们自己更了解我们”。
我要强调的是,所有这些都是由数据驱动的自动化决策的速度推动的。预测算法似乎很有诱惑力,因为它们能够绘制未来的行为轨迹,并且立刻完成,无须等待。对许多人来说,我们生活在一个不断加速的世界,而且,这种感觉越来越普遍。数字技术旨在节省时间、摆脱困境,但事实证明,这只会要求人们花费更多时间:研究最新技术工具或下载新软件,在社交媒体上发布动态,永无休止地“点赞”“转发”“接受”或“删除”。这就是预测算法的诱惑力:它承诺帮助我们应对这个失控世界中难以承受的时间需求,并让我们重新获得对未来的一些控制权。然而,事实却相反:这个通往自动化的旅程通常是一种自我贬低、焦虑恶化的过程。事实证明,预测分析的速度让人们觉得自己被抛弃、无依无靠了,或者完全被一个动态封闭的计算系统淹没了。
数据疲劳:
依赖工具,剥离能动性
第三,远程控制、半自动和全自动的过程和交互,似乎无法构成一个有意义的模式,更不用说构成一个协调一致的模式了。个人每天都因数据过载而感到失望和沮丧,也越来越多地沉浸于数字自动化制造的慰藉中。面对“数据疲劳”,人们在下面这种自动化工具中寻求庇护:自动发帖工具“缓冲器或互随器”,可以自动在社交媒体上发帖;填表工具“填表机器人”,可以自动在线填写表格;购物订阅服务工具“大衣箱俱乐部”“衣服盲盒”“惊喜到家”,可以自动寻找“专为您”挑选的衣服。然而,对如何行动和如何生活的知识,算法产生了破坏性影响。因此,就生活方式的创造空间而言,这种对自由的承诺具有很大的欺骗性。
值得注意的是,这些令人沮丧的自动化会产生一种时间已经停止的错觉。在将任务外包给智能机器时,人们仿佛与自己的能动性分离了,会尽量减少自己的决策、选择、选项和替代方案。在自动化社会,我们可以识别的唯一“核心身份”是预测算法具有的无所不能的能动性,而且这种能动性是人们赋予它们的。这个确定性的世界神奇地回避了身份认同问题,在这个世界,预测算法被赋予预测未来的能力。
信息资本:
割裂公私,窄化应对路径
我在这里强调的算法焦虑的第四个(也是最后一个)特征,涉及如何应对自动化的思维方式以及数据权力和信息资本的入侵。很显然,这些新闻标题说明,当前私人领域和公共领域都充满了自动化的话语,而且对调节人际互动和社会关系这两个领域都至关重要。然而,公共生活和私人生活之间却难以进行交叉和整合,它们都倾向于陷入各自的自我指涉的假设和实践,几乎不可能出现交叉指涉和不同的认识方式。平台资本主义的算法技术(现在大型科技公司可以借此避免、躲避和逃脱责任),可以控制、取代和压制社会对数字革命导致的文化焦虑的理解。这里因为预测算法是不透明的,而且基于信息资本,公司拥有某种特定的权力,可以不做出承诺,也可以逃避责任。媒体报道中流传着个人的担忧,比如对约会应用程序或数量化生活的担忧。但在关于数字监控、虚假新闻或网络安全的更广泛的公共讨论中,这些个人担忧很少被提及。相反,关于这类个人担忧的讨论,往往局限于私人化的个体困扰表述、为规避日益累积的数据风险而形成的个体应对策略,以及聚焦个体的心理健康干预方案。
在所有这些讨论中,我们几乎不能实质地、深入地了解数字世界的混乱和复杂性,因此也不能理解数字技术是如何改变公共生活和私人生活的。
(作者为南澳大利亚大学霍克欧盟让·莫内卓越中心执行主任)