来源:市场资讯
(来源:财联社)
《科创板日报》1月24日讯(记者 张洋洋)“为什么我刚想看一部电影,APP就推给了我?是不是在‘偷听’我说话?”在抖音2026安全与信任大会上,北京大学教授邱泽奇提出了这样一个问题,这类疑问在社交媒体上屡见不鲜。
在邱泽奇看来,公众对算法的恐惧很大程度源于它像一个“黑盒”——看不见运作机制,摸不清推荐逻辑。
过去数年,围绕短视频平台算法的讨论始终伴随着质疑:是否制造信息茧房、是否放大情绪对立、是否纵容谣言与极端内容传播。在用户规模、内容影响力不断扩张的背景下,算法不再只是技术问题,而被视为一种公共议题。
在这场大会上,抖音发布首份《抖音安全与信任年度报告》,从公开算法原理,到披露治理数据,再到明确下一阶段治理计划,这份报告被视为平台系统性回应算法争议的一次集中呈现。
但从治理视角看,更值得关注的不止“做了什么”,而是:这些举措回应了哪些争议,又解决了多少问题。
▍算法能“偷听”吗?
围绕算法是否在“监听”用户的问题,邱泽奇给出的解释并不复杂。
在他看来,推荐算法并不具备“读心术”,其核心是对用户历史行为的概率计算。“当你点赞、完播或快速划走,都会成为算法调整模型参数的依据。所谓‘懂你’,更多是你与算法共同塑造的结果。”
中国科学院软件研究所研究员、抖音知识创作者张立波也从技术角度分析提出,算法并非具备意志的主体,而是一套基于统计和建模的工具。“算法计算的是你对某类内容产生互动的可能性,而不是理解内容的社会意义,更谈不上价值判断。”
多位学者的共识在于,算法的风险并不完全来自技术本身,而来自其规模化应用后的社会影响。当算法成为信息分发的重要基础设施,其透明度、边界和责任,就不可避免地进入公共讨论。
在大会现场,抖音内容运营负责人李翔宇试图回应这些长期争议。他表示,平台在过去一年重点推进两项工作:算法公开与治理公开。
“算法的核心工作,是预估用户对某条内容产生互动的概率,比如是否看完、是否点赞、是否分享。”李翔宇解释称,抖音已通过“安全与信任中心”网站系统性披露推荐机制的基本逻辑,并集中回应公众关心的高频问题。
▍AI与热点争议叠加
相比传统算法争议,生成式AI的普及让内容治理面临新的挑战。
抖音内容运营业务代表唐跃在大会上提到,AIGC技术降低了内容生产门槛,也降低了制造误导性信息的成本。“一些内容并非完全虚构,而是通过拼接、断章取义的方式‘以真乱真’,在热点事件中更容易获得传播优势”。
对此,抖音在过去一年中引入大模型和智能Agent参与谣言治理。平台披露,借助多模态理解和传播异常识别,谣言识别响应时间已从“天级”缩短至“小时级”,平台谣言曝光量较年初下降90%。
“目前,我们也在筹备一个新功能。”据唐跃披露,如果用户在观看视频的过程中还心存疑问,可以在评论区直接 @抖音求真,把“我具体困惑在哪里”说出来,系统会触发AI分身进行真伪鉴别与解答,让用户在便捷的场景里,完成一次“即时求证”。
在AI内容治理上,平台尝试建立可识别机制。唐跃介绍,抖音已推动AI生成内容元数据标识的读写能力,并在推荐和搜索场景中向用户提示内容属性,“不是否定AI创作,而是降低误导风险”。
当然,外界对平台治理争议最集中的场景,往往出现在热点事件中。
抖音热点运营负责人田济铭表示,平台已建立热点分级分类机制,在事件发生初期即介入研判。“对事实尚不清晰、争议较大的热点,我们会标记风险,限制争议热点当事人不当变现,并强化权威信息分发”。
从报告披露的数据看,抖音的算法公开与平台治理已取得阶段性效果,但平台推进透明化的工作并未结束。一方面,平台透明化仍需要在外界监督与内生动力下持续进行;另一方面,内容风险并非单一技术问题,仍与创作动机、传播结构密切相关。
同时,抖音方面也透露了2026年的治理计划:在谣言治理上,将持续升级agent能力,建设更全面的知识库,强化与媒体辟谣团的信息共享机制;在热点管理上,将推进“理性创作计划“,提供多元选题角度,加大对优质内容的流量倾斜;在信息透明度方面,将持续公开平台不鼓励的内容类型和管控措施,引导健康的流量导向。