近日,抖音安全与信任中心在北京首次举办专家交流活动,吸引了来自学术界的十位知名学者参与。这场以“算法向善”为主题的讨论会,旨在通过社会各界的协同参与,提升算法透明度与平台治理水平。
今年以来,抖音在推动平台透明化方面动作频频。3月底,其安全与信任中心网站正式上线试运营,公开了算法技术原理与平台治理规则。4月,该中心举办“开放日”活动,算法工程师现场解析推荐机制的运行逻辑。此次专家交流会作为系列活动的首场,汇聚了北京大学、中国人民大学、中国政法大学等多所高校的学者,围绕算法伦理、用户权益保护等议题展开深度探讨。
北京大学博雅讲席教授邱泽奇指出,推荐算法的本质是匹配用户即时兴趣的效率工具,但用户需求的动态变化使得精准匹配存在天然局限。他强调,平台需在满足用户社会属性与自然属性之间寻求平衡,“这种困境恰是平台优化服务的契机”。对于内容质量评价,邱泽奇建议以“信息密度”替代“高低质”的二元划分,认为不同群体对优质内容的定义存在差异,中性表述更具包容性。
中国人民大学新闻学院教授彭兰关注算法对用户行为的影响。她提到,随着算法推荐能力的提升,平台需防范用户过度沉迷问题。尽管多样化内容推荐可能打破“信息茧房”,但用户使用时长反而可能延长。针对抖音提出的“获得感”内容标准,彭兰呼吁建立更具体的量化指标,以提升内容评价的可操作性。
中国政法大学数据法治研究院教授张凌寒等学者则聚焦AIGC滥用、摆拍内容治理等新兴问题。她指出,深度伪造技术的普及对平台内容审核提出更高要求,需建立动态识别机制。对外经济贸易大学法学院教授张欣补充道,流量分配规则的透明化是用户权益保护的关键,平台应明确内容推荐的影响因素。
在数据隐私领域,暨南大学新闻与传播学院副教授师文提出,用户浏览记录的可视化能增强自主管控能力。他引用国外实证研究称,年度内容盘点、使用时长提示等功能可帮助用户反思行为模式,提升对算法的认知。这一建议与抖音5月升级的“使用管理助手”功能不谋而合——该工具允许用户通过三级按钮调节内容权重,并支持屏蔽关键词与“不感兴趣”反馈。
针对谣言治理,中国人民大学新闻学院教授刘海龙认为,大模型技术虽能提升虚假信息识别效率,但消息传播的不确定性仍给平台带来挑战。他指出,完全禁止可疑信息传播虽能降低平台风险,但可能损害公众知情权,“如何在风险控制与信息流通间找到平衡点,是技术治理的核心难题”。
目前,抖音安全与信任中心已通过官网(95152.douyin.com)公开算法原理、社区规范及治理体系,并在“用户服务”板块提供未成年人保护、权益申诉等路径指引。平台表示,将持续通过专家研讨、媒体沟通等形式,推动算法伦理与社会需求的深度融合,接受公众监督与建议。