Meta计划大幅依赖AI进行产品风险评估,人工审核将何去何从?

   发布时间:2025-06-01 08:13 作者:柳晴雪

近期,社交媒体巨头meta正在酝酿一场审核机制的变革,计划将原本依赖人工的风险评估工作大幅转向人工智能(AI)处理。据美国国家公共广播电台(NPR)的深度报道,meta内部文件透露,公司旨在让AI承担起高达90%的风险评估重任,这一转变不仅限于常规内容,更将触及青少年保护和“诚信”领域,后者广泛涵盖暴力、虚假信息等敏感问题。

过去,meta旗下平台如Instagram和WhatsApp在推出新功能或更新前,均需经过严格的人工审核流程。然而,近两个月来,meta显著加快了AI技术的应用步伐。现在,产品团队需先填写详尽的调查问卷,再由AI系统迅速反馈潜在风险领域,产品团队必须解决AI提出的问题后方可发布。

对于这一变革,meta内部出现了不同声音。多位现任及前任员工在接受NPR采访时表达了对AI审核能力的担忧,他们认为,AI可能无法像人工团队那样敏锐捕捉到某些严重风险。一位前高管直言,审核力度的减弱等同于“增加潜在风险”,新产品变更可能带来的负面效应更难在初期得到遏制。

meta官方对此回应称,公司并未完全放弃人工审核,而是将“人类专业知识”聚焦于“新颖且复杂的问题”,而将那些“低风险决策”交由AI处理。这一策略调整旨在提升审核效率,同时保持对关键问题的敏锐洞察。

值得注意的是,meta近期发布了其最新季度诚信报告,这也是公司自年初调整内容审核和事实核查政策后的首次报告亮相。报告数据显示,政策调整导致被删除的内容数量有所减少,但与此同时,霸凌骚扰行为以及暴力和血腥内容的比例却略有上升,这一现象引发了外界对meta审核机制有效性的进一步关注。

 
 
更多>同类内容
全站最新
热门内容
本栏最新