英国通信管理局审视Meta AI风险评估争议 行业组织呼吁加强监管

  • 2025-06-22 05:40:43
  • 495

[环球网科技综合报道]6月9日消息,据外媒报道,多个行业组织对英国通信管理局(Ofcom)呼吁,限制Meta在关键风险评估中使用人工智能。英国通信管理局表示,正在“考虑”活动人士提出的担忧。

据此前报道,Meta计划将高达90%的应用更新风险评估自动化。对此,多个组织在一封信中将人工智能驱动的风险评估的前景描述为“倒退且令人高度担忧的一步”。

英国通讯管理局(Ofcom)的一位发言人表示:“我们已经明确表示,服务机构应该告知我们谁完成、审查并批准了他们的风险评估。我们正在考虑这封信中提出的问题,并将在适当的时候做出回应。”

而Meta则表示,这封信故意歪曲了公司的安全方针,该公司致力于高标准并遵守法规。

Meta的一位发言人表示:“我们并非使用人工智能来做出风险决策。相反,我们的专家构建了一个工具,帮助团队识别特定产品何时适用法律和政策要求。我们使用由人工监督的技术来提升管理有害内容的能力,我们的技术进步显著改善了安全结果。”

上个月,外媒报道称,Meta的算法更新和新安全功能将主要由人工智能系统批准,不再由工作人员审查。据一位不愿透露姓名的Meta前高管透露,这一变化将使公司能够更快地在Facebook、Instagram和WhatsApp上推出应用更新和功能,但也会给用户带来“更高的风险”,因为在新产品向公众发布之前,潜在问题不太可能得到预防。(思瀚)