英组织呼吁监管:Meta用AI做风险评估是否靠谱?

B站影视 欧美电影 2025-06-09 11:36 2

摘要:近日,互联网安全领域的活跃分子向英国通信监管机构Ofcom发出了一份紧急呼吁,要求该机构对人工智能(AI)在关键风险评估中的使用进行严格限制。这一呼吁的背景是,社交媒体巨头meta公司宣布计划将风险评估流程自动化,这一消息引发了广泛的关注和担忧。

近日,互联网安全领域的活跃分子向英国通信监管机构Ofcom发出了一份紧急呼吁,要求该机构对人工智能(AI)在关键风险评估中的使用进行严格限制。这一呼吁的背景是,社交媒体巨头meta公司宣布计划将风险评估流程自动化,这一消息引发了广泛的关注和担忧。

Ofcom在收到呼吁后表示,他们正在密切关注此事。此前,一份报告指出,meta公司旗下的Facebook、Instagram和WhatsApp等平台,预计将有高达90%的风险评估工作由AI系统完成。这一消息引发了Ofcom对于AI在关键安全领域应用的深入思考。

根据英国的《在线安全法案》,社交媒体平台有责任评估平台上可能出现的伤害风险,并采取相应的缓解措施,特别是要保护儿童用户免受伤害,并防止非法内容的传播。风险评估流程被视为该法案的重要组成部分,对于维护网络环境的健康和安全至关重要。

莫莉・罗斯基金会、国家防止虐待儿童协会和互联网观察基金会等多个组织,联合向Ofcom的首席执行官梅兰妮・道斯致信,表达了对AI驱动风险评估的担忧。他们在信中称,这种自动化风险评估是一种“倒退且令人高度担忧的举措”,并敦促Ofcom公开声明,完全或主要通过自动化生成的风险评估通常不应被视为符合法案要求的“合适且充分”标准。

这些组织还要求Ofcom对平台可能试图简化风险评估流程的假设提出质疑,以确保网络环境的持续安全和稳定。

Ofcom的一位发言人回应称,他们已明确要求相关服务提供方告知风险评估的完成、审查和批准情况。他们正在认真考虑这封信中提出的关切,并将在适当的时候作出回应。

然而,meta公司对此呼吁表示了不同意见。他们回应称,这封信故意歪曲了公司在安全方面的立场。meta表示,他们一直致力于遵守法规并保持高标准的安全措施。他们强调,公司并没有使用AI来做出风险决策,而是开发了一种工具来帮助团队识别特定产品是否符合法律和政策要求。

meta的发言人指出,他们在人类监督下使用技术,以提高管理有害内容的能力,并强调公司的技术进步显著改善了安全结果。然而,一些业内人士对此表示怀疑,认为AI自动化风险评估可能会降低识别的准确性,从而给用户带来更高的风险。

值得注意的是,此前美国国家公共广播电台曾报道,meta计划通过AI系统审批其算法更新和新的安全功能,而不再由员工进行审查。这一消息引发了更多的担忧和争议。一位匿名的meta前高管表示,这种改变将使公司能够更快地推出应用更新和新功能,但可能会增加潜在问题的风险。

NPR还报道称,meta正在考虑将青少年风险和虚假信息传播监测等敏感领域的审查流程自动化。这一消息进一步加剧了公众对于AI在关键安全领域应用的担忧和质疑。

在当前的互联网环境下,如何确保网络环境的健康和安全是一个备受关注的问题。AI自动化风险评估虽然可以提高效率,但也可能带来潜在的风险和挑战。因此,监管机构、企业和公众需要共同努力,寻求更加安全、有效的风险评估方式,以确保网络环境的持续稳定和健康发展。

来源:ITBear科技资讯

相关推荐