英国多个组织呼吁监管机构限制 Meta 利用人工智能进行风险评估

2025-06-09 11:10:00

据卫报报道,互联网安全活动人士向英国通信监管机构 Ofcom 发出呼吁,要求限制人工智能(AI)在关键风险评估中的使用。这一呼吁是在有报道称 Meta 公司(旗下拥有 Facebook、Instagram 和 WhatsApp)计划将风险评估流程自动化之后提出的。Ofcom 表示,在上个月一份报告称 Facebook、Instagram 和 WhatsApp 的母公司高达 90% 的风险评估工作将很快由人工智能完成后,该局正在“考虑活动人士在信中提出的担忧”。根据英国的《在线安全法案》,社交媒体平台需要评估在其平台上可能出现的伤害风险,并制定相应的缓解措施,特别是要保护儿童用户并防止非法内容的出现。风险评估流程被视为该法案的关键内容。包括莫莉・罗斯基金会(Molly Rose Foundation)、国家防止虐待儿童协会(NSPCC)和互联网观察基金会(Internet Watch Foundation)在内的多个组织在致 Ofcom 首席执行官梅兰妮・道斯(Melanie Dawes)的信中表示,使用 AI 驱动的风险评估是一种“倒退且令人高度担忧的举措”。