6 月 9 日消息,据卫报报道,互联网安全活动人士向英国通信监管机构 Ofcom 发出呼吁,要求限制人工智能(AI)在关键风险评估中的使用。这一呼吁是在有报道称 Meta 公司(旗下拥有 Facebook、Instagram 和 WhatsApp)计划将风险评估流程自动化之后提出的。
Ofcom 表示,在上个月一份报告称 Facebook、Instagram 和 WhatsApp 的母公司高达 90% 的风险评估工作将很快由人工智能完成后,该局正在“考虑活动人士在信中提出的担忧”。
据IT之家了解,根据英国的《在线安全法案》,社交媒体平台需要评估在其平台上可能出现的伤害风险,并制定相应的缓解措施,特别是要保护儿童用户并防止非法内容的出现。风险评估流程被视为该法案的关键内容。
包括莫莉・罗斯基金会(Molly Rose Foundation)、国家防止虐待儿童协会(NSPCC)和互联网观察基金会(Internet Watch Foundation)在内的多个组织在致 Ofcom 首席执行官梅兰妮・道斯(Melanie Dawes)的信中表示,使用 AI 驱动的风险评估是一种“倒退且令人高度担忧的举措”。
这些组织在信中强调:“我们敦促您公开声明,根据法案要求的‘合适且充分’标准,完全或主要通过自动化生成的风险评估通常不应被视为符合要求。”信中还要求监管机构对平台可能试图简化风险评估流程的假设提出质疑。
Ofcom 的一位发言人表示:“我们已明确要求相关服务告知我们,谁完成了、审查了和批准了他们的风险评估。我们正在考虑这封信中提出的关切,并将在适当的时候作出回应。”
Meta 公司则回应称,这封信故意歪曲了该公司在安全方面的立场。Meta 表示,公司致力于遵守法规并保持高标准的安全措施。Meta 的发言人指出:“我们并不是使用 AI 来做出风险决策。相反,我们的专家开发了一种工具,帮助团队识别特定产品是否符合法律和政策要求。我们在人类监督下使用技术,以提高我们管理有害内容的能力,而我们的技术进步显著改善了安全结果。”
此前,美国国家公共广播电台(NPR)曾报道,Meta 计划通过 AI 系统审批其算法更新和新的安全功能,而不再由员工进行审查。一位匿名的 Meta 前高管向 NPR 表示,这种改变将使公司能够更快地推出 Facebook、Instagram 和 WhatsApp 的应用更新和新功能,但可能会给用户带来“更高的风险”,因为潜在问题在新产品发布前更难被预防。
NPR 还报道称,Meta 正在考虑将青少年风险和虚假信息传播监测等敏感领域的审查流程自动化。