
监护人说,根据《卫报》的报道,互联网安全活动家称英国通信监管机构Ofcom限制了人工智能(AI)对批判风险审查的使用。该电话是在报告说拥有Facebook,Instagram和WhatsApp的Meta计划自动化风险上升的过程。 Ofcom表示,该局“考虑了激进分子在信中提出的担忧”,上个月的一份报告称,人工智能即将完成的Facebook Facebook,Instagram,Instagram和父母公司的90%。根据这所房屋的说法,根据英国的《在线安全法》,社交媒体平台需要评估其平台损坏的可能风险并提出相应的效忠,尤其是为了保护儿童的使用者并防止出现非法内容。风险评估的过程被认为是法案的主要部分。多个组织,包括莫莉·罗斯基金会,NA预防儿童虐待(NSPCC)和Internet观察基金会的国际诉讼协会在致OFCOM首席执行官Melanie Dawes的信中说,使用评估AI驱动风险的风险是“回归且极其令人不安的步骤”。组织在信中强调:“我们鼓励您公开宣布完全或主要是通过自动化产生的风险评估。”这封信还要求监管机构要求该平台可以试图简化风险评估过程的假设。 OFCOM发言人说:“我们清楚地要求SIT是一项服务,让我们知道谁完成了,审查和批准了他们的风险评估。我们考虑了这封信中提出的担忧,并将回应适当的课程。梅塔说,该公司专注于遵守法规和维护“我们不使用AI来做出风险决策。相反,我们的专家已经开发了一种工具来帮助团队确定特定产品是否符合法律和政策要求。我们在人工管理下使用人工管理的技术来提高我们的有害内容的能力,而我们的技术进步会显着提高员工的安全性。一位匿名前执行官告诉NPR,这一变化将使该公司能够使用更快的更新和新功能为Facebook,Instagram和WhatsApp启动应用程序,但可能会向用户显示“更高的风险”,因为在发布新产品之前,可能难以避免使用潜在的问题。 NPR还报告说,META正在考虑检查敏感领域(例如青少年风险和毒品)的自动化介绍。 【来源:这在家】