顶尖AI企业“抱团”监管AI靠谱吗?

最后编辑时间:2023-07-29 20:13:43 来源:未知 作者:未知 阅读量: 未知

  人工智能(AI)咄咄逼“人”?在全球监管呼声日益高涨之际,美国头部企业行动了。美国开放人工智能研究中心(OpenAI)、谷歌、微软和Anthropic公司26日宣布创办“前沿模型论坛”,以“确保安全、负责任地研发前沿人工智能模型”。

  该论坛旨在为人工智能技术制定安全标准,推动下一代人工智能系统的安全研究和技术评估。该论坛还将成为企业和政府分享相关风险信息的中心。

  此前,包括这四家公司在内的美国人工智能七巨头自愿承诺,确保人工智能开发的安全性、有保障性和可信任性。具体内容包括,企业须将相关系统交付独立测试,并开发工具提示公众该内容由人工智能技术生成。此外,这些公司还同意寻找人工智能之道来帮助应对社会挑战,从癌症到气候变化,并投资教育和新就业。

  《华盛顿邮报》认为,这项由行业主导的举措表明,华盛顿的政策制定者开始努力应对新兴技术的潜在威胁之时,美国企业在制定人工智能开发和部署规则方面走在他们的前面。报道同时指出,一些人对行业介入风险存在担忧。“在经历了十多年的隐私漏洞以及危及儿童的事件之后,政策制定者一直说不能相信硅谷会制定自己的护栏。”

  《金融时报》认为,论坛宗旨显示其工作重点是如何应对生成式AI的潜在风险,但并未回应监管部门当下关注的版权、数据保护和隐私等事宜。批评人士质疑,这些技术巨头“抱团”的实际意图是躲避监管。

  美国华盛顿大学深入研究大语言模型的计算语言学者埃米莉·本德说,企业坚称推广AI技术安全研发是“维持自我监管的能力”,她对此“非常怀疑”。把公众注意力集中到对“机器取代人类”的恐惧会分散人们对数据窃取、监控等现实问题的关注,应该从公众利益出发,在监管领域有所作为。

  论坛创办者指出,只有少数几家企业能成为论坛成员,进而打造“能力超越现有最先进模型的大规模机器学习模型”。密苏里州共和党参议员乔希·霍利表示,这些公司正是逃避监管的公司,他们是人工智能的开发商,也是投资者。

  与此同时,欧盟上个月也推出了首个监管框架,禁止将对人类构成“不可接受的风险”的人工智能,限制和管理其认为“高风险”的技术使用。

(责任编辑:管理)