当前位置:首页 > 最新资讯 > 行业资讯

人工智能监管:向前迈进还是道德清洗?

Bria公司的人工智能倡导者RavitDotan表示,尽管呼吁制定新的、针对人工智能的监管规定,作为讨论人工智能未来的一部分,有其合理的地位,但这些规定不应以牺牲其他保护公众的机制为代价。通用法律(例如非歧视法律)适用于人工智能,应尽快在更大范围内实施。此外,要求监管的呼声不应被用作向政策制定者推卸责任的手段。

开发和部署人工智能的组织可以而且应该积极主动地确保他们的技术是安全和有益的,即使监管和执行还没有跟上技术的步伐。

OpenAI公司首席执行官SamAltman最近在美国参议院关于人工智能监管的司法听证会上作证,他主张对人工智能进行监管,引起了媒体的广泛关注。虽然在AIR讨论中包括监管的呼吁很重要,但它们不应以牺牲其他保护公众的机制为代价。

为了尽快解决与人工智能相关的问题,必须在更大范围内执行非歧视法等一般性法律。此外,要求监管的呼声不应被用作向政策制定者推卸责任的手段。开发和部署人工智能的组织应该采取积极措施,确保其技术的安全性和效益,即使监管和执法赶上来。

呼吁将监管作为道德洗涤的一种形式

呼吁监管而不追究自己的责任是一种空洞的姿态,可能会造成一种负责任的假象。在听证会上,Altman一再呼吁监管机构在参议员提出担忧时进行干预。他承认,“无论美国国会做什么,企业都有自己的责任,这一点很重要”。然而,他对OpenAI公司为保持自身责任所做的事情保持沉默,这表明情况并非如此。该公司自己最近的人工智能安全声明指出,建议转移同样的责任。

虽然OpenAI公司的声明涉及了从现实世界的例子中学习、隐私、保护儿童和准确性等主题,但它忽略了一些重要问题。例如,声明没有提到版权和知识产权(IP)。此外,在ChatGPT实验中观察到的偏见和公平问题,在声明中根本没有提到。该声明还无视抄袭和欺诈的风险,尽管ChatGPT的能力使欺诈活动更容易实现,撼动了整个行业的核心。尽管估计指出了这些担忧,但声明同样对ChatGPT的环境成本保持沉默,例如高碳排放和水消耗。这样的例子不胜枚举。

在声明的最后,OpenAI暗示他们在安全方面的努力可能不够。他们不是自己追求更高的标准,而是提倡监管,防止其他人走捷径。

Altman说,“为了更好地了解GPT-4的功能、好处和风险,我们等了6个多月才部署它,但有时可能需要更长的时间来提高人工智能系统的安全性。因此,政策制定者和人工智能提供商将需要确保人工智能的开发和部署在全球范围内得到有效管理,这样就不会有人为了获得成功而偷工减料。”

OpenAI这样的公司,凭借其实力、财富和影响力,有责任在其技术中优先考虑公共安全。虽然降低风险是一项集体努力,但在如此利害攸关的情况下,把责任推给监管机构是不可接受的。如果确保产品安全需要6个月以上的时间,那么在发布更高级的版本之前也需要6个月以上的时间。

转移对现有法律的关注

除了将责任转移给监管机构之外,呼吁对人工智能进行监管还可以转移人们对企业可能违反的现有法律的注意力。关于隐私、版权和知识产权等主题的法律得到了一些关注,但它们只是冰山一角。

例如,非歧视法律是技术不可知论的;无论底层技术如何,他们都禁止歧视。美国联邦机构发表声明强调了这一事实。例如,联邦贸易委员会、司法部、消费者金融保护局和平等就业机会委员会这四个联邦机构最近发表的联合声明“打开一个新窗口”,以及联邦贸易委员会和消费者金融保护局之前的声明。诉讼努力也证明了这一点。例如,司法部起诉Meta(当时的Facebook)违反了《公平住房法》。美国司法部辩称,Meta的广告算法带来的歧视是非法的。作为和解的一部分,Meta已经同意改变其算法。鉴于它所做的有偏见的假设,ChatGPT的商业使用可能会以类似的方式导致违反非歧视法律。

听证会上简要地提到了现行法律,但它们更值得关注。毫不奇怪,科技公司并没有呼吁监管机构根据现行法律追究它们的责任。然而,重要的是要优先执行现有法律,而不是仅仅依靠新法规;这些法律可以确保我们的安全,并更及时地追究科技公司的责任。

监管之外的责任

呼吁制定新的、针对人工智能的法律可能会造成人工智能不在现行法律范围内的错误印象。它们还会让科技公司只对法律规定负责的说法永久化。

我们不应该相信这种说法。科技公司对其技术的负面影响负有责任,无论其合法性如何。作为一个社会,我们有权力对这些公司施加压力,要求他们履行责任。

猜你喜欢