2024-06-22 07:35

OpenAI和谷歌DeepMind的员工在公开信中警告了人工智能行业的风险

周二,一群知名人工智能公司的现任和前任员工发表了一封公开信,警告称该行业缺乏安全监管,并呼吁加强对举报人的保护。

这封呼吁“对人工智能发出警告的权利”的信,是在这个通常保密的行业内,员工就人工智能的危险发表的最公开声明之一。11名现任和前任Openai员工签署了这封信,还有两名现任或前任谷歌DeepMind员工——其中一人曾在Anthropic工作。

信中写道:“人工智能公司拥有大量非公开信息,包括其系统的能力和局限性、保护措施的充分性,以及不同类型伤害的风险水平。”“然而,他们目前只有薄弱的义务与政府分享这些信息,而没有与公民社会分享。我们认为不能指望他们都自愿分享信息。”

OpenAI在一份声明中为自己的做法进行了辩护,称它有举报公司问题的热线等渠道,在有适当的保障措施之前,它不会发布新技术。谷歌没有立即回应置评请求。

“我们为我们提供最强大、最安全的人工智能系统的记录感到自豪,并相信我们解决风险的科学方法。我们同意,考虑到这项技术的重要性,严格的辩论是至关重要的,我们将继续与世界各地的政府、民间社会和其他社区合作。”

对人工智能潜在危害的担忧已经存在了几十年,但近年来人工智能的繁荣加剧了这些担忧,并促使监管机构争先恐后地赶上技术进步。尽管人工智能公司公开表示,他们致力于安全开发这项技术,但研究人员和员工警告称,由于人工智能工具加剧了现有的社会危害,或创造了全新的危害,因此缺乏监管。

《纽约时报》最先报道了这封来自人工智能公司现任和前任员工的信,信中呼吁加强对先进人工智能公司中决定表达安全担忧的员工的保护。它要求企业承诺围绕透明度和问责制的四项原则,其中包括一项规定,即企业不会强迫员工签署任何禁止发布与风险相关的人工智能问题的非贬低协议,以及建立员工匿名向董事会成员分享担忧的机制。

信中写道:“只要政府没有对这些公司进行有效的监督,现任和前任雇员就会成为少数几个能让它们对公众负责的人。”“然而,广泛的保密协议使我们无法表达我们的担忧,除了那些可能未能解决这些问题的公司。”

像OpenAI这样的公司也采取了激进的策略来阻止员工自由地谈论他们的工作,Vox上周报道说,OpenAI要求离开公司的员工签署极其严格的非贬低和保密文件,否则就会失去所有的既得股权。OpenAI首席执行官萨姆·奥特曼(Sam Altman)在报告发布后道歉,称他将改变离职程序。

在这封信之前,OpenAI的两名高级员工——联合创始人伊利亚·苏茨凯弗和主要安全研究员简·莱克于上月从公司辞职。在他离开后,雷克声称OpenAI已经放弃了安全文化,转而青睐“闪亮的产品”。

周二的公开信呼应了雷克的部分声明,称公司没有表现出对其运营保持透明的任何义务。