OpenAI员工集体发声,警示人工智能发展中的潜在风险


来源:纵横网 浏览量(1.4w) 2024-06-05 09:14:39

【纵横网】近日,来自OpenAI的多名现任及前任员工联名发表公开信,对人工智能行业快速发展中存在的问题表达深切关切。他们指出,尽管行业增长迅猛,但监管和举报人保护措施却相对滞后。

OpenAI员工集体发声,警示人工智能发展中的潜在风险_https://www.izongheng.net_人工智能_第1张

PHOTO/IZONGHENG.NET资源库

员工们在信中指出:“人工智能企业往往出于财务动机,避免接受有效的监管。我们认为,现行的公司治理结构并不足以应对这一问题。”

目前,OpenAI、谷歌(Google)和微软(Microsoft)等公司正引领着一场生成式人工智能的竞赛,预计未来十年内,该行业的市场规模将超过1万亿美元。众多企业纷纷引入人工智能驱动的聊天机器人和代理,以期在竞争中保持领先。

这些员工透露,人工智能企业掌握着大量非公开信息,包括技术能力、安全措施的实施程度以及技术可能带来的风险等。

他们强调:“我们深知这些技术所蕴含的严重风险,并认为企业目前仅承担有限的责任,向政府披露相关信息,而与公众分享的更是微乎其微。我们不能依赖于企业的自愿性信息公开。”

公开信还强调了人工智能行业在举报人保护方面的不足,认为在缺乏有效政府监管的情况下,员工在追究公司责任方面处于独特的地位。

信中提到:“广泛的保密协议限制了我们表达担忧的声音,通常只能向公司内部反映,而这些内部机制可能无法有效解决问题。”他们呼吁,普通的举报人保护措施应扩展到监管尚未覆盖的风险领域。

此外,公开信提出了一系列建议,包括要求人工智能企业不签订或执行贬低性协议,为员工建立匿名反馈机制,支持公开批评的文化,并承诺在内部举报程序失败时不对公开举报者进行报复。

签署这封信的包括四名匿名的OpenAI员工和七名前员工,如丹尼尔·科科塔伊洛、雅各布·希尔顿、威廉·桑德斯、卡罗尔·温赖特和丹尼尔·齐格勒等。此外,还有曾在谷歌DeepMind工作或目前在谷歌DeepMind工作并曾在Anthropic工作的Ramana Kumar和Neel Nanda,以及在人工智能领域享有盛誉的计算机科学家Geoffrey Hinton、Yoshua Bengio和Stuart Russell。

OpenAI的发言人在接受CNBC采访时表示:“我们认同,鉴于这项技术的重要性,开展严格的辩论至关重要。我们将继续与全球政府、民间组织和其他社区保持沟通。”该发言人还提到,公司设有匿名诚信热线,并由董事会成员和公司领导层组成的安全委员会。

对于此事,微软(Microsoft)方面拒绝发表评论。

今年5月,OpenAI曾撤回一项要求前员工签署永不过期的非贬低协议以保留其既得股权的决定。该决定引发了广泛争议,随后公司对此表示歉意,并承诺改变。

此外,OpenAI在5月解散了其专注于人工智能长期风险的团队,这一决定发生在团队成立仅一年后。团队解散的消息由一位知情人士向CNBC证实,部分团队成员已被重新分配至公司其他团队。

OpenAI联合创始人Ilya Sutskever和Jan Leike在团队解散后表达了自己的看法。Leike在一篇文章中指出,公司的“安全文化和流程已经让位于闪亮的产品”。首席执行官对此表示遗憾,并承认公司还有更多工作要做。

Leike强调,他认为公司应将更多资源投入到安全、监管、准备和社会影响上。他担心公司并未走上实现这一目标的正确轨道,并指出在过去几个月中,团队在争取计算资源方面遇到了困难。

Leike补充说,OpenAI必须成为一家以安全为先的人工智能通用公司(AGI)。他警告称,制造比人类更聪明的机器本质上是一项危险的工作,OpenAI肩负着巨大的责任。

此次高调离职事件是在OpenAI经历领导危机数月后发生的。去年11月,OpenAI董事会罢免了Altman,理由是他在与董事会沟通中未能始终如一地坦诚相待。这一事件引发了辞职和辞职威胁,包括几乎所有员工签署的公开信,以及投资者的强烈反应。不久后,Altman重返公司,而投票罢免他的董事会成员也相继离开。

今年5月,OpenAI推出了ChatGPT的新版本,包括桌面版本和更新的用户界面及音频功能,这是该公司扩大其流行聊天机器人使用的最新尝试。然而,一周后,该公司撤下了一款名为“Sky”的声音,该声音与女演员斯嘉丽·约翰逊在电影《她》中的声音相似,引发了争议。







THE END

版权声明:未经纵横网授权,严禁转载或镜像,违者必究。
特别提醒:如果文章内容、图片、视频出现侵权问题,请与本站联系撤下相关作品。
风险提示:纵横网呈现的所有信息仅作为学习分享,不构成投资建议,一切投资操作信息不能作为投资依据。本网站所报道的文章资料、图片、数据等信息来源于互联网,仅供参考使用,相关侵权责任由信息来源第三方承担。
本文地址: