民主党人为何就 OpenAI 安全纪录向奥特曼施压

参议员伊丽莎白·沃伦(马萨诸塞州民主党)和众议员洛里·特拉汉(马萨诸塞州民主党)要求 OpenAI 就如何处理举报人以及安全审查的问题给出答案,此前有前员工 抱怨内部批评经常被压制。

“鉴于您的公开评论与 OpenAI 行动的报告之间存在差异,我们请求获取 OpenAI 关于举报人和利益冲突保护的信息,以判断联邦干预是否有必要,”沃伦和特拉汉在一封 专门与《The Verge》分享的信中写道。

议员们列举了几个 OpenAI 的安全程序备受质疑的例子。例如,他们说,在 2022 年,GPT-4 的一个未发布版本在获得 OpenAI 安全委员会批准之前,正在印度新版的微软必应搜索引擎中接受测试。他们还回忆起奥特曼在 2023 年短暂地被逐出公司,部分原因是董事会担心“在了解后果之前就将进展商业化”。

就在沃伦和特拉汉给奥特曼写信的时候,该公司 被一长串的安全问题所困扰,这些问题常常与该公司的公开声明不一致。例如,一位匿名消息人士 告诉 《华盛顿邮报》,OpenAI 仓促完成安全测试,超级对齐团队(部分负责安全工作)解散了,一名安全主管辞职并声称“安全文化和流程已退居其次,让位于光鲜的产品。” OpenAI 的发言人林赛·赫尔德否认了《华盛顿邮报》报道中的说法,并表示该公司“在我们的安全流程上没有走捷径,尽管我们承认此次发布给我们的团队带来了压力。”

其他立法者也在寻求有关该公司安全实践的答案,包括由布莱恩·沙茨(D-HI)领导的一群参议员于 7 月。沃伦和特拉汉要求进一步弄清楚OpenAI 对该团体的回应,包括其为员工创建新的“诚信热线”用于报告问题。

与此同时,OpenAI 似乎在采取攻势。7 月,该公司宣布与洛斯阿拉莫斯国家实验室建立合作伙伴关系,以探索先进的人工智能模型如何能安全地为生物科学研究提供助力。就在上周,奥特曼通过 X 宣布 OpenAI 正在与美国人工智能安全研究所合作,并强调公司 20%的计算资源将用于安全(这是最初对现已不存在的超级对齐团队所做出的承诺。)在同一篇帖子中,奥特曼还表示,OpenAI 已经取消了针对员工的非贬低条款和允许取消既得股权的规定,这是沃伦信件中的一个关键问题。

这封信表明了立法者的一项关键政策关注点,他们此前提出了旨在扩大举报人保护的法案,如《联邦贸易委员会举报人法案》和《证券交易委员会举报人改革法案》。它也可能向执法机构发出信号,据报道,截至目前,执法机构已将目光聚焦于OpenAI 可能的反垄断违规行为和有害的数据操作。

沃伦和特拉汉要求奥特曼提供有关其新的面向员工的人工智能安全热线的使用方式,以及公司如何跟进报告的信息。他们还要求对 OpenAI 产品“绕过安全协议”的所有次数进行“详细统计”,以及在何种情况下允许产品跳过安全审查。立法者还在寻求有关 OpenAI 冲突政策的信息。他们询问奥特曼是否被要求剥离任何外部资产持有,以及“有哪些具体的保护措施来保护 OpenAI 免受您的财务利益冲突?”他们要求奥特曼在 8 月 22 日之前做出回应。

沃伦还提到,奥尔特曼一直毫不掩饰地表达他对人工智能的担忧。去年,在参议院面前,奥尔特曼 警告称,人工智能的能力可能会 “对公共安全和国家安全造成严重破坏”,并强调无法预测该技术的每一种潜在滥用情况或故障情形。这些警告似乎引发了立法者的共鸣——在 OpenAI 所在的加利福尼亚州,参议员斯科特·维纳正在推动一项法案来监管大型语言模型,包括如果其人工智能被用于有害方式,将追究公司法律责任的限制。