OpenAI组建新团队:收集公众意见以确保AI大模型"与人类价值观保持一致"
1月17日消息,美国当地时间周二,人工智能领域的佼佼者OpenAI在其博客上宣布,他们正在组建一个名为“集体对齐”(Collective Alignment)的全新团队。
这个团队主要由研究人员和工程师构成,将专注于设计和实施收集公众意见的流程,以帮助训练和塑造其人工智能模型的行为,从而解决潜在的偏见和其他问题。
OpenAI在博客中阐述道:“我们的目标是打造一个系统,它能够收集和‘编码’公众对我们模型行为的看法,并将这些宝贵的见解融入我们的产品和服务中。这样一来,我们未来的人工智能模型就能更好地‘与人类价值观保持一致’。”
为了实现这一目标,OpenAI正积极招募来自不同技术背景的研究工程师加入这个新团队。他们表示:“我们将与外部顾问和其他团队紧密合作,包括开展试点工作,将原型整合到我们的模型中。我们需要来自不同领域的专家,共同助力这项工作的推进。”
这个“集体对齐”团队其实是OpenAI去年5月启动的公共项目的一个延伸。该项目旨在资助建立一个“民主程序”的实验,以确定人工智能系统应遵循的规则。OpenAI曾明确表示,该计划旨在资助个人、团队和组织开发概念验证,以回答有关人工智能护栏和治理的问题。
研究工程师、OpenAI新团队创始成员泰纳·埃伦杜(Tyna Eloundou)强调:“随着我们不断追求超级智能模型的发展,这些模型将逐渐成为我们社会不可或缺的一部分。因此,让人们有机会直接提供意见至关重要。”
例如,为了确保只有人类才能参与投票和提供意见,OpenAI还考虑与Worldcoin进行合作。Worldcoin是OpenAI首席执行官萨姆·奥特曼(Sam Altman)创建的一个加密货币项目,它提供了一种有效区分人类和人工智能机器人的方法。
自2022年底推出ChatGPT以来,OpenAI凭借其生成式人工智能技术吸引了公众的广泛关注。这种技术能够利用简单的提示生成文本,使ChatGPT成为有史以来增长最快的应用程序之一。
然而,人工智能技术的快速发展也引发了人们的担忧。特别是其创造“深度伪造”图片和其他错误信息的能力,让人们在即将到来的2024年美国大选前夕感到不安。批评人士指出,像ChatGPT这样的人工智能系统由于其输入数据的影响而具有固有的偏见,用户已经发现了一些人工智能软件输出中存在种族主义或性别歧视的例子。
在最新的博客文章中,OpenAI回顾了资助受助者的工作成果,包括视频聊天界面、人工智能模型众包审计平台以及“将信念映射到可用于微调模型行为的维度的方法”。同时,他们还公开了所有受助者工作中使用的代码以及每个提案的简要摘要。
尽管OpenAI试图将该项目描述为与其商业利益无关,但考虑到其首席执行官奥特曼对欧盟人工智能监管的批评态度,这一说法似乎有些难以令人信服。奥特曼以及OpenAI总裁格雷格·布罗克曼(Greg Brockman)和首席科学家伊利亚·苏茨凯弗(Ilya Sutskever)一再强调,人工智能的创新速度非常快,以至于我们无法指望现有的权威机构能够充分控制这项技术。因此,他们提出了将这项工作众包的解决方案。(小小)