人工智能改变游戏,研究人员呼吁责任实践
尽管近期经济形势不利,但电子游戏行业仍是娱乐业中最赚钱的业务之一。
这并非偶然;游戏工作室花费数亿美元来使他们的游戏规模更大、更具沉浸感,以吸引新玩家和长期玩家。
图形正逐渐逼近“恐怖谷”范畴
像 Meta 和索尼这类公司持续借助其混合现实头戴设备及其他传感技术,模糊物理世界与数字世界的界限
与此同时,人工智能被誉为科技领域的下一个大事件,电子游戏制造商将其应用于多种流程,比如为不可玩角色进行编程、创建程序生成的关卡、管理游戏聊天记录,以及定制和个性化游戏内的体验
可以肯定的是,该行业处于前沿,但一个经常被忽视的方面是开发者在使用这些技术制作游戏时必须应对的伦理挑战。
围绕数据隐私、有偏见的算法,以及在人工智能助力下更使人沉迷的诱人游戏循环,有重要的讨论有待开展
因此,随着人工智能在游戏开发中继续发挥更大的作用,游戏开发者应如何更负责任地使用它?
东北大学的研究人员在新发表于《游戏:研究与实践》的一篇文章中直面探讨了这个问题,他们建议游戏行业应采用为新兴的负责任的人工智能领域开发的工具和框架。
“很显然,游戏行业在人工智能方面正面临着不同程度的风险,然而伦理方面却滞后了,”体验式人工智能研究所负责任的人工智能实践主任、该研究的作者之一坎苏·坎卡(Cansu Canca)说。
她补充说:“游戏设计师们担心,要是没有恰当的伦理指导,他们也不晓得怎么去应对这些复杂又新颖的伦理问题。”
这篇文章的其他作者有东北大学的研究人员安妮卡·玛丽·舍恩(Annika Marie Schoene)和劳拉·哈伯·伊尔(Laura Haaber Ihle)。
虽然人工智能在游戏开发中通过多种不同方式得以应用,但作者聚焦于几个特定的痛点,包括游戏开发者如何利用人工智能开发游戏机制,生成式人工智能如何用于图像创作和其他创意追求,以及公司如何收集和使用用户数据。
研究人员表示,游戏工作室通常是大规模的运营机构,有多个部门,涵盖数十个团队和个体工作者。这些公司规模越大,存在孤立部门和沟通障碍的可能性就越大。
因此,一个有效的人工智能伦理框架从一开始就被设计成融入公司层级系统的各个部分。研究人员表示,在实践中,一个全面的人工智能伦理框架可以帮助各方——从设计师和程序员到故事作者和营销人员——就特定的人工智能用例做出更好的决策,并且应该“基于道德和政治哲学的基本理论”。
坎卡说:“在某种意义上,更广泛的负责任的人工智能框架在应用于游戏时不一定会改变。”
例如,研究人员写道,风险评估工具能够帮助游戏开发者在实施之前权衡某些用例的利弊。全面的风险评估概述了所提议的使用和技术的优缺点以及潜在的积极和消极结果。
“使用人工智能伦理风险和影响评估工具可以使游戏设计师和开发者评估游戏以及所整合的人工智能系统对个人自主性和能动性的影响、其潜在的危害风险和潜在益处,以及在目标受众和更广泛社会中负担与益处的分配状况,”他们写道。
研究人员强调,这只是开发者在更大框架中可加以利用以协助此过程的一种工具。其他应该成为这个人工智能框架一部分的工具包括某些人工智能技术的偏差测试和错误分析。
人工智能开发中的另一个重要考虑因素是公司如何使用数据来帮助训练他们的模型并提升他们的盈利底线。
研究人员表示,类似于美国当前使用的娱乐软件评级委员会系统的评级标签的使用,在向游戏玩家传达与数据和人工智能伦理相关的风险这一方面,存在严重不足。
研究人员解释说,相反,类似于在负责任的人工智能领域内开发的模型卡以及人工智能和数据标签的方法将为这一过程带来更多透明度,并涵盖详细信息,比如开发者在游戏制作中如何使用人工智能以及在游戏中如何收集和使用用户的特定数据。
“数据非常有价值,而且这类信息可能不只是用于重新训练模型,”舍恩说道。
“我想知道我的数据发生了什么。我想知道我的游戏风格如何给游戏中的任何代理提供信息并产生影响,”她补充道。
但舍恩强调,如果明智地使用,人工智能可以帮助扩大这个行业并引入新玩家。
“是的,有这么多需要权衡的地方,”她说。“有危险,但也有积极的方面。如果做得正确,人工智能可以用于使游戏更容易被不同能力的人玩到。”