Claude AI 编码演示时竟开小差看国家公园照片
事实表明,就连人工智能模型也难免会有一点拖延。
该公司在一则公告中称
把机器学习模型拟人化是危险的,可要是这是一位人类员工,我们会诊断其患有严重的工作厌烦症。就像在一段视频里看到的那样,Claude 决定不写代码,打开谷歌,并莫名其妙地浏览黄石国家公园的美丽照片。
在另一次演示尝试中,Anthropic 称,Claude 意外停止了正在进行的长时间屏幕录制,导致所有镜头都丢失了。我们确信这并非 AI 有意为之。
升级后的 Claude 3.5 Sonnet 是 Anthropic 在开发“AI 代理”方面的尝试,这是一个广义的术语,描述的是旨在自主执行任务、以提高生产力为重点的 AI 模型。包括微软在内的许多公司都在努力将其 AI 模型的应用扩展到不只是作为聊天机器人和助手,微软刚刚发布了自己的 AI 代理功能。
亚马逊支持的初创公司 Claude 宣称,其最新模型现在可以像人类一样使用“计算机”,比如移动光标、输入按键以及进行鼠标点击。这意味着 Claude 有可能掌控您的整个桌面,与您所安装的任何软件和应用程序相互作用。
它显然远非完美。与任何人工智能模型一样,可靠性依旧难以把握,而且正如 Anthropic 自己所承认的那样,频繁出现幻觉简直是生活中的常态。
“尽管这是当下的前沿技术,”该公司表示。“但克劳德使用计算机时仍然速度缓慢,还经常出错。有许多人们日常在计算机上进行的操作(比如拖动、缩放等等),克劳德都还无法尝试。”
Anthropic 所分享的示例错误大多没有什么危害。但鉴于据称克劳德所拥有的自主程度,询问有关它的安全性问题是完全合理的。例如,当人工智能代理不是通过谷歌搜索照片,而是打开您的社交媒体而分心的时候,会发生什么呢?
它还存在被人类明显滥用的潜在可能性——Anthropic 希望您知晓它正在处理这些风险。
“因为计算机的使用可能给诸如垃圾邮件、错误信息或欺诈等更为常见的威胁提供新的渠道,所以我们正在采取积极主动的办法来推动其安全部署,”Anthropic 表示。这包括实施新的分类器,用于识别人工智能何时被用于开展标记的活动,如在社交媒体上发布和访问政府网站。
不过,随着越来越多的人试用新改进的克劳德,我们预计会看到更多有关其计算机使用出错的例子。