李开复:做大模型要靠长跑,向投资人承诺十年不套现
由李开复担任创始人兼CEO的大模型创业公司零一万物,刚刚公布了自己在百模大战中的新进展。
5月13日,零一万物正式发布千亿参数闭源大模型Yi-Large。在斯坦福开源评测项目AlpacaEval 2.0英语能力排行榜上,该模型的LC Win Rate(控制文本长度误差的胜率)仅次于Open AI的GPT-4 Turbo,Win Rate(胜率)则位列世界第一。
尽管这家公司此前发布的开源大模型以中小尺寸为主,但团队在行动上认可了闭源大模型的价值。李开复还透露,零一万物已启动下一代万亿参数Yi-XLarge MoE模型训练。
过去,大模型领域创业者谈得最多的一个词是PMF(产品市场契合),但李开复认为这个移动互联网时期的概念已经难以适应AI时代了。
在移动互联网时期,用户规模增长所带来的边际成本很低。但到了大模型时代,模型训练和推理成本是每一个创业公司必须要面临的挑战。
“用户增长需要的优质应用离不开强大的基座模型,而这背后往往是高昂的训练成本,此外还需要考虑随用户规模增长的推理成本。”李开复表示,只有PMF已经不够了,还需要考虑Technology(技术)和Cost(成本)的匹配。
因此,他提出了一个新概念——TC-PMF,技术成本X产品市场契合度。“做TC-PMF,推理成本下降是个‘移动目标’,这比传统PMF难上100倍。” 李开复表示。
正因为如此,李开复不认可目前一些大模型公司买流量推广的做法。他表示,行业应当共同避免陷入不理性的ofo式流血烧钱打法。
面向下一阶段的发展和竞争,零一万物已经明确的四个方向包括全球化布局、模基共建、模应一体、Al-First。
全球化方面,零一万物已在海外上线了4款消费端产品,其中生产力产品线今年预期营收过亿元,ROI(投资回报率)达到1,海外生产力应用用户规模接近千万。
模基共建主要指自研人工智能基础架构技术,这样能从从底层优化训练方法,提升计算效率。零一万物该公司称,经优化后,其千亿参数模型的训练成本同比降幅达一倍。模应一体主要表示基座模型能力要与应用效果体系化联动。
业界目前颇为笃定的是,大模型领域很快会迎来应用层的爆发。李开复此前已明确表态,2024年会是AI应用爆发元年。金沙江创投主管合伙人朱啸虎也已多次公开表示,AI大模型应用层将在2025年迎来爆发。
两种结论的时间差是否有意义?李开复对界面新闻记者表示,朱啸虎说得有一定道理。目前推理成本一年降低10倍,两年就是100倍,如果GPT-4的能力只要以百分之一的价钱来做推理成本,很多应用肯定可以爆发。
“但我认为今年是元年,因为有些领域今年就会爆发。”李开复认为,整个普惠点不是同时来到,有些领域的应用要求会很高。他以生产力工具产品为例,称目前已经达到TC-PMF,但还可以更好。
零一万物一周前发布了自己面向消费端的生产力应用 “万知”,目前 开始正式提供服务;面向企业生态的 “API开放平台”也同步上线。
至于真正的超级应用何时才能出现?李开复表示,团队已经可以预测Yi-XLarge的训练完成时间点以及推理能力的增长,内部会有一套方法论,一边针对阶段性成果做最终预测,一边基于该预测开始打磨产品。
“这个领域速度这么快,不能等模型做完了再想TC-PMF。”他说,“现在是分秒必争。”
零一万物成立一年来,拿到了来自创新工场和阿里云的两笔公开投资,估值据悉已超10亿美元,是国内大模型领域独角兽俱乐部的成员之一。
创始人兼CEO李开复似乎也已完全适应投资人到创业者的身份转变。最近,他刚刚注册了抖音账号,并开始有节奏地发布短视频。实际上他已经受邀多次,但如今为了分享自家产品和技术,他清楚“这还是有必要的”。
“我们(中国大模型)狂奔了一年,在模型方面至少赶上美国最顶尖的大模型,当然以后还要继续努力,但是我们对未来需要有沉淀和展望,不能只是拼命地狂奔,而是要开始思考怎么进入长跑模式。”李开复表示。
对于这场人生新战役,他也毫不讳言自己的信心和决心。
“这是我40多年的梦想,在我博士学位申请信里,我就写过AGI就是我的梦想。”他说,“至于变现,我确实跟我的投资人一年前做了承诺,就是我十年不套现。”