英伟达市值单日蒸发近6000亿美元,美国上市科技企业总市值单日缩水约1万亿美元
中国人工智能(AI)企业深度求索(DeepSeek)日前发布其最新开源模型DeepSeek-R1,用较低的成本达到了接近于美国开放人工智能研究中心(OpenAI)开发的GPT-o1的性能。这一进展破解了全球人工智能产业长期以来“堆算力”的路径依赖,其影响波及资本市场。此消息引起美国科技相关行业震动,1月27日行业巨头英伟达市值单日蒸发近6000亿美元、美国上市科技企业总市值单日缩水约1万亿美元。业界人士认为,DeepSeek模型有望激发一波创新浪潮,推动全球AI继续进步。
“更大不再等于更聪明”
据深度求索公司官网介绍,DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有很少标注数据的情况下极大提升了模型的推理能力,在数学、代码、自然语言推理等任务上,测评性能与GPT-o1模型正式版接近。
国际投行摩根士丹利表示,“更大(的模型)不再等于更聪明”,DeepSeek通过显著提高数据质量和改进模型架构,展示了一条与之前大模型不同的高效训练途径。摩根士丹利说,DeepSeek的模型现在低成本优势突出,与国际知名大模型相比,其成本大约低了一个数量级。
高盛集团也认为,DeepSeek新模型的成本远低于现有模型,这意味着开发利用大模型的门槛降低,互联网巨头将面临初创公司的潜在竞争。
英国《金融时报》发表的一篇评论文章指出,DeepSeek挑战了人工智能产业在过去一段时间的核心信念,即认为更强大的硬件才是推动人工智能发展的关键。
美股脚软 纳指狂跌3%
1月27日,DeepSeek在人工智能领域取得重要进展的消息开始在业界乃至媒体发酵,令市场对巨资构建人工智能大语言模型的合理性和前景产生质疑,部分投资者开始抛售此前受益于人工智能投资热的权重科技股。
这一天,市值排名第一的英伟达公司股价暴跌16.97%,市值蒸发近6000亿美元,创下美国上市公司单日市值损失的纪录。博通公司股价跌幅达17.4%,台积电和甲骨文公司股价跌幅均超13%。
当天截至收盘,纳斯达克综合指数下跌612.47点,收于19341.83点,跌幅为3.07%。其他主要股指中,科技板块同样领跌。
惊呼意外的同时,不少投资者对美国推动的人工智能巨额投资计划产生更大质疑,认为存在投资过度嫌疑。有评论人士认为,市场实践证明可以开发出成本更低、性能同样强大的人工智能模型,这将从根本上改变AI产业链的投资逻辑。
事实上,人工智能产业板块是推动美股过去两年大幅上涨的主要力量。这期间,纳斯达克100指数在人工智能板块加持下上涨约90%,总市值增长超过14万亿美元,多个权重科技股股价上涨数倍,但其长期享受的高溢价正受到越来越多质疑。在一些市场人士看来,此次暴跌充分暴露了科技巨头高估值、高投资及市值高度集中带来的脆弱性,其股价下跌、估值回归也在预期之中。
美国投资银行施蒂费尔金融公司美国股票研究部门执行董事兼机构股票策略负责人巴里·班尼斯特表示,当前美国大盘股指数已处于100多年来的第五个“狂热”时期。早在2024年年底时,市场对美国股市出现明显回调的预期就十分浓厚,科技板块大幅下挫仍可以视为预期兑现。
此外,美国股市的集中度也令人担忧。标普500指数中,前十大股票的市值权重接近五分之二,集中度前所未有。这意味着,一旦上市巨头发展前景出现问题,整个市场都会面临更大动荡。
有望激发创新浪潮
摩根士丹利认为,DeepSeek的模型表明,前沿AI能力可能不需要大量计算资源就能实现。通过巧妙的工程设计和高效的训练方法,高效利用资源可能比纯粹的计算能力更重要。这可能会激发一波创新浪潮,各家企业会探索具有成本效益的AI开发和部署方法。
DeepSeek的模型是开源共享的。近日,全球知名开源平台抱抱脸公司等多个团队已宣布复现了DeepSeek-R1的训练过程。美国“元”公司首席AI科学家杨立昆在社交媒体上发文说,DeepSeek-R1的面世,意味着开源模型正在超越闭源模型。
英国《金融时报》的评论文章说,开源模型DeepSeek-R1对全球用户产生极大吸引力,有利于推动人工智能技术的开发和应用。文章说,对于大多数商业用户来说,拥有一款足够可靠并且好用的模型比拥有绝对领先的模型更重要。“并不是每个司机都需要一辆法拉利。像R1这样模型的推理能力进步,可能会为与客户互动或处理工作任务的‘智能体’带来突破性变化。”如果能以更低的成本拥有这些模型,企业的盈利能力将提升。
■知多D
DeepSeek为何引起 美国科技业地震?
●高性价比
冲击美国大模型垄断地位
DeepSeek可谓是用最少的钱,干最多的事。其推出的模型,在性能上和世界目前顶尖的GPT-4o等大模型不相上下。但在成本上,OpenAI训练ChatGPT-4花费的成本高达7800万美元,还可能达到1亿美元。而DeepSeek大模型训练成本不到600万美元,仅为同性能模型的5%到10%。新模型训练方法大幅度降低了大模型行业的入局门槛,大规模预训练不再是科技巨头的专利。
●模式创新
引起美高新技术人员恐慌
DeepSeek开发成本与美国大模型相比大幅降低,在于应用了不同的模型训练模式,打破了美国堆砌算力的“豪气”方式。在喂养学习数据这一大模型重要环节上,OpenAI选择了“人海战术”,堆砌算卡、将资源集中在算力,用海量数据投喂实现能力的提升。而DeepSeek相比于“砸资源”选择了另外一种方式。利用算法把数据进行总结和分类,经过选择性处理之后再输送给大模型,最大优化算力实现了成本的降低和模型性能提升。目前看Meta耗费了大量资金训练Llama,但是效果上却没有成本极低的DeepSeek效果好,Meta高层已经在思考其员工是否在浪费公司资金,而这也引发了不少企业技术人员的恐慌,他们担心自己被质疑技术能力和创新性从而失去工作。
■文字来源:新华社、央视
■图片来源:腾讯混元AI生成