国产大模型发展史:大模型竞赛进入“后暴力核算年代”
AI竞技场正静静见证着一场深入的技能权力腾挪。
这场由DeepSeek引发的革新仍未见停息,大模型竞赛进入“后暴力核算年代”,功率的重要性栩栩如生,而AI权力也面对重构,OpenAI“一家独大”的局势正不断受到冲击。
后浪凶狠进化,前浪披荆斩棘,“城头变幻大王旗”赢家没有有结论,怎么既经过开源获取生态的加持,又运用闭源完结商业变现,才是决胜的要害。
01我国AI项目乘方针风“井喷”。
国产AI的开展在不声不响间悄然酝酿。2023年被业内人士视为人工智能开展的分水岭。
人工智能科学家李飞飞曾说:“在历史上,2023 年有望因技能的深入改变和大众觉悟而被人们铭记。”。
而在此之前,关于人工智能的技能探究和立异早已不乏其人。
1956年约翰·麦卡锡在达特茅斯会议上初次提出“人工智能”(Artificial Intelligence)概念,AI作为一门学科正式诞生。
但到了1973年,由于AI研讨遭受瓶颈,对AI的资金投入大幅缩水,开展进入 “隆冬”。
1986年,直到“AI教父”杰弗里·辛顿(Geoffrey Hinton)提出了反向传达(Backpropagation)算法,神经网络的复兴让AI开展再迎曙光,再到2017年Google提出依据自注意力机制(Self-Attention),替代RNN/LSTM,成为后续大言语模型(LLM)的中心架构……。
回望国内的AI开展进程,2023年同样是“国产AI年代敞开元年”。
据天眼查,仅2023年上半年与大模型直接相关的融资事情超20起,国内已发布的各类大模型数量逾越100个,而到了2024年7月时完结存案并上线的生成式AI大模型数量挨近200个。
直到今日,有时机冲进决赛圈的仍然只要十几家。咨询机构弗若斯特沙利文指出,咱们现在在通用根底大模型范畴的竞赛者已缩减至20余家,主要由互联网企业、云核算巨子及人工智能创业公司主导。
我们都是这场没有硝烟的“战役”的亲历者,站在2025年的开年回望,或许是阅历了2024年 “百模大战”的大浪淘沙,DeepSeek才得以在2025年开年在全球科技职业投掷下“惊雷”,推进国产AI完结了"要害一跃",站稳脚跟。
具有继续立异才能的企业逐步占有商场主导,从图文转视频到多言语广告生成,人工智能的运用规划正在敏捷拓宽。
与此一起,大模型和智能体技能也进入了加快开展阶段。无论是C端的用户体会优化,仍是B端的企业解决方案,智能体和大模型正在从头界说技能与社会的衔接方法。
决赛圈里现在有三股力气:一是阿里巴巴、字节跳动代表的互联网大厂、云服务商,介入大模型;二是科大讯飞代表的人工智能国家队,以G/B/C联动的方法,既做解决方案又做硬件产品;三是智谱、DeepSeek等AI创业公司,少量还在坚持根底模型立异。
工业链上下游境况分解,模型厂商开展途径分野。即便“AI六小虎”,也面对路途分解。例如,百川智能已转向医疗等职业大模型;零一万物将超级大模型练习交给阿里;月之暗面和MiniMax专心做C端运用和产品。
业内人士遍及以为,与工业链上下游比较,处于中游的模型厂商遍及面对盈余窘境。2025年,大模型决赛圈的选手,还能在根底大模型层立异的企业,会进一步削减。
02从“烧钱崇奉”到“功率革新”。
如果说“本钱、AI Agent、多模态”是当下AI工业的三个要害词,代表着2024年大模型的进化方向,那么它们或许也代表着大模型迈向工业落地的要害节点。
首要,本钱无疑是决议企业存亡的要害,练习和布置大规划 AI模型对核算资源的巨大需求不容忽视,这也使得企业有必要担负昂扬的核算本钱和运维本钱。
DeepSeek-R1也正是抓了企业在功率和本钱操控上的痛点,完结了在相对较低的算力投入下,可比美乃至逾越头部模型的功能体现。
传统人工智能开展方式往往依靠于“规划至上”的逻辑,寻求超大规划模型和超大规划算力集群。DeepSeek R1的轻量化模型和开源战略,下降了人工智能运用的门槛,促进了中端算力设备和分布式数据中心的遍及。
工业链上游的英伟达,因DeepSeek的呈现开端面对必定需求结构调整的压力。
ASIC芯片厂商则迎来了新的开展时机。由于ASIC芯片可以针对特定人工智能运用进行硬件加快,在能效比和本钱操控上具有显着优势,更习惯分布式算力开展的趋势。
关于算力服务端来说,区域性数据中心凭仗低时延和靠近运用场景的优势,开端接受制造业智能质检、金融风控等对推迟灵敏的运用需求。
AWS、阿里云等云核算巨子调整部分大型数据中心的建造战略,加大在边际核算和分布式算力布局方面的投入。
而运用端则将获益于算力本钱的下降,驱动人工智能在制造业、金融、医疗等范畴的浸透加快。
在代码保管渠道GitHub上,已涌现出很多依据DeepSeek模型的集成运用事例(awesome deepseek integration),构成“需求牵引供应”的正向循环,完结“算力+职业”的双向赋能。
人工智能技能将加快浸透到各行各业,成为推进工业晋级和经济开展的重要引擎。
但值得重视的是,DeepSeek R1的技能打破,在下降人工智能运用门槛的一起,也或许引发“杰文斯悖论”。
杰文斯悖论由19世纪经济学家 William Stanley Jevons提出,他发现,跟着煤炭运用功率的进步,煤炭的耗费总量反而添加。这一悖论提醒了一个深入的经济规律:功率的提高并不必定导致资源耗费的削减,反而或许由于本钱下降和运用规划扩展,影响需求添加,终究导致资源耗费总量添加。
微软 CEO 萨提亚·纳德拉引证杰文斯悖论来解说DeepSeek R1或许带来的影响,可谓言必有中。
纳德拉以为,更实惠、更易于拜访的人工智能技能,将经过更快的遍及和更广泛的运用,导致需求的激增。跟着人工智能技能的门槛下降,曩昔由于本钱约束而无法运用人工智能的范畴,例如中小企业、边际核算场景等,将涌现出很多新的运用需求,然后导致算力调用密度指数级上升。
新式运用场景的迸发,也将加快算力需求的裂变。智能驾驭、具身机器人等前沿范畴对实时算力的需求极为巨大,远超DeepSeek技能优化的速度。即便单任务功率提高数倍,百万级智能终端的并发需求,仍将构成巨大的算力吞噬黑洞。
03“开源”与“闭源”的协同。
跟着开源大模型DeepSeek的“爆火”,“开源”和“免费”等要害词频现。
如果说,在DeepSeek之前,国内大模型企业关于“开源”和“闭源”的途径仍多有不合,现在“开源”、“敞开生态”、扩展朋友圈的呼声好像成了干流。
在DeepSeek这条鲶鱼的冲击之下,国内大模型企业展现出更“敞开”的姿势,期望加快树立自己的开发者生态和运用生态。
而开源模型和闭源模型的要害差异,则可以从根底条件、技能层面和商业化三个维度来调查。
从根底条件看,开源模型以揭露数据集、社区奉献数据为数据来历,以分布式的、开发者自有的GPU集群为算力支撑,为开发者、研讨者、企业等供给了相等的接入时机,促进了技能的立异和同享。
闭源模型则是由公司或团队开发,以专有数据如用户行为日志、私有数据库、清洗后揭露数据为数据来历,用户只能依据公司供给的接口或渠道运用这些模型。
从盈余场景看,开源模型自身并不直接带来收益,但它们一般经过附加服务(如云核算、技能支持、练习、定制化开发等)来完结盈利。公司可以经过商业化的方法供给增值服务,依托开源模型构成可继续的收入来历。
闭源模型的商业化途径相对直接,企业经过授权答应、订阅服务、渠道收费等方法完结盈利。闭源模型能为公司带来高赢利,由于客户需要为其运用权限和服务付出费用。
开源与闭源并非“水火不融”,未来很或许会构成开源与闭源相互作用的方式,开源加快了AI技能的遍及和立异,而闭源则保证技能可以在商业上取得长足开展并保持稳定性。
未来的赢家将是能一起把握开源和闭源才能的多面手,,既经过开源获取生态势能,也运用闭源完结价值捕获。
正如纳德拉所说,“超大规划AI不会呈现赢者通吃的局势,开源方式将制衡闭源。”。
结尾。
DeepSeek 在当下的AI年代将扮演重要人物,就像 Android 之于移动互联网革新。
重构工业生态,引发链式反应,加快上层运用开展与基层体系一致。这将调动起跨过软硬件和上下游的生态力气,促进各方加大 “模型 - 芯片 - 体系” 协同优化与笔直打通的投入,进一步削弱 CUDA 生态优势,为国产 AI 工业开展发明时机。
DeepSeek 经过技能立异,在 AI 模型练习过程中完结了对高端进口芯片依靠的下降,这为国内企业展现了一条可行的技能途径,极大地增强了国内企业自主研制算力芯片的决心。
博弈,不仅仅是开源以及闭源的技能挑选,更是触及 AI 开展的话语权、商场主导权以及算力的分配的比赛。而这场AI权力争夺战已然开端。
特别声明:本文为协作媒体授权DoNews专栏转载,文章版权归原作者及原出处一切。文章系作者个人观点,不代表DoNews专栏的态度,转载请联络原作者及原出处获取授权。(有任何疑问都请联络idonewsdonews.com)。