激活参数量三千亿。对比目前业内公开的最强模型,我们在这个数字上是它的1.8倍。”
全场哗然。
有人低声说了一句“两万亿”,声音不大,但周围的人都听到了。两万亿参数,不是PPT上随便写的数字,是真实落地的规模。
陈凯继续往下翻。“上下文长度——一百万字。什么概念?一次性读完《三体》三部曲,还有其他。你们可以拿市面上任何模型来比,不管是海外的还是国内的,盘古的上下文窗口最长。”
掌声开始密集起来。
“多模态能力。”屏幕切换,展示了一段视频,“盘古同时理解文本、图像、视频、音频、代码。不是简单的拼接,是真正跨模态的语义对齐。”视频中,一个用户上传了一张手绘的草图——歪歪扭扭的桌子上面画了一个圆,写着“放灯”。盘古在零点三秒内识别出了意图,输出了完整的产品设计说明和3D建模参数。
台下有人轻声骂了一句脏话,不是愤怒,是震撼。
陈凯没有给他们消化时间,继续抛出核心数据。“推理速度——盘古生成一千个tOkenS只需要零点三秒。比市面上最快的模型快三倍以上。训练成本——行业内训练一个万亿级别的大模型,成本普遍在一亿美元左右。盘古将这个数字压到了二十分之一。”
全场安静了。不是不震惊,是震惊到说不出话。
有人低头疯狂敲键盘发消息,有人打开手机录音,有人张大嘴巴看着屏幕上那个冷冰冰的数字不敢置信。
陈凯放下遥控器,双手撑在演讲台上,声音从激昂转为平静。
“做到这些,靠的不是魔法,是工程。是我们在模型架构上的创新——混合专家模型加稀疏注意力机制。是我们在训练框架上的突破——万卡集群线性加速。是我们在数据上的积累——高质量多语言语料的清洗和配比。”
他直起身,环顾全场。
“盘古不是追赶者。它不是华夏的GPT,不是华夏的Gemini。它就是盘古。世界第一个两万亿参数的商用大模型。”
掌声终于爆发了,如潮水般涌来,持续了整整三十秒。陈凯没有制止,他站在那里,听着掌声,眼眶微红。
当掌声平息,陈凯举起手:“下面,请盘古大模型进行现场演示。”
直播信号切到了幻神AI的机房。一排排服务器,蓝光闪烁,像一座数字宫殿。屏幕上开始接收观众的实时提问。
第一个问题来自新浪
本章未完,请点击下一页继续阅读!