九州ku平台|青沼知朝|近5亿!清华AI黑马斩获新融资超25000P算力猛攻智能
2026.02.21
酷游KU游电子科技
这是国内AI Infra领域融资额最高的企业之一◈★✿ღ。去年9月◈★✿ღ,无问芯穹宣布完成近5亿元A轮融资◈★✿ღ,投资方包括
最新融资阵容继续汇聚国家产业资本与头部市场化基金◈★✿ღ,由“国资+市场”双重加持◈★✿ღ,足见市场对其引领AI产业落地◈★✿ღ、共建基础设施生态的信心◈★✿ღ。
无问芯穹成立于2023年5月◈★✿ღ,创始团队由清华大学电子工程系推动成立◈★✿ღ,创始成员来自清华大学◈★✿ღ、上海交通大学◈★✿ღ、阿里云与旷视科技等顶尖高校与AI企业◈★✿ღ。
据了解◈★✿ღ,其团队平均年龄约32岁◈★✿ღ,硕博学历超63%◈★✿ღ,技术研发人员占比超过68%青沼知朝九州酷游(中国)官方网站◈★✿ღ,◈★✿ღ,其中35%以上毕业于清华大学◈★✿ღ,是Apache◈★✿ღ、ONNX◈★✿ღ、TensorFlow◈★✿ღ、PyTorch九州◈★✿ღ。◈★✿ღ、PyG等知名项目的重要贡献者◈★✿ღ。
无问芯穹面向AI前沿技术与应用落地◈★✿ღ,以软硬件联合优化与多元异构算力服务◈★✿ღ,打造了面向AI开发与服务的“无穹AI云”及“无垠终端智能解决方案”◈★✿ღ,旨在突破AI产业应用的算力瓶颈◈★✿ღ。
其客户群星荟萃◈★✿ღ,包括百川智能◈★✿ღ、Kimi◈★✿ღ、联想集团◈★✿ღ、猎聘◈★✿ღ、理想汽车◈★✿ღ、Lovart◈★✿ღ、Sand.ai◈★✿ღ、生数科技九州ku平台◈★✿ღ、Soul◈★✿ღ、VAST◈★✿ღ、新华三青沼知朝◈★✿ღ、智谱◈★✿ღ、中国移动◈★✿ღ、中兴终端等头部人工智能及智能体企业客户九州ku平台◈★✿ღ,以及北京中关村学院◈★✿ღ、上海人工智能实验室◈★✿ღ、上海算法创新研究院◈★✿ღ、之江实验室◈★✿ღ、智源研究院等人工智能科学研究机构◈★✿ღ。
在该团队看来◈★✿ღ,基础设施既是服务智能体开发与迭代的产线◈★✿ღ,也是智能体落地实践的绝佳试验场◈★✿ღ,更是支撑智能体规模化产业应用与持续进化的基石◈★✿ღ。
无问芯穹联合创始人青沼知朝◈★✿ღ、CEO夏立雪博士谈道◈★✿ღ,面向智能体时代◈★✿ღ,无问芯穹将继续以软硬件联合优化为技术依托青沼知朝◈★✿ღ,以构建新一代可学习◈★✿ღ、可进化的Agentic Infra为战略核心◈★✿ღ,生产智能体◈★✿ღ、协同智能体◈★✿ღ、服务智能体(Into Agent, With Agent, For Agent)青沼知朝◈★✿ღ,在人工智能基础设施系统优化与生态构建上实现更深层次的突破九州ku平台◈★✿ღ。
(3)加大智能体基础设施研发投入九州ku平台◈★✿ღ,构建一流的智能体服务平台及配套云◈★✿ღ、端基础设施◈★✿ღ,加速实现智能体在数字世界与物理世界中的规模化普惠应用◈★✿ღ。
秉持“生产智能体◈★✿ღ、协同智能体◈★✿ღ、服务智能体”理念◈★✿ღ,无问芯穹构建了完整的“智能体基础设施 ×(AI 云 + 终端智能)”技术与产品架构◈★✿ღ,支撑数字世界与物理世界的智能体应用效能突破与持续进化◈★✿ღ。
在云端◈★✿ღ,无穹AI云在多元异构算力的纳管调度◈★✿ღ、AI训练及推理优化领域保持技术领先◈★✿ღ,提供智能体服务平台◈★✿ღ、AI服务平台等标准化产品能力◈★✿ღ,构建起端到端的商业化服务栈◈★✿ღ。
无穹AI云首次实现六种不同品牌芯片间的交叉混合训练◈★✿ღ,算力利用率最高可达97.6%◈★✿ღ,支持700亿参数规模的大模型训练◈★✿ღ,并在全球首创“异域”九州ku平台◈★✿ღ、“异属”跨机房联合训练技术◈★✿ღ,可容忍最低至1GB/s的带宽◈★✿ღ,可支持间距最远约2000公里的跨机房训练◈★✿ღ。
目前◈★✿ღ,无问芯穹已在全国完成超25,000P算力纳管◈★✿ღ,覆盖26座城市的53个核心数据中心◈★✿ღ,面向智能体及AI研发◈★✿ღ、托管◈★✿ღ,提供原生工具链支持与充沛的高性能算力保障◈★✿ღ,为百余家AI企业的AI应用开发与部署全流程降本增效◈★✿ღ。
该公司已推出全球第一款端侧全模态理解端模型无穹天权(Infini-Megrez)◈★✿ღ,其大语言版本以3B的计算成本◈★✿ღ、7B的内存需求与21B级智能水平◈★✿ღ,突破终端资源瓶颈◈★✿ღ。
无问芯穹终端推理加速引擎无穹开阳(Infini-Mizar)在主流硬件上实现3倍时延降低◈★✿ღ、40%的能耗节省和40%的内存占用◈★✿ღ,极致挖潜终端算力◈★✿ღ。
其自研终端推理LPU IP无穹天璇(Infini-Merak)◈★✿ღ,在能效翻倍的基础上◈★✿ღ,进一步大幅降低大模型推理成本九州酷游◈★✿ღ!◈★✿ღ。
近期◈★✿ღ,无问芯穹还连续发布了由Agentic AI驱动的云端基础设施智能体蜂群 Infra Agents 与终端通用推理加速优化平台Kernel Mind两款智能体产品◈★✿ღ,以及配套的智能体技术——支持智能体持续进化的强化学习框架RLinf和支持智能体更高效无损交流的通信框架Cache to Cache等◈★✿ღ。
其目标是让云◈★✿ღ、端基础设施也成为智能体落地的试炼场◈★✿ღ,帮助智能体从演示品真正走向规模化的新质生产力◈★✿ღ,成为像水和电一样的基础资源并自然流入千行百业与千家万户◈★✿ღ。