Kaiyun(凯云)中国·官方网站

行业动态
NEWS
行业动态
NEWS
联系我们
Contact us

联系人: 张生

手机: 13845690023

电话: 0512-50135789

邮箱: 520233699@qq.com

地址: 江苏省苏州市姑苏区白洋湾街道朱家湾街8号2幢B座406区01室

公司动态

AI创投周报|光帆发布首款AI全感穿戴产品Open正寻求千亿级新融资

作者:小编 点击: 发布时间:2025-12-31 16:18:55

  

AI创投周报|光帆发布首款AI全感穿戴产品Open正寻求千亿级新融资(图1)

  AI创投周报是阿尔法公社推出的聚焦于以生成式AI为代表的人工智能新浪潮的创投资讯周报。阿尔法公社发现和投资非凡创业者(Alpha Founders),相信非凡创业者们在技术、商业和社会方面的巨大推动力,他们指引着创投生态的风向。

  2.特斯拉发布FSD v14.2.2版本,英伟达机器人主管Jim Fan实测后称其为首个通过“物理图灵测试”的AI,新版本升级了神经网络视觉编码器,展现出极强的自适应性,实测在夜间误入死胡同也能实现自主脱困。

  1.光帆科技首款AI全感穿戴设备“Lightwear”发布,计划2026年第一季度正式开售

  近日,阿尔法公社早期投资的光帆科技正式发布其首款核心产品——“光帆Lightwear” AI全感穿戴设备,它由一款具备视觉能力的AI耳机和一款多功能AI手表组成。它已于即日起正式开启预约,并计划于2026年第一季度正式开售。

  作为全球首款搭载摄像头的AI耳机,其核心逻辑并非用于摄影,而是赋予AI“看见”并“理解”物理环境的能力。配合自研的AI操作系统Lightware OS,该设备能够实现主动式、情境化的智能服务。例如,用户在无需掏出手机的情况下,即可通过耳机实现点外卖、订机票、日程提醒及餐厅推荐等复杂操作。

  在硬件工艺上,耳机单耳仅重11克,支持9小时通线小时音乐续航,并配备了毫秒级指纹确认模组以保障数据安全。与之配套的AI手表则不仅为交互提供多维反馈,更通过实时监测身体数据,让AI Agent能够基于用户的生理状态提供更精准的建议。这种“耳机+手表”的双设备联动,避开了目前智能眼镜在光学与重量上的技术瓶颈,通过更成熟的佩戴形式实现了全天候、全感知的无感化人机交互。

  光帆科技3个月内完成两轮累计1.3亿人民币融资,它的创始人董红光是小米的第89号员工,曾长期担任小米自研操作系统的负责人,在底层软件架构与软硬一体化开发方面拥有超过十年的经验。

  特斯拉近期推送了FSDv14.2.2版本,英伟达机器人主管Jim Fan在实测后表示,该版本是首个通过“物理图灵测试”的AI,其驾驶行为已达到难以与真人区分的水平。

  特斯拉CEO马斯克在社交平台发文称,自己亲自体验了一次无安全员的Robotaxi测试,并直言体验近乎“完美”。多位特斯拉车主通过视频展示了新版本在雨天拥堵、死胡同及复杂停车场等场景下的自主导航能力。

  在技术细节上,v14.2.2版本核心升级了神经网络视觉编码器,通过更高分辨率的视觉输入显著增强了对行人手势、紧急车辆及道路障碍物的感知精度。新版本引入了动态路径规划能力,能够实时应对路况变化而非仅依赖预设导航,并新增了可记忆用户偏好的多样化泊车选项。

  此外,系统提供了“Sloth”与“MadMax”两种Kaiyun驾驶风格模式,并取消了启动时的刹车确认机制,使决策执行更加丝滑果断。相比Waymo依赖高精地图与多传感器的模块化架构,特斯拉坚持的纯视觉端到端路线在极端环境下展现出更强的自适应性。

  智谱AI近日发布并开源其新模型GLM-4.7,该模型在编程、推理及工具调用能力上实现了系统性升级。在权威编程评测基准SWE-Bench Verified中,该模型以73.8%的得分刷新了开源模型的性能纪录。此外,在AIME 25和人类最后考试(HLE)等复杂数学与逻辑推理任务中,GLM-4.7的评分表现已超越GPT-5.1。

  在技术架构方面,GLM-4.7在延续“交错式思考”的基础上,进一步引入了“保留式思考”与“轮级思考”两项关键技术。保留式思考允许模型在多轮对话中复用已有的推理路径,减少了信息丢失并有效降低了长程任务中的Token消耗;轮级思考则支持用户根据任务难度灵活开启或关闭推理计算,从而在低延迟响应与深度逻辑推演之间实现动态平衡。这些技术突破使模型在Web UI设计、3D资产生成及复杂后端工程任务中表现卓越,能够实现精准的代码调试与长程任务规划。

  MiniMax近日发布了其旗舰级模型M2.1。该模型在衡量多语言软件工程能力的Multi-SWE-bench榜单中,凭借10B的激活参数取得了49.4%的评分,超越了Claude Sonnet 4.5等国际顶尖竞品,刷新了全球SOTA纪录。

  M2.1的核心优势在于突破了AI编程模型在后端开发与底层逻辑上的局限,实现了对Java、Golang、Rust及原生Android和iOS等多种开发环境的深度支持。该模型引入了Interleaved Thinking机制,使其能熟练配合Cursor、Claude Code等工具链,在存量代码库中进行精准的重构与修复,并能独立完成从系统设计文档到数千行代码的工程级交付。

  为更真实地评估模型能力,MiniMax同步开源了考核维度涵盖Web、仿真及移动端等五个领域的VIBE测试基准,M2.1在复杂的Android开发子项中表现优异。目前,该模型已在MiniMax内部支撑了超过80%的代码编写任务。

  5.Mamba作者携团队发布SonicMoE:大幅提升细粒度MoE模型训练效率

  普林斯顿大学助理教授、Mamba与FlashAttention的核心作者Tri Dao及其团队近日发布了名为SonicMoE的系统性解决方案。该框架专为NVIDIA Hopper和Blackwell架构GPU定制,旨在解决当前MoE大模型追求细粒度专家设计和高稀疏性时所面临的硬件效率挑战。

  SonicMoE通过一系列底层算法优化,在保持模型质量的前提下显著提升了MoE模型的训练吞吐量,最高可将训练速度提升近两倍,成功应对了内存墙与IO瓶颈问题。

  在技术层面,SonicMoE引入了内存高效算法、IO与计算重叠内核以及创新的“Token舍入”调度策略。该框架重新设计了计算图,在计算路由梯度时不缓存激活值,使细粒度模型的每层激活内存占用最高减少了45%;同时利用异步范式掩盖IO延迟,解决了细粒度专家带来的高频IO访问难题。其独特的Token舍入算法将各专家的Token数对齐至硬件Tile大小,有效消除了计算资源的填充浪费,且实验证明该策略不会影响下游任务的推理精度。

  6.Transformer作者推出8B开源模型Rnj-1,轻量化模型在复杂任务上比肩大参数模型

  Essential AI Labs由Transformer架构的共同发明人Ashish Vaswani与Niki Parmar创立,它近期正式推出了名为Rnj-1的8B参数开源小模型。该模型主张通过提升算力效率和数据压缩质量来实现智能涌现,挑战现有Scaling Law范式。Rnj-1试图通过提供高性能的轻量化工具,打破少数巨头对前沿技术路径的垄断。

  Rnj-1遵循开源Gemma 3架构,核心技术涵盖全局自注意力机制与YaRN技术,使其在32k上下文长度内具备极强的感知与逻辑一致性。

  在性能表现上,Rnj-1在代码生成、数学推理及智能体能力等关键指标上可比肩更大规模的开源模型,特别是在SWE-bench等复杂任务中表现突出,能够自主进行代码优化与多轮迭代。此外,该模型对量化技术具有高度稳健性,支持在消费级GPU上以FP8或NVFP4精度运行且几乎不损失质量。

  谷歌DeepMind在其最新研究论文《分布式AGI安全》中提出,通用人工智能(AGI)的实现形式可能并非传统预想中全知全能的“单体超级大脑”,而是一种由多个专门化智能体构成的“拼凑式AGI”。

  该研究由DeepMind资深科学家Nenad Tomašev及人工智能泰斗Hinton的学生Simon Osindero等专家共同完成。论文指出,AGI更可能表现为一个去中心化的智能体经济体或组织系统,其智能性通过无数互补的专业智能体在协作中共同涌现。

  这种“拼凑式AGI”的构想基于经济学中的比较优势原理,即通过多个低成本的专精模型进行任务路由与协作,其效率和成本表现优于单一的巨型通用模型。然而,分布式系统也引入了独特的风险,如智能体之间可能在无显式沟通的情况下达成“算法合谋”以规避监管,或因级联反应引发类似于金融市场的“闪电崩盘”。此外,多智能体协作还带来了责任归属模糊的“许多只手”问题。为此,DeepMind提出了一套综合安全框架,核心包括建立具备身份验证和声誉机制的虚拟沙盒经济、实施智能体标准化安全认证、实时监测集群涌现特征,以及在法律层面将智能体集群视为法人实体。

  8.清华与生数科技发布TurboDiffusion框架:最高实现200倍视频生成提速

  清华大学TSAIL实验室联合生数科技近日推出了名为TurboDiffusion的开源视频生成加速框架。该框架旨在解决视频生成模型推理速度慢、硬件门槛高的问题,在保证视频动态流畅度、光影质感及指令遵循能力几乎无损的前提下,实现了最高超过200倍的生成提速。以单张RTX 5090显卡为例,针对1.3B规模的模型,生成一段480P分辨率的5秒视频仅需1.9秒,较原始推理效率提升约97倍;在处理14B规模模型及1080P高分辨率任务时,该框架同样展现出显著的性能优势。

  TurboDiffusion的核心竞争力源于四项自主研发的关键技术:SageAttention2++通过低比特量化技术将注意力计算速度提升3至5倍并减半显存占用;Sparse-Linear Attention则通过稀疏性与线性复杂度算法进一步降低计算负载;rCM步数蒸馏技术将原本需要数十次的去噪迭代压缩至1至4步;W8A8量化与自定义算子的应用则充分释放了硬件的计算潜力。这些技术突破不仅使消费级显卡部署高质量视频模型成为可能,还大幅降低了云端推理成本。

  OpenAI目前正计划筹集1000亿美元新资金,投后估值有望冲击8300亿美元。在完成公益型公司重组后,该公司正积极为2026年底可能进行的万亿美元估值IPO做准备。

  为了支撑模型训练与全球部署带来的指数级算力需求,OpenAI已做出未来八年约1.4万亿美元的基础设施投资承诺。在技术与供应链层面,OpenAI正通过“去微软化”策略寻求更大的合作自由,已与亚马逊AWS签下380亿美元算力合同,并计划在特定场景引入AWS的Trainium芯片,以削弱对单一芯片供应商的依赖。

  同时,公司还与甲骨文、AMD及谷歌开展深度合作,通过租赁大规模服务器集群和定制硬件构建算力护城河。尽管2025年其预计营收达130亿美元,但面对未来四年超过1000亿美元的资本支出需求,OpenAI正通过高频的资本运作与基建绑定,试图在与谷歌等对手的激烈竞争中保持领先地位。

  NVIDIA近期宣布与AI芯片初创公司Groq达成一项涉及200亿美元现金的重磅交易。根据协议,Groq的创始人兼首席执行官、前谷歌TPU核心研发者Jonathan Ross,以及总裁Sunny Madra等高管将带领核心研发团队加入英伟达,共同推进授权技术的应用与扩展。而Groq公司本身将保持独立运营,由原首席财务官接任CEO,其云平台业务也将照常运作。

  英伟达此举的核心意图在于强化其在AI推理市场的竞争力,并吸纳顶尖的芯片设计人才。Groq研发的语言处理单元(LPU)以超低延迟和高能效著称,官方数据显示,其运行大模型的速度比传统方案快10倍,能耗却仅为十分之一。通过此次“人才收购”(Acqui-hire),英伟达计划将Groq的低延迟处理器技术整合进其AI工厂架构中,以服务日益增长的实时推理工作负载。

  Advanced Machine Intelligence(AMI)被披露正在寻求以约30亿欧元估值融资5亿欧元(约合5.86亿美元),该轮融资尚未正式完成,相关信息由《金融时报》援引知情人士报道。公司在产品尚未正式发布前即启动大规模融资谈判,资金规模和估值处于早期阶段。当前披露信息中未公布明确的领投方及参投机构名单。

  AMI是一家专注于“世界模型”方向的人工智能研究型公司,核心目标是构建能够理解环境、模拟因果关系并进行情景推演的通用智能系统。该技术路线不同于以大语言模型为核心的生成式AI,强调对真实世界结构与动态的建模,以减少模型在推理过程中的结构性幻觉问题。AMI的模型计划面向通用智能研究及高可靠性AI应用场景,相关产品仍处于研发阶段。

  AMI由知名人工智能科学家Yann LeCun发起创立,其本人担任执行董事长而非首席执行官。LeCun是纽约大学教授,曾任Meta副总裁兼首席AI科学家,并因在强化学习等领域的贡献获得图灵奖。公司首席执行官由Nabla联合创始人兼CEO Alex LeBrun出任,其曾在Nuance Communications、Facebook AI团队任职。

  Mythic是一家专注于边缘侧AI推理的芯片公司,核心方向为基于模拟计算的存算一体AI加速架构。公司致力于解决传统数字AI芯片在功耗、成本和能效方面的限制,通过在存储阵列中直接执行矩阵计算来提升推理效率。其核心产品为基于ACE(Analog Compute Engine)架构的模拟矩阵处理器,主要应用于自动驾驶、机器人、工业设备及航空航天等对低功耗、高性能推理有需求的场景。

  Mythic最初源于密歇根大学的模拟存储计算研究成果,公司早期联合创始人包括Dave Fick和Mike Henry,具备计算架构与半导体研究背景。现任首席执行官Taner Ozcelik曾在NVIDIA任职多年,参与自动驾驶相关芯片与产品线工作,拥有芯片研发与商业化经验。

  这笔丰厚的资金将主要用于加速其核心专利技术——Neurable AI的商业化部署。公司旨在通过该技术,将脑机接口(BCI)功能无缝集成到耳机等大众日常使用的消费级电子设备中,力求将认知健康塑造为继心率和睡眠监测之后的下一个消费技术主流类别。

  Neurable的核心产品MW75 Neuro LT耳机配合最新升级的应用程序,能够实时监测并反馈用户的大脑疲劳程度、认知恢复状态以及专注力水平。依托Neurable AI平台强大的信号处理能力,该系统在多项独立评估和同行评审研究中展现出了极高的数据保真度。

  Neurable洞察到全球脑机接口市场的巨大潜力,通过与全球行为研究平台iMotions以及MeSpace等机构的深度合作,Neurable不仅为科研人员提供了大规模采集高质量神经数据的手段,更通过实时认知见解帮助电竞选手优化竞技表现。

  Neurable的CEO兼联合创始人Ramses Alcaide博士拥有深厚的神经科学背景,在顶级实验室和机构中积累了数十年的前沿研究经验。另一位联合创始人兼战略伙伴关系副总裁Adam Molnar,则凭借其在技术转化与商业协作方面经验,推动了公司在游戏等应用领域的生态构建。

  Resolve AI近日完成由Lightspeed Venture Partners领投的A轮融资,本轮融资金额未披露,但知情人士称,该轮融资对外披露估值为10亿美元。公司年度经常性收入约为400万美元。

  Resolve AI专注于自动化站点可靠性工程(SRE)工具的研发,目标是实现软件系统运行维护的自主化。其产品能够在生产环境中实时识别、诊断并自动修复系统故障,替代传统依赖人工SRE的排障流程。核心技术路线是基于AI的系统可观测性、事件分析与自动执行修复操作,主要应用于云端和分布式软件系统的稳定性与运维管理。

  Resolve AI由前Splunk高管Spiros Xanthos与Splunk前可观测性首席架构师Mayank Agarwal共同创立,二人曾在伊利诺伊大学厄巴纳-香槟分校攻读研究生,2019年共同创立的Omnition被Splunk收购。创始团队具备长期从事企业级软件、可观测性与运维系统的技术和管理背景。

  Dazzle是一家专注于下一代人工智能个人助理的消费级AI公司,公司业务聚焦于利用生成式AI改善个人信息管理、任务协作与日常交互体验,具体功能尚未对外披露。其技术路线以大模型驱动的个人助理为核心,主要应用场景为个人效率与日常数字生活管理。

  Dazzle由前雅虎CEO Marissa Mayer创立并担任核心负责人。Mayer此前为谷歌第20号员工,曾参与谷歌搜索界面设计,并主导谷歌地图和AdWords等核心产品研发,后出任雅虎CEO。

  Edison Scientific专注于开发用于加速和自动化科学研究的人工智能软件平台,公司核心产品为AI科学家系统 “Kosmos”,能够自动化执行文献综述、数据分析、假设生成和实验设计等科研任务,以缩短传统科学研究周期。该平台集成来自OpenAI、谷歌及Anthropic等公司的AI模型,并结合公司自主研发模型,主要应用于生物医学、材料科学和基础科学研究等场景。

  Edison Scientific由联合创始人兼首席执行官Samuel G. Rodriques领导。Rodriques拥有物理学和生物工程背景,曾在高级科学研究领域积累丰富经验;联合创始人兼首席技术官Andrew White在AI用于化学与科研自动化领域具有深厚技术积累。

  本文由阿尔法公社综合自多个信息源,并在AI模型的辅助下写作,封面图片由AI生成。


相关标签:
热门产品