TPUv7正面狙击GB200,CUDA护城河被撕开第一道口子
新智元援引SemiAnalysis分析指出,谷歌首次将TPUv7大规模对外开放,Anthropic等已部署超GW级集群。 在PyTorch原生支持与vLLM推理栈加持下,系统级TCO较英伟达GB200降约30%-40%,模型实际利用率不输GPU, CUDA 软件垄断首次遭到工程层面的实质性挑战。
注:量子位报道中,H100约需1.06美元,TPU v6e约5.13美元完成同规模推理, 显示短期内GPU在单位Token成本上仍具优势。
3大格局博弈 + 5类核心进展,一屏读懂今日AI棋局
今天的AI,不只是算力大战,更是商业模型、劳动关系与人类意义的三重博弈。
新智元援引SemiAnalysis分析指出,谷歌首次将TPUv7大规模对外开放,Anthropic等已部署超GW级集群。 在PyTorch原生支持与vLLM推理栈加持下,系统级TCO较英伟达GB200降约30%-40%,模型实际利用率不输GPU, CUDA 软件垄断首次遭到工程层面的实质性挑战。
注:量子位报道中,H100约需1.06美元,TPU v6e约5.13美元完成同规模推理, 显示短期内GPU在单位Token成本上仍具优势。
通过微软财报反推,新智元梳理发现:OpenAI在Azure上的推理支出增速远超收入, 某些季度每赚1美元要花掉近2美元算力成本。2025年前三季度,推理费用已远超2024全年, 「越卖越亏」的剪刀差持续扩大,迫使其不断依赖融资——大模型商业可持续性被掰开给行业看。
量子位报道,中科天算等团队正在推进天基万卡超算集群计划,设计100MW能源舱、 10Tbps光链路通信舱和10EOPS算力舱,在真空辐射环境下突破散热和抗辐难题。 当算力贴近数据源,远洋渔业、低空经济、灾害应急乃至月球/火星探索,都将接入一张真正的「太空算力网」。
量子位梳理发现,Meta、xAI、Anthropic乃至MidJourney、SSI等多家机构早在多年以前就已在TPU上训练模型。 真正值得关注的是:Llama 3.3 性价比横评显示,H100到B200的Token成本约为TPU v6e的1/5, TPU v7在能效上才刚追上GB200。谷歌卖TPU的底牌不是「替代英伟达」,而是用与Meta、苹果的长期合同去锁晶圆产能。
面对Veo3两分钟生成堪比《银河列车》MV的震撼,作者指出:AI确实侵蚀了「用时间换技能」的旧规则, 但它只是更强的工具,缺乏意愿与情感。人类真正不可替代的是「为何要做」、 「和谁一起经历」——经历本身、关系与情感才是新的价值锚点,而不是单一产出物。
新智元披露,数据公司 Mercor 在关闭Meta「Musen」项目后,约5000名远程标注员瞬间失业, 随后又被邀请加入类似任务的「Nova」项目,但时薪更低、保障更少。 在AI被视作拉动GDP的新引擎时,那些为模型提供情绪、常识和语料的人,却被包装成「灵活就业」的可替换零件。
混元团队发布轻量级OCR专用VLM——HunyuanOCR,采用原生ViT + 轻量LLM架构, 在ICDAR 2025 DIMT小模型赛道夺冠,并拿下OCRBench 3B以下模型SOTA。 模型舍弃传统版面分析流水线,实现检测、识别、解析、翻译一体化推理, 同时引入RL策略提升多任务表现,已在 Hugging Face / ModelScope 开源。
基于TTC多年猎头经验,小麦招聘推出原生Agent产品「LovTalent」, 给每位候选人配置会长期记忆与全链路跟进的AI顾问, 从岗位理解、简历重写到面试辅导、机会筛选一站式协同。 它不以「停留时间」变现,而是按结果交付,对标的不是招聘App,而是数字化「AI猎头」。
新智元讲述了瑞典少年 Gabriel 的路径:17岁高中辍学,用ChatGPT当一对一导师系统补课数学、 编程与模型原理,在项目与副业中反复实战,最终以作品集与社区影响力而非学历,拿到OpenAI研究科学家岗位和O-1签证。 在他眼里,AI让「边学边造」成为正规教育之外的现实选项。
MEET2026智能未来大会将于12月10日在北京举行,以「共生无界,智启未来」为主题, 聚焦强化学习、多模态、大模型出海、AI+行业、芯片算力等热点, 邀集清华、智源、百度、高通、亚马逊、商汤、文远知行等嘉宾, 并发布年度AI趋势报告与公司/产品/人物榜单,是观察中国AI产业落地的缩影窗口。
Nature最新综述回顾AlphaFold自2018以来的影响:从精准预测精卵结合中关键蛋白「Bouncer」的结构, 到与EMBL-EBI共建含2.4亿预测结构的开放数据库,让190个国家、330万研究者站在同一起跑线。 DeepMind还推出纪录片《思维游戏》,记录这一AI工具如何重写蛋白质科学的工作流。
北京大学团队提出自进化VLA框架EvoVLA,利用Gemini 2.5将演示拆成70+阶段, 生成「硬负样本」做对比学习,配合基于姿态的探索奖励和长程记忆机制, 在Discoverse-L基准上将复杂操作任务成功率提升10.2个百分点, 幻觉率从38.5%降至14.8%,并通过Sim2Real在真实机器人上验证有效。
「锐词捷语」介绍,字节跳动正式发布《字节跳动RAG实践手册》PDF版, 系统呈现其建设国内最大规模检索增强生成系统的经验, 从检索索引、向量存储、召回/重排策略到大模型对接与评估方法,为企业搭建AI知识中台提供可复用范式, 也是理解RAG工程落地的高价值参考文档。