AI 日报

ARTIFICIAL INTELLIGENCE DAILY
早报
🐦

Twitter/X 热议

1. NVIDIA GTC 2026 震撼开幕:黄仁勋宣布万亿美元芯片需求

NVIDIA GTC 2026 大会于3月16日在加州圣何塞举行,来自190个国家的3万人亲临现场。黄仁勋在主题演讲中发布了 Vera Rubin 新一代 GPU/CPU 平台,推理性能提升 5 倍,token 成本直降至 1/10。他宣布 Blackwell + Rubin 系列 AI 芯片到 2027 年累计营收将达 1 万亿美元,华尔街称之为"AI 界的超级碗"。路线图从 2027 年 Vera Ultra 延伸至 2028 年 Feynman 架构,CUDA 也迎来 20 周年重大升级。OpenAI、Anthropic、Meta 等全部签约采购。这标志着 AI 基础设施进入新的万亿级时代。

🔗 https://x.com/i/status/2033658094316605481

2. NVIDIA 发布 NemoClaw 企业级 AI Agent 操作系统

GTC 大会上,NVIDIA 正式发布 NemoClaw——基于 OpenClaw 构建的企业级 AI Agent 操作系统,黄仁勋称之为"AI 界的 Linux"。同时宣布 Nemotron Coalition 联盟,首批成员包括 Mistral AI、LangChain、Cursor、Perplexity、Black Forest Labs、Reflection AI、Sarvam 和 Thinking Machines Lab 八大 AI 实验室。联盟将协同开发完全开源的 Nemotron 4 系列前沿模型。LangChain 同步宣布与 NVIDIA 合作推出企业级 Agentic AI 平台,LangGraph 和 Deep Agents 直接集成 NVIDIA 工具链。这是开源 AI 生态迄今最大规模的联合行动。

🔗 https://x.com/i/status/2033676492048122024

3. Mistral 开源 Mistral Small 4:119B 参数 MoE 模型

Mistral AI 发布 Mistral Small 4,总参数 119B,激活参数仅 6.5B,支持 256K 上下文窗口,可处理文字和图片输入。作为 MoE(混合专家)架构模型,它在保持极低推理成本的同时,性能接近中等规模密集模型。Mistral 同步发布了官方 NVFP4 量化版本(Mistral-Small-4-119B-2603-NVFP4),针对 NVIDIA GPU 做了深度优化。社区反馈评分略低于 Qwen3-Next-80B,但作为开源选择极具性价比。Mistral 同时加入 NVIDIA Nemotron Coalition,将参与下一代开源前沿模型的联合开发。

🔗 https://x.com/i/status/2033729603416756708

4. MiroThinker-1.7 Agent 模型发布:陈天桥团队的预测引擎

陈天桥旗下团队发布 MiroThinker-1.7 Agent 模型,专注于 Agent 任务执行。与 GPT 等通用模型不同,MiroThinker 一次研究任务中最多能连续调用 300 次工具(代码执行、搜索、API 调用等),实现深度自主研究。此前 MiroFish 群体智能引擎已因一位用户在 NBA 数据上训练群体模型并在 Polymarket 盈利 149 万美元而爆火,获得 48 万次浏览和 3900+ 收藏。MiroThinker 在此基础上强化了推理和工具调用能力,此前 1.5 版本仅 30B 参数就超越了万亿级 Kimi-K2-Thinking。

🔗 https://x.com/i/status/2033532696950169992

5. Karpathy 的 autoresearch 持续火爆:AI Agent 自主做 ML 研究

Andrej Karpathy 开源的 autoresearch 项目在两周内获得 36,500+ star,成为近期最受关注的 AI 开源项目之一。核心理念极其简洁暴力:给 AI Agent 一个单 GPU 训练环境,Agent 自主修改代码(模型架构、优化器、超参数),每 5 分钟跑一次训练并检查验证集 loss,循环优化直到找到更好方案。仅 630 行代码,基于 nanochat LLM 训练核心。社区已涌现 Apple Silicon macOS 移植版等衍生项目。有评论称这是"Agent 循环吃掉一切"的最清晰示例——人类写策略文档,AI 自主执行实验。

🔗 https://x.com/i/status/2033502789289267331

6. Claude-mem 项目火了:给 AI Coding Agent 做长期记忆层

claude-mem 项目在 Twitter 中文技术圈引发广泛讨论。该项目是一个 Claude Code 插件,能自动捕获 Claude 在编码会话中的所有操作,用 AI 压缩成摘要存储,在未来会话中注入相关上下文。开发者评论称"AI coding 现在最大的问题不是能力,是记忆",claude-mem 的做法很聪明——本质是在给 Agent 做长期记忆层。这解决了 AI 编码助手的核心痛点:跨会话上下文丢失。该项目已在 GitHub Trending 登顶,获得 37,000+ star。

🔗 https://x.com/i/status/2033560005090361423
🔥

GitHub 热榜

1

obra/superpowers (+3,152)

一个 Agent 技能框架和软件开发方法论,提供经过实战验证的 Agent 工作流程。基于 Shell 脚本构建,理念是让 AI Agent 具备可复用的"超能力"技能集。今日新增 3,152 star,总量近 9 万,是当前最火的 Agent 开发方法论项目。适用于想系统化构建 AI Agent 工作流的开发者和团队。

🔗 https://github.com/obra/superpowers
2

thedotmack/claude-mem (+1,045)

自动捕获 Claude Code 编码会话的所有操作,用 Claude 的 agent-sdk 进行 AI 压缩,并在未来会话中注入相关上下文。解决了 AI 编码助手跨会话记忆丢失的核心痛点。TypeScript 开发,即插即用。对于重度使用 Claude Code 的开发者来说是必装插件。

🔗 https://github.com/thedotmack/claude-mem
3

666ghj/MiroFish (+3,260)

一个简洁通用的群体智能引擎,可"预测万物"。通过模拟数千个 AI Agent 形成群体智慧来做预测。已有用户用它在 NBA 数据上训练,在 Polymarket 上盈利 149 万美元。Python 开发,架构清晰。今日爆增 3,260 star,是开源预测类项目的标杆。

🔗 https://github.com/666ghj/MiroFish
4

volcengine/OpenViking (+2,012)

字节跳动旗下火山引擎开源的 AI Agent 上下文数据库,专为 Agent(如 OpenClaw)设计。通过文件系统范式统一管理 Agent 所需的上下文(记忆、资源、技能),支持分层上下文分发和自我进化。Python 开发,填补了 Agent 长期上下文管理的空白。今日新增 2,012 star。

🔗 https://github.com/volcengine/OpenViking
5

langchain-ai/deepagents (+1,026)

基于 LangChain 和 LangGraph 构建的 Agent 引擎,配备规划工具、文件系统后端和子 Agent 派生能力,专为处理复杂 Agentic 任务设计。与 NVIDIA NemoClaw 生态深度集成,是 GTC 2026 官方推荐的 Agent 构建工具之一。Python 开发,企业级就绪。

🔗 https://github.com/langchain-ai/deepagents

📺

YouTube 热门

1. NVIDIA GTC Keynote 2026

黄仁勋完整主题演讲

频道:NVIDIA | 播放量:444,092 | 时长:2:56:06 NVIDIA 官方发布的 GTC 2026 完整主题演讲,黄仁勋亲自介绍所有突破性发布:Vera Rubin GPU 平台、NemoClaw 企业 AI 操作系统、DLSS 5 游戏渲染技术、Nemotron Coalition 开源联盟等。他宣布 AI 芯片需求达万亿美元规模,并展示了从数据中心到太空(SPACE-1 太空 GPU)的全场景 AI 基础设施布局。这是了解 2026 年 AI 硬件生态格局的必看内容。演讲还揭示了路线图延伸至 2028 年 Feynman 架构的宏大计划。

🔗 https://www.youtube.com/watch?v=jw_o0xr8MWU

2. State of AI in 2026

Lex Fridman 播客 #490

频道:Lex Fridman | 播放量:767,721 | 时长:4:25:13 Lex Fridman 与 ML 研究者 Nathan Lambert 和 Sebastian Raschka 深度对谈 2026 年 AI 全景。涵盖 LLM 发展现状、AI 编码革命、Scaling Laws 是否见顶、中国 AI 竞争态势、Agent 生态、GPU 供需、以及 AGI 时间线预测。Nathan Lambert 以 post-training 专家身份分享了业界鲜为人知的训练技巧和瓶颈。长达 4.5 小时的深度内容,是当月播放量最高的 AI 深度访谈。

🔗 https://www.youtube.com/watch?v=EV7WhVT270Q

3. My Honest Thoughts on AI and the Job Market in 2026

频道:Tech With Tim | 播放量:112,115 | 时长:15:01 Tech With Tim 以数据驱动的方式分析 AI 对 2026 年就业市场的真实影响,避免了常见的恐慌炒作。讨论了哪些岗位真正面临替代风险、哪些领域 AI 反而在创造新需求,以及开发者应如何调整技能方向。作为编程教育类头部频道,他的视角务实且有说服力。11 天内获得 11 万播放。

🔗 https://www.youtube.com/watch?v=PEFso88LkC4

4. AI News: This Video Model Has Everyone Freaked Out!

频道:Matt Wolfe | 播放量:110,516 | 时长:30:53 Matt Wolfe 的每周 AI 新闻汇总,本期重点报道了引发广泛讨论的新视频生成模型,详细展示了其生成质量和潜在影响。还涵盖了多个值得关注的 AI 产品更新和行业动态。Matt Wolfe 是 AI 新闻领域最受信赖的 YouTuber 之一,内容全面且节奏紧凑。30 分钟涵盖一周所有重要 AI 新闻。

🔗 https://www.youtube.com/watch?v=msrbd-d6lWk

5. AI Triggers Mass Layoffs, Reshaping Future of Tech Jobs in 2026?

频道:Firstpost | 播放量:4,658 | 时长:4:29 发布于 15 小时前的最新报道,聚焦 AI 引发的科技行业裁员潮。多家科技公司宣布以 AI 自动化替代部分岗位,引发全球关于 AI 就业影响的新一轮讨论。报道分析了具体公司案例和被影响的岗位类型,以及各国政策应对。作为时效性最强的报道之一,反映了 AI 对劳动力市场的实际冲击正在加速。

🔗 https://www.youtube.com/watch?v=gLUC2WK4hsg
💬

Reddit 精选

1. Mistral Small 4 (119B) 发布引爆 LocalLLaMA 社区

Mistral Small 4 成为 r/LocalLLaMA 当日最热话题,多个帖子共获 800+ 赞和 300+ 评论。该模型采用 MoE 架构,119B 总参数中仅 6.5B 激活,支持 256K 上下文和多模态输入。社区讨论焦点包括:与 Qwen3 系列的横向对比、NVFP4 量化版本的实际推理性能、在消费级 GPU 上的可运行性。同时 Mistral 还发布了面向 Lean 4 数学证明的 Leanstral 模型,展示了在垂直领域的布局野心。

🔗 https://reddit.com/r/LocalLLaMA/comments/1rvlfbh/mistral_small_4119b2603/

2. NVIDIA 承认 Rubin GPU 最大吞吐量仅提升 2 倍

一则获 128 赞的帖子指出 NVIDIA 承认新一代 Rubin GPU 在最大吞吐量场景下仅有 2 倍性能提升。发帖者认为这是"不再用 80GB vs 288GB 显存的不对等对比来混淆视听",强制进行 apple-to-apple 比较。61 条评论中,社区对此看法分化:一方认为 2 倍已经很好,另一方认为相比此前宣传过于保守。同时 DGX Station 也开始通过 OEM 渠道发售,但价格令人咋舌。

🔗 https://reddit.com/r/LocalLLaMA/comments/1rvmfdd/nvidia_admits_to_only_2x_performance_boost_at_max/

3. Pokémon Go 玩家在不知情中用 300 亿张图片训练了送货机器人

r/artificial 当日最火帖子(384 赞),揭露 Pokémon Go 玩家多年来拍摄的 300 亿张街景图片被用于训练配送机器人的导航系统。这引发了关于数据隐私和知情同意的激烈讨论,42 条评论中多数用户表达了对未经明确同意使用用户数据的不满。这一事件再次凸显了 AI 时代用户数据权益保护的紧迫性。

🔗 https://reddit.com/r/artificial/comments/1rva72t/pokémon_go_players_unknowingly_trained_delivery/

4. GraphZero v0.2:解决 PyTorch Geometric 内存爆炸问题的 C++ 零拷贝图引擎

r/MachineLearning 最热实战项目帖(335 赞),作者分享了自己受够了 PyTorch Geometric 在大图数据集(如 Papers100M)上动辄 24GB+ OOM 崩溃,于是用 C++ 开发了一个零拷贝图引擎 GraphZero v0.2。它完全绕过 RAM,通过内存映射直接读取磁盘数据,让 GNN 训练在普通笔记本上成为可能。28 条评论中社区反馈积极,多位 GNN 研究者表示"终于不用为数据加载写 workaround 了"。

🔗 https://reddit.com/r/MachineLearning/comments/1ru7bnz/p_i_got_tired_of_pytorch_geometric_ooming_my/

5. 5 个 AI 模型自主辩论地缘政治危机:多模型对抗系统实验报告

r/artificial 上一位开发者分享了自己构建的多模型自主对抗系统:让 Claude、GPT-4o、Gemini、Grok、DeepSeek 五个模型每天两次独立评估 30+ 地缘危机场景的概率,彼此不可见对方输出,由编排器综合推理得出最终预测。15 天运行后的发现包括:模型间存在系统性偏差、某些模型在特定领域有明显优势。20 条评论讨论了多模型集成在预测任务中的可行性。

🔗 https://reddit.com/r/artificial/comments/1rvhxqv/built_an_autonomous_system_where_5_ai_models/