AI 日报

ARTIFICIAL INTELLIGENCE DAILY
晚报
🐦

Twitter/X 热议

1. Sam Altman 透露新 AI 架构即将到来

Sam Altman 在最新采访中表示,一种全新的 AI 架构正在开发中,将带来类似当年 Transformer 超越 LSTM 那样的巨大飞跃。他同时指出,当前前沿模型已经足够强大,拥有帮助人类发现下一代架构的"脑力"。这暗示 OpenAI 可能正在探索超越 Transformer 的新范式,引发社区对后 Transformer 时代的广泛讨论。

(184赞 · 4.4万浏览)

🔗 https://x.com/i/status/2033117083127644536

2. Anthropic 推出 Anthropic Academy:13 门免费 AI 课程

Anthropic 正式上线官方学习平台,提供 13 门以上的免费课程并颁发官方证书,无需任何订阅。课程涵盖 Claude 101 入门、Claude Code 实战、Claude API 开发(8小时+)、MCP 入门与进阶、Agent Skills 开发、AWS Bedrock 和 Google Vertex AI 集成等。这是 Anthropic 首次系统化地向公众开放技术教育资源,被认为是对 OpenAI 和 Google 教育生态的强力回应。多语种推文热议,全球 AI 学习者涌入。(累计数千赞 · 数十万浏览)

🔗 https://x.com/i/status/2032750111026303362

3. 智谱 GLM-OCR 技术报告发布:0.9B 参数实现 SOTA

智谱 AI 的 GLM-OCR 模型累计下载量突破 300 万次,正式发布技术报告。该模型仅 0.9B 参数(0.4B CogViT 编码器 + 0.5B GLM 解码器),通过多 Token 预测(MTP)技术实现约 50% 的吞吐量提升。仅需 1.5GB 显存即可运行,支持 Ollama 一键部署(`ollama run glm-ocr`),精度接近 Gemini Pro 水平,完全离线保障数据隐私。社区惊叹于如此小的模型就能实现文档解析和关键信息提取的 SOTA。

(1012赞 · 5.1万浏览)

🔗 https://x.com/i/status/2032853644744298983

4. Karpathy autoresearch 引爆社区:集体冲榜 + Shopify 实战

Karpathy 的 autoresearch 项目持续发酵。有人将其改造成类似 SETI@home 的分布式集体优化系统,已有 60+ 节点接入、近 2000 次实验。Shopify CEO 用 autoresearch 思路优化了 Liquid 模板渲染引擎,解析速度提升 53%,资源占用减少 61%。另有 ArgusBot 等类似的 7×24 自动化科研执行工具出现,autoresearch 正在从实验走向生产。

(153赞 · 1.3万浏览)

🔗 https://x.com/i/status/2032644552620912700

5. Yann LeCun 与 Judea Pearl 的因果模型论战

LeCun 在回复 Pearl 时详细阐述了 world model 的设计理念:世界模型是"动作条件化"的,因此本质上是因果的。他追溯到 1950 年代最优控制理论中用于规划的世界模型概念,并强调从视频中训练动作条件化的世界模型是真正的突破。这场关于因果推理与世界模型的学术论战引发了 AI 研究社区的深度讨论。

(582赞 · 9.2万浏览)

🔗 https://x.com/i/status/2032240197132247292

6. LLM 意识形态偏差研究:认知可得性形式化

研究者将 LLM 在创意生成中的偏差形式化为"认知可得性"(cognitive availability),指出当前 LLM 的想法生成严重偏向学术界已有的热门方向。通过这一框架,他们搜索到了"连贯但不易触及"的研究方向,为突破 LLM 思维定式提供了新思路。

(80赞 · 4.4千浏览)

🔗 https://x.com/i/status/2032963578622328952
🔥

GitHub 热榜

1

666ghj/MiroFish ⭐ 25,677 (+2,045)

简洁通用的群体智能引擎,号称"预测万物"。基于群体智能算法(Swarm Intelligence),通过多 Agent 集体决策实现预测任务。Python 实现,架构简洁易扩展,适用于金融预测、时间序列分析等场景。

🔗 https://github.com/666ghj/MiroFish
2

obra/superpowers ⭐ 84,571 (+1,893)

Agent 技能框架与软件开发方法论。提供一套系统化的 Agent 技能编写规范和工作流,让 AI Agent 能像人类开发者一样遵循最佳实践。社区增长迅猛,已成为 Agent 开发的事实标准之一。

🔗 https://github.com/obra/superpowers
3

volcengine/OpenViking ⭐ 11,495 (+1,877)

字节跳动开源的 AI Agent 上下文数据库,专为 Agent 设计。通过文件系统范式统一管理 Agent 所需的记忆、资源和技能上下文,支持分层上下文传递和自我进化,解决 Agent 长期记忆和知识管理难题。Python 实现。

🔗 https://github.com/volcengine/OpenViking
4

lightpanda-io/browser ⭐ 17,672 (+1,323)

专为 AI 和自动化设计的无头浏览器。用 Zig 编写,主打高性能网页渲染和数据提取,比传统 Puppeteer/Playwright 方案更轻量高效,适合大规模 AI 数据采集和 Agent 网页交互场景。

🔗 https://github.com/lightpanda-io/browser
5

p-e-w/heretic ⭐ 14,272 (+1,066)

全自动语言模型审查移除工具。能自动检测并移除 LLM 中的拒绝/审查行为,让模型更自由地回答问题。Python 实现,在 LocalLLaMA 社区引发热烈讨论,涉及模型自由与安全的平衡争议。

🔗 https://github.com/p-e-w/heretic

📺

YouTube 热门

💬

Reddit 精选

1. NVIDIA Nemotron 3 Super 比你想象的更重要

社区热议 NVIDIA 发布的 Nemotron 3 Super:120B MoE 架构但仅激活 12B 参数,推理速度约为 Qwen 3.5 122B 的 2 倍、GPT-OSS 120B 的 7 倍。最关键的是 NVIDIA 采用了更宽松的许可证,并完全开放了训练数据集和训练配方,被视为真正的"全开源"标杆。社区评价性能接近闭源模型,对企业私有化部署意义重大。

(r/LocalLLaMA · 415赞 · 152评论)

🔗 https://reddit.com/r/LocalLLaMA/comments/1rtp0og/

2. 55→282 tok/s:Qwen3.5-397B 在 4×RTX PRO 6000 Blackwell 上的极限优化

开发者分享了在 4 块 Blackwell GPU 上运行 Qwen3.5-397B 的完整优化历程。通过自定义 CUTLASS kernel 修复 SM120 的 MoE GEMM 问题,从 WSL2 下的 55 tok/s 逐步优化到原生 Linux 119→142→最终 282 tok/s。详细的技术分享获得社区大量关注。

(r/LocalLLaMA · 228赞 · 102评论)

🔗 https://reddit.com/r/LocalLLaMA/comments/1rtrdsv/

3. StepFun 开源 Step 3.5 Flash 的 SFT 数据集

阶跃星辰(StepFun)开放了训练 Step 3.5 Flash 所用的监督微调数据集,这在中国 AI 公司中极为罕见。社区认为这对研究社区价值巨大,可用于复现和改进模型训练,推动开源生态发展。

(r/LocalLLaMA · 188赞 · 24评论)

🔗 https://reddit.com/r/LocalLLaMA/comments/1rtrmp1/

4. Unsloth 将不再制作 TQ1_0 量化格式

Unsloth 团队宣布停止为新模型制作 TQ1_0 量化版本。原因是该格式在实际使用中质量损失过大,与宣传的压缩比优势不成正比。社区讨论了替代量化方案,以及不同量化格式在精度-速度上的取舍。

(r/LocalLLaMA · 134赞 · 50评论)

🔗 https://reddit.com/r/LocalLLaMA/comments/1ru25ms/

5. arXiv 将从康奈尔大学独立,成为独立非营利组织

运营数十年后,arXiv 在 Simons 基金会的支持下将脱离康奈尔大学成为独立非营利组织,正在招聘 CEO(年薪约 30 万美元)。学术界既期待独立后的更好发展,也担忧商业化压力可能影响其开放获取的核心使命。

(r/MachineLearning · 357赞 · 74评论)

🔗 https://reddit.com/r/MachineLearning/comments/1rtjirw/

6. Meta COCONUT "潜在推理"实验复现:训练策略才是关键

研究者对 Meta 的 COCONUT(Chain of Continuous Thought)论文进行了严格的对照实验,发现所谓的"潜在推理"能力主要来自好的课程学习训练策略,而循环隐藏状态反而损害了泛化能力。这对"不用文字就能推理"的说法提出了有力质疑。

(r/MachineLearning · 128赞 · 23评论)

🔗 https://reddit.com/r/MachineLearning/comments/1rt4lyd/