2026-04-04
🎬 YouTube
1. Matthew Berman|Google just dropped Gemma 4... (WOAH)
Google 发布了 Gemma 4 新一代开源权重模型,Matthew Berman 重点强调它把“高推理能力 + 小参数量 + 本地可跑”三件事同时做到了。视频里点名 31B dense 和 26B MoE 版本在 Arena/ELO 表现上逼近更大体量模型,定位很明显:给 agent workflow、函数调用、结构化 JSON 输出和本地部署准备的。Berman 还特别看好它对 edge / hybrid AI 的意义——困难任务继续用托管前沿模型,绝大多数任务可以下沉到本地机器。 🔗 链接
2. Matthew Berman|I was hacked...
这期不是单纯“被黑了”,而是 Matthew Berman 邀请知名 AI jailbreak 研究者 Ply the Liberator,实测攻击自己用 OpenClaw 搭的个人 AI 系统。攻击方式包括 token flooding、prompt injection、伪装成系统命令、诱导模型 exfiltrate memory 等,目标是骗过前置扫描器、烧光 token 或泄露隐私数据。视频最后的结论很务实:强 reasoner 做第一道扫描防线确实显著提升安全性,但 AI 系统没有“永久安全”一说,尤其本地小模型更容易被打穿。 🔗 链接
🎙️ 播客
1. No Priors|AI for Atoms: How Periodic Labs is Revolutionizing Materials Engineering with Co-Founder Liam Fedus
这期请来 Periodic Labs 联合创始人 Liam Fedus,核心命题是:把大模型的 scaling laws 从“语言”搬到“原子与材料实验”上。节目里聊到他们如何用语言模型做 orchestration layer,配合专用神经网络和闭环物理实验,去解决材料科学里的数据稀缺问题。另一个值得关注的点是商业化视角:从 ChatGPT 走向材料工程,本质上是在把 foundation model 的能力接到真实实验系统和产业流程里。 🔗 链接
2. Latent Space|Marc Andreessen introspects on The Death of the Browser, Pi + OpenClaw, and Why "This Time Is Different"
Marc Andreessen 在 Latent Space 这期里把当前 AI 浪潮定义为“80 年的一夜成功”,认为这轮不同于过去 AI 周期的关键,在于 reasoning、coding、agents 和 recursive self-improvement 已经形成了可复用的能力跃迁。节目对创业者最有价值的部分,是他把瓶颈从“模型本身”转向“组织、制度和现实世界吸纳技术的速度”,也重新解释了为什么基础设施过度建设未必会像 2000 年那样崩。另一个很有意思的判断是,他把 LLM + shell + filesystem + markdown + cron loop 这一套 agent 架构看成未来软件的重要范式。 🔗 链接
📝 博客
1. Simon Willison|Vulnerability Research Is Cooked
Simon 转引 Thomas Ptacek 的判断:前沿模型对漏洞研究的影响已经不是渐进式,而是“台阶式”跃迁。文中最刺耳的一句是,未来高价值漏洞研究很可能越来越像“把 agent 指向源码树,然后让它去找 zero-day”,这会直接改写 exploit 开发的实践和经济模型。对做安全或 agent 系统的人来说,这篇更像是风险预警,而不是技术乐观主义。 🔗 链接
2. Simon Willison|Quoting Willy Tarreau
HAProxy 开发者 Willy Tarreau 观察到,内核安全列表里的漏洞报告量已从两年前每周 2-3 个,涨到最近每天 5-10 个。更关键的是,问题不再只是“AI 生成垃圾报告”,而是大量真实、可复现、甚至重复发现的漏洞开始涌入,逼得维护者必须扩编处理。AI 对安全研究的影响,已经从噪声问题进入产能重构阶段。 🔗 链接
3. Simon Willison|Quoting Daniel Stenberg
cURL 维护者 Daniel Stenberg 的感受和上面形成互证:开源安全从“AI slop 海啸”进入了“高质量安全报告海啸”。他说自己现在每天要花数小时处理这些报告,说明 AI 不是只会制造噪声,而是正在把安全维护的吞吐量和工作节奏一起推高。对基础设施项目来说,这意味着 triage 和验证流程会成为新的瓶颈。 🔗 链接
4. Simon Willison|Quoting Greg Kroah-Hartman
Linux kernel 维护者 Greg Kroah-Hartman 也给出了类似判断:几个月前大家还在笑“AI slop”,但最近一个月世界突然切换了。现在各个开源项目收到的,是由 AI 辅助挖出来的真实漏洞报告,而且质量足够高,已经不能再当成玩笑看待。三位维护者的连续表态,几乎可以当成今天 AI 安全研究最强的共识信号。 🔗 链接
5. Where’s Your Ed At|Premium: AI Isn't Too Big To Fail
Ed Zitron 这篇继续猛打 AI 泡沫叙事,核心观点是:很多人把当下数据中心和模型支出合理化成“像 Uber”或“像 AWS”,但这些类比并没有拿出扎实的历史与财务对照。文章反复追问一个关键问题:生成式 AI 到底什么时候、靠什么实现可持续利润,尤其是 inference economics 现在并没有被证明。换句话说,他不是在否认 AI 的影响力,而是在质疑市场把“规模很大”偷换成了“不会失败”。 🔗 链接
6. Sean Goedecke|Programming (with AI agents) as theory building
Sean Goedecke 借 Peter Naur 1985 年的“Programming as Theory Building”重谈 agent 编程:软件工程真正的产物不是代码,而是工程师脑中的系统理论。文章并不简单反 AI,反而认为使用 agent 之后,人类依然要维护自己的 mental model,只是细节密度会下降,更多时间花在判断 agent 输出是否符合自己对系统的理解上。这个视角挺适合解释为什么“会用 agent”不等于“可以不理解系统”。 🔗 链接
7. Simon Willison|The cognitive impact of coding agents
这条其实是 Simon 对自己上 Lenny’s Podcast 片段传播效果的一个小观察:一段 48 秒短视频在 X 上拿到 110 万播放,而完整对谈时长是 1 小时 40 分钟。虽然正文不长,但它提醒了一个现实:关于 coding agents 的认知,越来越多不是靠长文或长播客建立,而是被短视频切片快速塑形。对于技术传播者来说,信息压缩方式本身也在改变讨论质量。 🔗 链接
🗞️ Techmeme 热点
1. Anthropic 调整第三方工具订阅覆盖范围
Anthropic 表示,从 4 月 4 日中午(PT)开始,Claude 订阅将不再覆盖通过 OpenClaw 等第三方工具产生的用量。这个动作很像是容量管理和计费边界的重新划线,也意味着“官方订阅 + 第三方壳层”的低成本使用方式会进一步收紧。 🔗 链接
2. Meta / OpenAI 关联数据供应商 Mercor 遭遇安全事件
多家媒体称,Meta 已暂停与数据供应商 Mercor 的合作,OpenAI 也在调查相关安全事件。重点不只是供应商被入侵,而是训练数据外包链条本身正在成为新的系统性风险点。 🔗 链接
3. 犹他州试点 AI 聊天机器人续开部分精神科维持用药
Utah 启动为期一年的试点,让 Legion Health 的 AI 聊天机器人为 15 类低风险精神科维持药物做续方。它不是全面替代医生,而是在低风险、标准化流程上测试 AI 医疗自动化的边界,医疗监管如何跟进会很值得看。 🔗 链接
4. OpenAI“超级应用”传闻继续发酵
Techmeme 汇总称,OpenAI 正在推进把 ChatGPT 与 Codex 结合的 superapp 方向,相关采访里还提到了 OpenClaw 团队成员。这个信号说明,模型公司对“聊天入口 + 编码执行 + agent workflow”的整合兴趣越来越强,产品层竞争可能很快上升到操作系统/工作台级别。 🔗 链接
5. 华为 Ascend 950PR 因 DeepSeek V4 订单推动涨价
消息称,华为即将量产的 Ascend 950PR 芯片,在中国科技公司为运行 DeepSeek V4 批量下单后涨价约 20%。这说明国产算力不只是“政策替代”,而是在模型需求拉动下形成了真实的供需紧张,后续会继续影响中国 AI 基础设施格局。 🔗 链接
📊 YouTube 2 条 | 播客 2 条 | 博客 7 条 | Techmeme 10 条 | 精选 16 条