2026-04-25
🎬 YouTube
1. Google Cloud CEO: Anthropic, TPUs, Mythos, NVIDIA and more
🔗 链接
Google Cloud CEO Thomas Kurian 在采访里反复强调,Google 的优势不是单点模型能力,而是“芯片+数据中心+软件栈”全链路一体化:自研 TPU 已持续 11-12 年,且通过提前锁定能源、地产和制造能力来缓解算力瓶颈。一个很具体的信号是,Gemini Enterprise 的 token 吞吐从今年 1 月的每分钟 100 亿涨到 160 亿,企业用户环比增长 40%。
他还透露第八代 TPU 将按训练和推理分拆设计,并把下一阶段 agent 基础设施的核心瓶颈指向“消费者侧长时任务的 VM 成本与存储效率”,说明大厂视角已经从单纯堆模型转向 agent 运行时经济性。
2. GPT 5.5 Arrives, DeepSeek V4 Drops, and the Compute War Intensifies
🔗 链接
AI Explained 这一期把 GPT-5.5 和 DeepSeek V4 放在一起比较,核心结论不是“谁绝对最强”,而是各家都在转向“单位成本 intelligence”竞争:GPT-5.5 在一些 agentic terminal coding、电子表格和安全任务上表现很强,但在知识性基准与幻觉率上并不稳定。视频里提到一个刺眼的数据:GPT-5.5 在答错题目时的 hallucination rate 仍高达 86%,而 Mythos 和 Opus 在一些设置下更克制。
DeepSeek V4 则把 100 万 token 上下文和极低成本作为卖点,作者认为它在部分推理/编码任务上已经接近一线闭源模型,但真正限制整个行业上限的仍然是算力稀缺而不是算法灵光一现。整期的主线很清楚:2026 年的竞争不只是模型分数,而是“谁能把高能力稳定、便宜、规模化地供给出去”。
3. AI Builders: Building an AI agent for interior design
🔗 链接
Weights & Biases 展示了一个很实用的多模态 agent demo:上传房间照片后,系统用 Gemini 图像模型把商品目录里的灯具替换进真实场景,还额外把一只猫作为参考图放进最终效果图里。更值得看的不是 demo 本身,而是它如何从 notebook 原型走向“可上线”的过程:作者用 W&B Weave 记录每次调用的输入输出、trace 和人工反馈,再用评测比较不同图像模型的准确率、延迟和成本。
这类内容对做 AI 产品的人很有参考价值,因为它把“生成一个看起来不错的结果”和“构建可观测、可迭代、可评估的生产系统”明确区分开了。
🎙️ 播客
无近期更新。
📝 博客
1. GPT-5.5 prompting guide — Simon Willison
🔗 链接
Simon Willison 摘了 OpenAI 最新 GPT-5.5 提示词指南里一个很实用的建议:对于多步骤任务,在调用工具前先给用户一个 1-2 句的可见进度更新,这能显著降低“模型是不是卡死了”的体感。更关键的是,OpenAI 官方明确建议不要把旧版本 prompt stack 机械迁移到 GPT-5.5,而是从最小可用提示重新建立 baseline,再逐步调 reasoning、verbosity、tool descriptions 和输出格式。
这其实是个重要信号:新模型族和旧模型的“最佳提示习惯”已经不再线性继承,prompt engineering 也进入了版本化迁移时代。
2. llm 0.31 — Simon Willison
🔗 链接
Simon 的命令行工具 llm 发布 0.31,最直接的更新是接入 GPT-5.5,并把 OpenAI 新出的 verbosity 参数做成了 CLI 选项,支持 low / medium / high。另一个实用改动是图像输入时可设置 image_detail,包括 low、high、auto,以及 GPT-5.4/5.5 支持的 original。
对经常在 shell 里批量跑模型的人来说,这些不是“锦上添花”式升级,而是让同一套脚本更容易精细控制成本、输出长度和视觉分析质量。
3. The people do not yearn for automation — Simon Willison
🔗 链接
Simon 转引并推荐了 Nilay Patel 关于“software brain”的评论:技术行业习惯把世界理解成可抽象、可建模、可自动化的信息流,但普通人并不天然渴望把生活变成自动化流水线。文章里那句“人们并不向往自动化”很扎心,因为它直接指出了 AI 遭到反感的一个根因——不是大家不理解技术,而是很多场景本来就不希望被系统化地压扁。
这篇更像是 AI 产品和叙事层面的提醒:如果只从效率和替代角度讲故事,社会接受度会持续掉头向下。
4. Serving the For You feed — Simon Willison
🔗 链接
Simon 推荐的这篇 AT Protocol 客座文很有意思:Bluesky 一个约 7.2 万人使用的 “For You” feed,核心服务竟然主要跑在开发者家里的单台 16 核、96GB 内存、4TB NVMe 的电脑上,数据库直接用 SQLite。系统通过消费 Bluesky firehose、保留最近 90 天数据来做基于“共同点赞行为”的推荐,总存储已到约 419GB,而对公网暴露流量则只需一个 7 美元/月的 VPS 加 Tailscale 转发。
这篇最有价值的地方在于,它证明了推荐系统并不一定要从超大规模基础设施起步;在协议开放、问题定义清晰的前提下,小团队也能以很低成本跑出有竞争力的个性化 feed。
5. Premium: How OpenAI Kills Oracle — Where’s Your Ed At
🔗 链接
Ed Zitron 这篇长文的核心指控非常尖锐:他认为被反复宣传的 Stargate 项目在融资、实体和执行层面都远没有公开叙事里那么扎实,更像是 OpenAI、Oracle 与 SoftBank 联合放大的基础设施故事。文中列了不少具体细节,比如 Abilene 数据中心早在 2024 年中就已开建,最初还不是给 OpenAI 用;以及新增容量后来更多被微软承接,而不是如早期叙事那样顺畅流向 OpenAI/Oracle。
即便这篇带有强烈评论立场,它仍值得看,因为它把 AI 基建叙事里最容易被忽略的问题摊开了:哪些是真实落地的电力、园区、租约和现金流,哪些只是用来支撑估值和市场情绪的宏大话术。
🗞️ Techmeme 热点
1. 马斯克对 OpenAI 的 1340 亿美元诉讼将在 4 月 27 日开审
🔗 链接
Techmeme 汇总称,Elon Musk 指控 Sam Altman 背离“保持 OpenAI 非营利”的早期承诺,这场高关注度诉讼将在 4 月 27 日进入审理。对行业来说,这不只是创始人恩怨,它会持续放大 OpenAI 的治理结构、营利转向和董事会责任这些长期悬而未决的问题。
2. 甲骨文密歇根 AI 数据中心完成 160 亿美元融资
🔗 链接
一笔面向密歇根 Oracle 巨型数据中心的 160 亿美元融资已完成,其中美国银行出售了约 140 亿美元债券;报道指 Oracle 计划把这片园区用于承载 OpenAI 相关应用。这个消息说明“模型战争”背后真正的主战场仍然是债务融资、园区建设和长期电力/租赁安排。
3. Anthropic 披露 Project Deal:让 Claude 代替员工买卖个人物品
🔗 链接
Anthropic 介绍了一个名为 Project Deal 的实验市场,让 Claude 模型代表员工去谈判、买卖个人物品。它的价值不在“帮你卖二手”本身,而在于测试 agent 在目标设定、议价、执行和风险控制上的真实边界,比纯 benchmark 更接近现实商业任务。
4. Instacart 联合创始人推出 AI 对冲基金 Abundance
🔗 链接
Instacart 联合创始人 Apoorva Mehta 推出新基金 Abundance,目标是让 AI agents 运行整个对冲基金,种子资金达到 1 亿美元。这个方向很激进:如果它能跑通,意味着 agent 将从“分析工具”进一步进入“资金决策与执行系统”,但相应的合规、风控和责任归属也会立刻变成一线问题。
📊 YouTube 3 条 | 播客 0 条 | 博客 5 条 | Techmeme 4 条 | 精选 12 条