2026-04-06
🎬 YouTube
1. Matthew Berman|Salesforce CEO on Microsoft Blocking OpenAI Investment, AI Scapegoating, OpenClaw, and Regulation
这期是 Salesforce CEO Marc Benioff 的长访谈,重点不是泛泛聊 AI,而是直接落在企业组织和产品栈上。视频章节显示他集中谈了 Slack 收购后的“text as interface”、AI 如何压平公司层级、为什么未来软件团队会更偏向通才型工程师,以及 Salesforce 自己的 agentic AI stack 和 Project Albert。后半段还点名谈到微软阻拦 Salesforce 投资 OpenAI、企业 AI 监管,以及把 AI 当作“懒 CEO 替罪羊”的现象。 🔗 链接
2. Lenny's Podcast|How Anthropic is using Claude to automate its own growth (and why old playbooks are obsolete)
这期请到 Anthropic 增长负责人 Amol Avasare,最值得看的点是 Anthropic 如何用内部 Claude 工具“CASH”自动化增长实验,而不只是把 AI 当写文案助手。节目里给了很多硬信息:Anthropic 在 14 个月内把 ARR 从 10 亿美元拉到 190 亿美元以上、增长团队更偏向 70/30 的“大赌注”分配、他们认为 activation 是 AI 产品最关键的增长问题。另一个很新鲜的判断是,随着工程师生产力被 AI 拉高,未来 PM 和工程师的人数比可能会反过来。 🔗 链接
🎙️ 播客
无近期更新
📝 博客
1. Simon Willison|Quoting Chengpeng Mou
OpenAI 财务负责人 Chengpeng Mou 披露了一组很扎眼的匿名 ChatGPT 使用数据:每周大约有 200 万条消息与健康保险相关,其中约 60 万条来自“hospital desert”——也就是开车 30 分钟内都到不了医院的地区。更关键的是,10 条里有 7 条发生在门诊时间之外,这说明很多人已经把通用 AI 当作医疗/保险信息的夜间补位入口。它不是正式医疗服务,但已经在现实里承担了“基础可达性”的角色。 🔗 链接
2. Simon Willison|Syntaqlite Playground
Simon 做了一个新的 Syntaqlite Playground,把这个 SQLite SQL 解析库编译成 WebAssembly 后直接放进浏览器里跑。现在可以在网页里试格式化 SQL、解析 AST、做语法校验和 tokenization,这让一个原本偏底层的 C/Rust 库变成了随手可玩的开发工具。文章里还顺手提到,原作者 Lalit Maganti 也已经做了官方 WASM playground,说明这个小工具开始从“技术 demo”走向可用产品形态。 🔗 链接
3. Simon Willison|scan-for-secrets 0.1
Simon 发了一个新 Python 工具 scan-for-secrets,初衷很直接:在公开 Claude Code transcript 之前,先扫描目录里有没有误泄 API key 或其他敏感串。它不只是做原文匹配,还会检查 JSON 转义、反斜杠转义等常见编码形式,并支持把长期需要保护的 secret 命令写进 ~/.scan-for-secrets.conf.sh。更有意思的是,这个工具本身是按 README-driven development 方式,用 Claude Code 配合 red/green TDD 搭出来的。 🔗 链接
4. Simon Willison|scan-for-secrets 0.2
同一天 Simon 又把 scan-for-secrets 快速迭代到 0.2,补的都是很实用的工程能力。新版支持边扫描边流式输出结果、-d/--directory 可多次指定多个目录、还新增 -f/--file 单文件扫描,以及 scan_directory_iter()、scan_file() 等 Python API。对要批量审计日志、转录稿或代码仓库的人来说,这已经从“个人小脚本”升级成能嵌进流水线的工具了。 🔗 链接
5. John D. Cook|HIPAA compliant AI
这篇把“HIPAA 合规 AI”讲得很实在:如果真的要处理 PHI,最稳的方式仍然是本地跑模型,而不是直接把数据丢给 ChatGPT、Claude 这类云服务。文章逐个点名了 OpenAI、Google、GitHub Copilot、Anthropic 的限制——很多产品最多只是“HIPAA eligible”,真正落地还要配 BAA、日志、访问控制和流程,甚至不少热门能力根本不在覆盖范围内。作者最后的判断很有意思:对需要合规的小公司来说,本地 AI 反而可能比云端更便宜、更可行。 🔗 链接
🗞️ Techmeme 热点
1. 中国推进 AI 融入 K-12 教育体系
Techmeme 汇总的这条来自 ChinaTalk,核心是中国正在把 AI 更系统地接进中小学教育,不只是“课堂演示”,而是试图降低教师事务负担、改善农村学校资源不足,并辅助残障学生学习。这个方向值得看,因为它说明 AI 教育应用已经从单点工具试验走向基础教育系统层面的部署讨论。 🔗 链接
2. Gary Marcus:Medvi 案例暴露 AI 被滥用于灰色营销
这条的引子是《纽约时报》把 Medvi 描绘成“2 人团队、年收入超 10 亿美元”的神话公司,但 Gary Marcus 把它当成反面案例。核心批评不是 AI 做不到生意,而是 AI 正在被某些公司拿来放大可疑营销、灰色商业流程和包装叙事能力。换句话说,AI 降低的不只是生产门槛,也可能降低“把坏生意讲得像好故事”的门槛。 🔗 链接
3. 好莱坞幕后岗位开始把 AI 接入日常工作流
Hollywood Reporter 这篇讲的不是明星或导演,而是 support staff:在降本和工作负荷压力下,越来越多幕后岗位开始把 AI 用在琐碎事务和前期创意开发上。重点不在“AI 替代创作者”这类大口号,而是影视工业链条里中后台岗位正在先一步发生 workflow 级改变。 🔗 链接
4. 英国加码争取 Anthropic 扩张与上市布局
Financial Times 的消息称,Anthropic 和美国国防部发生摩擦后,英国正加大力度拉拢 Anthropic 在本国扩张,甚至提出双重上市方案。这个动作反映的不是单一招商新闻,而是前沿模型公司正在被各国当作战略级产业资产来争取。 🔗 链接
5. AI 角色扮演聊天机器人对青少年影响引发担忧
纽约时报这条聚焦的是青少年如何使用 AI 角色扮演聊天机器人,以及家长几乎来不及理解其黏性和心理影响。它把问题从“聊天机器人好不好玩”推到了更高 stakes 的层面:当产品设计开始模拟情感陪伴甚至成瘾机制时,家庭教育和平台治理都还没有准备好。 🔗 链接
📊 YouTube 2 条 | 播客 0 条 | 博客 6 条 | Techmeme 6 条 | 精选 12 条