Bruno是 **本地 API 工具**,是 Postman(一款流行的 API 测试/开发工具)的开源替代品。以下是 Bruno 的主要特性:
- **完全本地化保存**:所有 API collection、环境变量等都直接以文件形式保存在本地(Bru 格式),你可以用 Git 版本管理,完全不依赖云服务。
- **开源、免费、支持多平台**:Windows、Mac、Linux 均可使用。
- **隐私和安全**:所有数据只在本地,不存在上传第三方云的问题,非常适合注重隐私、或者无法访问外网的场景。
- **功能对标 Postman**:支持 REST API、gRPC、WebSocket 等,界面直观,请求参数、环境灵活切换。
- **不打算做云同步服务**:开发团队明确表示 Bruno 将长期坚持本地化,强调隐私和稳定性。
推荐场景:
- 想找 Postman 的本地替代/备选,或者团队协作需要 Git 管理 API Collection。
- 对“全部数据留在本地”有强需求,或网络环境不佳、内网开发等。
官网/开源地址:
- 官网及下载:https://www.usebruno.com
- GitHub 项目主页:https://github.com/usebruno/bruno
如果你有离线 API 调试或本地管理的需要,Bruno 是当前国内外开发圈普遍推荐的新一代替代方案。
- **完全本地化保存**:所有 API collection、环境变量等都直接以文件形式保存在本地(Bru 格式),你可以用 Git 版本管理,完全不依赖云服务。
- **开源、免费、支持多平台**:Windows、Mac、Linux 均可使用。
- **隐私和安全**:所有数据只在本地,不存在上传第三方云的问题,非常适合注重隐私、或者无法访问外网的场景。
- **功能对标 Postman**:支持 REST API、gRPC、WebSocket 等,界面直观,请求参数、环境灵活切换。
- **不打算做云同步服务**:开发团队明确表示 Bruno 将长期坚持本地化,强调隐私和稳定性。
推荐场景:
- 想找 Postman 的本地替代/备选,或者团队协作需要 Git 管理 API Collection。
- 对“全部数据留在本地”有强需求,或网络环境不佳、内网开发等。
官网/开源地址:
- 官网及下载:https://www.usebruno.com
- GitHub 项目主页:https://github.com/usebruno/bruno
如果你有离线 API 调试或本地管理的需要,Bruno 是当前国内外开发圈普遍推荐的新一代替代方案。
在 Next.js 项目中,可以通过以下步骤配置自动加载
### 步骤 1:创建
在项目的根目录下创建一个
### 步骤 2:在 Next.js 中自动加载环境变量
Next.js 会自动加载位于项目根目录的
-
-
-
-
-
-
### 步骤 3:在代码中使用环境变量
在 Next.js 中,你可以通过
### 环境变量前缀
出于安全考虑,Next.js 只会自动将以
在代码中使用:
### 总结
通过上述步骤,你可以在 Next.js 项目中配置和使用环境变量。Next.js 会自动加载根目录中的
.env 文件中的环境变量:### 步骤 1:创建
.env 文件在项目的根目录下创建一个
.env 文件,并在其中定义你的环境变量。例如:
SITE_URL=https://example.com
API_KEY=your-api-key
### 步骤 2:在 Next.js 中自动加载环境变量
Next.js 会自动加载位于项目根目录的
.env 文件中的环境变量。你只需要确保文件的命名正确,Next.js 支持以下几种环境变量文件:-
.env - 默认加载的环境变量文件-
.env.local - 本地环境变量文件,用于覆盖 .env 文件中的变量,仅在本地使用,不应提交到版本控制系统-
.env.development - 仅在开发环境中加载的环境变量文件-
.env.development.local - 本地开发环境变量文件,用于覆盖 .env.development 文件中的变量-
.env.production - 仅在生产环境中加载的环境变量文件-
.env.production.local - 本地生产环境变量文件,用于覆盖 .env.production 文件中的变量### 步骤 3:在代码中使用环境变量
在 Next.js 中,你可以通过
process.env 访问环境变量。例如:
// pages/index.js
export default function Home() {
return (
<div>
<h1>Site URL: {process.env.SITE_URL}</h1>
<p>API Key: {process.env.API_KEY}</p>
</div>
);
}
### 环境变量前缀
出于安全考虑,Next.js 只会自动将以
NEXT_PUBLIC_ 前缀开头的环境变量暴露给客户端(浏览器端)。例如:
NEXT_PUBLIC_API_URL=https://api.example.com
在代码中使用:
// pages/index.js
export default function Home() {
return (
<div>
<h1>API URL: {process.env.NEXT_PUBLIC_API_URL}</h1>
</div>
);
}
### 总结
通过上述步骤,你可以在 Next.js 项目中配置和使用环境变量。Next.js 会自动加载根目录中的
.env 文件,并根据环境加载相应的文件。在代码中,通过 process.env 访问这些变量,记住客户端访问的变量需要加上 NEXT_PUBLIC_ 前缀。Raycast 输出模式和颜色支持总结
输出模式
• fullOutput: 完整输出显示在单独视图中,类似于终端窗口。
• compact: 显示标准输出的最后一行。
• silent: Raycast 窗口关闭后显示最后一行的 HUD 提示。
• inline: 直接在命令项中显示输出的第一行并根据 refreshTime 自动刷新。
注意: inline 模式需要 refreshTime 参数,否则将使用 compact 模式。
ANSI 支持颜色
• 支持 inline 和 fullOutput 模式的颜色自定义。
• 颜色适应用户外观设置(亮/暗主题)。
输出模式
• fullOutput: 完整输出显示在单独视图中,类似于终端窗口。
• compact: 显示标准输出的最后一行。
• silent: Raycast 窗口关闭后显示最后一行的 HUD 提示。
• inline: 直接在命令项中显示输出的第一行并根据 refreshTime 自动刷新。
注意: inline 模式需要 refreshTime 参数,否则将使用 compact 模式。
ANSI 支持颜色
• 支持 inline 和 fullOutput 模式的颜色自定义。
• 颜色适应用户外观设置(亮/暗主题)。
一直听到h100,h20,A100,H800这些芯片,没有去查下到底是什么区别,今天查了下。
核心芯片对比
1. H100(Hopper架构)
定位:全球旗舰AI芯片,面向高性能计算(HPC)和超大规模AI训练。
架构:Hopper架构,支持第四代Tensor Core和Transformer Engine优化。
参数:
CUDA核心:14,592个
显存:80GB HBM2e(带宽3.35TB/s)或144GB HBM3E(带宽8.0TB/s)
FP16算力:1,979 TFLOPS(稀疏计算模式下)
优势:
支持900GB/s NVLink互联,多卡并行效率高。
专为LLM(如GPT-4)优化,训练速度比A100快6-9倍。
限制:受美国出口管制,无法直接在中国市场销售。
2. H800(Hopper架构,中国特供版)
定位:H100的合规替代方案,针对中国市场定制。
架构:与H100相同,但硬件规格受限。
参数:
CUDA核心:14,592个
显存:80GB HBM2e(带宽2.04TB/s,低于H100的3.35TB/s)
FP16算力:受限,具体未公开。
差异点:
NVLink带宽限制为400GB/s(H100为900GB/s)。
集群算力上限4万P,仅为H100的40%。
用途:大规模AI训练,如云计算厂商的分布式任务。
3. H20(Hopper架构,中国特供版)
定位:H800的继任者,专为合规市场需求设计。
架构:Hopper架构,但核心数量大幅缩减。
参数:
CUDA核心:78组SM(比H100减少41%)
显存:96GB HBM3(带宽4.0TB/s,低于H100的8.0TB/s)
FP16算力:296 TFLOPS(稀疏计算模式下,仅为H100的15%)
特点:
在LLM推理场景中表现突出,单卡可运行70B参数模型(H100需双卡)。
功耗400W,低于H100的700W。
争议:千亿参数模型训练时需超大规模集群,成本效益较低。
4. A100/A800(Ampere架构)
定位:上一代数据中心主力芯片。
架构:Ampere架构,第三代Tensor Core。
差异:
A100:支持600GB/s NVLink,显存带宽2.04TB/s。
A800:NVLink带宽降至400GB/s,其他参数与A100一致。
用途:适合中等规模AI训练和推理,成本低于Hopper系列。
核心芯片对比
1. H100(Hopper架构)
定位:全球旗舰AI芯片,面向高性能计算(HPC)和超大规模AI训练。
架构:Hopper架构,支持第四代Tensor Core和Transformer Engine优化。
参数:
CUDA核心:14,592个
显存:80GB HBM2e(带宽3.35TB/s)或144GB HBM3E(带宽8.0TB/s)
FP16算力:1,979 TFLOPS(稀疏计算模式下)
优势:
支持900GB/s NVLink互联,多卡并行效率高。
专为LLM(如GPT-4)优化,训练速度比A100快6-9倍。
限制:受美国出口管制,无法直接在中国市场销售。
2. H800(Hopper架构,中国特供版)
定位:H100的合规替代方案,针对中国市场定制。
架构:与H100相同,但硬件规格受限。
参数:
CUDA核心:14,592个
显存:80GB HBM2e(带宽2.04TB/s,低于H100的3.35TB/s)
FP16算力:受限,具体未公开。
差异点:
NVLink带宽限制为400GB/s(H100为900GB/s)。
集群算力上限4万P,仅为H100的40%。
用途:大规模AI训练,如云计算厂商的分布式任务。
3. H20(Hopper架构,中国特供版)
定位:H800的继任者,专为合规市场需求设计。
架构:Hopper架构,但核心数量大幅缩减。
参数:
CUDA核心:78组SM(比H100减少41%)
显存:96GB HBM3(带宽4.0TB/s,低于H100的8.0TB/s)
FP16算力:296 TFLOPS(稀疏计算模式下,仅为H100的15%)
特点:
在LLM推理场景中表现突出,单卡可运行70B参数模型(H100需双卡)。
功耗400W,低于H100的700W。
争议:千亿参数模型训练时需超大规模集群,成本效益较低。
4. A100/A800(Ampere架构)
定位:上一代数据中心主力芯片。
架构:Ampere架构,第三代Tensor Core。
差异:
A100:支持600GB/s NVLink,显存带宽2.04TB/s。
A800:NVLink带宽降至400GB/s,其他参数与A100一致。
用途:适合中等规模AI训练和推理,成本低于Hopper系列。
刚才看一篇文章,作者写自己如何使用Apple notes 做笔记,核心就是简单,摩擦小。
作者使用PARA方式来记笔记。
作者认为旧笔记不需要迁移。虽然觉得自己的旧笔记很可惜,但是回想一下,自己好像也很少去会看自己的旧笔记。
下面是作者的文章地址:
[我如何使用 Apple Notes 做笔记 | Randy's Blog](https://lutaonan.com/blog/apple-notes-and-para/)
下面是我的笔记:
- 可能大家比较熟悉他的另一本书Build The Second Brain,是关于如何使用笔记软件构建自己的「第二大脑」。这本书也有提到他的PARA理论(我在我之前的文章也有提到过[我如何应用这个理论](/blog/how-do-i-take-note/)管理我的笔记)。两本书都读过以后,我认为The PARA Method这本书更偏向实操,我从中收获了更多的方法论。如果你只想读一本,那么我推荐读这一本。
- 它是系统自带的,我在手机、电脑上可以直接使用,不需要安装额外的App
- 它天然是支持同步的,不需要注册账号,不需要把资料上传到别人的服务器上。It just work.
- 你可以直接在Apple Notes中粘贴文件、图片、音频,没有限额(严格地说这也占用你的iCloud存储,但我本身已经买了存储,这变成了边际成本)。
- Apple Notes打开的速度很快。
- Apple Notes也没有「双链」功能,这是现代流行的笔记软件中很重要的功能,我在用Logseq的时候也被这个功能打动,因为它能把相关的笔记自然地关联到一起,带来额外的启发。最初用Apple Notes时我也担心会不会因此失去了这个优势,但用下来才发现,我并不是那么的需要它,即使没有,也没有让我感觉因为没有了他而失去了灵感。
- Apple Notes的标签功能也很弱,但我不使用标签。
- 项目结束后,你可以将整个Project拖到Archive,不需要再管它。如果你认为Project中的一些笔记有复用的价值,就把它拖到Areas或Resources当中。Apple Notes的拖动十分方便。但按照我的经验,一般来说直接Archive整个Project也没什么问题,因为它不是被删了,你还是能通过搜索重新找到它。这时Archive的笔记又会「流动」到Project当中。
- 这个词,我就能立刻找到,我甚至都不知道它被我放在哪里了:
- 
- ### 怎么把旧的笔记迁移过来
- 不需要迁移。在新的工具重新开始,需要用到的时候才在旧的工具重新找回,有必要时再复制过来。反正没人要求你用新的工具就把旧的数据都删掉。而且,我相信你最后会发现,你并不怎么需要找回你的旧数据 😂 这两年我就没打开过我以前一直用的Logseq,也没有做任何迁移。
作者使用PARA方式来记笔记。
作者认为旧笔记不需要迁移。虽然觉得自己的旧笔记很可惜,但是回想一下,自己好像也很少去会看自己的旧笔记。
下面是作者的文章地址:
[我如何使用 Apple Notes 做笔记 | Randy's Blog](https://lutaonan.com/blog/apple-notes-and-para/)
下面是我的笔记:
- 可能大家比较熟悉他的另一本书Build The Second Brain,是关于如何使用笔记软件构建自己的「第二大脑」。这本书也有提到他的PARA理论(我在我之前的文章也有提到过[我如何应用这个理论](/blog/how-do-i-take-note/)管理我的笔记)。两本书都读过以后,我认为The PARA Method这本书更偏向实操,我从中收获了更多的方法论。如果你只想读一本,那么我推荐读这一本。
- 它是系统自带的,我在手机、电脑上可以直接使用,不需要安装额外的App
- 它天然是支持同步的,不需要注册账号,不需要把资料上传到别人的服务器上。It just work.
- 你可以直接在Apple Notes中粘贴文件、图片、音频,没有限额(严格地说这也占用你的iCloud存储,但我本身已经买了存储,这变成了边际成本)。
- Apple Notes打开的速度很快。
- Apple Notes也没有「双链」功能,这是现代流行的笔记软件中很重要的功能,我在用Logseq的时候也被这个功能打动,因为它能把相关的笔记自然地关联到一起,带来额外的启发。最初用Apple Notes时我也担心会不会因此失去了这个优势,但用下来才发现,我并不是那么的需要它,即使没有,也没有让我感觉因为没有了他而失去了灵感。
- Apple Notes的标签功能也很弱,但我不使用标签。
- 项目结束后,你可以将整个Project拖到Archive,不需要再管它。如果你认为Project中的一些笔记有复用的价值,就把它拖到Areas或Resources当中。Apple Notes的拖动十分方便。但按照我的经验,一般来说直接Archive整个Project也没什么问题,因为它不是被删了,你还是能通过搜索重新找到它。这时Archive的笔记又会「流动」到Project当中。
- 这个词,我就能立刻找到,我甚至都不知道它被我放在哪里了:
- 
- ### 怎么把旧的笔记迁移过来
- 不需要迁移。在新的工具重新开始,需要用到的时候才在旧的工具重新找回,有必要时再复制过来。反正没人要求你用新的工具就把旧的数据都删掉。而且,我相信你最后会发现,你并不怎么需要找回你的旧数据 😂 这两年我就没打开过我以前一直用的Logseq,也没有做任何迁移。
我在用的短视频服务有视频号和 TikTok,随着刷的时间越长,视频的质量越差。分心带来的算法污染,会直接表现在视频质量上,以至于最后完全变成了 kill time 的内容,我乐意将其称为“注意力滑坡”,这可能适用于大部分人。对于自制力不太好的我而言,我只好选择不使用短视频服务,虽然少了一个高效的信息获取方式,但也保住了一些难得的专注力。😎
deepseek-r1出来之后,有人把deepseek-r1的思维链和Claude的编程能力结合起来,做了一个deepclaude的东西 。
有两个仓库,一个是rust版本,一个是Python版本,分别是https://github.com/getAsterisk/deepclaude ,
https://github.com/ErlichLiu/DeepClaude。
这里其实可以在这个思路上扩展下,结合一个推理模型和一个基础模型,推理模型能够提供框架,然后基础模型来实现。基础模型可以用gemini 2.0 flash,这个模型更便宜,但是编程能力也很强。
Python的仓库改起来简单一些,借助ai,可以迅速的改出一个版本。
有两个仓库,一个是rust版本,一个是Python版本,分别是https://github.com/getAsterisk/deepclaude ,
https://github.com/ErlichLiu/DeepClaude。
这里其实可以在这个思路上扩展下,结合一个推理模型和一个基础模型,推理模型能够提供框架,然后基础模型来实现。基础模型可以用gemini 2.0 flash,这个模型更便宜,但是编程能力也很强。
Python的仓库改起来简单一些,借助ai,可以迅速的改出一个版本。
今天和老婆去看了哪吒2,觉得剧情和质量还可以,但是还没到票房刷新历史记录的程度。
不是哪吒2非常的厉害,而是同期春节的其他电影太烂了,衬托出哪吒2很好。
还有一个原因是,能够符合大众审美的片子,才会被更多人接受。我觉得很好的片子,不一定就能得到好的票房。
最后回想了下,票房前几的片子,都是这样的,符合大众审美,但是要说看完之后有多难忘,有多少值得思考的点,确实不多。
不是哪吒2非常的厉害,而是同期春节的其他电影太烂了,衬托出哪吒2很好。
还有一个原因是,能够符合大众审美的片子,才会被更多人接受。我觉得很好的片子,不一定就能得到好的票房。
最后回想了下,票房前几的片子,都是这样的,符合大众审美,但是要说看完之后有多难忘,有多少值得思考的点,确实不多。
“ai.com”这一域名本身具有重要的历史新闻价值,以下是与之相关的事件:
域名注册与早期发展 :ai.com域名注册于1993年,有效期将持续到2031年。在其早期,该域名并未与如今的人工智能领域紧密相连,但随着AI技术的发展,其价值逐渐凸显。
跳转事件 :
2023年跳转ChatGPT :2023年,随着OpenAI的ChatGPT风靡全球,ai.com跳转至ChatGPT的对话界面,一度有传言称OpenAI已收购此域名,但后续信息显示这更可能是第三方运营者的策略。
2024年跳转变化 :2024年,ai.com的跳转页面再次回到了ChatGPT。
2025年跳转DeepSeek :近期,ai.com的跳转目标变更为DeepSeek的官方网站,即访问ai.com时会被重定向至chat.deepseek.com。
行业风向标角色 :从2023年开始,每当有新的AI明星产品问世,如谷歌的Gemini或马斯克的xAI推出的Grok模型,ai.com便会随之调整跳转目标,紧跟行业热点,这也使其成为AI行业的一个“风向标”。
域名注册与早期发展 :ai.com域名注册于1993年,有效期将持续到2031年。在其早期,该域名并未与如今的人工智能领域紧密相连,但随着AI技术的发展,其价值逐渐凸显。
跳转事件 :
2023年跳转ChatGPT :2023年,随着OpenAI的ChatGPT风靡全球,ai.com跳转至ChatGPT的对话界面,一度有传言称OpenAI已收购此域名,但后续信息显示这更可能是第三方运营者的策略。
2024年跳转变化 :2024年,ai.com的跳转页面再次回到了ChatGPT。
2025年跳转DeepSeek :近期,ai.com的跳转目标变更为DeepSeek的官方网站,即访问ai.com时会被重定向至chat.deepseek.com。
行业风向标角色 :从2023年开始,每当有新的AI明星产品问世,如谷歌的Gemini或马斯克的xAI推出的Grok模型,ai.com便会随之调整跳转目标,紧跟行业热点,这也使其成为AI行业的一个“风向标”。
昨天晚上做了一个记录自己做俯卧撑的tg bot,很简陋,只能发一个数字,然后bot 会在 google sheet 增加一行, 日期,时间,数量。 后续再优化吧。
bot 后端部署再cloudflare worker,用的是js实现的。基本是上AI给的代码,我提要求,AI指导,我来具体操作。
虽然是个挺简单的需求,但是实现了还是挺高兴的。平时属于想的太多,做的太少。
bot 后端部署再cloudflare worker,用的是js实现的。基本是上AI给的代码,我提要求,AI指导,我来具体操作。
虽然是个挺简单的需求,但是实现了还是挺高兴的。平时属于想的太多,做的太少。
拾象 对 DeepSeek 和智能下半场的几条判断 摘录
https://mp.weixin.qq.com/s/NMW2p8xalh9c8lTLN9B5gg
从 24Q3 开始我们就一直在讲 AI 的下半场,虽然 OpenAI o1 提出了 RL 叙事,但因为各种原因没有破圈,DeepSeek R1 解了 RL 的谜题,推进整个行业进入了新范式,真正进入智能下半场。
市场上关于 DeepSeek 是什么、为什么的讨论已经很多了,接下来更有价值讨论是 AI race 要怎么 play ?把过去半个月的思考总结了一下,希望成为探索下半场的 road map,每隔一段时间来复盘。也列出了几个最好奇的问题,欢迎填写问卷一起交换想法,我们会围绕下一个智能突破的 Aha moment 组织一场小范围讨论会:
• 下一个智能突破的 Aha moment 会从哪出现?
• 如果你有充裕的探索资源,你会把探索资源投入在什么方向上?
• 比如下一代 Transformer 架构、合成数据的突破、Online Learning 更高效率的学习方式,你会有哪些 Bet?
DeepSeek 超越了 Meta Llama 毫无疑问,但相比 OpenAI、Anthropic 和 Google 这些第一梯队 players 还有距离,比如 Gemini 2.0 Flash 成本比 DeepSeek 更低,能力也很强,且全模态,外界低估了 Gemini 2.0 为代表的第一梯队的能力,只是没有开源而获得这么炸裂轰动性的效果。
DeepSeek 的重要意义在于帮助 RL 和 test time compute 这个新范式真正出圈。如果说 OpenAI 最初发布的 o1 是给行业出了一个谜语,DeepSeek 就是第一个公开解谜的人。
reasoning model 的提升会进一步帮助 agent 落地,AI researcher 现在都因此对 agent 的研究和探索更有信心,因此也可以说 DeepSeek 开源 reasoning model 推进了行业向 Agent 的进一步探索。
有什么不同?
从 Dario的访谈可以看出,Anthropic对R-1/reasoning model的理解,与O系列有些分歧,Dario觉得 base model 与 reasoning model应该是个连续光谱,而非 OpenAI 这种独立的模型系列。如果只做 O 系列会很快遇到天花板。
我一直想为什么 Sonnet 3.5的coding、reasoning 和 agentic能力一下子提升这么强,但 4o 一直没追上?
他们在 pre training base model 阶段就做了大量 RL 工作,核心还是把 base model 提上去,不然只靠 RL 提升 reasoning model 可能很容易把收益吃光。
ToC:Chatbot 肯定受冲击最大,心智和品牌关注度被 DeepSeek 抢走了,ChatGPT 也不例外;
在开发者环节的影响很有限,我们看到有用户用完之后说评论 r1 不好用不如 sonnet,Cursor 官方也说 Sonnet 还是 outperform,用户 surprisingly 高比例都选择 Sonnet,并没有大幅迁移;
作为领头羊的 OpenAI 在其中属于最“吃亏”的那个,之前想捂着技术不开源,半遮半掩,希望多赚技术溢价的美梦无法实现了。
但中长期看,GPU 资源充裕的公司还是受益的,一方面是第二梯队的 Meta 可以快速跟进新方法,Capex 更加 efficient,Meta 可能是很大受益者,另一方面是智能提升还需要更多探索,DeepSeek 开源把大家水平拉齐,进入全新探索又需要 10 倍甚至更大量级的 GPU 投入。
从第一性原理来想,对于 AI 智能产业来说,无论是发展智能还是应用智能,从物理本质上就必然要消耗海量算力,这是基础定律决定的,不是技术优化能完全规避的。
图片
DeepSeek 这一波 Chatbot 用户又出现了大量迁移现象,给了市场一个很重要的启发:智能技术进步非常陡峭,阶段性产品很难形成绝对壁垒。
不管是 ChatGPT/Sonnet/Perplexity 刚形成了心智和口碑,还是 Cursor、Windsurf 这类开发者工具,一旦有了更智能的产品,用户对“上一代”智能的产品毫无忠诚度,今天不管是模型层还是应用层都很难构建护城河。
另一方面, Agent 落地比较关键,因为 Agent 需要做长距离多步骤推理,如果模型好 5-10%,领先的效果就会被放大很多倍,所以 OpenAI、Anthropic 和 Google 一方面要做 Agent 产品落地,full stack 集成模型+Agent 产品,就像 Windows+Office,二是也要 show 出来更强大的模型,比如 O3 完整版、Sonnet 4/3.5 opus 为代表的下一代模型。
在技术不确定性下,最宝贵的是天才 AI researchers,任何想要探索 AGI 的组织都要投入资源更激进的 bet on next paradigm,尤其是在今天 pre training 阶段已经被拉齐的背景下,要有好的人才+充裕资源,探索下一个智能涌现的 Aha moment
#摘录 #ai
https://mp.weixin.qq.com/s/NMW2p8xalh9c8lTLN9B5gg
从 24Q3 开始我们就一直在讲 AI 的下半场,虽然 OpenAI o1 提出了 RL 叙事,但因为各种原因没有破圈,DeepSeek R1 解了 RL 的谜题,推进整个行业进入了新范式,真正进入智能下半场。
市场上关于 DeepSeek 是什么、为什么的讨论已经很多了,接下来更有价值讨论是 AI race 要怎么 play ?把过去半个月的思考总结了一下,希望成为探索下半场的 road map,每隔一段时间来复盘。也列出了几个最好奇的问题,欢迎填写问卷一起交换想法,我们会围绕下一个智能突破的 Aha moment 组织一场小范围讨论会:
• 下一个智能突破的 Aha moment 会从哪出现?
• 如果你有充裕的探索资源,你会把探索资源投入在什么方向上?
• 比如下一代 Transformer 架构、合成数据的突破、Online Learning 更高效率的学习方式,你会有哪些 Bet?
DeepSeek 超越了 Meta Llama 毫无疑问,但相比 OpenAI、Anthropic 和 Google 这些第一梯队 players 还有距离,比如 Gemini 2.0 Flash 成本比 DeepSeek 更低,能力也很强,且全模态,外界低估了 Gemini 2.0 为代表的第一梯队的能力,只是没有开源而获得这么炸裂轰动性的效果。
DeepSeek 的重要意义在于帮助 RL 和 test time compute 这个新范式真正出圈。如果说 OpenAI 最初发布的 o1 是给行业出了一个谜语,DeepSeek 就是第一个公开解谜的人。
reasoning model 的提升会进一步帮助 agent 落地,AI researcher 现在都因此对 agent 的研究和探索更有信心,因此也可以说 DeepSeek 开源 reasoning model 推进了行业向 Agent 的进一步探索。
有什么不同?
从 Dario的访谈可以看出,Anthropic对R-1/reasoning model的理解,与O系列有些分歧,Dario觉得 base model 与 reasoning model应该是个连续光谱,而非 OpenAI 这种独立的模型系列。如果只做 O 系列会很快遇到天花板。
我一直想为什么 Sonnet 3.5的coding、reasoning 和 agentic能力一下子提升这么强,但 4o 一直没追上?
他们在 pre training base model 阶段就做了大量 RL 工作,核心还是把 base model 提上去,不然只靠 RL 提升 reasoning model 可能很容易把收益吃光。
ToC:Chatbot 肯定受冲击最大,心智和品牌关注度被 DeepSeek 抢走了,ChatGPT 也不例外;
在开发者环节的影响很有限,我们看到有用户用完之后说评论 r1 不好用不如 sonnet,Cursor 官方也说 Sonnet 还是 outperform,用户 surprisingly 高比例都选择 Sonnet,并没有大幅迁移;
作为领头羊的 OpenAI 在其中属于最“吃亏”的那个,之前想捂着技术不开源,半遮半掩,希望多赚技术溢价的美梦无法实现了。
但中长期看,GPU 资源充裕的公司还是受益的,一方面是第二梯队的 Meta 可以快速跟进新方法,Capex 更加 efficient,Meta 可能是很大受益者,另一方面是智能提升还需要更多探索,DeepSeek 开源把大家水平拉齐,进入全新探索又需要 10 倍甚至更大量级的 GPU 投入。
从第一性原理来想,对于 AI 智能产业来说,无论是发展智能还是应用智能,从物理本质上就必然要消耗海量算力,这是基础定律决定的,不是技术优化能完全规避的。
图片
DeepSeek 这一波 Chatbot 用户又出现了大量迁移现象,给了市场一个很重要的启发:智能技术进步非常陡峭,阶段性产品很难形成绝对壁垒。
不管是 ChatGPT/Sonnet/Perplexity 刚形成了心智和口碑,还是 Cursor、Windsurf 这类开发者工具,一旦有了更智能的产品,用户对“上一代”智能的产品毫无忠诚度,今天不管是模型层还是应用层都很难构建护城河。
另一方面, Agent 落地比较关键,因为 Agent 需要做长距离多步骤推理,如果模型好 5-10%,领先的效果就会被放大很多倍,所以 OpenAI、Anthropic 和 Google 一方面要做 Agent 产品落地,full stack 集成模型+Agent 产品,就像 Windows+Office,二是也要 show 出来更强大的模型,比如 O3 完整版、Sonnet 4/3.5 opus 为代表的下一代模型。
在技术不确定性下,最宝贵的是天才 AI researchers,任何想要探索 AGI 的组织都要投入资源更激进的 bet on next paradigm,尤其是在今天 pre training 阶段已经被拉齐的背景下,要有好的人才+充裕资源,探索下一个智能涌现的 Aha moment
#摘录 #ai
今天,豆包电脑版更新了一个实用功能 —— 语音输入。开启这个功能后,它能将你的语音实时转换成文字,并自动输入到任意输入框中。
在这之前,我在电脑上安装了两款第三方应用程序,一款是 wisperflow,另一款是 input keyboard,它们都用于语音输入。然而,使用体验却差强人意,反应速度较慢,操作起来不太流畅。于是,我曾考虑利用豆包背后的火山引擎 API 自行开发一个语音输入功能,心想以我有限的使用频率,每月花费应该不会太高。但万万没想到,豆包竟然直接上线了这个功能,真是心想事成!
苹果自带的语音转文字功能虽然也能使用,但在电脑版上错误率较高,使用起来不太方便。相比之下,手机版的错误率相对较低,用于记录个人日记等简单场景还算凑合。但如果涉及对外输出的正式内容,纠正错误的工作量就会很大,非常耗费精力。
在这之前,我在电脑上安装了两款第三方应用程序,一款是 wisperflow,另一款是 input keyboard,它们都用于语音输入。然而,使用体验却差强人意,反应速度较慢,操作起来不太流畅。于是,我曾考虑利用豆包背后的火山引擎 API 自行开发一个语音输入功能,心想以我有限的使用频率,每月花费应该不会太高。但万万没想到,豆包竟然直接上线了这个功能,真是心想事成!
苹果自带的语音转文字功能虽然也能使用,但在电脑版上错误率较高,使用起来不太方便。相比之下,手机版的错误率相对较低,用于记录个人日记等简单场景还算凑合。但如果涉及对外输出的正式内容,纠正错误的工作量就会很大,非常耗费精力。
从春节开始,AI就各种发布新版本,kimi 1.5, deepseek-v3, deepseek-r1, openai-o3-mini, gemini falsh 2.0等等,AI越来越强大,但是发现对自己并没有什么用,说到底还是1,不知道做什么,2,没有行动。行动的人早在gpt3.5出来的时候已经挣钱了。