老板们,一定要搞定您公司的龙虾记忆分层

🧠 记忆分层架构(原生 3 层 + 我扩展的 2 层) 层级 存储形式 生命周期 用途 访问范围 0️⃣ 会话上下文 当前对话历史(数组) 单次会话 实时理解、即时决策 当前 session 1️⃣ 每日日志 memory/YYYY‑MM‑DD.md 永久(文件) 原始事件记录、原始决策、待办 当前 agent(main session) 2️⃣ 长期记忆 MEMORY.md 永久(文件) 精炼知识、经验总结、偏好、教训 仅 main session(安全隔离) 3️⃣ 结构化知识 Ontology 知识图谱(可选技能) 永久(图谱文件) 实体关系、项目依赖、跨技能状态共享 安装了 ontology 技能时 4️⃣ 跨会话索引 已索引的会话记录(内部存储) 永久(索引) 搜索历史对话、跨会话回忆 通过 memory_search 工具 5️⃣ 外部补充 Compiled‑wiki 补充资料(可注册) 永久(外部) 额外文档、知识库 memory_search corpus=wiki 📂 各层详情 0️⃣ 会话上下文(Session Context) 内容:本次对话的最近数十条消息。 特点:临时性,session 结束后自动消失(除非显式持久化)。 用途:维持对话连贯、处理指代。 1️⃣ 每日日志(每日日志) 路径:<workspace>/memory/YYYY‑MM‑DD.md 写入时机: 重要事件发生后(如完成任务、发布博客) Heartbeat 检查时归档临时信息 示例: ## 2026‑04‑29 - 解读 browser-use 仓库 - 创建 DeepSeek V4 博客文章 - 更新 TOOLS.md(新增 browser-use 技能笔记) 安全:仅在 main session(直接对话)自动加载,群聊、共享环境不读取。 2️⃣ 长期记忆(MEMORY.md) 路径:<workspace>/MEMORY.md 本质:策划后的精华记忆,相当于人类的长期记忆。 存放: 用户偏好(如“主人喜欢简洁技术总结”) 重要决策(如“默认模型改为 GLM‑4.7”) 经验教训(如“避免在群聊中加载 MEMORY.md”) 项目上下文(如“blog‑demo 使用 Hugo + PaperMod”) 维护:Heartbeat 定期回顾最近的每日日志,提炼有价值信息写入。 3️⃣ 结构化知识(Ontology) 技能:ontology(如果已安装) 模型:实体(Person、Project、Task、Event、Document)+ 关系(link、depends_on 等) 好处:跨技能共享状态、约束检查、依赖可视化,适合复杂业务工作流。 4️⃣ 跨会话索引(Session Transcripts) 机制:OpenClaw 为每个会话生成 sessions/YYYY‑MM‑DD‑<slug>.md 并自动建立向量+BM25 混合索引。 检索:memory_search(query, corpus="all") 自动搜索这些索引。 检索原理: 向量搜索(70% 权重)捕捉语义相似度 BM25(30% 权重)保证精确关键词匹配 每块约 400 token,80 token 重叠,SHA‑256 去重 5️⃣ 外部补充(Compiled‑wiki) 用途:接入公司内部 Wiki、产品手册、行业文档等外部知识库。 访问:同样通过 memory_search corpus="wiki" 检索。 🔍 原生检索机制 向量 + BM25 融合(70%/30%) 块分割:400 token 块 + 80 token 重叠,防止上下文丢失 去重:块 SHA‑256 哈希,已有向量直接命中缓存 压缩触发:当会话快达到上下文上限时,系统会让模型在压缩前把关键信息写入 memory/*.md 或 MEMORY.md(即所谓的 “Dreaming”) 📦 实际操作示例 # 查看今天的日志 cat $(date +%Y-%m-%d).md # 向长期记忆写入关键结论(示例) cat >> MEMORY.md <<EOF - 结论:使用向量+BM25 的混合检索可以兼顾概念关联和精确匹配。 EOF # 用 ontology 记录项目关系 ontology create entity Project name="blog-demo" ontology create relationship link source=Project target=Document name="deepseek-v4.md" 🔐 记忆安全与隔离(简要回顾) 文件系统权限:700 目录、600 文件,仅当前 agent 可读写。 会话层隔离:MEMORY.md 只在 主私人会话 加载,避免在群聊泄露。 审计日志:每次写入都会记录在 memory/heartbeat-state.json,可追溯。 子代理 sandbox:默认只读工作区,写入必须显式声明。 可选加密:若有合规需求,可对 MEMORY.md 进行 AES‑256‑GCM 加密。 🎯 小结 OpenClaw 的记忆分层把 即时日志、长期精华、结构化实体、跨会话索引 和 外部 Wiki 五层有机结合,兼顾 可检索性、安全性 与 可维护性。 通过 混合向量+BM25 检索、块去重 与 Dreaming 机制,保证重要信息不被上下文压缩遗失。 正确使用 memory_search、memory_get、ontology 等工具,可以让企业 AI 助手在 千余次会话 后仍保持对关键业务的清晰记忆。 #openclaw #龙虾 #memory ...

阅读全文 →

DeepSeek V4:百万上下文 + 最高峰离线推理

发布时间:2026‑04‑24 模型名:deepseek‑v4‑pro / deepseek‑v4‑flash 上下文:1 M token(百万级) 核心技术:混合注意力、多维压缩、流形约束超连接、Muon优化器 1️⃣ 一览 版本 参数量 激活量 目标 亮点 V4‑Pro 1.6 T 49 B 最高端开源模型 V4‑Flash 284 B 13 B 极致效率/低成本 备注:两版均支持 1 M token 上下文,思考模式 (reasoning‑effort) 可调高/把握成本。 2️⃣ 技术回顾 2.1 混合注意力机制(CSA + HCA) CSA:在 KV 维度进行 4 : 1 压缩,结合 DSA 稀疏注意力,利用 Lightning‑Indexer 仅保留 top‑1024 KV 项。 HCA:压缩率 128 : 1,全部 KV 参与计算,滑动窗口‐512 tokens 跨层捕捉全局依赖。 优势:相比前代仅 27 % 的算力、10 % 的 KV 缓存,显存与训练成本大幅下降。 2.2 流形约束超连接(mHC) 采用双随机矩形流形(Birkhoff‑Polytope)约束残差映射,确保谱范数 ≤ 1,信息在深层网络不发散,训练稳定性上升 6.7 % 成本。 2.3 Muon 优化器 对梯度动量进行 Newton‑Schulz 正交化,10 次混合迭代实现快速收敛。 结合 Anticipatory‑Routing 与 SwiGLU‑Clamping,进一步提升训练速度与模型收敛稳定性。 3️⃣ 性能表现 指标 V3‑2 V4‑Pro V4‑Flash Agent‑Coding 开源前列 最高 接近 Pro 世界知识 较差 仅微距差距 次佳 推理速度 1.43× 3.80× 4.14× 1M KV 缓存 49 B 6.2 B 5.5 B 结论:V4‑Pro 以与 Gemini‑Pro‑3.1 并驾齐驱的性能,处理复杂 Agent 任务如代码生成、文档翻译等表现尤为出色;V4‑Flash 则以 13 B 激活实现极低成本、最快速度的 1 M‑上下文使用场景。 ...

阅读全文 →

Awesome DESIGN.md:AI 时代的像素级 UI 设计系统

开源的AI设计灵感收集网站 awesome-design-md 收集和提供现成的 能被 AI 理解的设计规范,Awesome DESIGN.md 为开发者提供了一个优雅的解决方案 —— 复制一个 DESIGN.md 文件到项目根目录,告诉 AI 代理"给我一个这样的页面",就能得到像素级完美的 UI。 关键词:#AI #awesome-desgin-md 实际效果演示:用AI复刻Wise风格的网站 Wise 复刻 网站地址:https://vi-wealth.com 什么是 DESIGN.md? DESIGN.md 是 Google Stitch 推出的一个创新概念。它是一个纯文本的设计系统文档,AI 代理可以通过阅读这个文档来生成一致的 UI。 与传统的设计交付方式相比: 传统方式 DESIGN.md Figma 导出(复杂、需要解析) 纯 Markdown(LLM 原生理解) JSON Schema(需要配置) 零配置,即插即用 设计文档(难以代码化) 语义化描述,代码可直接生成 简单来说,DESIGN.md 就是给 AI 看的设计文档。它用 LLM 最擅长阅读的 Markdown 格式,完整描述了项目的视觉风格。 Awesome DESIGN.md 提供了什么? 这个仓库收集了 58 个知名网站的 DESIGN.md 文件,全部从真实网站提取,覆盖了多个领域: AI & 机器学习(12 个) Claude - Anthropic 的 AI 助手,温暖的陶土色调 ElevenLabs - AI 语音平台,深色电影级 UI Ollama - 本地 LLM 运行,终端极简主义 xAI - Elon Musk 的 AI 实验室,未来派单色设计 开发者工具(14 个) Cursor - AI 优先代码编辑器,流畅深色界面 Linear - 工程师项目管理,极致精确的紫色点缀 Vercel - 前端部署平台,黑白精确度,Geist 字体 Supabase - 开源 Firebase 替代品,深色祖母绿主题 基础设施(6 个) ClickHouse - 快速分析数据库,黄色点缀技术文档风格 Stripe - 支付基础设施,标志性紫色渐变 MongoDB - 文档数据库,绿色叶子品牌 设计与生产力(10 个) Figma - 协作设计工具,生动多彩,专业而有趣 Notion - 一体化工作区,温暖极简主义,衬线标题 Framer - 网站构建器,大胆黑蓝,运动优先 企业与消费品牌(7 个) Apple - 消费电子, premium 留白,SF Pro 字体 Tesla - 电动汽车,极致减法,电影级全屏摄影 SpaceX - 航天技术,纯粹黑白,未来感 汽车品牌(5 个) Ferrari - 奢华汽车,明暗黑白社论式,法拉利红极度简约 Lamborghini - 奢华汽车,纯黑大教堂,金色点缀 Tesla - 电动汽车,极致减法,电影级全屏摄影 每个 DESIGN.md 包含什么? 每个文件都遵循 Stitch DESIGN.md 格式,包含 9 个核心部分: ...

阅读全文 →

可信 AI 代理落地实战——Anthropic《Trustworthy agents in practice》解读

可信 AI 代理落地实战——Anthropic《Trustworthy agents in practice》解读,4层安全体系保障业务场景安全 "AI agents 已从简单问答工具进化为能自主执行代码、管理文件、跨应用完成任务的系统。" ——Anthropic 官方博客 1️⃣ 什么是"可信 AI 代理" AI 代理(Agent)已不再是单纯的聊天机器人,而是 模型 + Harness + Tool + Environment 四层体系的有机组合【原文】: 组件 作用 模型 提供推理与决策能力 Harness(指令护栏) 安全约束、行为边界 Tool 代码编辑、文件管理、API 调用等外部能力 Environment 工作空间、运行时隔离、资源限制 这四层缺一不可,才能在真实业务场景中保证 可控性 与 安全性。 2️⃣ Plan Mode:从"逐步确认"到"一键批准" 传统方式下,用户需要对每一步操作都进行确认,导致 频繁中断、低效。 Plan Mode 则让代理 提前展示完整执行计划,用户可一次性审阅、编辑并批准,随后自动执行。 "用户可预先查看并批准整个执行计划而非逐个确认。"【原文】 这种 计划‑先‑批准‑后执行 的模式,显著提升生产力,同时保留了人类的最终决策权。 3️⃣ 不确定性处理:Pause‑Ask(暂停询问) Anthropic 在模型训练阶段强化了"先停下来再行动"的本能,使其在面对不确定时优先 暂停询问,而非自行猜测。 • 错误示例:"我不确定这个文件是什么,但先删除试试。" • 正确示例:"我不确定这个文件是否重要,删除前请确认:可以删除吗?" "模型在面对不确定性时的正确行为是暂停询问,而非擅自行动。"【原文】 这正是 Human‑in‑the‑Loop 的关键一步,防止了误删、误改等安全事故。 4️⃣ 多层防线:Prompt Injection 防御 Prompt Injection 是通过隐藏在内容中的恶意指令劫持模型的主要威胁。Anthropic 采取 纵深防御(defense‑in‑depth) 策略,分层防护: ...

阅读全文 →

深度解析 Cloudflare Dynamic Workers:AI Agent 代码执行的终极沙箱方案

"如果要支持消费者级别的 Agent,每个用户有多个 Agent,每个 Agent 都写代码,容器是不够的。我们需要更轻量的东西。" — Kenton Varda, Cloudflare 引言:AI Agent 的代码执行困境 AI Agent 正在改变软件开发的方式。从简单的工具调用到自主编写代码执行任务,Agent 的能力边界不断拓展。但这里有一个核心问题:AI 生成的代码在哪里执行? 直接 eval()?不行——恶意用户可以诱导 AI 注入漏洞。 用容器?太重——启动慢、内存大、需要预热。 Cloudflare 在 2026 年 3 月给出的答案是 Dynamic Workers:基于 Isolate 的轻量级沙箱,比容器快 100 倍,内存效率高 10-100 倍。 本文将深入解析 Dynamic Workers 的技术原理、架构设计、实际应用和最佳实践。 一、问题溯源:为什么容器不够用? 1.1 传统容器方案的技术瓶颈 容器(Docker、containerd 等)是目前最主流的代码隔离方案。但在 AI Agent 场景下,它存在根本性问题: 问题 技术原因 实际影响 启动慢 需要启动完整 Linux 用户空间、初始化进程树、加载运行时 300-500ms 冷启动 内存大 每个容器需要独立的内核命名空间、文件系统层 100-300MB/容器 需要预热 冷启动延迟不可接受,必须保持池化 成本增加、资源浪费 安全妥协 预热池复用容器,破坏隔离性 安全风险 1.2 规模化困境的计算 假设一个消费者级 AI 应用: ...

阅读全文 →

Pi Agent:极简主义 AI 编码 Agent 的设计哲学与架构解析

「Pi ships with powerful defaults but skips features like sub agents and plan mode.」 — Mario Zechner 引言 在 AI Agent 领域,Claude Code、Cursor、Windsurf 等工具往往内置了大量功能——MCP、Sub-agent、Plan Mode、权限弹窗等。然而,有一个项目反其道而行之:只带 4 个默认工具,却获得了 23,000+ Stars。这就是 Pi。 本文基于 Pi 官方源码(badlogic/pi-mono),深入解析其架构设计与技术实现。 一、Pi 是什么? Pi 是一个终端编码 Agent 工具包,由独立开发者 Mario Zechner(@badlogic)开发和维护。 npm install -g @mariozechner/pi-coding-agent pi 项目信息 GitHub badlogic/pi-mono Stars 23,391 语言 TypeScript 定位 Minimal terminal coding harness 核心理念 "Pi is aggressively extensible so it doesn't have to dictate your workflow." ...

阅读全文 →

OpenClaw: 配置多agent全团队一起干活!

OpenClaw: 配置多agent全团队一起干活! 🦞单个 Agent 处理多类任务会带来非常严重的记忆负担,导致巨额token开销,单独agent应该处理特定类型工作而不是各种杂七杂八的工作全部都要干! 🐳系统复杂度提高:各自agent处理不同类型的任务,分工明确、职能分化。有独立的记忆、技能和工作空间 每个助手对应不同的agent,分工明确,干活不累 关键词:#openclaw #glm #minimax #龙虾 #多agent 参考文档: OpenClaw 多 Agent 架构配置指南 - 把这份文档发给你的 OpenClaw,它会引导你选择最适合的多 Agent 架构配置 OpenClaw 多 Bot 团队协作教程 - 开发调优 - LINUX DO 新增agent 命令说明 openclaw agents add --workspace 工作空间路径 新Agent的名称(ID) ℹ️ 说明:命令参数说明: • --workspace:指定独立的数据空间路径,建议格式为 /root/.openclaw/workspace-{} • 新Agent的名称(ID) • --model:如果需要使用自定义模型,可以添加此参数并填写模型 ID,否则将使用默认模型 演示如下: ~/.openclaw » openclaw agents add --workspace ~/.openclaw/workspace-coder coder ~/.openclaw » openclaw agents list gudaixin@Mac 🦞 OpenClaw 2026.3.8 (3caab92) — Somewhere between 'hello world' and 'oh god what have I built.' │ ◇ Doctor warnings ──────────────────────────────────────────────────────────────────────────╮ │ │ │ - channels.telegram.groupPolicy is "allowlist" but groupAllowFrom (and allowFrom) is │ │ empty — all group messages will be silently dropped. Add sender IDs to │ │ channels.telegram.groupAllowFrom or channels.telegram.allowFrom, or set groupPolicy to │ │ "open". │ │ │ ├────────────────────────────────────────────────────────────────────────────────────────────╯ Agents: - main (default) Identity: 🦔 OpenClaw CEO (IDENTITY.md) Workspace: ~/.openclaw/workspace Agent dir: ~/.openclaw/agents/main/agent Model: minimax-portal/MiniMax-M2.5 Routing rules: 0 Routing: default (no explicit rules) - coder Workspace: ~/.openclaw/workspace-coder Agent dir: ~/.openclaw/agents/coder/agent Model: minimax-portal/MiniMax-M2.5 Routing rules: 0 配置telegram bot 对应不同agent,并安全检查 ...

阅读全文 →

2025年度什么值得用:最佳AI办公和编程产品回顾

AI 在 2025 年是生产力革命性提高的一年 AI 工具集 AI 催生了一股快速创新的浪潮,而且这股浪潮的速度没有任何放缓的迹象。今天,主要是总结我在过去一年里使用的高价值 AI 产品,包含编程和办公 AI。不论你是学生还是上班族,或者是投资者,都应该积极拥抱 AI,AI 已经在重塑我们的就业岗位、工作环境和成长方式。 如果说 2024 年是 AI 开始普及的元年,那2025 就是 AI 真正上岗干活的一年且百花齐放互相竞争的一年。 推荐查询-AI 工具集:50+ AI 编程工具和助手(2025 年最新整理) | AI 工具集 盘点我在 2025 年使用的 AI 产品:编程 AI 模型和 IDE Cursor 我最爱的 AI 编程工具 编程是 AI 应用的热门场景,我也试过很多 IDE,但是效果最好的依旧是 Cursor。唯一的心疼就是最低每月 20 美金 💵,心疼但是好用。 网上好评如潮 好评:“Cursor 是一款由 AI 驱动的代码编辑器,能够理解你的代码库,并通过自然语言助你更快编写代码。 只需描述你想要构建或修改的内容,Cursor 就会为你生成相应的代码。” Vscode + Kilo Code 我最喜欢的开源免费 AI 编程插件,可以直接在 vscode 使用,且可以使用免费模型或者使用任意一家模型来进行 AI 编程开发。 ...

阅读全文 →