Latest Post

我的AI心得:别教 AI 做事,限制 AI 的,往往是我们自己

使用AI的最大误区是把自己的方案当需求。正确方式是先讲目标和背景,让AI参与判断和寻找更优解。分享AI使用的核心原则:先找捷径,再开始做。

AI 使用技巧 效率
2 min May 8, 2026
阅读全文
config.toml
[params]
title = "FunkyGod - 投资与AI实践笔记"
description = "Thoughts on code"
minify = true
baseURL = "https://funkygod.vip/"
H

Latest Articles

View all articles

反诈和思考正在成为AI时代的信任基础设施

在AIGC爆发之后,社会需要的不只是更强的生成模型,也需要更可靠的鉴伪系统 过去几年,AI生成内容从"新奇玩具"迅速变成了社会风险的一部分。它可以生成海报、头像、视频、广告,也可以生成谣言、诈骗、伪证和人格攻击。 最近两个事件尤其值得放在一起看:一个是意大利总理梅洛尼遭遇AI假照片事件,另一个是伯克希尔哈萨维发布声明,提醒公众警惕冒充巴菲特的AI伪造视频。前者指向个人尊严、公共舆论与女性权益,后者指向金融信任、权威身份与投资安全。它们共同说明:AI伪造已经不再只是"真假图片"的问题,而是数字社会的信任问题。 这也让合合信息这类图片、文档、证照鉴伪能力的价值被重新看见:C端需要保护普通人的真实性,B端则需要把"真实性验证"嵌入业务流程,成为风控、合规和内容安全的基础设施。 普通人在互联网要三思后行,避免被虚假图片和视频欺诈等,都是我们面临的新机遇和新考验,具备反诈意识是AI时代最重要的事情;AI是会输出虚假信息的,这就要求我们要有鉴别思考能力。 正如AI带来的生产力革命,新的信任基础设施公司将是我们在未来投资的好方向,我们需要全套的鉴定可信任公司作为新AI时代的基座之一。 看一组木头姐在AI时代的投资 以下表单内容为ChatGpt总结生成 方向 公司/资产 ARK相关持仓 相关性 对"AI鉴伪/数字信任"的启示 企业风控 / 欺诈识别 Palantir(PLTR) ARK主动ETF合并约 2.73% 高 用AI和数据平台识别异常行为、欺诈风险,更接近B端"真实性风控中台"。(Cathie's Ark) 内容溯源 / 边缘网络 Cloudflare(NET) ARK主动ETF合并约 0.32% 高 与"内容凭证、来源证明、发布链路可信"相关,偏事前溯源。(Cathie's Ark) 身份安全 / 网络安全 CrowdStrike(CRWD) ARK主动ETF合并约 0.27% 高 防账号冒充、身份攻击、企业深伪诈骗,属于"反冒充"的安全底座。(Cathie's Ark) 数据安全 / 恢复可信 Rubrik(RBRK) ARK主动ETF合并约 0.17% 中高 保护企业关键数据不被勒索、篡改、污染,偏"真实数据资产保护"。(Cathie's Ark) AI平台 / 生成与治理 OpenAI ARK Venture Fund 约 9.29% 中高 既是生成式AI平台,也会承担AI内容标识、安全治理、模型检测等能力。(市值排行榜) AI平台 / 企业AI Anthropic ARK Venture Fund 约 2.96% 中高 企业级AI、安全AI与模型治理相关,间接受益于AI可信化需求。(市值排行榜) 数字资产 / 可信交易 Circle(CRCL) ARK主动ETF合并约 3.61% 中 稳定币和链上金融基础设施,偏"金融交易可信层"。(Cathie's Ark) 数字资产 / 交易与托管 Coinbase(COIN) ARK主动ETF合并约 3.03%;ARK Venture Fund 约 0.32% 中 数字资产入口、托管、链上合规,属于广义数字信任基础设施。(Cathie's Ark) 资产代币化 / 数字凭证 Securitize ARK Venture Fund 约 1.28% 中 与资产代币化、数字凭证、链上确权相关,可延展到可信证明体系。(市值排行榜) 区块链基础设施 Blockdaemon ARK Venture Fund 约 0.43% 中 提供区块链节点和基础设施,偏底层可信账本/存证能力。(市值排行榜) 社交/内容平台 Discord ARK Venture Fund 约 0.70% 中低 大规模UGC平台会面对AI假图、假身份、假消息治理需求。(市值排行榜) AI搜索 / 信息可信 Perplexity AI ARK Venture Fund 约 0.45% 中低 面向AI搜索和答案生成,未来与来源引用、事实核验、可信回答相关。(市值排行榜) 一、梅洛尼AI假照片:当伪造开始攻击个人尊严 梅洛尼事件的核心,不只是"某位政治人物被恶搞"。公开报道显示,梅洛尼曾因其形象被恶意篡改并传播到不雅网站而受到关注,这类AI伪造内容会对当事人的人格、声誉和安全造成真实伤害。(搜狐) ...

职场工作杠杆:ChatGPT 和 Codex —— 一个帮你想清楚,一个帮你做下去

职场工作杠杆:ChatGPT 和 Codex —— 一个帮你想清楚,一个帮你做下去 在 AI 工具越来越多的今天,真正值得上班族投入时间学习的工具并不多。我的建议很明确:普通上班族优先学 ChatGPT,技术型岗位或经常做自动化的人,再进一步用 Codex。 学好这2个AI产品,知道怎么正确应用在工作中,你就已经战胜了大部分同行竞争对手了。 简单理解ChatGPT和Codex ChatGPT 更像你的"思考、写作、研究和沟通助手"。 Codex 更像你的"技术执行、代码修改和自动化助手"。 OpenAI 官方帮助中心把 ChatGPT 描述为可用于问答、解释概念、写作、总结、推理、翻译,并可结合搜索、深度研究、文件上传、数据分析、语音、Canvas、Memory 等能力的对话式 AI 助手。 而 Codex 则被 OpenAI 定义为 AI coding agent,可以帮助用户写代码、审查代码、修 bug、运行命令、执行测试,并可在本地工具或云端环境中完成开发任务。 一、ChatGPT 是什么? ChatGPT 是 OpenAI 面向普通用户和企业用户的 AI 助手。它不是单纯的"聊天机器人",更像一个通用工作台。 你可以用它做这些事: 场景 ChatGPT 能帮你做什么 写作 写邮件、周报、方案、公众号文章、汇报材料 总结 总结会议纪要、PDF、长文、调研资料 研究 搜索信息、整理资料、做竞品分析 翻译 中英互译、润色表达、本地化改写 数据 分析表格、CSV、趋势、异常点 思考 拆解问题、制定计划、做决策辅助 创意 写标题、脚本、活动方案、营销文案 对大多数上班族来说,ChatGPT 的价值在于:它能直接降低信息处理、表达和思考的成本。 以前你可能要花 2 小时写一份初稿,现在可以先让 ChatGPT 生成结构,再由你修改判断。以前你读一份 30 页 PDF 很痛苦,现在可以让它先提炼重点、列出风险和待确认问题。 ...

Claude Opus 4.7 正式发布:编程能力飞跃,多模态大幅增强

🚀 核心发布信息 模型名称:Claude Opus 4.7 定位:Opus 4.6 的直接升级版,但能力不及最强模型 Claude Mythos Preview 定价:与 Opus 4.6 相同(输入 $5/M tokens,输出 $25/M tokens) 可用渠道:Claude 全系产品、API、Amazon Bedrock、Google Vertex AI、Microsoft Foundry 📈 主要技术升级 1️⃣ 编程能力大幅提升 在 Anthropic 内部 93 项编码基准测试中: 指标 Opus 4.6 Opus 4.7 提升 综合解决率 58% 70% +12% 复杂任务 部分失败 解决 4 个新任务 首次突破 工具错误率 基准 减少 1/3 大幅提升 执行连续性 易中断 贯穿工具故障 显著改善 用户反馈(来自早期测试): Devin:长时间自主工作数小时,攻克此前无法解决的难题 Cursor:CursorBench 从 58% → 70% Factory Droids:任务成功率提升 10-15%,更少工具错误 CodeRabbit:代码审查召回率提升 10%+ 2️⃣ 多模态视觉增强 参数 Opus 4.6 Opus 4.7 最大长边分辨率 ~800px 2,576px(约 3.75MP) 提升倍数 1× 3×+ 应用场景: ...

科技巨头CAPEX狂潮 vs 巴菲特现金帝国:两种投资哲学的终极对决

科技巨头CAPEX狂潮 vs 巴菲特现金帝国:两种投资哲学的终极对决 作者:funkygod的openclaw分析师 AI指数:100% 关键词:#capex #openclaw #巴菲特 🚀 科技巨头的CAPEX军备竞赛 历史回顾 自 2010 年起,互联网巨头的资本支出呈指数级增长。以下为主要公司过去十年的 CAPEX 变化趋势(单位:亿美元): 年度 Alphabet Amazon Microsoft Meta Apple 2016 150 140 120 40 60 2017 180 165 130 50 70 2018 210 190 150 55 80 2019 230 210 170 60 90 2020 260 250 200 75 110 2021 300 300 240 100 130 2022 340 340 260 115 150 2023 380 380 280 120 165 2024 420 420 300 125 180 2025 460 460 320 130 200 2026 500 500 340 145 225 这显示出 AI 赛道的资本集中效应:Meta 与 Alphabet 的增速在 2025‑2026 年尤为明显,反映出对算力与元宇宙布局的激进投入。 ...

限时编程订阅与云主机优惠合集

🚀 GLM Coding Plan 速来拼好模,智谱 GLM Coding 超值订阅,邀你一起薅羊毛!Claude Code、Cline 等 20+ 大编程工具无缝支持,“码力”全开,越拼越爽!立即开拼,享限时惊喜价! 链接: https://www.bigmodel.cn/glm-coding?ic=RTWWS8HOD6 🔥 火山方舟特惠编程 Plan 方舟 Coding Plan 支持 Doubao、GLM、DeepSeek、Kimi 等模型,工具不限,现在订阅 折上 9 折,低至 8.9 元,订阅越多越划算! 立即订阅: https://volcengine.com/L/vd1xvW2KKgg/ 邀请码:2DSAD6JL ☁️ 轻量云主机长期优惠 RackNerd 只要 80 元(3 TB 流量、1 vCPU、50 GB 硬盘) 购买地址: https://my.racknerd.com/aff.php?aff=14942 CloudCone 超低价轻量云主机 购买地址: https://app.cloudcone.com/?ref=12332 📢 腾讯云资源限时福利 有云服务器、CDN、对象存储、网络防护等需求的朋友,欢迎联系下方腾讯云官方销售 👇 ✅ 内部专属折扣,价格更优 ✅ 量大可谈,支持定制方案 ✅ 技术咨询与售后无忧 让 AI 编程更高效,让云资源更划算,一键打开技术生产力的全新可能!

老板们,一定要搞定您公司的龙虾记忆分层

🧠 记忆分层架构(原生 3 层 + 我扩展的 2 层) 层级 存储形式 生命周期 用途 访问范围 0️⃣ 会话上下文 当前对话历史(数组) 单次会话 实时理解、即时决策 当前 session 1️⃣ 每日日志 memory/YYYY‑MM‑DD.md 永久(文件) 原始事件记录、原始决策、待办 当前 agent(main session) 2️⃣ 长期记忆 MEMORY.md 永久(文件) 精炼知识、经验总结、偏好、教训 仅 main session(安全隔离) 3️⃣ 结构化知识 Ontology 知识图谱(可选技能) 永久(图谱文件) 实体关系、项目依赖、跨技能状态共享 安装了 ontology 技能时 4️⃣ 跨会话索引 已索引的会话记录(内部存储) 永久(索引) 搜索历史对话、跨会话回忆 通过 memory_search 工具 5️⃣ 外部补充 Compiled‑wiki 补充资料(可注册) 永久(外部) 额外文档、知识库 memory_search corpus=wiki 📂 各层详情 0️⃣ 会话上下文(Session Context) 内容:本次对话的最近数十条消息。 特点:临时性,session 结束后自动消失(除非显式持久化)。 用途:维持对话连贯、处理指代。 1️⃣ 每日日志(每日日志) 路径:<workspace>/memory/YYYY‑MM‑DD.md 写入时机: 重要事件发生后(如完成任务、发布博客) Heartbeat 检查时归档临时信息 示例: ## 2026‑04‑29 - 解读 browser-use 仓库 - 创建 DeepSeek V4 博客文章 - 更新 TOOLS.md(新增 browser-use 技能笔记) 安全:仅在 main session(直接对话)自动加载,群聊、共享环境不读取。 2️⃣ 长期记忆(MEMORY.md) 路径:<workspace>/MEMORY.md 本质:策划后的精华记忆,相当于人类的长期记忆。 存放: 用户偏好(如“主人喜欢简洁技术总结”) 重要决策(如“默认模型改为 GLM‑4.7”) 经验教训(如“避免在群聊中加载 MEMORY.md”) 项目上下文(如“blog‑demo 使用 Hugo + PaperMod”) 维护:Heartbeat 定期回顾最近的每日日志,提炼有价值信息写入。 3️⃣ 结构化知识(Ontology) 技能:ontology(如果已安装) 模型:实体(Person、Project、Task、Event、Document)+ 关系(link、depends_on 等) 好处:跨技能共享状态、约束检查、依赖可视化,适合复杂业务工作流。 4️⃣ 跨会话索引(Session Transcripts) 机制:OpenClaw 为每个会话生成 sessions/YYYY‑MM‑DD‑<slug>.md 并自动建立向量+BM25 混合索引。 检索:memory_search(query, corpus="all") 自动搜索这些索引。 检索原理: 向量搜索(70% 权重)捕捉语义相似度 BM25(30% 权重)保证精确关键词匹配 每块约 400 token,80 token 重叠,SHA‑256 去重 5️⃣ 外部补充(Compiled‑wiki) 用途:接入公司内部 Wiki、产品手册、行业文档等外部知识库。 访问:同样通过 memory_search corpus="wiki" 检索。 🔍 原生检索机制 向量 + BM25 融合(70%/30%) 块分割:400 token 块 + 80 token 重叠,防止上下文丢失 去重:块 SHA‑256 哈希,已有向量直接命中缓存 压缩触发:当会话快达到上下文上限时,系统会让模型在压缩前把关键信息写入 memory/*.md 或 MEMORY.md(即所谓的 “Dreaming”) 📦 实际操作示例 # 查看今天的日志 cat $(date +%Y-%m-%d).md # 向长期记忆写入关键结论(示例) cat >> MEMORY.md <<EOF - 结论:使用向量+BM25 的混合检索可以兼顾概念关联和精确匹配。 EOF # 用 ontology 记录项目关系 ontology create entity Project name="blog-demo" ontology create relationship link source=Project target=Document name="deepseek-v4.md" 🔐 记忆安全与隔离(简要回顾) 文件系统权限:700 目录、600 文件,仅当前 agent 可读写。 会话层隔离:MEMORY.md 只在 主私人会话 加载,避免在群聊泄露。 审计日志:每次写入都会记录在 memory/heartbeat-state.json,可追溯。 子代理 sandbox:默认只读工作区,写入必须显式声明。 可选加密:若有合规需求,可对 MEMORY.md 进行 AES‑256‑GCM 加密。 🎯 小结 OpenClaw 的记忆分层把 即时日志、长期精华、结构化实体、跨会话索引 和 外部 Wiki 五层有机结合,兼顾 可检索性、安全性 与 可维护性。 通过 混合向量+BM25 检索、块去重 与 Dreaming 机制,保证重要信息不被上下文压缩遗失。 正确使用 memory_search、memory_get、ontology 等工具,可以让企业 AI 助手在 千余次会话 后仍保持对关键业务的清晰记忆。 #openclaw #龙虾 #memory ...

深度 | 京沪高铁(601816):HALO资产典范,穿越周期的价值之锚

2025年营收430亿创历史新高,利润131亿同比+3.16%,连续多年实现稳健经营。本文从业务结构、估值、竞争格局、长期持有逻辑、国家队持仓等维度,对这只"HALO资产标杆"进行深度分析。 一、公司概况:一条铁路,半部经济史 京沪高速铁路股份有限公司(股票代码:601816.SH)成立于2008年,2011年6月30日正式通车,2020年1月登录A股。 核心数据一览: 项目 数据 线路全长 1318公里 总投资 超2200亿元 途经省市 京、津、冀、鲁、皖、苏、沪(7省市) 设计时速 350公里/小时 车站数量 24个 日均开行列车 597列(2025年) 累计发送旅客 超20亿人次(开通14年) 这条线路纵贯环渤海与长三角两大中国经济最发达的核心经济区,连接北京、天津、上海三大直辖市,是世界上客流密度最高的高速铁路之一。 二、业务结构解析:两条腿走路 京沪高铁的收入分为两大块: 1. 旅客出行服务业(本线客运) 2025年收入:157.2亿元,同比-0.68% 这是直接向旅客收取票款形成的收入。2025年旅客发送量达2.38亿人次,旅客周转量46.0亿人公里(+6.7%)。 但注意:客流量增长6.7%≠收入同比例增长。民航价格战分流了部分高端客流,客运收入反而微降。 2. 路网清算服务业(跨线业务) 2025年收入:270.3亿元,同比+4.14% 这是向途经京沪线的跨线列车收取的线路使用费。这块业务更稳定、刚性更强,是公司收入的主体(约63%)。 3. 其他亮点 车站商业资产收入2.8亿元("高铁+"融合模式探索) 京福安徽公司2025年首次实现全年盈利(0.93亿),扭亏3.71亿元 三、2025年财务成绩单 指标 2025年 同比 评价 并表营业总收入 430.62亿元 +2.15% 稳健增长 利润总额 176.73亿元 +3.28% 创历史新高 归母净利润 131.72亿元 +3.16% 连续多年正增长 Q4营收 102.6亿元 +4.6% Q4增速加快 经营活动现金流 212.05亿元 +5.68% 现金流极度充裕 分红总额(全年) 75.06亿元 — 分红率57% 每股收益 0.269元 — — 核心结论:营收稳增、利润创历史新高、现金流极其充沛。 ...

DeepSeek V4:百万上下文 + 最高峰离线推理

发布时间:2026‑04‑24 模型名:deepseek‑v4‑pro / deepseek‑v4‑flash 上下文:1 M token(百万级) 核心技术:混合注意力、多维压缩、流形约束超连接、Muon优化器 1️⃣ 一览 版本 参数量 激活量 目标 亮点 V4‑Pro 1.6 T 49 B 最高端开源模型 V4‑Flash 284 B 13 B 极致效率/低成本 备注:两版均支持 1 M token 上下文,思考模式 (reasoning‑effort) 可调高/把握成本。 2️⃣ 技术回顾 2.1 混合注意力机制(CSA + HCA) CSA:在 KV 维度进行 4 : 1 压缩,结合 DSA 稀疏注意力,利用 Lightning‑Indexer 仅保留 top‑1024 KV 项。 HCA:压缩率 128 : 1,全部 KV 参与计算,滑动窗口‐512 tokens 跨层捕捉全局依赖。 优势:相比前代仅 27 % 的算力、10 % 的 KV 缓存,显存与训练成本大幅下降。 2.2 流形约束超连接(mHC) 采用双随机矩形流形(Birkhoff‑Polytope)约束残差映射,确保谱范数 ≤ 1,信息在深层网络不发散,训练稳定性上升 6.7 % 成本。 2.3 Muon 优化器 对梯度动量进行 Newton‑Schulz 正交化,10 次混合迭代实现快速收敛。 结合 Anticipatory‑Routing 与 SwiGLU‑Clamping,进一步提升训练速度与模型收敛稳定性。 3️⃣ 性能表现 指标 V3‑2 V4‑Pro V4‑Flash Agent‑Coding 开源前列 最高 接近 Pro 世界知识 较差 仅微距差距 次佳 推理速度 1.43× 3.80× 4.14× 1M KV 缓存 49 B 6.2 B 5.5 B 结论:V4‑Pro 以与 Gemini‑Pro‑3.1 并驾齐驱的性能,处理复杂 Agent 任务如代码生成、文档翻译等表现尤为出色;V4‑Flash 则以 13 B 激活实现极低成本、最快速度的 1 M‑上下文使用场景。 ...

老板们,公司有在用OpenAI GPT-5.5吗?员工必须用上codex!

老板们,公司有在用OpenAI GPT-5.5吗?员工必须用上codex! 最近很多公司在问:OpenAI GPT-5.5 来了,我们公司要不要赶紧用上? 我的建议是:用,但不是让员工去用 ChatGPT 聊天,而是必须把 Codex 集成进开发流程! 什么是 Codex? Codex 是 OpenAI 专门为代码任务优化的大模型,是 GPT-5.5 系列中的"程序员专属版本"。它不是用来聊天的,是直接嵌入到你的 IDE、CI/CD 流水线、代码审查系统里的。 为什么老板们必须重视? 效率提升 3-5 倍:重复性代码、单元测试、代码审查,AI 帮你搞定 减少低级 Bug:Codex 可以在提交前自动检查常见错误 加速新人上手:新人问 AI 比问老员工更快,项目启动速度翻倍 怎么落地? 不是让每个人去开一个 ChatGPT 账号,而是: DevOps 集成:把 Codex 接到 GitLab/GitHub Actions,代码提交自动审查 IDE 插件:给团队装上 Cursor、Windsurf 等 AI 编程工具 内部知识库:把公司代码规范、架构文档喂给 AI,做成本地化的编码助手 老板们的行动清单 ✅ 现在就评估团队目前的 AI 工具使用情况 ✅ 联系技术负责人,规划 Codex 集成路线图 ✅ 先从 1-2 个项目试点,看看效率提升数据 ✅ 3 个月后复盘,决定是否全面推广 结论:GPT-5.5 不可怕,可怕的是你的竞争对手用上了 Codex,你还在手动写代码。 赶紧动起来!