<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Vue on MakeMoney</title>
    <link>https://funkygod.vip/tags/vue/</link>
    <description>Recent content in Vue on MakeMoney</description>
    <image>
      <title>MakeMoney</title>
      <url>https://funkygod.vip/%3Clink%20or%20path%20of%20image%20for%20opengraph,%20twitter-cards%3E</url>
      <link>https://funkygod.vip/%3Clink%20or%20path%20of%20image%20for%20opengraph,%20twitter-cards%3E</link>
    </image>
    <generator>Hugo -- 0.147.7</generator>
    <language>en</language>
    <lastBuildDate>Mon, 06 Apr 2026 14:00:00 +0800</lastBuildDate>
    <atom:link href="https://funkygod.vip/tags/vue/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>基于OpenClaw多agent的多源数据源采集、加工和可视化平台</title>
      <link>https://funkygod.vip/posts/openclaw-agent-system/</link>
      <pubDate>Mon, 06 Apr 2026 14:00:00 +0800</pubDate>
      <guid>https://funkygod.vip/posts/openclaw-agent-system/</guid>
      <description>&lt;h1 id=&#34;基于openclaw多agent的多源数据源采集加工和可视化平台&#34;&gt;基于OpenClaw多agent的多源数据源采集、加工和可视化平台&lt;/h1&gt;
&lt;blockquote&gt;
&lt;p&gt;1.在信息爆炸的时代，监控多个数据源（新闻、社交媒体、价格行情、系统日志）往往需要写大量重复的爬虫代码，而且数据重复、难以统一管理。&lt;strong&gt;本文分享如何用 OpenClaw 编排多个 AI Agent 自动采集异构数据&lt;/strong&gt;，借助 Qdrant 向量去重避免噪音，用 PostgreSQL 持久化保证数据可靠性，最后通过 Vue 看板统一展示;
2.多源消息是后续数据加工和方案决策的先行必备要求。&lt;/p&gt;&lt;/blockquote&gt;
&lt;h2 id=&#34;架构设计和技术选型&#34;&gt;架构设计和技术选型&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;OpenClaw 的核心是 Orchestrator 模式里定义多个 Agent，&lt;strong&gt;Orchestrator 负责任务分发、并发控制和结果汇聚&lt;/strong&gt;，每个agent负责采集不同类型或者不同数据源；&lt;/li&gt;
&lt;li&gt;Gin 作为所有 Agent 的数据入口，&lt;strong&gt;负责接收上报、触发去重流程、写入数据库&lt;/strong&gt;。&lt;/li&gt;
&lt;li&gt;这是整个系统最有意思的部分。传统去重用 URL 哈希或标题哈希，但对于&amp;quot;同一事件被不同媒体报道&amp;quot;这类情况完全失效。语义去重相比 URL 哈希的优势在于：同一热点事件被 10 家媒体转载，传统方式会入库 10 条，语义去重后只保留第一条，信息密度大幅提升&lt;strong&gt;Qdrant 的向量相似度检索可以做到语义级去重&lt;/strong&gt;。&lt;/li&gt;
&lt;li&gt;Postgres处理数据的&lt;strong&gt;持久化存储和索引查询&lt;/strong&gt;；&lt;/li&gt;
&lt;li&gt;Vue是PC端和移动端查看数据流的不二选择；&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;img loading=&#34;lazy&#34; src=&#34;https://funkygod.uk/1775441982146-9ff33e00-0cce-47e1-8678-e9d7e7f3d8fe.png&#34;&gt;&lt;/p&gt;
&lt;p&gt;&lt;img loading=&#34;lazy&#34; src=&#34;https://funkygod.uk/1775442137615-3d604232-9d04-46bd-8128-cf5345b861a8.png&#34;&gt;&lt;/p&gt;
&lt;h2 id=&#34;快速测试验证原型&#34;&gt;快速测试验证原型&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;4 个 Agent 共采集原始数据约 3,200 条&lt;/li&gt;
&lt;li&gt;Qdrant 语义去重后实际入库 1,180 条，去重率约 63%&lt;/li&gt;
&lt;li&gt;单次去重检索延迟（含 Embedding 生成）平均 ~180ms&lt;/li&gt;
&lt;li&gt;PostgreSQL 写入 TPS 峰值约 300 条/秒，完全满足需求&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;体验信息流页面&#34;&gt;体验信息流页面&lt;/h2&gt;
&lt;p&gt;体验&lt;strong&gt;AI汇聚信息&lt;/strong&gt;的地址：&lt;a href=&#34;https://info.vi-wealth.com/information&#34;&gt;https://info.vi-wealth.com/information&lt;/a&gt;
&lt;img loading=&#34;lazy&#34; src=&#34;https://funkygod.uk/1775441825268-cc4dcdec-cf7f-4897-9d27-29139ce04f88.png&#34;&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;谢谢关注收藏&#34;&gt;谢谢关注收藏&lt;/h2&gt;
&lt;p&gt;⏰ &lt;strong&gt;刚刷到的朋友注意啦&lt;/strong&gt;！
点击【关注】锁定宝藏库，从此升职加薪不迷路 ✨&lt;/p&gt;
&lt;section class=&#34;mp_profile_iframe_wrp custom_select_card_wrp&#34; nodeleaf=&#34;&#34;&gt;
  &lt;mp-common-profile class=&#34;mpprofile js_uneditable custom_select_card mp_profile_iframe&#34; data-pluginname=&#34;mpprofile&#34; data-id=&#34;MzkzNDY1NzE0NQ==&#34; data-nickname=&#34;猫咪不吃愚&#34; data-headimg=&#34;https://wx.qlogo.cn/mmopen/yaZJic7Y9oMsXvFjzxhYqRanRQwibG5uicqWtXvmVicspXoksS9wUw7YsIzcBaXc3ibZnS2RGFaweaatR1licTiayDhGMYRUt9pI3syjhRW20wYicicJdchhWY8SN3lhF3VzBoECd/64&#34; data-signature=&#34;阅读前，请关注哦！&#34; data-service_type=&#34;1&#34; data-verify_status=&#34;1&#34;&gt;&lt;/mp-common-profile&gt;
  &lt;br class=&#34;ProseMirror-trailingBreak&#34;&gt;
&lt;/section&gt;
&lt;p&gt;&lt;img loading=&#34;lazy&#34; src=&#34;https://funkygod.uk/1769870872370-b3e16f1d-b752-48f5-a470-5fac345f7f38.png&#34;&gt;&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
