Sign In

相關資訊

Clawdbot + Mac mini:當AI助手跑在本地

Clawdbot + Mac mini:當AI助手跑在本地


Clawdbot是一個開源AI代理框架,本質上是能運行在本地設備(如Mac mini)上的「有手有腳的Claude」。它不僅是聊天助手,還能通過多通訊平台接入,並具備執行系統命令、操作文件、控制瀏覽器等自動化能力。其技術棧涵蓋了從底層計算到上層工具與記憶的完整層級,體現了端側AI代理的趨勢。這一模式凸顯了AI能力向邊緣和終端擴散的結構性變化,引發了關於計算範式、安全與投資機會的新討論。

AI時代每天都有新體驗,在這樣一個技術爆發的年代,每天都面臨顛覆與重構。

最近clawdbot在硅谷刷屏,甚至成爲把 Mac mini 都賣脫銷的現象開源 AI 代理。

他又有什麼不一樣?

1. clawdbot到底是什麼?

一句話:Clawdbot = 「自己託管的 Claude 助理 + 本地自動化操作系統」,不是一個網站,而是你自己機器上跑的 AI 代理框架。

官方和社區的幾種典型描述:

「一個你在自己設備上運行的個人 AI 助理」,通過 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、Teams、WebChat 等各種 IM 跟你對話。

核心思想是:Gateway 只是控制平面,真正的產品是那個「會真的幹活的助手」本身——能清 inbox、發郵件、管日曆、查航班並幫你值機。

很多文章直接叫它「Claude with hands」(有手有腳的 Claude):既能聊天,又能跑腳本、控瀏覽器、動文件系統。

2. 誰開發的?背景是啥?

作者:Peter Steinberger(@steipete)

奧地利軟件工程師,之前最有名的身份是PSPDFKit 創始人——一個面向 iOS/Android/Web 的 PDF SDK,公司後來更名爲 Nutrient 並被私募收購,他相當於「財務自由退役的 dev 創業者」。

Clawdbot 出來之前,他就寫過一篇很火的長文《Claude Code is my computer》,講自己怎麼用 Claude Code 當「遠程操作系統」,讓模型控制整台 macOS。Clawdbot其實就是把那套個人實驗,系統化 + 開源化之後的產物。

時間線大致是:

  • 2025 年末:他先用 Claude 給自己做了一個私人的「Clawd 助理」,一個太空龍蝦(項目的吉祥物)。

  • 2026 年 1 月:正式把項目以 Clawdbot名義開源,上線 GitHub 和 clawd.bot 網站;幾周內 GitHub star 從幾千漲到兩三萬,近期已經突破四萬多星,成爲當前增速最快的一批開源項目之一。

短時間內吸引了幾十位貢獻者和幾千人的 Discord 社區;不少安全專家、AI 大 V(包括 Karpathy 等)在 X 上討論它。

簡單說:這是一個「退休的 PDF SDK 大神回歸搞 AI 代理」的項目,不是匿名小玩具。

3. Clawdbot 爲什麼突然火?(背後幾個關鍵點)

運行形態:完全自己託管,本地 first

Clawdbot 是MIT 協議開源,你在自己的設備上跑:Mac、Linux、Windows(含 WSL2)、樹莓派、甚至 VPS。

默認推薦場景:

家裏一臺 M 系列 Mac mini(低功耗 24/7 跑代理);

或雲上 5 美金一月的 VPS(DigitalOcean/Hetzner 一類)。

模型可以接:

Anthropic Claude(官方強推 Pro/Max + Opus 4.5);OpenAI、MiniMax 等;也可以通過 Ollama 等接本地 LLM。

結果:數據和自動化邏輯都「在你這邊」,不是 SaaS 平台;成本結構變成「硬件 + API 費用」(Claude / OpenAI),Clawdbot 本身免費;非常符合「開發者自己握住基礎設施」和「隱私控制」的情緒。

能力邊界:從「會聊」到「會幹活」

對比一下傳統聊天機器人,它多了幾個關鍵點:

①多通道統一入口

同一個助手可以同時掛在 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、微軟 Teams、Google Chat、WebChat 等;對你來說「一個人」,對技術上是一個 multi-channel inbox + session 模型。

②持續記憶 & 主動喚醒

Clawdbot 有長期記憶(Markdown/向量檢索等),不會像 ChatGPT 一關 tab 就失憶;可以定時給你發早間簡報、突發提醒、監控郵件/行情並主動 PING 你。

③真實「動手能力」

通過工具 + 殼牌 權限,它能執行系統命令、寫腳本、操作文件、控瀏覽器、幫你登錄網站、發郵件、改 Todo、控制智能家居等;這也是爲什麼安全圈那篇文章標題是「Clawdbot is what happens when AI gets root access」(給 AI root 權限會發生什麼)。

④多 Agent 編排

支持跑多個專職 agent:coding agent、research agent、生活事務 agent,之間通過路由協作;內部有 multi-agent routing、subagent、tool sandbox 的架構。

4. 技術棧 & 體系結構

Clawdbot 基本是一個完整 agent runtime 的 case:

底層吃 infra(Mac / VPS),上面掛 LLM providers(Anthropic / OpenAI 等),對外連各種 API / 網站,對內有 memory、skills、hooks。

TechStack 總覽:一張「結構圖」先立起來

用熟悉技術堆棧圖的 L0–Lx 分層,抽象成:

L0:Compute & Network

Mac mini / VPS / 家用服務器 + 公網 / VPN / Tailscale,L0 是一個 「輕 CPU / 高連接數 / I/O 密集」 形態,而不是 GPU node。

L1:OS & Runtime

macOS / Linux / WSL2 + Node.js / Bun + systemd / daemon,L1 決定了 可靠性和可恢復性:使用 systemd / launchd / daemon 模式保證 gateway 崩潰後自動重啓;本地文件系統用於持久化 config / memory / logs。

L2:Gateway & Control Plane(Clawdbot 核心)

CLI、Gateway 進程、配置系統、隊列、health、logging,Agentic OS 的 Control Plane / Service Mesh,爲上層的 agent loop / tools / channels 提供:路由、限流、健康檢查、配置、發現。

L3:Agent Loop & Context 層

Agent 定義 / system prompt / 會話、隊列、multi-agent routing、tool policy,L3 是 「Agent 行爲模型層」,已經天然支持多 agent 協作、tool-use、long-running loop,比傳統「LangChain-style 單輪工具調用」更接近真實生產工作流。

L4:LLM & Provider 抽象層

Anthropic / OpenAI / Bedrock / OpenRouter / local models (Ollama 等),含 failover、usage tracking,這一層是 模型路由 / failover / 成本優化 的關鍵:同一個 Agent 可以針對不同任務切不同模型(例如 Claude for reasoning,便宜模型處理大宗任務),甚至跑在 Vercel AI Gateway 等中間層後面。

L5:Tools / Skills / MCP / Browser / Exec 層

HTTP tools、瀏覽器、文件系統、插件、Clawdhub 技能、MCP / external tools,TechStack 模型中,這一層是:Workload-Specific Tools / Skill Fabric”——決定一個 agent 能在多大範圍內 真正「做事」而不是隻聊天。

L6:Channels & Surfaces

WhatsApp / Telegram / Slack / Discord / Signal / iMessage / WebChat / TUI / Voice,L6 決定了 agent 的「入口形態」:既可以像傳統 ChatBot 一樣等待用戶輸入;也可以利用 channel & hooks 主動發消息(「會先找你說話」的 agent)。

L7:Automation & Hooks & Memory

Cron、Webhook、Gmail Pub/Sub、Auth monitoring、Markdown memory、compaction、session pruning,L7 是Stateful Automation + Memory Fabric——決定 agent 是否能從「一次性工具」進化爲「長期貼身助手 / 後臺進程」。

上面再橫切三條 cross-cutting:

Security(sandbox vs elevated、OAuth、API keys、hardening)、

Observability & Ops(doctor、狀態幣、logs、health、heartbeat)、

Remote / multi-gateway / discovery(Tailscale、remote gateway、Bonjour)。

從「技術棧」到「agentic 生態位」的三個關鍵點

從這套棧拆下來,其實可以更精確地說:

①Clawdbot 自身是「Agent Runtime × Control Plane」 生態位:

L2–L4 把「模型 + tools + channels + memory」統一在一個 runtime 裏;技術上它可以接任意 LLM provider 和工具,位置類似「本地版 LangGraph × multi-channel gateway × MCP client」。

②圍繞 Clawdbot / agentic 的「流量基礎設施」 生態位:

LLM 成本網關(Cloudflare AI Gateway、Vercel AI Gateway 等);API / 網站側的 WAF / Bot Management / AI Security Suite,用來擋這些 agentic 流量和 prompt injection。L4 模型層 & L5 tools 層帶來的 token / API 暴增,會自然催生:

③安全 & hardening 生態位:

社區已經有安全報告和 Reddit 討論指出配置不當會直接 dump 出 Anthropic API keys 等敏感信息;這意味着除了 Clawdbot 自己的 security 文檔,對企業來說還會有專門的 hardening 工具鏈、policy engine、Zero Trust for AI 等一整套棧。

映射的投資機會有哪些?

一、Consumer / Personal:端側 AI + Agent 宿主機 Rail

Clawdbot + Mac mini 證明:高頻、私密、個性化的 Agent 工作,可以在端側(Mac / AI PC / 高端手機)長駐運行。Cloud 訓練、全局大模型繼續在超大機房;但推理 + 個性化 + 系統級功能,越來越多被丟到端側 NPU/統一內存上。

(1) 端側整機 / SoC 控制權玩家

Apple:控制M/A 系列 SoC + 統一內存 + macOS/iOS + Apple Intelligence,把「能否用 AI 功能」直接綁到硬件門檻上 → 換機閥門。

Windows Copilot+ PC 生態:MSFT + 高通/Intel/AMD,「沒有 NPU 45+ TOPS 就不是 Copilot+ PC」,標誌着 PC 進入NPU 標配化。

關鍵:誰能把 AI 功能做成「硬件 gating + OS 深度整合」,誰就有更高的 ASP + 更強換機週期控制權。

通用 Edge AI 硬件 / MCU 供應鏈

Edge AI 硬件整體:2025–2030 從 ~261 億美金 → ~589–688 億,CAGR ≈ 17–18%。IoT MCU 市場 2030 預計 ~73 億美金,CAGR ~6.3%,驅動之一就是工業/消費 Edge AI。

這裏的機會更分散,適合當作「端側 AI 硬件 BETA 池」而不是單點 all-in:

手機/PC SoC(Qualcomm、Apple、Intel/AMD NPU);

各類 Edge SoC / MCU / ISP(NXP、TI、安霸 等)。

二、Cloud / 網絡:AI Gateway & 效率層 Rail

Agent 世界裏,「算力貴 + 調用密」 → 必須要有一層AI Gateway + 邊緣推理平台:統一路由、緩存、限流、成本計量;過濾無效/惡意請求;在邊緣/PoP 上先做一層判斷,再決定要不要打到最貴的大模型。

代表玩家 & 機會

(1) $Cloudflare (NET.US)$ (NET)型:AI 收費站 + 效率層

AI Gateway:收口所有 LLM 調用,做日誌、路由、速率限制、緩存、成本模型。

Workers AI / Agents:在 Cloudflare 邊緣直接跑推理,按 「neurons」 / 請求計費。

ALPHA 不是多一塊 HBM,而是:在給定 GPU/電力的前提下,用路由/緩存/多模型選擇/安全,把單位算力變成更多有效 Agent 工作。

(2) 提供「AI 觀測 &預算控制」的工具

Datadog LLM Observability + Agent Monitoring:

對每條 agent 鏈路做 trace:輸入/輸出/延遲/token/錯誤/工具調用/推理步驟;幫企業看清「哪些用雲、哪些可下沉到邊/端」。

可以把 NET / DDOG 視爲同一條「效率 +治理 rail」:

一個站在網絡邊緣、一個站在 observability / SecOps 中臺,

都吃 Agent/LLM 使用量的長週期增量,而不是直接押 GPU 量。

三、AI 安全 & 身份:Agent Attack Surface Rail

AI 代理 =有鑰匙、有手腳、有記憶的「機器身份」;

Prompt injection / 數據泄露 / 工具濫用 / session smuggling 變成新攻擊面;

企業必須在身份 + Zero Trust + runtime security + AI layer 防護上開新預算池。

2. 代表玩家 & 機會映射

(1) Runtime & LLM/Agent 安全

Palo Alto NetworksPrisma AIRS:AI 安全平台,明確防護 prompt 注入、數據泄露、惡意代碼、模型濫用等。

CrowdStrikeFalcon AIDR:AI Detection & Response,專門看prompt 層 + Agent 使用,提供可見性與自動響應。

(2) 身份 & Zero Trust & 通道控制

$CrowdStrike (CRWD.US)$ 收購 SGNL,把「連續身份評估」擴到機器/AI 身份,是 Agent 時代的必要層;

Zscaler / Okta / CyberArk 等:控制 「哪個 Agent / Service 可以訪問哪些 API / 數據庫 / SaaS」,在多 Agent /多工具拓撲裏當 gate。

投資映射:

把這些廠從傳統 「Sec SaaS」 籃子裏單獨拉出來,視作 「Agent Attack Surface Rail」 的核心:

四、數據 & Agent OS:Data Brain + Agent 平台 Rail

Agent 要真正「懂業務」,離不開乾淨、集中、治理完好的數據;

更往前一步:數據平台要自己變成Agent 編排平台,否則只是給別人供血。

2. 代表玩家 & 機會

$Snowflake (SNOW.US)$ 邏輯

Data Cloud = 企業數據大腦;

Cortex AI Functions + Cortex Agents + Snowflake Intelligence = 內嵌 Agent 框架;

與 Anthropic 2 億美元多年的「Agentic AI」 合作,強調高監管行業(金融/醫療)在「數據+Agent OS」上用 SNOW 做內核。

投資視角:

  • SNOW 不只是「數倉」,而是在搶 「企業 Agent OS」 棧位

  • Directness very high:完整 Agent Framework + Data 一體;

  • TAM = 原數倉/分析 + AI/Agent 平台。

同類型還會出現其他選手(Databricks、部分雲原生數據平台),但 SNOW 目前在「Agent + 企業數據一體化故事」上講得最激進。

五、工業:AI 邊緣控制器 / 工業 Agent Rail

工業控制(PLC/ DCS):對實時性/確定性/可靠性/合規要求極高;

AI 模型要參與控制閉環,只能貼着現場跑:邊緣控制器;

雲負責:訓練、跨廠分析、數字孿生、統一管理;

邊緣控制器負責:質檢、預測維護、過程優化、異常檢測等的在線推理 + 實時閉環。

2. 西門子 / ROK 等的關鍵動作

(1) 西門子

Industrial Edge + AI Inference Server:Edge app 形態部署模型推理,和 PLC/vPLC 緊耦合。S7-1500V 虛擬 PLC:控制邏輯本身可以以 vPLC 形式跑在 Edge 環境裏,實現PLC + Edge 服務器 + 網關 三合一。

(2) Rockwell(ROK)

Embedded Edge Compute Module:插在 Allen-Bradley 控制平台裏,提供本地邊緣算力和網關能力。與 英偉達:Nemotron Nano SLM → FactoryTalk Design Studio / Copilot,在工業 Edge 跑小語言模型,幫工程/運維修復和設計。

工業 rail 投資映射:

  • Directness:控制 + Edge 平台 + 工業 AI 一體的廠(Siemens / ROK / Schneider / ABB…);

  • TAM:從「只賣 PLC」升級到「賣 AI-ready Edge 控制器 + Edge 平台 License + 雲服務」,單設備生命週期價值顯著抬升;

  • 這條 rail 的增長,會把一部分 AI 推理從雲遷到廠內,但同時拉高雲側對訓練、數字孿生、跨廠優化的需求。

Clawdbot + Mac mini 提前讓大家看清:邊緣個人算力可以承接大量高頻、隱私、個性化的 Agent 工作負載,這會把「AI 時代的 CapEx」部分從數據中心搬到終端和邊緣。

但從量級和工作負載類型看,它短中期更多改變的是 CapEx 的結構(更多效率層和端側 SoC 投資),而不是讓 hyperscaler 的總體 CapEx 曲線掉頭向下。

真正的系統性風險,只會出現在一個極端世界:小模型 + 本地 NPU 足以覆蓋絕大多數任務,監管和成本又強迫所有行業走 local-first,而云廠沒能及時轉型成模型授權和邊緣編排平台。目前的現實路徑更像是「雲–邊–端協同 → AI 總 CapEx 高位運行」,而不是「端側吃掉雲」。

編輯/stephen





Source link

根據你的喜好

主頁
附近
港聞
搜尋