最近,有朋友提出一個讓人有些摸不著頭腦的觀點:Web3 AI Agent 領域,像是 #ai16z、 $arc 這些熱門項目的持續下跌,是不是因為最近爆火的 MCP 協議造成的?乍聽之下,這兩者似乎沒有什麼直接關聯,但仔細想想,其中確實存在一定的邏輯:現有的 Web3 AI Agent 的估值定價邏輯可能需要重新審視,其敘事方向和產品落地路線也亟待調整。
這個問題的核心在於,為什麼一個看似與 Web3 風馬牛不相及的協議,會對 Web3 AI Agent 產生如此大的影響?這背後究竟隱藏著怎樣的邏輯關係?
我認為,這波下跌並非偶然,而是市場對 Web3 AI Agent 項目的一次重新評估。過去,很多 Web3 AI Agent 項目都過於依賴 Web2 的技術和模式,缺乏自身的獨特性和競爭力。MCP 協議的出現,加速了這一問題的暴露,促使市場對 Web3 AI Agent 重新進行估值和定價。接下來的文章將會深入探討這個問題。
要理解 MCP 協議對 Web3 AI Agent 的影響,首先需要了解 MCP 協議到底是什麼。MCP (Model Context Protocol) 是一個旨在讓各種類型的 AI LLM/Agent 無縫連接到各種數據源和工具的開源標準化協議。 簡單來說,它就像一個即插即用的 USB “通用” 接口,取代了過去端到端 “特定” 的封裝方式。
在 MCP 協議出現之前,AI 應用之間存在著明顯的數據孤島現象。不同的 Agent/LLM 之間要實現互聯互通,需要各自開發相應的 API 接口。這種方式不僅操作流程複雜,還缺乏雙向交互功能,而且通常都存在相對有限的模型訪問和權限限制。
MCP 協議的出現提供了一個統一的框架,讓 AI 應用可以擺脫過去的數據孤島狀態,實現 “動態” 訪問外部的數據與工具的可能性。這可以顯著降低開發複雜性和集成效率,尤其是在自動化任務執行、實時數據查詢以及跨平台協作等方面,有著明顯的助推作用。
說到這裡,很多人可能會想到 Manus。如果將 Manus 這種多 Agent 協作創新工具,與 MCP 這種能夠促進多 Agent 協作的開源框架結合起來,是不是就能實現強強聯合,所向披靡?
答案是肯定的。Manus + MCP 的組合,正是 Web3 AI Agent 此番遭受衝擊的關鍵所在。
然而,令人感到有些弔詭的是,無論是 Manus 還是 MCP,它們都是面向 Web2 LLM/Agent 的框架和協議標準。它們解決的,是中心化伺服器之間的數據交互和協作問題,其權限和訪問控制,仍然依賴於各個伺服器節點的“主動”開放。 換句話說,它只是一種開源工具屬性。
從本質上來說,MCP 更像是一個為 Web2 AI 應用量身打造的工具,它解決的是中心化環境下的數據互通問題。
按理說,這種中心化的解決方案,與 Web3 AI Agent 追求的 “分布式伺服器、分布式協作、分布式激勵” 等等核心思想是完全背離的。中心化的意大利炮,怎麼能炸掉去中心化的碉堡呢?
究其原因在於,第一階段的 Web3 AI Agent 太過於 “Web2 化” 了。 一方面,不少團隊都來自 Web2 背景,對 Web3 Native 的原生需求缺乏充分的理解。
例如,ElizaOS 框架最初就是一個幫助開發者快速部署 AI Agent 應用的封裝框架。但它恰恰是集成了 Twitter、Discord 等平台,以及一些 OpenAI、Claude、DeepSeek 等 “API 接口”,適當封裝了一些 Memory、Character 通用框架,來幫助開發者快速開發落定 AI Agent 應用。但如果認真分析,這套服務框架和 Web2 的開源工具有什麼區別呢?又有什么差異化優勢呢?
難道優勢就是有一套 Tokenomics 激勵方式?然後用一套 Web2 可以完全取代的框架,激勵一批更多是為了發新幣而存在的 AI Agent? 這實在是令人擔憂。
如果按照這個邏輯來看,你就能大概明白,為什麼 Manus + MCP 會對 Web3 AI Agent 產生如此大的衝擊。
由於一眾 Web3 AI Agent 框架和服務,只解決了類同 Web2 AI Agent 的快捷開發和應用需求,但在技術服務和標準和差異化優勢上,又跟不上 Web2 的創新速度,所以市場/資本對上一批的 Web3 的 AI Agent 進行了重新估值和定價。 也就是說,市場正在對這些 “偽 Web3” 的 AI Agent 項目進行一次價值回歸。
既然我們大致找到了問題的癥結所在,那麼接下來的問題就是:該如何破局呢?在我看來,唯一的出路就是專注於做 Web3 原生的解決方案,因為分布式系統的運轉和激勵架構,才是屬於 Web3 絕對差異化的優勢。
Web3 的核心優勢在於其分布式特性,這使得它能夠構建更加開放、透明和安全的系統。將 AI Agent 與 Web3 的分布式特性相結合,才能真正發揮 Web3 AI Agent 的潛力。
以分布式雲算力、數據、算法等服務平台為例,表面上看似這種以閒置資源為由頭聚合起來的算力和數據,短期根本無法滿足工程化實現創新的需要。但在大量 AI LLM 正在拼集中化算力搞性能突破軍備競賽的時候,一個以 “閒置資源、低成本” 為噱頭的服務模式,自然會讓 Web2 的開發者和 VC 天團不屑一顧。
但等到 Web2 AI Agent 過了拼性能創新的階段,就勢必會追求垂直應用場景拓展和細分微調模型優化等方向。那個時候,才會真正顯現 Web3 AI 資源服務的優勢。
事實上,當以資源壟斷方式爬上巨頭位置上的 Web2 AI 到一定階段,很難再退回來用農村包圍城市的思想,逐個細分場景擊破。那個時候,就是過剩的 Web2 AI 開發者 + Web3 AI 資源抱團發力的時候。
事實上,Web3 AI Agent 除了 Web2 的那套快捷部署 + 多 Agent 協作通信框架外 + Tokenomic 發幣敘事之外,有很多 Web3 Native 的創新方向值得去探索。 我們需要思考,如何利用 Web3 的獨特優勢,構建真正具有競爭力的 Web3 AI Agent 產品。
那麼,具體來說,Web3 AI Agent 可以有哪些原生創新方向呢?我認為,以下幾個方向值得重點關注:
比如,可以配備一套分布式共識協作框架。 考慮到 LLM 大模型鏈下計算 + 鏈上狀態存儲的特性,需要諸多適配性的組件。
1、一套去中心化的 DID 身份驗證系統,讓 Agent 能夠擁有可驗證的鏈上身份。這就像執行虛擬機為智能合約生成的唯一性地址一樣,主要為了後續狀態的持續追蹤和記錄。
2、一套去中心化的 Oracle 預言機系統,主要負責鏈下數據的可信獲取和驗證。和以往 Oracle 不同的是,這套適配 AI Agent 的預言機可能還需要做包括數據採集層、決策共識層、執行反饋層多個 Agent 的組合架構,以便於 Agent 的鏈上所需數據和鏈下計算和決策能夠實時觸達。
3、一套去中心化的存儲 DA 系統。 由於 AI Agent 運行時的知識庫狀態存在不確定性,且推理過程也較為臨時性,需要一套把 LLM 背後的關鍵狀態庫和推理路徑記錄下來存儲於分布式存儲系統中,並提供成本可控的數據證明機制,以確保公鏈驗證時的數據可用性。
4、一套零知識證明 ZKP 隱私計算層。 可以聯動包括 TEE 時、FHE 等在內的隱私計算解決方案,實現實時的隱私計算 + 數據證明驗證,讓 Agent 可以有更廣泛的垂直數據來源(醫療、金融),繼而 on top 之上有更多專業定制化的服務 Agent 出現。
5、一套跨鏈互操作性協議。 有點類似於 MCP 開源協議定義的框架,區別在於這套 Interoperability 解決方案,需要有適配 Agent 運行、傳遞、驗證的 relay 和通信調度機制,能夠完成 Agent 在不同鏈間的資產轉移和狀態同步問題,尤其是包含 Agent 上下文和 Prompt、知識庫、Memory 等複雜的狀態等等。
在我看來,真正的 Web3 AI Agent 的攻克重點應該在於,如何讓 AI Agent 的 “複雜工作流” 和區塊鏈的 “信任驗證流” 盡可能契合。
這意味著我們需要深入思考,如何利用區塊鏈的特性,來解決 AI Agent 在數據安全、透明度、可驗證性等方面的挑戰。
至於這些增量解決方案,是由已有的老敘事項目升級迭代而來,還是由新構成的 AI Agent 敘事賽道上的項目重新鑄就,都有可能性。 這才是 Web3 AI Agent 應該努力 Build 的方向,才是符合 AI + Crypto 大宏觀敘事下的創新生態基本面。
若不能有相關的創新開拓和差異化競爭壁壘建立,那麼,每一次 Web2 AI 賽道的風吹草動,都可能攪得 Web3 AI 天翻地覆。 我們需要時刻保持警惕,避免重蹈覆轍,真正抓住 Web3 AI Agent 的機遇。