內(nèi)容 | Bruce
編輯 & 排版 | 環(huán)環(huán)
設(shè)計 | Daisy
AI 進化史上的"USB-C時刻",2024 年 11 月,Anthropic 發(fā)布的 MCP 協(xié)議正在引發(fā)硅谷地震。這個被喻為"AI 界 USB-C"的開放標(biāo)準,不僅重構(gòu)了大模型與物理世界的連接方式,更暗藏著破解 AI 壟斷困局、重構(gòu)數(shù)字文明生產(chǎn)關(guān)系的密碼。當(dāng)我們還在爭論 GPT-5 的參數(shù)規(guī)模時,MCP 已悄然鋪就通向 AGI 時代的去中心化之路......
Bruce:最近在研究 Model Context Protocol(MCP)。這是繼 ChatGPT 之后,在 AI 領(lǐng)域第二個讓我非常興奮的東西,因為它有希望解決我思考多年的三個問題:
MCP 是一個開放標(biāo)準框架,可以簡化 LLM 與外部數(shù)據(jù)源和工具的集成。如果我們把 LLM 比作 Windows 操作系統(tǒng),Cursor 等應(yīng)用是鍵盤和硬件,那么 MCP 就是 USB 接口,支持將外部數(shù)據(jù)和工具靈活插入,然后用戶可以讀取使用這些外部數(shù)據(jù)和工具。
MCP 提供了三種能力對 LLM 進行擴展:
MCP 可以由任何人進行開發(fā)和托管,以 Server 的方式提供,可以隨時下線停止服務(wù)。
目前 LLM 使用盡可能多的數(shù)據(jù)進行大量的運算并生成大量的參數(shù),將知識融入到模型里面,從而實現(xiàn)對話輸出相應(yīng)知識。但是存在比較大的幾個問題:
我們可以將目前的超大規(guī)模模型視為胖 LLM,其架構(gòu)可以以下面簡單圖示表示:
用戶輸入信息之后,通過 Perception & Reasoning 層對輸入進行拆解和推理,然后調(diào)用龐大的參數(shù)進行結(jié)果生成。
基于 MCP 之后,LLM 可能聚焦在語言解析本身,剝離出去知識和能力,變成瘦 LLM:
瘦 LLM 的架構(gòu)下,Perception & Reasoning 層將會關(guān)注如何將全方面的人類物理環(huán)境信息解析成為 tokens,包括但不限于:語音、語氣、氣味、圖像、文字、重力、氣溫等,然后通過 MCP Coordinator 編排和協(xié)調(diào)多達數(shù)百的 MCP Servers 完成任務(wù)。瘦 LLM 的訓(xùn)練成本和速度將會極速提升,對于部署設(shè)備的要求變得很低。
任何有獨特才能的人,都可以創(chuàng)建自己的 MCP Server 對 LLM 提供服務(wù)。例如一個鳥類愛好者可以將自己多年的鳥類筆記通過 MCP 對外提供服務(wù)。當(dāng)有人使用 LLM 搜索跟鳥類相關(guān)的信息,就會調(diào)用到當(dāng)前鳥類筆記 MCP 服務(wù)。創(chuàng)作者也會因此獲得收入分成。
這是一種更為精準和自動化的創(chuàng)作者經(jīng)濟循環(huán),服務(wù)內(nèi)容更加標(biāo)準化,調(diào)用的次數(shù)、輸出的 token 都可以很精準的統(tǒng)計。LLM 提供商甚至可以同時調(diào)用多個鳥類筆記 MCP Servers 讓用戶選擇和評分來確定誰的質(zhì)量更好獲得更高匹配權(quán)重。
a. 我們可以基于 Ethereum 構(gòu)建一個 OpenMCP.Network 創(chuàng)作者激勵網(wǎng)絡(luò)。MCP Server 需要托管和提供穩(wěn)定的服務(wù),用戶對 LLM 提供商付費,LLM 提供商將實際的激勵通過網(wǎng)絡(luò)分配到被調(diào)用的 MCP Servers 上從而維持整個網(wǎng)絡(luò)的可持續(xù)性和穩(wěn)定性,激發(fā) MCP 的創(chuàng)作者持續(xù)創(chuàng)作和提供高質(zhì)量內(nèi)容。這一套網(wǎng)絡(luò)將需要使用智能合約實現(xiàn)激勵的自動化、透明、可信和抗審查。運行過程中的簽名、權(quán)限驗證、隱私保護都可以使用以太坊錢包、ZK 等技術(shù)實現(xiàn)。
b. 開發(fā) Ethereum 鏈上操作相關(guān)的 MCP Servers,例如 AA 錢包調(diào)用服務(wù),用戶將支持在 LLM 里面通過語言實現(xiàn)錢包付款而不暴露相關(guān)私鑰和權(quán)限給 LLM。
c. 還有各種開發(fā)者工具,進一步簡化 Ethereum 智能合約開發(fā)和代碼生成。
a. MCP Servers 將 AI 的知識和能力去中心化,任何人都可以創(chuàng)建和托管 MCP Servers,注冊到例如 OpenMCP.Network 這樣的平臺上面之后按照調(diào)用獲得激勵。沒有任何一個公司可以掌握全部的 MCP Servers。如果一個 LLM 提供商給予不公平的激勵到 MCP Servers,創(chuàng)作者將支持屏蔽該公司,用戶得不到優(yōu)質(zhì)結(jié)果后將會更換其他 LLM 提供商實現(xiàn)更公平的競爭。
b. 創(chuàng)作者可以對自己的 MCP Servers 實現(xiàn)細粒度的權(quán)限控制以保護隱私和版權(quán)。瘦 LLM 提供商應(yīng)該通過提供合理的激勵來讓創(chuàng)作者貢獻高質(zhì)量的 MCP Servers。
c. 瘦 LLM 能力差距將慢慢抹平,因為人類的語言是有遍歷上限的,演進也很緩慢。LLM 提供商將需要把目光、資金瞄向高質(zhì)量的 MCP Servers,而非重復(fù)使用更多顯卡煉丹。
d. AGI 的能力將得到分散和降權(quán),LLM 僅作為語言處理和用戶交互,具體能力分布在各個 MCP Servers 里面。AGI 將不會威脅到人類,因為關(guān)閉 MCP Servers 之后就只能進行基礎(chǔ)語言對話。
登載此文出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其描述。文章內(nèi)容僅供參考,不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險自擔(dān)。