今日实时汇率
1 美元(USD)=
7.178 人民币(CNY)
反向汇率:1 CNY = 0.1393 USD 更新时间:2025-07-09 03:00:01
Arweave是个“非典型”区块链项目,大部分人对其一无所知,稍有了解的也常把它看作是众多陪跑Filecoin的去中心化存储项目之一。极少数有耐心找来白皮书/黄皮书研究的同学,看完也难免是一头雾水。因为通篇是围绕冷门概念——“信息永久存储”的阐述,看不到扩容、密码学创新、DeFi支持、价值捕获等等,能令币圈和链圈同学眼前一亮的概念。谁会需要永久数据存储并为之付费?人生不过百年,凭什么我们要关心永久保存人类的知识和历史?
Arweave创始人及核心团队自有其特立独行的理由。但是作为Arweave黄皮书的中文译者,我打算从典型的币链圈视角解读Arweave,以免国内区块链创业者和投资者与这一重大创新失之交臂。首先请允许我将Arweave音译为“阿维”(尽管这个中文名字尚在中文社区讨论中,并未最终确定),以便于在中文加密社区传播。
阿维与Filecoin/IPFS
IPFS是中心化存储领域的开创者,从2014年上线开始如同BT一般自由生长,已经存储了大量数据。但是要让IPFS成为商业可用的存储系统,而不是随意的数据分享平台,必须提供服务质量保障。这就是Filecoin要解决的问题,即IPFS的经济激励层。从提出Filecoin概念,到今年主网“即将”面世,可谓是迁延日久。作为开发了IPFS、libp2p等硬核技术的Protocol Labs,为何会迟迟搞不定Filecoin?
Filecoin协议构建了两个市场:数据存储市场和数据提取市场。有存储需求的用户到数据存储市场申明自己的需求:我要存**大小的数据,要求**个副本,存储**天。市场中的存储服务商(存储矿工)对这项存储需求报价,用户接受报价就跟矿工签订合同,支付费用。当用户需要使用数据时,就到数据提取市场提出需求。再由提取矿工给出报价,满足数据访问需求。上述过程看上去不算复杂,实现起来却又几个困难:
1. 矿工需要提供存储了用户数据的不可伪造的密码学证明;
2. 在合同有效期内,协议要持续检查矿工如约保存了数据。如果违约,矿工要遭受罚款;
3. 为了鼓励矿工存储数据,要让已存储数据的容量比空闲的容量赚取的更多增发奖励。同时需要防止矿工注水垃圾数据骗取增发奖励。
Filecoin设计了复制证明(PoRe)解决第1个问题,采用时空证明(PoTS)和质押机制解决问题。通过精密地调校经济模型1,并引入对真实用户的认证,来解决第3个问题。虽然Filecoin在一定程度上解决以上难题,但又不可避免地产生了一些不良后果。首先是系统复杂性高,矿工除了支付必要的存储成本,还要承担高昂的证明成本和质押Filecoin损失的期权成本。要知道相对而言,计算比存储更昂贵。根据Filecoin提供的适合小规模挖矿2的推荐配置,8TB SSD硬盘只需300美元,但AMD 3.5Ghz 16核高端CPU需要700美元,还有成本超过500美元的至少128GB内存(作为对照,阿维挖矿的推荐最低内存是8GB)。挖矿成本高势必导致Filecoin系统的存储服务价格高。此外,验证真实用户是个微妙的问题,验证太严会影响用户使用体验,太宽则不能阻止矿工伪装成用户,验证就失去了意义,其间的平衡很难掌握。
同时,Filecoin作为一种加密资产,价格会与加密市场总体行情高度关联,即波动性很高。如果Filecoin价格暴跌,矿工可能认赔离场,造成用户数据丢失。此外大幅度的价格波动还增加矿工质押Filecoin的隐含期权成本。隐含期权成本被大多数PoS经济模型研究忽视了,我认为至少解锁期损失的期权成本应该被考虑在内(甚至也有人认为应该计算整个锁定期的期权成本)。解锁期是从提出解锁请求到获得可流通通证的期限,在此期间质押人不能转移通证,相当于放弃了一份现价欧式期权(不同于美式期权,欧式期权只能到期行权)4。以Tezos为例,设现价和行权价都为2.53美元,年化波动率为185%5,解锁期为14天(更长的解锁期意味着更高的期权成本),无风险利率4%(不影响计算结果),使用B-S期权计算器6,得出每份欧式期权价值0.363美元(由于行权价等于现价,因此看涨和看跌期权价值相等),相当于本金价值的14.3%。可见由于加密通证价格波动率很高,质押引发的隐含期权成本不应被忽略。
Filecoin协议将存储和提取分为两个市场,就需要建立两套激励机制(和定价机制),而且用户的数据访问权得不到保障。假设你通过Filecoin存储了重要数据,支付了一定量的存储费用。后续你或者其他用户(例如你的客户)访问该数据,还要根据提取市场的行情支付费用,如果提取市场价格很高,相当于数据被矿工“挟持”,用户面临要么支付高价、要么迁移数据的困境。
我在2017年阅读了Filecoin白皮书,随即放弃了对该项目的研究。程序员的直觉告诉我,复杂的外推式方案通常不会成功。什么是外推式方案?就是对问题无需深入思考就自然得出的办法,也可以称之为“想当然的办法”。Filecoin的外推法就是:既然矿工需要(持续地)证明已经妥善保存了用户的数据,协议就应该包含一套密码学算法实现这些证明。至于高度复杂的证明不可避免地带来系统复杂度高和成本高的问题,只能留待以后慢慢解决。但是Filecoin的竞争对手——中心化云存储不需要证明和验证,云服务厂商和客户之间签订的是法律合同,法律保证了客户的访问权和追索权。可见只要证明成本居高不下,去中心化存储就难以提供有竞争力的价格。
Sia、Storj等协议虽然在技术上与Filecoin/IPFS不同,但是它们都属于基于合同的去中心化存储协议。即用户和矿工通过协议签订合同,用户支付合同规定的费用,矿工承担合同规定的义务,协议(或者用户)对矿工履约情况进行检查(挑战),并对违约行为进行惩罚。基于合同的去中心化存储协议都面临前面分析过的基本难题。科技发展的常态是,当大部分人试图用“想当然的办法”解决复杂问题时,总有人能另辟蹊径,用其他人未曾预料到的、通常是简单得多的办法解决难题。果不其然,在对去中心化存储领域旁观三年之后,偶然的机缘让我了解到阿维——去中心化存储破局者。
只有明白Filecoin的艰难,才能理解阿维的巧妙。阿维是一套完整的去中心化存储协议,不基于IPFS,或者说它相当于Filecoin + IPFS。阿维如何解决矿工证明的问题呢?答案是无需证明。阿维协议通过机制设计鼓励矿工尽量多存数据,而且优先存储副本少的稀缺数据。至于每个矿工存了多少,存了哪些,那是矿工自己的事情,既不需要证明,也不需要检查。就好比学校希望同学们认真学习,可以采用两种方法。一种是老师天天盯着每个人,是否专心听讲、认真完成作业,发现不认真的就批评罚站。另一种方法是通过考试,不管平时怎么学习,最后凭考试成绩说话,考得好有奖。两种办法都能提升学习效果,但是显然后一种要简单得多。
基于合同的去中心化存储类似于“盯人”,阿维协议则像“考试”,这种方式被称为基于激励的去中心化存储。可以这样来直观地理解其优势:Filecoin要管理成千上万个不同的存储合同,检查每个合同的执行情况,分别提供奖励或执行惩罚。阿维协议只处理一个合同——所有数据永久保存。因此协议非常简洁,运行成本低,服务的价格和可靠性都优于基于合同的系统。
阿维的PoA访问证明是PoW的简单扩展。每一轮PoW谜题都跟某个过去的区块(回忆块)有关,只有存储了回忆块的矿工才有资格参与PoW竞猜。由于回忆块是随机确定的,事先无法预测,因此矿工存储的区块越多,参与PoW竞猜的机会越大,获得出块奖励的可能性越高。如果矿工的存储空间有限,不能保存全部区块历史,他会优先保存在网络中副本数量较少的区块。因为每个块被选为回忆块的概率相等,当一个稀缺区块被选为回忆块,就只有少数矿工有资格参与PoW竞赛,因此存储稀缺区块对矿工更有利。
有同学可能会问,如果恰好所有节点都没有存储某个区块,那这个区块不就永久丢失了吗?是这样的,这个可能性存在。我们可以量化计算单一区块永久丢失的风险。首先需要引入复制率的概念,复制率是矿工平均存储的区块历史的比例。例如网络一共出了100个块,平均每个矿工存储了60个块,那么复制率就是60%。复制率也是任选一个矿工,他拥有随机挑选的某个区块的概率。反过来,随机挑选某个区块和某个矿工,矿工没有这个区块的概率是1-复制率。当网络中有N个矿工节点时,所有矿工都没有某个区块的概率是(1-复制率)^N。存在一个丢失区块的概率是(1-复制率)^N * 区块总数。假设阿维网络有200个矿工节点,复制率为50%,区块总量为200000,那么存在一个丢失区块的概率是6.223*10^-61,是一个可以忽略不计的极小概率事件。当前阿维网络的矿工节点约为330个,复制率是97%,已出区块51万多个8,存在区块丢失的概率比前面的计算结果还要低得多,在数量级上与发生私钥碰撞的概率相当。而且上述计算的假设是矿工随机存储区块历史,考虑到矿工会优先存储稀缺区块,丢失区块的可能性就更低。
阿维协议只有一个市场,用户也只需要支付存储费,后续访问数据是免费的。能够做到这一点是因为阿维协议采用类似于BT的机制设计,网络中所有节点都是平等的(不区分矿工节点和用户节点),所有节点都尽量快速地响应其他节点的请求。跟BT一样,上行贡献越多,下行速度越快。自私节点会被其他节点降权,逐渐被网络排斥在外。要全面理解阿维协议的设计,最好的方法是阅读黄皮书。虽然黄皮书篇幅较长,也有不少公式,但是不必担心,有中学数学基础就能看懂。
与Filecoin相比,阿维网络有两大优势。一是成本低。虽然Filecoin主网还没有上线,我提前做个预测:在Filecoin主网上线一年后(经济模型进入稳定状态),1MB文件在阿维网络做几百个副本永久存储的价格,会低于在Filecoin/IPFS网络上5个副本存储5年的价格,而且阿维网络的数据访问是永久免费的。第二,阿维协议的激励机制使数据存储和访问都更加可靠。通过简洁巧妙地解决了去中心存储的最大难题,不需要2亿美元的募资和长达三年的开发,阿维主网已经上线两年多,它不是Filecoin/IPFS的陪跑者,而是最有希望让大规模去中心化数据存储成为现实的加密协议。
阿维与以太坊
阿维很少被拿来跟以太坊比较,毕竟在Web3.0协议栈中,它们处在不同的层级,看上去是互补关系。但是深入研究阿维协议,就会发现更多的可能性。以太坊(以及其他智能合约公链)为支撑去中心化应用DApp而生。DApp是公平透明地执行,不能被个别或者少数人控制的互联网应用。从软件架构角度,网络应用(包括互联网应用和DApp)可以分为表现、业务逻辑和持久化(数据)三层。我们不妨分别从这三层分析DApp的发展瓶颈,以及阿维协议的应用潜力。
迄今为止,DApp的表现层仍然停留在和中心化Web应用相同的状态,即由开发者部署在云服务器,再下载到用户客户端执行。因此开发者和云服务提供商仍然具有停止和审查DApp的权利,网络中断、服务器宕机、DNS劫持等故障和攻击也仍然威胁着DApp的可用性和安全。此外,DApp的IT基础设施成本会随用户数量的增长而提高,令开发者必须采用某种货币化手段,以维持DApp的运行。货币化手段要么是Web2.0式的,即贩卖流量;要么带有加密协议的特色,即发行通证。一旦货币化失败,开发者可能放弃运行DApp,用户只能转而寻找替代品。而即便侥幸存在替代品,还是面临同样的问题。可以维持运行的DApp也常会遇到“强制升级”的问题,即新版本不一定不比老版本更受用户欢迎,但用户不能阻止其升级,也不能继续使用老版本。综上所述,去中心化应用的表现层仍然是中心化的,仍然能够被个别或者少数人控制。
阿维协议的应用层被称为永在网(permaweb),其主要(不是唯一)的应用程序架构是无服务器(Serverless)式的。无服务器DApp的开发类似于传统Web的前端开发,开发者使用HTML、 Javascript和CSS开发DApp的表现层。不同之处是,表现层的部署不是上传到云服务器,而是打包存储在阿维网络,保存的费用很低,而且是一次付费永久服务。用户仍然使用原有方式访问DApp,阿维DNS和TLS与普通浏览器兼容,不需要用户安装和学习使用新客户端。无论DApp用户如何增长,都不会再给开发者带来开销。由于阿维是去中心化网络,无论是开发者还是阿维矿工,都不能阻止或者审查用户使用DApp。开发者可以开发DApp的新版本,但是新版本不能覆盖旧版本,使用哪个版本的选择权在用户手中。可见阿维实现了DApp表现层的去中心化,因此有越来越多的DApp把表现层移植到阿维,包括:Synthetix Exchange、Tokenlon、KyberSwap、UniSwap、Oasis App、 Curve.fi 等等。
需要说明的是,使用去中心化存储实现DApp表现层的去中心化,这一概念并不是阿维协议的创造。早在2014年,Gave Wood博士在描述Web3.0网络形态的论文11就中把“静态内容出版”列为Web3.0的四个基础组件之一。这一思考的实践结果是Swarm项目。Swarm和IPFS都曾被寄予厚望,以解决DApp表现层的去中心化问题。但是由于多种原因,这一愿望至今尚未实现。直到阿维协议出现,DApp表现层的去中心化才有了切实可行的方案。
以太坊等智能合约公链实现了DApp业务逻辑层和数据层的去中心化,但是众所周知存在扩展性瓶颈。扩展性和价格是一体两面的问题,扩展性限制源自计算和存储资源稀缺,在去中心化网络中,竞争使用稀缺资源的结果就是价格高企。由于价格更加容易量化,本文选择从价格角度进行分析。
先看数据层。以太坊存储256位整型数据要消耗20,000 gas13,存储1MB数据需要6.25亿gas。按gas价格20gwei(本文写作时恰逢DeFi热潮,gas价格常高达100gwei以上),ETH单价400美元计算,在以太坊链上存储1MB数据的花费高达5000美元,显然是难以负担的高价。有数据存储需求的DApp大都采用混合存储方案,即加密资产等高值数据和附件的哈希存储在链上,详细数据、多媒体数据等存储在链下。如果采用中心化的链下数据存储,例如关系型数据库或者NoSQL数据库,则DApp仍然是部分中心化的,仍然会被个别或少数人(云服务厂商和开发者)控制。因此很多DApp更倾向于选择去中心化存储,如IPFS等。
在这个环节上,阿维提供完全去中心化的、低成本、高可靠性的永久数据存储,从而成为以太坊的得力助手。不必牺牲去中心化,目前阿维存储1MB数据仅需0.1美分。你没有看错,是以太坊的五百万分之一。 按当前价格计算,在阿里云存储1MB数据100年的开支是2.6美分。而且仅支持同城冗余复制,数据同步和数据访问的网络开销另行计费。而阿维网络是全球五大洲数百个节点冗余复制,数据同步和访问全免费。你还是没有看错,去中心化的阿维网络已经比中心化云存储的价格更低。无怪乎有Solana14、SKALE15、Prometeus16等layer1/layer2/DApp协议选择阿维作为数据存储层。还有InfiNFT、Mintbase.io和Machi X等NFT项目使用阿维存储NFT媒体资源、元数据和代码。
智能合约是DApp的业务逻辑层。与数据层类似,智能合约的瓶颈是扩展性/计算成本问题。根据Vitalik的估计,以太坊的计算和存储成本是亚马逊云服务的大约100万倍18,前文对DApp数据层成本的估算也能印证此估计。公链计算和存储成本高昂的根本原因是其全冗余架构,即所有的链上数据都被每一个全节点存储,所有的计算都在每一个全节点执行。实现公链扩容的思路有代议制、分层和分片三种,更深入的讨论请参见拙作《Polkadot架构解析》。
阿维的Smartweave智能合约则完全另辟蹊径。Smartweave智能合约是Javascript开发的程序,存储在阿维网络上,因此具有不变性。与合约代码同时提交给网络保存的,还有合约的创世状态。与以太坊(以及其他公链)的智能合约不同,Smartweave不是由矿工节点执行,而是下载到合约调用者的计算机执行。执行的过程是从合约的创世状态开始,按确定的顺序执行合约历史上的全部交易,最后执行合约调用者的交易。完成后,合约调用者将自己交易的输入和执行后的合约状态提交到阿维网络,进入永久存储。后续的合约调用重复以上过程。
也就是说对于一笔智能合约交易,阿维网络只需一个节点——调用者自己的节点,来执行(注意阿维网络不区分全节点和轻客户端)。由于调用者节点执行(同时验证了)了合约历史上的全部交易,因此他无需信任或依赖任何节点,就能得到可信的计算结果(即智能合约的新状态)。因此可以把每个Smartweave合约都看成阿维的二层链,执行智能合约就是对二层链的全量同步和验证。这一设计使得DApp业务逻辑层的可扩展性/计算成本难题迎刃而解。智能合约几乎可以不受限制地包含任何复杂计算,只需付出很低的边际成本,因为通常情况下调用者的计算设备已经被购买或者长期租用了。
有同学可能会问:随着交易数量增长,智能合约执行岂不是越来越慢?确实如此,但是有办法可想。例如由调用者对合约的结果状态进行命名,从而形成合约状态快照。如果该调用者值得信任(例如调用者是智能合约开发者的情况),后续的调用者可以指定状态快照作为初始状态,就只需执行快照之后的交易。状态快照不一定导致信任集合扩大,毕竟智能合约可靠的前提已经包含了对初始状态的信任。
当然,Smartweave仍然处于开发之中,当前版本是V0.3。以上内容应该视为对Smartweave潜力的探讨。要达到商业使用,Smartweave还需要解决很多问题,例如可组合性。从我对Smartweave运行机制的理解,实现可组合性没有特别的技术障碍。但是,我一直认为以太坊智能合约的可组合性“太过强大”,以至于很难限制合约系统复杂度的指数式增长。期待Smartweave团队有更令人惊喜的创新,用好可组合性这柄双刃剑。
综上所述,阿维协议支持DApp真正实现全面的去中心化,并且解决困扰公链领域多年的计算和存储的可扩展性/成本问题。从这个意义上说,阿维更应该归为Blockstack20所倡导的Web3.0全栈协议,而不仅仅是去中心化存储。
阿维与比特币
比特币是加密协议的开创者,也是加密货币之王。一直以来,业内都有一个争论不休的话题:比特币的王者地位是否可能被取代?即便是比特币保皇派,也承认经过10年发展,比特币早已不是技术最先进的加密货币。但是他们认为:超主权价值存储型货币是加密货币最大的用例。比特币协议运行时间最长、知名度最高、安全性最好。而且加密货币的竞争壁垒不是技术,是流动性。流动性有网络效应,即产品或服务的效用随着用户增长而增加的机制。比特币协议已经建立起流动性优势,这一优势只会随着加密货币普及持续加大。因此比特币的王者地位无可撼动。
流动性网络效应优势是否可能被打破?回答这个问题需要对网络效应进行定量研究。相信很多人会马上想到梅特卡夫定律,即网络的价值与用户数量的平方成正比。梅特卡夫定律是第一个网络效应的定量模型,但是近些年的研究表明,没有一种网络的价值按梅特卡夫定律增长,至少到用户数量较大时,网络价值增长曲线必然变得平坦。