编者注:这篇文章的原标题为“PhaseOneandDone:eth2asadataavailabilityengine”,在发表当时,作者意在为Eth2.0提出一种替代Phase2的路线图,也就是,如果仅用分片来保证数据可得性,这样的系统是否有用,还需要增加哪些部分来使之变得有用。令人惊讶的是,在一年半以前,作者就已经认识到,对zk-rollup这样的系统来说,底层必须保障的是“状态转换的执行和数据可得性必须是原子化地绑定在一起的”,因此底层必须具备执行能力,哪怕是非常简单的无状态执行;而且,为保证用户体验,还缺少的主要部分是数据怎么上分片的手续费支付协议。手续费协议在Phase2的规范中,目前也仍然是缺失的。
顺带说一句,本文作者是CaseyDetrio,他是Ewasm团队的一员,之前也为Phase2提供过很多想法;他也认为,应该以“保证Eth1的合约到了Eth2能够如常执行”为核心来设计Eth2.0。他是被低估的一个开发者。
目前,限制Eth1吞吐量的瓶颈是状态增长。因此,如果我们想要扩展以太坊,从逻辑上来说,1000个具有独立状态的分片能够将吞吐量提高1000倍。
Bitfinex Alpha:尽管SEC起诉币安和Coinbase,比特币价格仍保持稳定:6月20日消息,根据Bitfinex Alpha最新报告,随着更多关键指标陆续出炉,美国继续面临喜忧参半的经济格局。以PPI衡量的批发价格在5月份经历了比预期更大的下降,预示着通胀可能放缓。这一趋势表明,供应链瓶颈正在缓解,由于借贷成本上升,商品需求正在放缓。这证明了美联储上周暂时维持利率不变的决定是正确的。
此外,尽管美国SEC对币安和Coinbase提起诉讼,但加密市场仍然非常稳定。事实上,链上的动向显示出投资者行为中一个有趣的差异:一方面,规模低于1000万美元的交易出现了大量提现;另一方面,高于这个阈值的交易普遍是存款。资金外流表明,尽管存在针对监管审查的抱怨,但比特币的长期持有者似乎并未受到影响,他们对这种资产的长期价值保持信心。[2023/6/20 21:49:27]
但是,从Eth1.x的路线来看,Eth1.x想要对两类资源的成本进行重大调整:存储和交易数据。目前,存储的定价过低,而交易数据的定价过高。这会激励dApp开发者在编写合约时更多使用存储而非交易数据,从而导致存储成为吞吐量的瓶颈。针对这一问题提出的解决方案是增加存储的定价,并减少交易数据的定价。经过这些成本调整,开发者将受到激励更多地使用交易数据,而非存储。因此,在不久的将来,我们预期Eth1的吞吐量会受到交易数据的限制,而非存储的限制。
波普艺术家杰夫·昆斯推出Moon Phases雕塑同名NFT系列:金色财经报道,波普艺术家杰夫·昆斯(Jeff Koons)宣布推出Moon Phases(月相)雕塑同名NFT系列。(福布斯)[2022/3/30 14:25:44]
如果我们假设吞吐量受到交易数据的限制,那么为了扩展以太坊,Serenity上的分片不需要有状态。如果吞吐量受到来自无状态合约的交易数据的限制,那么1000个无状态分片就会将吞吐量提高1000倍。
这听起来不错,但是需要通过分片来实现,按计划要等到Phase2。与此同时,我们可以将Phase1作为数据可得性引擎。数据可得性引擎一词似乎逐渐流行起来。我们来思考一下它是如何运作的。
以zk-rollup为例,zk-rollup受到数据可得性的限制。Eth1上的zk-rollup合约能否有效地将Eth2作为桥接式可用性保障提供方?如果在执行过程中无法同时保障数据可得性,你就会得到一个类似plasma的zk-rollback系统。这个系统虽然能够大幅提高TPS,但是会引入复杂的权衡关系,需要处理像plasma那样的运营者挑战和退出机制。在可用性挑战中,任何人都可以提供数据来证明可用性,因此目前还不清楚将数据放入桥接的Eth2分片中能不能让事情变得更简单。
Alpha Homora用户因MEV机器人损失40ETH,项目方将全额赔偿并修复问题:10月23日消息,跨链 DeFi 协议 Alpha Finance Labs 表示历史上共有 20 个地址在使用杠杆挖矿协议 Alpha Homora V2 的时候,因为交易被 MEV 机器人发现而损失总共 40.93 ETH。Alpha Finance 表示将以 ALPHA 代币的形式全额赔偿这些损失。对于该问题,Alpha Finance 认为是 Uniswap V2 的智能合约有隐含假设(implicit assumptions),这些假设未在合约层面上明确说明,所以他们认为这会导致滑点未被检查。Alpha Finance 表示会修复该问题,在交易时进行检查,所以这些情况将不再发生,安全审计机构 OpenZeppelin 和 Peckshield 也已经确认了该修复方案。[2021/10/23 6:09:30]
现在有了另一个版本的zk-rollup,即,500TPS的zk-rollup,一切都变得简单多了。不再需要指定的运营者,任何人随时都能充当中继者,并生成SNARK证明来更新状态。事实上,数据可得性保障始终伴随着状态更新,也就是说不需要处理像plasma那样的运营者挑战和退出机制。但是这需要执行和数据可得性保障都发生在同一笔交易中,而遗憾的是我们无法使用桥接式可用性引擎做到这点。换言之,桥接对于zk-rollback这样的欺诈证明系统来说足够了,但是对zk-rollup这样的有效性证明系统来说还不够。结论是,为了将Layer2上的有效性证明简单化,Layer1上的可用性引擎需要具备的一项重要功能是,能保证数据可得性与状态转换的执行是原子化地一起发生的。
Acala和Phala联合发布首个隐私跨链用例:12月23日消息,继Parity官方博客发布了跨链测试网Rococo V1后,波卡DeFi项目Acala和波卡隐私项目项目Phala联合发布了首个隐私跨链用例。据Phala博客称,这个跨链用例是两个项目基于Rococo联手开发的。在视频和demo链接中,用户可以从Acala将DeFi资产通过XCM转账到Phala的隐私钱包中,用户也可以从Phala网络将资产在隐私环境中迁移到Acala,这意味着虽然Polkadot卡槽竞拍还未开始,就已经出现了真正实用的跨链案例。[2020/12/23 16:12:47]
或许我们不应该对这一认识感到惊讶。如果单靠数据可得性就有用的话,就不会有人说Phase1启动只是为了确保一堆非零blob的可用性,也就不会有人抱怨必须要等Eth2进入下一阶段才能真正发挥作用了。我们正在努力将Phase1作为数据可得性引擎,但是它依然无法执行任何操作,因此令人感到失望。
那么,为什么Phase1会与执行相冲突?好吧,假设是有状态执行,则每个分片都要维护一些本地状态。如果验证者需要维护很多本地状态,那么验证者混洗就会复杂得多。反之,如果没有执行,就不用担心本地状态。验证者混洗就会简单得多,我们就可以专注于使用数据blob构建分片,然后更快地启动分片。
数字货币基金CoAlpha完成数百万美元融资:据腾讯众创空间消息,数字货币基金“CoAlpha”获得了数百万美元基石投资。Coalpha率先提出了“数字资产基金2.0”的概念,旨在为“数字资产基金”行业提出解决方案,通过区块链技术使追溯基金数据、达到数据信息不可篡改、收益可及时合理分配的效果。Coalpha本轮融资的投资方为“分布式资本”。在此之前,CoAlpha就已经获得了迅雷创始人邹胜龙的投资。[2018/4/2]
但是,我们先不假设执行是有状态的。如果我们尝试使用非常简单的无状态虚拟机来执行操作会怎么样?
假设信标链状态中有3个新的验证者字段:code、stateRoot和deployedShardId。这里还有一个函数process_deploy。一旦代码部署完成,验证者必须保证账户余额不低于某个阈值。
现在,我们假设全局状态中已经有了一些带有代码的账户。
接下来,我们尝试将特定数据blob打包到分片上,但是该怎么做?据我所知,对于phase1的分片验证者来说,如何决定将哪些数据blob打包到分片区块中仍是个悬而未决的问题。假设phase1规范中没有详细说明这一点。那么,对于用户来说,如果他们想要将自己的数据blob打包到分片上,就只能通过两种方式:联系验证者,并通过协议外的方式向其付款;自己成为验证者,就可以将数据blob打包到分片上。这两种方式都是下策。
比较好的方法是,将事情摆到台面上,允许验证者通过一个交易协议向当前区块提议者支付费用。作为交换,区块提议者要将验证者的数据blob打包到分片链上。但是,如果信标链区块操作有最小容量要求,这种方法就行不通了。如果没有一个能够让验证者决定数据blob打包优先级的交易协议,那么“将phase1作为数据可得性引擎”的用例将无法实现。不管怎么说,我们先假设,不管分片提议者在“没有执行的数据可得性引擎”模式中如何打包数据blob,都可以在“简单无状态执行的数据可得性引擎”中都同样能做到。
好了,那么假设特定的数据blob可以打包进区块了。每个区块都将执行限制在一笔交易中。我们还未明确交易要用密钥签署,还是不需要签署。假设是后者,且代码实现了自己的签名检查。如果blob能够作为交易成功解码,则以数据和当前状态根作为输入执行目标账户代码。如果执行成功,则返回数据为新的状态根。
我们如何更新验证者账户的stateRoot?我们无法在每个分片区块的BeaconState中更新状态根。但是,信标链的状态中的分片字段,会随着交联而更新。取同一个分片上所有账户的已更新状态根,假设对它们进行哈希运算,得到shard_state_root。shard_state_root似乎与phase1设计中已有的crosslink_data_root差不多。
不可否认的是,不是每挖出一个信标链区块,所有分片状态根都会更新,因此存在一些本地状态。但是,如果账户是全局的,状态根数据就是最小化的。这就与混洗期间验证者之间需要转移部分分片区块的数据差不多。
这里当然忽略了很多细节。我想要表达的是,无状态执行的大部分要求似乎在phase1就能满足。我认为,最大的问题在于,目前尚未明确用户可以通过哪种方式将他们的blob打包上链。或许这只是第一个问题,还有其它严重的问题被我忽略了。我忽略了什么?如果要在phase1上允许用户通过某种方式将blob打包上链,那么最困难的部分是什么?
这个执行模式相比phase2的提议更加简单,一大原因是合约账户是全局的,就像验证者账户一样。这就意味着,合约账户的数量必须设有上限,而且部署代码的成本与成为验证者的成本一样高。但是,如果这能够让我们更快地将执行引入Eth2,我们是否可以接受这种权衡?代码部署后,就无法更改合约存储,因此也可以说,我们这是在尝试不扩展合约存储而为Phase1提供执行功能。这里还有一大重要用例:具备数据可得性的超高吞吐量。
即使有了基础的无状态执行,用户也可以通过将一个合约的状态证明作为交易数据发送到另一个合约,从而实现跨分片合约调用。合约也可以实现自己的类似收据的功能。开发者体验不是很好,因为协议不会提供任何帮助。但是现有的phase2提议似乎缺乏实际的功能来促进跨分片合约交互。因此,就开发者体验而言,基础的phase1无状态执行听起来没有比“简单的”phase2构想糟糕很多。基础的无状态执行也足以实现信标链上的BETH和主链上的ETH之间的双向锚定。
Phase2提议与我们这里的提议的最大区别在于,Phase2的目标是扩展合约的storage。但是存储,以及相应而来的富状态执行,同样似乎就是大多数复杂性的来源,也正是使我们无望在Phase1引入执行的原因。
原文链接:
https://ethresear.ch/t/phase-one-and-done-eth2-as-a-data-availability-engine/5269
作者:?CaseyDetrio
翻译&校对:?闵敏?&阿剑
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。