本实验用到的原始数据和脚本:https://github.com/mandrigin/ethereum-mainnet-resolver-witness-stats引言有一种办法也许能加速初始同步过程(initial sync process,指从创世块开始的区块链同步),就是使用区块见证数据(witness)预先建构出缓存树(cache trie),来避免速度较慢的状态访问。这样做需要额外占用硬盘空间和网络带宽,但也许可以大幅加速同步过程。
其中的原理是,一般来说,要执行一个区块,我们就需要默克尔树上的一些数据。虽然在某个块执行以前,默克尔树上已经有一些数据了,但这些数据可能不足以执行区块。所以,正常来说,我们还要从状态数据库(state db)中提取出数据并加到默克尔树上,然后才能验证交易。这个过程可能会很慢,因为 硬盘访问/数据库查询 的速度比较慢。
根据这个问题描述,我们可以划分出三种不同的方案:
1)正常流程(也就是当前在以太坊节点中使用的方案)
以太坊合并将于7月6日在Sepolia测试网上执行:金色财经报道,据Galaxy Digital分析师Christine Kim的推特帖子,最近预期以太坊合并的“影子分叉”并不像预期的那么成功。根据路线图,以太坊开发人员发现了一些可能影响合并成功的问题。然而,尽管存在所有这些问题,开发人员仍然乐观地认为,合并将在7月6日之前在Sepolia测试网上发生。[2022/6/26 1:31:49]
在区块 B 执行以前,我们有状态树 T1;
在需要执行 B 的时候,我们把 T1 中遗漏的数据添加到 T1 上,形成 T1',T1'',等等。每次遇到 T1 上没有的信息,我们就在数据库中查找(速度慢)。
执行完 B 之后,我们有了状态树 T2,T2 具备执行 B 所需的所有账户状态。
保持 T2,以备后续使用。
2)无状态流程
在区块 B 执行以前,我们并没有状态树;不过,我们可以拿到一个见证数据 W,来重组执行这个区块所需的状态树。
我们执行 W,获得了状态树 T2。
以太坊近24小时销毁7066.93枚ETH:2月7日消息,链上数据显示,近24小时内,以太坊产出13,892.11枚ETH,销毁7066.93枚ETH;平均每分钟销毁4.91枚ETH,24小时销毁率50.87%。
24小时内ETH销毁榜排名前三分别为:Random(117.99 ETH)、WGMI Studios(72.33 ETH)、HAPE:EXODUS(63.42 ETH)。[2022/2/7 9:35:00]
在 T2 上执行区块 B,不需要查找数据库。
区块执行完之后就把 T2 丢掉。
3)准无状态流程(semi-stateless folw)(即本实验要测试的方案)
在区块 B 执行之前,我们有状态树 T1,见证数据 W1、W2、……,足以将 T1 转成 T2
依次在 T1 上执行 W1、W2、……,最后获得 T2,也不需要查询数据库。
在 T2 上执行区块 B,也不需要查询数据库。
留着 T2 以备后续使用。
在初始同步中使用准无状态流程可以获得无状态流程的大部分好处 ?,又不需要传输那么多数据,因为我们重用了状态树缓存。
LINK为过去24小时内以太坊鲸鱼中交易量最大的代币:金色财经报道,据 WhaleStats 数据,Chainlink (LINK) 成为 1,000 个最大的以太坊钱包中交易量最大的加密货币。该代币的总量约为 200 万美元。在过去24小时内,根据持有量排行榜,Chainlink 发现自己仍然排在第六位,在网络上最大的钱包中持有 3.8 亿美元。(u.today)[2021/11/22 7:04:31]
? 在准无状态方案中,区块的并行执行会受到更大的限制
那么,为了测试准无状态方案的性能,我们需要测量两件事:
这一方法需要额外占用多少 硬盘/带宽?与完全富状态的方法相比,它真的更好吗?
其初始同步速度会快多少?
本文中我们会集中测试硬盘需求。
状态树(默克尔树)的最大规模:100 万个 node。一旦节点数超过这个值,我们就驱逐 LRU 节点,以释放内存。用这种办法,我们就能控制状态树对内存的使用。
部分见证数据会存储在数据库中(我们用的是 boltdb)。每个条目的结构如下:
以太坊Layer2扩容方案Hermez发布产品发展路线图:5月25日消息,以太坊Layer2扩容方案Hermez发布产品发展路线图,并分为五个与特定功能目标相关的阶段。第一阶段,2021年第二季度及之前将支持Hermez多协调器网络和全面支持原子交易。第二阶段,在2021年第四季度及之前开启促销空投和用户奖励、实现Hermez钱包中的代币兑换、引入新的交易类型和格式。
第三阶段,2021年第四季度及之前完成第三方钱包集成、原生应用和移动SDK、大规模迁移增强。第四阶段,2022年及之前完成去中心化模型中的付款的即时确定性、Iden3身份原生集成、增强用户入门、支持NFT资产。第五阶段,2022年及之前完成私人交易支持以及支持可组合性,使其尽可能接近当前的以太坊EVM。[2021/5/25 22:43:35]
key: byte // 区块号 + 状态树上节点的最大数量value: []byte // 见证数据,按文档中的描述予以序列化我们不会在见证数据里存储合约代码(这是我们当前架构的不足)。
数据按下述方法得到(需要一个同步好的 turbo-geth 节点)
以太坊未确认交易为155,224笔:金色财经消息,据OKLink数据显示,以太坊未确认交易155,224笔,当前全网算力为279.80TH/s,全网难度为3.71P,当前持币地址为52,302,549个,同比增加124,072个,24h链上交易量为2,237,160.17ETH,当前平均出块时间为13s。[2021/1/2 16:14:27]
(in the turbo-geth repository)make state./build/bin/state stateless \ — chaindata ~/nvme1/mainnet/mainnet/geth/chaindata \ — statefile semi_stateless.statefile \ — snapshotInterval 1000000 \ — snapshotFrom 10000000 \ — statsfile new_witness.stats.compressed.2.csv \ — witnessDbFile semi_stateless_witnesses.db \ — statelessResolver \ — triesize 1000000 \实验结果存储从创世块开始同步 6, 169, 246 (619 万)区块,见证数据的数据库(bolt db)达到了 99GB。
python quantile-analysis.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv
平均值 0.038 MB中值 0.028 MB90 分位值 0.085 MB95 分位值 0.102 MB99 分位值 0.146 MB最大值 2.350 MB数据大小python absolute_values_plot.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv从创世块到 610 万区块高度的阶段的见证数据大小,图表在 1MB 处截顶了。按 1024 个块取滑动平均值。
absolute_values_plot.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv 3000000解决上海 DDoS 攻击之后的见证数据大小,按 1024 个区块取滑动平均值。
python ddos_zoom.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv放大看 DDoS 攻击对见证数据大小的影响(原始数据)。
可以看到,在 230 万高度到 250 万高度,以及 265 万高度到 275 万高度期间,见证数据的大小显著增大。
python full_vs_semi.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv
完全无状态下的见证数据大小是根据准无状态下的见证数据加上缺失的合约代码部分调整得来的.
从这张图可以看出,使用准无状态方法,可以节约大量数据(与完全无状态方法相比)。
加上一个无状态解析器会让每个区块需要 传输/存储 的数据量增加 0.4 MB。这个值与按区块提供见证数据相比,节约太多,即使算上我们改变状态树模式能够得到的增益相比,也节约非常多(关于十六进制树和二进制树模式下见证数据大小的区块,可见我的上一篇文章)(译者注:中译本见文末超链接)。
如果这个性能还算可以,那么它显然是加速初始同步的好办法;而且它的数据需求比完全无状态方法更小。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。