本篇我们探讨一下区块链世界里的数据供应,以及以数据为核心产品的服务商如何形成一定的市场规模,即他们如何产生价值和捕获价值的。
区块链本质上是一个分布式数据库,虽然有着公开、透明、可追溯等特点,但是直接访问或者获取这写数据并不便利,需要特定的接口、进行格式化、以及转变保存类型。大部分区块链使用的是键-值类型的数据库,方便多写少读,而普通用户比较习惯的是关系型数据库。关系型数据库可以用像SQL那样的查询语句来进行查询,像DuneAnalytics这样的服务商就是把链上数据变成关系数据库,方便调取,这中间的流程还包含了数据的存储和再加工的过程。
一般有两类有价值的数据:
链上数据:链相关数据、转账、普通交易、智能合约事件等,这类数据被分布式数据库所维护,可靠性由共识保证。即区块链的核心数据。
非链上数据:与链上相关,准确性依靠中心化或去中心化的节点验证的数据,如交易所、预言机等,类似于Web2.0服务。交易所数据介于链上链下之间,是链上数据的链下计算,然后经链上验证,也产生了很大的数据量。
我们认为数据市场需求爆发的驱动来自于:
多链宇宙的成型
应用的增加和用户的增加
应用带来的数据需求的增加
用户行为复杂化
数据市场参与者
交易者
交易者根据各类数据信息判断可交易的方向,比如观察某条链的活跃程度,某个DEX的成交情况、某个借贷协议的借出贷款等。他们会需要有可靠的数据源,一些高级用户会使用付费的数据服务。
数据的提供者
被动的产出方:如区块链的节点,交易所,普通用户主动地产出方:API提供者,数据搜索引擎,定制化数据包。他们往往是原始数据的加工者。
开发者
开发者查询、调用链上数据,与区块链交互。由于节点服务商的存在,开发者不需要搭建自己的节点,就可以直接和链上进行交互。众多dApp以及第三方钱包应用都依赖于Infura这样的节点服务商,与区块链进行交互。开发者的需求来自于:网络状态监控、交易执行状况监控、稳定的执行环境、市场和竞品趋势信息、产品和市场策略指定、根据客户偏好提升产品性能等。
需要不停监听网络状态的应用和中间
比如借贷协议需要监控账户状态,一些自动化中间件要及时反馈价格变化等。
区块链数据结构、存储、和访问-以Ethereum为例
键值数据库
区块链本质上是个数据库,和比较为大众熟悉关系型数据库不同,以太坊使用的键值类型数据库,其底层基于Google的LevelDB,适用于写多读少的场景。关系型数据库历经多年发展,被程序员所接受,也非常利于普通人理解。关系型数据库的结构是一系列的表。
通州区政府工作报告:试点和深入实施元宇宙创新发展三年行动计划:金色财经报道,2023年北京市通州区政府工作报告提出,继续保持千亿以上投资规模,不断优化投资结构,推动投资向高精尖产业、民生等领域倾斜,有效带动社会投资。具体到产业方面,北京通州区将重点打造“四区三镇三园”十大重点产业功能区。2023年将进一步丰富金融业态,建设“基金财富港”,加快打造全球财富管理中心、全球绿色金融和可持续金融中心。另外,推动金融业数字化创新与试点和深入实施元宇宙创新发展三年行动计划。[2023/6/25 21:58:10]
键值数据库是新发展出来的非关系型数据库,结构相对简单:键作为唯一的标识符,值存储数据,值可以是任何东西,不需要遵循表的结构,灵活多变且扩展性强。键值和关系数据库相比扩展性好,可以提供大数据量的读写,常被用于缓存。大部分分布式数据库采用键值数据库,依靠LMS-tree的结构进行有效的数据写入和查询。少部分选用关系型数据库,如Ripple。
区块链的数据根据状态和交易的抽象结构如下:
来源:HyperLedger
以太坊的区块数据包括区块头和区块体,区块头包含许多字段。从结构来看,以太坊的主干就是三棵树:状态树、交易树和收据树。
以太坊的主要字段是StateRoot(状态树),包含了账户余额、声明、随机数等,状态树采用的是Merkel-Patrica结构,需要不断的更新。而交易树和收据树不需要更新,所以采用了Merkel的数据结构:交易数据是永久数据,永久数据已经记录不会被改变。状态树储存每个以太坊账户的地址余额,一经发生交易就会修改。以太坊的数据结构总结起来就是这一张图:
来源:LucasSaldanha
永久储存与临时储存
如前所述,以太坊的底层数据是以K-V形式储存在底层LevelDB里的。但是LevelDB适合于写多读少的场景,所以真正用于读取、查询的数据库是StateDb,它管理着所有账户的集合,账户的呈现形式是stateObjectStateDB。其直接面向业务,是底层数据库和业务模型的之间的存储模块。它采用两级缓存机制,以满足查询、更新、调用等功能。第一级缓存为map形式,存储stateObject,二级缓存以MPT形式存储。当stateObject有变动的时候,实例化的stateObject会更新,当IntermediateRoot()被调用后,他们会被提交到MPT上,当CommitTo()被调用后,他们会被提交到底层levelDB中。这就形成了三级缓存结构。使用多存数据库的好处是,当需要回滚的时候,直接调用stsateDB中MPT树的根节点进行数据还原即可。
来源:网络,HashKeyCapital整理
但是要是将这些数据变成可用的数据,就是将这写数据变成可用的查询字段,比如Blockheader包含的字段,BlockBody包含的字段,智能合约的Log的字段等,交易的Trsaction字段等,不同字段对应着不同类型。
Polygon Studios CEO:Polygon将于2023年深入参与PFP和艺术领域:12月27日消息,Polygon Studios 首席执行官 Ryan Wyatt 表示:2022 年 Polygon 与 OpenSea、Magic Eden、Coinbase、Robinhood 和 Phantom 建立或扩大了合作关系,并参与了游戏、DeFi 和音乐领域。Polygon 将在 2023 年深入参与 PFP 和艺术领域。[2022/12/28 22:11:26]
DuneAnalytics提供的以太坊可查询数据字段
Log是非常重要的数据,因为以太坊的智能合约运行在EVM中,与外界隔离,EVM发生的事件就是通过Log传输到外面并记录在区块链上。实际上,像Etherscan这样的浏览器就是用过Parity客户端回放EVM,拿到智能合约交易的记录。
许多区块链的结构也可以存储非交易数据,但是容量有限。比如比特币的output中的OP_RETURN字段就可以存储不超过40字节的数据。限制的原因在于放大增加这部分会影响区块链的性能。以太坊的区块头也有Extra字段可以用来写入数据,如这样的:
来源:https://etherscan.io/block/12912176
区块链并不合适进行文件的存储,以IPFS作为存储底层和区块链结合的方式是比较认可的,比如数据储存在IPFS中,但是数据的Hash值存在以太坊的状态数据库中。
缓存
除了上链的交易外,以太坊还有一个保存在缓存中的数据,即mempool里面的排队数据。各个节点提交的交易都会被放入mempool交易池中,经过序列化、交易验证、过滤等步骤,最终选择合适的交易被矿工打包。交易池中有Queue和Pending两个map,用来存储未验证交易和已验证交易。Queue和Pending清理结束后,根据不同节点提交的交易,交易池要进行重构,防止出现分叉。
以前交易池的数据没有那么重要,但是随着智能合约的交易占比提升,交易的排序有了更多的经济意义,所以已经有项目开始做类似的工作。
趣味性强的的比如Txstreet
真实提供交易池数据接口的比如Blocknative
提供MEV解决方案的如Flashbot
访问
如何访问以太坊上的数据呢?一般是两种方式:
远程访问以太坊的节点
使用web3或者是JSON-RPC的方式。JSON-RPC是无状态的轻量级跨语言远程调用协议,文本传输的数据是JSON格式,传入和传回都是JSON格式。使用JSON-PRC,客户端发送PRC请求,就可以直接通过以太坊客户端,传回相应数据,比如使用对应字段,eth_gasPrice,eth_blocknumber等。
SBF:尚未对竞标Celsius的可能性进行深入研究:10月12日消息,在 DC 金融科技周上,SBF 表示,我们可能会或可能不会最终参与 Celsius 的破产事件,但我认为我们已经做出了目前会采取的大部分举措,Celsius 仍处于排他期,该公司可能会提出自己的重组计划,一旦失效将面临拍卖。此前有消息称,SBF 对参与 Celsius 竞拍感兴趣。(The Block)[2022/10/12 10:32:01]
来源:《深入理解以太坊》
如果不使用JSON-PRC方式,可以以太坊基金会提供的javascript库,即web3.js。它底层封装了RPC,使用起来和JSON-RPC方法一样,先创建一个web3对象,就可以使用库里提供的方法获取各种数据。比如,显示账户的余额:
varbalance_1=web3.eth.getBalance(web3.eth.accounts);console.log(balance_1.toString());
使用web3.js有一系列好处,在于他们有非常细致的模块:
web3-eth用来与以太坊区块链及合约的交互;
web3-shhWhisper协议相关,进行p2p通信和广播;
web3-bzzswarm协议相关;
web3-utils包含一些对DApp开发者有用的方法。
JavaScript库还可以通过读取ApplicationBinaryInterface(ABI)来直接和复杂的智能合约进行交互。ABI就是json形式的智能合约函数,因为智能合约是以solidity写的,json形式就可以通过JavaScript直接使用了。可以做的事情包括:向合约发送交易、估计使用EVM的gasfee、部署智能合约等等。
除了web3.js库外,还有ether.js库这样的javascript库。
使用web3.js的一个实例就是区块链浏览器:使用web3.js访问以太坊,获得的数据进行加工,通过中心化的接口加入非链上信息,然后循环调用web3.js查询链上数据,不断更新区块。
自己搭建节点,本地访问
自己搭节点就是自己将所有的以太坊全网数据全部下载下来,这需要大量的成本,以及安全技术,大部分用户和开发者都不会选用这样的模式去使用数据,一般会使用第一类方法或者直接从去找到更好的API服务商。
流转过程
以太坊的本质是交易驱动的状态机,一切变化皆由交易开始,变化的记录就是数据,API从头到尾串起了数据的流转。整个区块链数据流转的过程是这样的:
数据服务者类型
节点服务层
中央财经大学郭田勇:应深入研究如何用数字人民币组建更多功能:中央财经大学中国银行业研究中心主任郭田勇表示,在数字化的浪潮下,货币作为一种支付媒介,其本身的数字化是必然趋势。考虑到传统货币印制发行成本高、不易携带等局限,数字货币以其独特的优势,极大降低了交易成本。郭田勇指出,数字货币如果由政府或者中央银行来主导,必须协同好同原有银行体系为主导的支付关系。目前,中国的数字货币属于M0范畴,从金融学角度看,M0并不具有货币创造的能力,在整个货币储存量中占比也很小,因此,数字人民币的范围还非常有限,未来如何用数字人民币组建更多的功能,将其推向更大的领域,值得深入研究。这是一个循序渐进的过程,要把握好节奏。郭田勇称,数字人民币前期推进比较成功,有利于提升人民币国际化程度。随着中国经济实力增强,人民币国际业务更为广泛。面对庞大的国际结算量,数字货币高支付效率的优点更易凸显。(中国新闻网)[2021/7/7 0:32:14]
节点服务商可以说已经变成了以太坊运行的根基,比如最有名的Infura,本身运行以太坊节点并提供IaaS服务,省去了建立以太坊节点的过程,应用可以直接靠Web3访问。API成为管道,需要使用数据的话,对管道进行付费。
底层数据服务和上层数据服务可以紧密合作,底层提供节点,上层提供数据的查询。比如Quicknode和DuneAnalytics的合作就是这样的例子。Dune为数据分析这提供一个可以应用SQL语句查询的数据库,还可以将数据可视化。在Dune出现之前,没有一个统一的数据格式可以将项目之间进行比较。Dune是Quicknode的主要客户,之前是使用自建的Parity节点。经常需要担心节点的内存泄露、磁盘空间不够等,而且成本较高,使用Quicknode后后大大降低了成本,每月成本1000美元降到每月35美元。此外Quicknode还提供类似CDN的服务,这可能是另外一个可以促进dapp应用体验的方向。还可以帮助访问mempool的数据。还可以提供私有节点。Quicknode有一些业内知名的用户,比如Nansen,PayPal,DappRadar,Chainlink。
Alchemy把区块链的底层架构进行梳理,可以提供典型的JSON-RPCAPI,还可以提供增强型的API,将日常请求简单化,简化开发人员的成本等。Alchemy对许多知名项目也进行了支持,比如CryptoKitties,Formatic,Bancor,Celer。
Infura,Alchemy和Quicknode均各自有一些知名用户:
处在这一赛道的还有CryptoAPI,Blockchair,Blockdaemon等。
查询索引服务层
数据服务再往上进一层就是应用类的服务,比如DuneAnalytics。区块链的数据虽然是公开透明的,但是缺乏工具的情况下,数据都是杂乱的,需要编写各类脚本来访问区块,遍历信息等,然后再进行格式化。
声音 | 央行研究局局长:将深入研究完善金融科技监管制度框架等问题:据财联社消息,央行研究局局长王信今日在数字金融开放研究计划首届学术研讨会上表示,央行高度总是金融科技应用的相关研发,下一阶段值得深入研究的课题包括:Libra等加密数字货币有关问题,如是否会形成法定数字货币、少数数字稳定币并存格局;探索数字金融更好地支持实体经济发展,应开发多元化、全方位金融服务;完善金融科技监管制度框架,发展监管科技,如何将科技巨头纳入宏观审慎监管框架;加强数字金融基础设施建设,加强数字金融领域的国际协调合作等。[2019/7/8]
Dune先把区块链上的数据进行解析,然后填充到数据库中,变成一个PostgreSQQL的数据库。用户无需写脚本,只要会使用简单的SQL语句就可以进行查询。Dune起了一层将数据进行解析和格式化的作用,还提供了可视化工具。以太坊是键值数据库,Dune把它变成一个关系型数据库,SQL语句就是关系型数据库的接口。Dune提供的数据表有:
原始交易数据,提供区块链上所有活动的详细记录
项目级数据表,返回预处理后数据,用于解码的项目
抽象表,一种更高级的表,返回相关行业/主题的聚合数据。
目前支持Ethereum和xDai两个链。以太坊的原始数据包括Block,Log,Transaction,Trace等四大类数据,Dune把他们解码成humanreadable的格式。
TheGraph提供了一个数据的搜索引擎,借助于GraphQLAPI,用户可以通过subgraph直接访问获得信息。而且TheGraph是去中心化的,受到很多DeFi项目的支持。其也提供一些列成型的subgraph,供代码能力一般的用户直接使用。
数据查询的流程遵循以下步骤:
Dapp通过智能合约上的交易将数据添加到以太坊。
GraphNode持续扫描以太坊的新块和它们可能包含的子图数据。
GraphNode在这些块中为子图查找以太坊事件,并运行映射处理程序。
去中心化的应用程序使用节点的GraphQL端点向GraphNode查询从区块链索引的数据。GraphNode反过来将GraphQL查询转换为对其底层数据存储的查询,以便获取该数据,并利用存储的索引功能。
Dapp将这些数据显示在终端用户的前端中。用户通过前端进行交易活动。
由于是去中心化的模式,TheGraph设计了GRT代币机制,以鼓励多方参与这个网络,涉及到委托人、索引者、策展人、开发者等四类。简要而言就是用户提出查询需求,索引者运行TheGraph节点,委托人向索引者质押GRT代币,策展人使用GRT来指引哪类子图有查询价值。
快速和节约资源:TheGraph的价值在于,他可以非常快速的用数据回答很具象的问题。他们举了个例子:对于CryptoKitties,可以查询在2018月之间1月到2月诞生的Kitties的所有者是谁的问题,这就需要遍历智能合约的birth事件,以及ownof方法。这样一个问题可能需要几天时间才可以。TheGraph的子图就是解决这些问题的索引。
类似于TheGraph的项目还有Covalent,提供了一个数据查询层,让工程师可以快速的以API的形式调用数据。一个简单的API就可以解决所有Covalent支持的链的数据。Covalent的数据集比较完备,可以多链多项目的一起查询,不需要很强的coding基础。Covalent也有自己的代币CQT,代币持有者可以用来抵押、投票。Covalent有两类endpoints,一类是区块链全体数据类型,如余额、交易、日志类型等;另一类是对某一个协议的endpoint,如查询AAVE的日志。Covalent最有特点的是跨多链查询,不想需要重新建立类似子图的索引,二是通过改变chainID就可以实现,query的可扩展性大大增强了。
SubQuery是专注于波卡生态的数据提供方,可以转换和查询Web3.0生态数据。SubQueary受到TheGraphh启发,也是使用的Facebook开发的graphQL语言。SubQuery面向所有的Polkadot和Substrate,并且提供一个开源SDK。相对于TheGraph,作为开放市场的SubQuery中的角色有三个:消费者、索引这和委托人。消费者发布任务,索引这提供数据,委托将空闲的SQT代币委托给索引者,激励他们更多的诚实参与工作。代币经济学和TheGraph类似。
如前所述Blocknative专注于实时交易数据的检索功能,提供了mempool的数据浏览器。最大的特点是突出了实时性,可以追踪交易相关的相应字段的结果,比如地址的追踪,内部交易的追踪,未成功交易的信息,被替换交易的信息比如被加速或者取消。
主要的产品有:mempool浏览器、网站SDK、Gas平台和模拟平台
Mem浏览器,通过API形式的可以订阅mempool,可以精确到任何一一个协议中,比如UniswapV3,Sushiswap的相关交易在mempool里面的表现
Gas平台,通过实时mempool数据来预测gasfee的工具
模拟平台功能,模拟mempool中检测可被执行的事务,并根据当前块高度对它们进行模拟,以显示它们的效果。只要符合Blocknative检测规则的交易进行模拟
SDK平台,各类网站可以通过javascript挂接Blocknative的API,来显示该网站产品的交易执行情况
Blocknative是专门针对mempool进行侦测的数据网站,因为mempool的数据和最终区块数据不会一致,其及时性和其他数据indexing比要求跟高。以太坊有一套复杂的系统来管理mempool中的交易,Blocknative提供的字段查询更加即时和精确。
数据分析层
这一层主要是提供一整套链上或者链下的数据集或API,方便于交易员进行分析。
链上和链下数据:链上数据的提供者直有很细分的rawdata,但对于非专业的认识不需要,其实很多用户需要的颗粒度并不是很高。这样的选手包括Coinmetics,Nomics,Glassnode,intotheBlock,CryptoQuant等。他们本身会拆分每一笔交易,但是提供的产品是一种交易的集合。还有一类是交易所数据的包括:Skew,Kaiko,CoinAPI。他们把各类交易所的交易数据进行集合,打包提供给交易者。包括最近崛起的Nansen,将标签的精细度加深,这也代表深颗粒度/面向特定领域的数据受到重视。
业务很传统:这些服务商体量都不大,经过几年的竞争,上面提到的这些名字已经初步跑出。他们基本都是中心化的项目,估值在几千万美元。业务逻辑容易理解,有传统的可比标的,数据合规做得好是很好的收购标的。
交易所也自然的参与其中:除了集中式的API供应,交易所本身也提供大量的数据。这部分是中心化交易所私有的,交易所把这部分数据半免费开放给外部,这属于整个区块链里最有价值的一类。对于trader来讲,orderbook和成交量比较有用,orderbook类似以太坊的内存池数据。而还有一类就是交易所钱包和链上交互的数据,代表了一定的得市场氛围。
数据的合规性还未受到重视:合规是很多服务商较少充实的层面,不仅公司合规,数据也要合规。Kaiko的数据广度好,而且颗粒度精细,拥有把一整套数据进行标准化的方法,满足传统机构投资人的合规要求,并符合FIGI标准,是认证的FIGI服务商。在未来机构进场的趋势下是一个很大的优势。
除此以外,还有各类DeFi分析面板如DefiPulse、Dfilima、DeBank等,都提供各自擅长的数据集。
数据服务商的价值提升仍然有很大空间
可靠性的提升
区块链数据越来越多是一个不可避免的趋势。但只有对数据进行分析,得出可操作的见解,才能利用数据的真正价值。区块链技术在数据分析领域扮演着两个截然不同的角色。首先,存储在区块链和区块链网络中的数据本身提供了丰富的信息来源。第二,通过在数据和派生分析模型中添加保证元素,区块链可以使可信的数据分析环境用于多方数据共享。
虽然规模在增加,但是数据质量还没有受到重视,数据质量即代表数据可用性的问题,数据质量需有以下标准:
一致性-数据没有矛盾且一致。
可追溯性-数据可审计,变动可追踪
可用性-能够被授权用户和应用程序进行检索。
合规性-数据符合标准、惯例或一些已经执行的规定
机密性-数据只能被授权用户访问
可信度-用户相信数据的真实性
区块链的数据就有很好的一致性、可追溯性、可用性,但是缺乏合规性、一定的私密性和可信性,尤其是面对监管的时候。用户相信一些数据,还是需要对方数据交叉验证,自己去链上数据交叉验证并不容易。这是未来需要解决的。
用户数据从里层走向表层
用户数和用户行为的爆发还有一个潜在结果,就是当这个级别开始逐渐接近互联网级别的时候,一些传统的数据挖掘方法就开始体现出价值。Web3.0上依然可以提供类似Web2.0的服务,而有些数据虽然是公开的,但却是只能被部分公司access到,者给予对用户行为分析和打标签的能力。一个比较大的gap是,现在用户的Web2.0和Web3.0身份还没有对应上,比如很多项目的用户,也非常积极的在Discord里面交流,他们和Web3.0的身份没有对应,这里面其实也会让很多机会。像Nansen就是把海量的钱包进行打标签,为数据用户提供真实的链上行为分析,尤其是可以看到那些巨鲸的活动。像Nansen这样的,未来针对用户数据的再挖掘,会让数据服务上的再上一个新台阶,比如Zerion、Zapper、InstaDapp这样的DeFi聚合层,也是可以很好发掘用户数据的平台。Covalent也提供了对钱包的查询功能。
价值的体现
数据的可靠性是一方面,价值捕获依靠的是可用性和认可。数据变得有值钱我们可以从这类项目的融资可以看出,2021年是数据真正开始体现价值的一年,以上提及的项目今年发生了多次融资:
Skew和Zabo直接被Coinbase收购,传统领域的资金也在参与。随着多链时代的开启,数据量会成倍的增加。多链时代对行业是个考验,但对于数据公司来说,则打开了宝藏之门。TheGraph提供的统计显示,2020年6月,每天只有3000万的query,到了2021年的6月份,每天的query达到了6.75亿。
未来数据市场的驱动力主要有四个:多链宇宙的成型,应用的增加和用户的增加,应用带来的数据需求的增加,用户行为复杂化。但是数据状态也不会爆炸下去,也会经过一波整合,和Gartner发展曲线类似。
本文链接:https://www.8btc.com/article/6672531转载请注明文章出处
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。