来源:ETH中文站
稿源:vitalik.ca
作者:VitalikButerin
此处特别感谢DankradFeist和AdityaAsgaonkar的校对工作
分片是以太坊可扩展性的未来,是让以太坊生态系统实现每秒数千笔交易的关键,这样大部分人才能以负担得起使用成本,成为该以太坊的用户。然而,在以太坊生态系统中,分片是容易受到误解的概念之一,在更广泛的区块链生态系统中也是如此。它指的是一组非常特定的概念,这些概念都拥有自己的特质,但人们经常将前者与一些技术混为一谈,后者的安全特性更弱,且与前者不同。本篇文章的目的是介绍分片的特定属性,并与其他非分片技术加以区分,且为了实现这些属性,分片系统需要做出哪些牺牲。
图注:以太坊分片系统,原图来自Hsiao-weiWang,由Quantstamp设计
扩展性不可能三角
要介绍分片,最佳方式是从描述一个问题开始,即扩展性不可能三角,这个问题促成了该解决方案的诞生。
根据扩展性不可能三角,一个区块链想要实现三个特性,若使用简单技术手段,只能实现三个特性中的两个。这三个特性如下:
?可扩展性:该区块链可以处理和验证的交易比单个普通节点更多,例如一台消费级笔记本电脑。
?去中心化:该区块链的运行可以不依赖于由大型中心化参与者组成的小群体。这通常理解为即使是大多数节点都是诚实的,也不应该信任不能用消费级笔记本电脑接入的节点群。
?安全性:
该区块链可以抵御大量试图攻击的节点,理想情况下,要抵御50%的节点,一般情况下,要抵御超过25%的节点,但仅仅抵御5%的节点不能够保证安全性。
以下是三种不同类型的“简单解决方案”,但是这些解决方案只能实现三个特性中的两个。
?传统区块链包括比特币、实现PoS/分片之前的以太坊、莱特币及其他类似区块链。这些区块链依赖于每个参与者运行全节点来验证每笔交易,因此保证了去中心化和安全性,但没有实现扩展性。
?高TPS区块链包含DPoS链,但也涵盖许多其他区块链。这种区块链依赖于少量节点维持共识,数量通常介于10-100个,用户必须信任大多数节点。根据上文的定义,该解决方案实现了扩展性和安全性,但没有实现去中心化。
?多链生态系统一般指让区块链“向外扩展”,即让各种应用程序在不同的链上部署,并使用跨链通信协议进行通信。这实现了去中心化和扩展性,但并不安全,因为攻击者只需要控制其中一个链的大多数共识节点(通常数量小于整个生态系统1%的节点数)就可以造成破坏,还可能引起连锁反应,对在其他链中的应用程序造成巨大损害。
VitaDAO完成410万美元融资,辉瑞风投部门Pfizer Ventures等参投:1月30日消息,去中心化自治组织VitaDAO完成410万美元融资,辉瑞的风投部门Pfizer Ventures、Shine Capital、L1 Digital、Balaji Srinivasan等参投。
这是辉瑞在web3领域的第一笔投资,该公司通过特殊目的工具持有Vita治理代币,甚至参与了治理提案。该轮融资的消息是在辉瑞先前宣布向VitaDAO提供500,000美元的承诺之后发布的。
VitaDAO资助的项目主要关注长寿和衰老过程,支持了生产mRNA药物的斯坦福大学分拆公司 Turn Biotechnologies,以及哥本哈根大学一项关于了解药物对衰老过程影响的研究。
VitaDAO旨在利用这笔资金进一步资助长寿研究项目和将于明年从DAO中剥离出来的生物技术初创公司。(TheBlock)[2023/1/30 11:36:40]
分片技术能够同时实现上文提及的三个特性。一个分片型区块链拥有以下特征:
?可拓展性:其处理的交易量远高于单一节点。
?去中心化:能够完全基于消费级笔记本电脑运行,无需依赖超级节点等。
?安全性:攻击者无法通过少数资源对系统发动局部攻击,只能尝试控制整个系统,以进行攻击。
本文接下来的部分将讨论分片型区块链如何实现这些优势。
随机抽样分片
最容易理解的分片版本是通过随机抽样进行分片。与以太坊生态系统中构建的分片形式相比,随机抽样分片的信任属性更弱,但以太坊分片应用的技术更简单。
下文阐述了分片的核心思想。假设有一个PoS区块链,其验证者数量非常多,例如10000位验证者,并且需要验证区块的数量非常庞大,比如100个区块。在下一组区块产生之前,没有一台计算机能够验证这100个区块。
为了解决这个问题,我们需要以随机的方式,分配验证工作。我们对验证者名单进行随机混洗,然后选取名单中前100个验证者来验证第一个区块,第二组100位验证者来验证第二个区块,以此类推。随机抽样分片通过这种方式来验证区块或执行其他任务,这些随机选出的验证者称为委员会(committee)。
验证者验证一个区块后,会通过发布一个签名来证明。其他所有节点都只需要验证10000个签名,而不是验证100个完整区块,这样会减少很多工作量,特别是应用了BLS签名聚合技术之后。每个区块的广播无需通过同一个P2P网络,而是通过不同子网,节点只需加入自己负责或其他想要验证的区块相对应的子网。
想象一下,如果每个节点的算力增加2倍,会产生什么效果。对于每个节点,现在能够安全验证签名的数量增加了2倍,那么可以减低最小质押数量,让验证者的数量增加2倍,这样就可以产生200个委员会,而不是100个。所以,每个时隙的区块验证数量能够达到200个,而不是100个。此外,每个区块容量可以扩大2倍。因此,总体区块链容量会增加4倍。
流动性激励解决方案Graviton与公链Sei达成合作:金色财经报道,公链Sei Network宣布与流动性激励解决方案Graviton建立战略合作伙伴关系,Graviton将帮助Sei提升开发能力并壮大其生态系统,Graviton团队将会被优先考虑获得Sei Network旗下5000万美元生态系统基金的支持。(福布斯)[2022/11/26 20:46:43]
我们可以通过数学术语来解释其背后的原理。根据大O符号(BigOnotation),我们用?“O(C)”?表示单个节点的算力。O(C)?代表传统区块链能够处理的区块大小。如上所述,分片链可以并行处理大小为?O(C)?的区块(请记住,每个节点来验证每个区块的间接成本为O(1),因为每个节点只需要验证固定数量的签名)。因此,每个区块容量为O(C),分片链总容量是O(C^2)。这就是为什么这种类型的分片称为二次方分片(quadraticsharding),基于二次方分片的关键作用,我们认为从长远来看,分片是扩展区块链的最佳方式。
人们经常会问这样一个问题:“随机组成100个委员会与分裂为100条独立区块链有什么不同?”
其不同之处主要在于以下两个方面:
1.?随机抽样能防止攻击者将算力集中于某个分片中。在一个100条区块链组成的多链生态系统中,攻击者只要拥有总质押量的0.5%就可以造成破坏,意味着可以针对其中一个区块链发起51%攻击。在一个分片链中,攻击者必须拥有总质押量的30-40%,才能达到相同目标,换言之,该链的安全性能共享给分片。当然,攻击者可以等到运气好的时候,偶然在单个分片中获得51%的算力,尽管拥有的质押量不到50%,但对于质押量远远低于51%的攻击者来说,发起攻击的难度呈指数型上升。如果质押量少于30%,几乎不可能发起攻击。
2.?若有一个分片出现了坏块,整个链会重组,以避免接受该区块,这称为紧密耦合性。根据社会契约,即使单个分片中出现了一个坏块,也不能被主链接受,一旦发现坏块,分片会被拒绝,本文后面章节将介绍一些从技术上强制执行社会契约的方法。有了这一机制,从应用程序的角度来看,分片链享有完美安全性,合约A能够信任合约B,即使由于区块链受到攻击,合约B出现故障,并且回滚了整个历史,其中也包含合约A中由于合约B出现问题而受到影响的交易。
这两种差异确保分片为应用创建了一个环境,该环境保留了单链条件下的关键安全属性,而多链生态系统则无法实现这一点。
通过更好的安全模型改善分片
我完全同意比特币社区中的一种普遍看法,那就是像比特币等区块链并不完全依赖“诚实的大多数”假设。如果对这些区块链展开51%攻击,则攻击者可以做一些具有破坏力的坏事,例如回滚或审查交易,但不能插入无效的交易。而且即使他这么做了,运行常规节点的用户也可以轻松检测到这种行为,因此,社区若希望通过分叉来剥夺攻击者的力量,以协调的方式抵御攻击,可以迅速采取行动。
对于更为中心化的高TPS链,它们的主要弱点是缺乏这种额外安全性。这种区块链没有,也不可能具有让普通用户运行节点的文化,因此主要节点和生态系统参与者可以更轻松地聚在一起,强制实行一项协议更改,即使社区非常不喜欢这个改动。更糟糕的是,在默认情况下,用户的节点会接受这项改动。一段时间后,用户会察觉到,但等到那时,这个更改已经成为既成事实,意味着其中主要的协调负担,即拒绝更改,将由用户承担,并且不得不做出痛苦的决定,回滚一天或更多的交易记录,而其他用户都以为这些记录已经得到了最终确认。
Vitalik Buterin批评比特币S2F模型给人带来错误的确定感:6月21日消息,以太坊创始人Vitalik Buterin在推特上批评比特币S2F模型(Stock-to-flow)给人带来一种错误的确定感,预定的数字会给人增加有害的感觉,盲从者应该受到嘲笑。PlanB回应了Vitalik的批评,称“人们正在为他们失败的项目或错误的投资寻找替罪羊。”
据悉,荷兰匿名机构投资者PlanB一直在推广比特币S2F模型,该模型因成功预测了几次比特币价格而获得大量关注。许多批评者指出的S2F模型的关键问题是片面估计,它只考虑BTC的供应方,而没有假设需求将继续增长。(Cointelegraph)[2022/6/21 4:43:16]
理想情况下,我们希望采用一种分片形式,其验证方式能避免上文提到的51%信任假设,并保留传统区块链的高安全性,这种安全性只有在经过完全验证的情况下才能实现。而这正是我们过去几年的大部分研究成果。
可扩展计算验证
我们可以将能够抵御51%攻击的可扩展验证问题分为两种情况:
?验证计算:检查某些计算是否正确完成,并假设你拥有完成该计算的所有输入数据
?验证数据的可用性:检查计算本身输入的数据是否以某种形式存储,在必要情况下以供下载;执行此检查时,无需实际下载所有输入数据,因为数据可能太大,无法每个区块都进行下载。
区块链中的区块验证同时涉及计算和数据可用性检查,即你需要确信区块中的交易有效,并且区块中的新状态根哈希是执行这些交易的正确执行结果,但是你还需要确信该区块中有足够多的数据实际得到发布,这样下载数据的用户可以计算状态,继续处理区块。第二点关系到一个非常微妙但重要的概念,即数据可用性问题(dataavailabilityproblem)。下文会对这个问题进行探讨。
可扩展计算验证相对容易实现,其中会运用两类技术:欺诈证明及ZK-SNARKs
欺诈证明能够验证计算的同时,保证扩展性
以下是对两类技术的简单介绍:
?欺诈证明(fraudproof)是一个接受计算结果的系统,你可以要求有质押存款的人签署以下形式的消息:“我证明,如果使用输入X进行计算C,则会得到输出Y”。你会默认信任该消息,但其他有质押存款的人会有挑战计算结果的机会,他们可以签名一条消息,称“我不同意,输出结果应该为Z,而不是Y。”仅发起挑战后,所有节点才会进行运算。这两方中任何一方出错都会失去保证金,并且所有基于错误计算的运算都会重新进行。
?ZK-SNARKs是一种密码学证明形式,可以直接验证“输入X后,执行计算C,会输出Y”。在密码学层面,该验证机制是“可靠”的,因为如果输入X后,进行计算C,结果不等于Y,则无法通过计算生成有效性证明。即使运行计算C本身花费大量时间,该证明也可以很快得到验证。有关ZK-SNARK的更多数理解释,请参阅此文章。
GTX(GravitationX)即将上线TokenBetter:据TokenBetter官方公告,GTX(GravitationX)将于2020年5月3日15:00上线TokenBetter。
GTX(GravitationX)的目标是通过结合 CryptoNote 协议和智能合约等一些经过验证的最佳技术,创建一种独特的先进区块链技术,增强可靠性,隐私性,安全性,可用性和可移植性,从而实现创建私人智能合约。GTX(GravitationX)发行总量限定1亿,永不增发。GTX拥有首个POD毁灭证明机制,百分之九十六的GTX将被摧毁,最后只剩下 4,000,000枚GTX。[2020/5/2]
基于欺诈证明的计算之所以具有扩展性,是因为在“通常情况下”,你不用运行复杂计算,只需验证单个签名。在特殊情况下,挑战出现后,你必须在链上验证计算,但是特殊情况很少发生,因为触发这种情况的成本非常昂贵,因为最初的声明者或挑战者之一会失去大量保证金。ZK-SNARKs概念更简单,它们只是通过成本更低的证明进行验证,从而代替计算,但其背后的数学原理却要复杂得多。
有一种半可扩展系统,它能以可扩展的形式验证计算,但需要每个节点验证所有数据。该系统若能通过一系列压缩技术,通过运算替换大部分数据,效率便可大大提高。这便是Rollup所做的事。
对数据可用性进行可扩展性验证难度更高
欺诈证明不能用于验证数据可用性。运算的欺诈证明基于这样一种条件,即原始声明一旦提交,运算的输入数据要在链上发布,因此,如果有人发起挑战,该挑战的执行与原始执行的“环境”完全一致。对于数据可用性检查,上述操作无法实现,因为如果要在链上发布,需要检查的数据量太多。因此,针对数据可用性,如何生成欺诈证明方案变成了一个关键问题,有人可以声称“数据X可用”,但不在链上发布,等待挑战者出现,发起挑战后,再向整个网络发布该数据,使得网络中的其他参与者认为挑战者是不正确的
下图的“渔夫困境”能够很好阐释其中道理:
“渔夫困境”的核心理念涉及到两种情况,一种情况是V1是恶意发布者,但V2是一个诚实挑战者,而另一种情况是V1是诚实发布者,而V2是恶意挑战者。两种情况对于当时未尝试下载该特定数据的任何人来说都没有区别。当然,在可扩展的去中心化区块链中,每个个人节点只期望下载一小部分数据,因此只有一小部分节点能够了解分歧之外的所有状况。
由于不可能辨识出哪一方是正确的,所以也无法为数据可用性生成有效的欺诈证明解决方案。
人们经常问道:“如果某些数据不可用怎么办?ZK-SNARK可以确保一切数据的有效性,但这还不够吗?”
不幸的是,仅仅保证数据有效性还不足以维持区块链正常运行。原因是如果区块链能经过验证,但所有数据均不可用,则用户将无法更新数据,生成证明验证未来的区块。攻击者如果能生成一个区块,该区块虽然能够经过验证,但数据不可用,可以有效阻碍区块链运行。有的攻击者还可以不上传特定用户的帐户数据,直到该用户支付赎金为止,因此这不仅仅是一个活性问题。
动态 | Vitalik Buterin 提出激励开发者的新方案:将智能合约交易手续费资助合约创建者:Vitalik Buterin 在以太坊研究论坛上发表文章,提出一种激励开发者的新方案,当开发者创建一个智能合约后,任何其他使用该合约的用户付出的交易手续费的一部分(比如说 33%),会发送给合约的创建者作为激励,而且还提出了两种关于奖励的算法,分别是线性和超线性。该想法出自于 9 月 16 日在以色列举行的 StarkWare Sessions 会议上,在探讨关于公链基础设施的开发,资金应该是通过治理和协议获得,还是说应该被独立的企业资助话题中,以太坊创始人 Vitalik Buterin 认为,「通过协议获得资金的优势是,这个方法可以获得更多的资金。而劣势也很明显,由于这类方法是中立的,所以无论利用任何机制都会被恶意攻击,之前也已经遇到过各种各样的尝试。所以这类方法的最大的挑战是想出一套合适的治理结构和其组件。然后他还举了一个例子,如果我们设置这样一个资助机制:当有人使用了某个智能合约,因此而产生的转账费的一部分会分配给该合约的创建者,这样的机制就非常的中立。[2019/9/23]
有一些强有力的信息论观点认为这个问题是根本性问题,没有优良解决方案(例如密码学累加器的应用)。有关详细信息,请参见本文。
那么,如何在不下载的情况下,检查1MB数据是否可用?这听起来无法实现!
关键的解决方案是一种称为数据可用性采样(dataavailabilitysampling)的技术。该技术的工作方式如下:
1.通过纠删码工具,将具有N段的数据分成为2N段的数据,因此只需任意N个数据段都可以恢复整个数据。
2.用户如果要检查可用性,无需下载全部数据,而是随机选择区块中的位置(常数,例如30),并且仅当在区块中找到所有选定位置的数据时,才接受这个区块。
通过纠删码,我们能够将问题从“检查100%数据可用性”(即保证每条数据均可用)转变为“检查50%数据可用性”(即至少一半数据可用)。随机抽样则解决了50%可用性问题。如果可用数据量少于50%,那么这两种检查手段中至少一个不可行,并且如果至少50%的数据可用,那么,尽管某些节点可能无法得知一个区块的可用性,但只需要一个诚实节点运行纠删码重构程序,就能恢复剩余50%的区块数据。因此,为了检查1MB区块的可用性,你无需下载1MB数据,只需下载几KB。这样每个区块都能接受数据可用性检查。有关如何使用P2P子网有效进行数据检查,请参见这篇文章
通过ZK-SNARK证明,数据纠删码的正确性也能够得到验证,然后利用默克尔树的分支来验证各个数据块。另一种验证方式是使用多项式承诺(polynomialcommitment),例如Katecommitments(KZG承诺),本质上,该承诺通过一个简单组件进行纠删编码,证明每个要素和正确性验证,这就是以太坊分片所使用的技术。
总结:如何保证所有数据的正确性?
假设有100个区块,并且你不想依赖委员会有效地验证所有区块的正确性。为了实现这个目标,我们需要进行以下措施:
?每个客户端在每个区块上进行数据可用性采样,以验证每个区块中的数据是否可用,同时需要下载每个区块几KB的数据,即使区块的整体大小为MB或更大。仅在所有数据可用性挑战得到正确回应后,客户点才会接受区块。
?数据可用性得到验证后,那么验证其正确性将变得更加容易。验证正确性要通过以下两种技术:
我们可以使用欺诈证明,一些质押了保证金的参与者可以提供签名,证明每个区块的正确性。其他挑战者或者是渔夫节点会进行随机检查,并尝试完整处理整个区块。因为数据可用性已经经过检查,所以其他节点始终可以下载数据,并对任何特定区块进完全处理。如果发现无效区块,节点会发布一个所有人都可以验证的挑战。如果该区块被证明是坏块,则基于这一区块的所有区块都需要重新经过运算。
我们可以使用ZK-SNARK技术。这样每个区块的正确性都能得到这种技术的验证。
?在以上两种情况中,无论区块有多大,每个客户端仅需要对区块进行少量验证工作。对于欺诈证明,区块偶尔需要在链上得到充分验证,但这种情况很少发生,因为就算发起一个挑战,成本也十分高昂。
以上就是全文的总结!就以太坊分片而言,短期计划是让分片中的区块只包含数据。也就是说,这些分片的作用纯粹是“数据可用性引擎”,Layer2rollup的工作则是使用安全的数据空间,另外还会利用欺诈证明或ZK-SNARK技术,实现高交易吞吐量,同时维持安全性。但是,我们还可以创建一个内部系统,“原地”实现高吞吐执行,这是完全有可能实现的。
分片系统的关键特性是什么?有哪些权衡?
分片的主要目标是尽可能地继承传统非分片区块链最重要的安全属性,同时无需每个节点验证每笔交易。
分片基本可以满足这些要求。以下是传统区块链的特征:
?无效区块无法添加到区块链中,因为验证节点会检测到该区块是无效的,并忽略该区块。
?数据不可用的区块无法添加到区块链中,因为验证节点无法下载数据,并选择忽略。
以下是强安全性的分片区块链特征:
?无效区块无法添加到区块链中,原因如下:
欺诈证明会迅速检测到该区块,并告知整个网络其为不正确区块,并重罚创建者。
或者通过ZK-SNARK验证其正确性,因为无法为无效区块生成有效ZK-SNARK证明。
??数据不可用的区块无法添加到区块链中,原因如下:
如果区块可用数据量只有不到50%,几乎可以肯定的是,每个客户端至少有一次数据可用性抽样检查会失败,导致客户端拒绝该区块,
如果至少有50%的区块数据可用,那么实际上整个区块数据都是可用的,因为仅需一个诚实节点即可恢复其余数据。
传统高TPS链因为没有分片,无法实现上述特征。而多链系统面临的问题在于,攻击者如果选择一条链进行攻击,就可以轻易取得控制,系统中的链也可以共享安全性,但是如果安全性低,那将与传统高TPS链没有区别,还会继承传统区块链的所有缺点,若安全性较高,共享安全性只是上述分片技术的一种更复杂的实现。
侧链(sidechain)高度依赖于实现方式,如果它们共享矿工或验证者,通常它们容易面临传统高TPS链的弱点;如果它们不共享矿工或验证者,也会面对多链生态系统的弱点。分片链避免了这些问题。
但是,分片系统也有一些隐患。尤其是在以下几个方面:
?若遭遇适应性敌手攻击,仅依赖于委员会的分片链难以应付,并且较难追责。也就是说,如果攻击者能够实时入侵或选择关闭任何节点集合,那么只需要攻击少量节点即可破坏一个委员会。此外,攻击者无论是应变能力强,还是拥有质押总数的50%,如果破坏了一个委员会,整个网络只能确认少数参与攻击的节点,即该委员会中的节点,结果处罚金额只占少量质押。这又是另一个关键原因,解释为什么数据可用性采样要与欺诈证明或ZK-SNARK结合,成为随机采样技术的重要补充。
?仅在线客户端数量足够多,能生成足够多数据可用性采样请求时,这些重复响应总是构成至少50%的区块数据。在实践中,这意味着必须有几百个客户端在线,并且此数量越大,系统容量与单个节点容量的比率就越高。这是一个few-of-N信任模型——通常非常值得信赖,当然,它不如非分片链节点在数据可用性方面的0-of-N信任模式那么稳健。
?如果分片链依赖于欺诈证明,那么它要基于时序假设,即如果网络太慢,则在欺诈证明显示数据有误之前,节点可能已经敲定了某一个区块。幸运的是,如果你严格遵循规则,一旦发现了无效区块,就会回滚所有无效区块,该时段参数由用户设置,每个用户都能设置确认区块前的等待时间,如果他们不想等待太久可能会遭受损失,但更谨慎的用户也更加安全。即使如此,这一机制会削弱用户体验。使用ZK-SNARK验证有效性可以解决此问题。
?需要传输的原始数据量大得多,增加了极端网络条件下发生故障的风险。与大量数据相比,少量数据更容易传输,如果强大的政府试图审查区块链,也更容易安全隐藏。若区块链浏览器想要维持整个链的信息,则需要存储更多数据。
?分片链依赖于分片式的P2P网络,并且每个单独P2P“子网”由于节点较少,更容易受到攻击。因为子网之间存在一些冗余,数据可用性采样的子网模型可以缓解这种情况,但其中仍然存在风险。
这些是数据验证需要关注的问题,尽管在我们看来,让更多应用程序在链上运行,而不是通过中心化layer2服务,减少用户层的中心化,会比上述方面更值得注意。也就是说,实际上这些问题,特别是最后两个问题,会对增加分片链吞吐量造成真正限制,使其无法超过特定规模。二次方分片(quadraticsharding)只能实现有限二次方性。
顺便说一句,如果吞吐量过高,分片链的安全风险将日益增大,很大程度上,这也是放弃扩展至超二次分片的主要原因。使二次方分片保持其有限二次方性似乎是合适的中间值。
区块生产中心化,而验证分片化是否可行?
人们经常提出一种替代分片的方法,那就是使用类似于中心化高TPS链的结构,除此之外,利用数据可用性采样和分片以验证数据有效性和可用性。
这种方案能够改善既有的中心化高tps区块链,但仍远没有分片系统强大。其中一些原因如下:
1.?在高TPS链中,更难监测到区块生产者的审查行为。
监测审查行为需要满足以下任一:(i)能够看到每笔交易,并且验证没有合理交易莫名其妙未进入,或者在区块生产者中使用1-of-N信任模型,并验证没有区块无法上链。在中心化高TPS链中,第一点不可能实现,而实现第二点更困难,因为节点数少,甚至1-of-N信任模型都更容易被破坏,并且如果该链的区块时间对于DAS(数据可用性采样)来说太快(就像大多数中心化高TPS链那样),则很难证明节点的区块不会仅仅因为它们的发布速度太慢而被拒绝。
2.如果大多数区块生产者和生态系统成员试图强制执行一项协议更改,虽然这项更改不受欢迎,用户的客户端肯定会检测到更改,但是对于社区,拒绝更改、进行分叉的难度要大得多,因为需要运行成本高昂的新的高吞吐量节点,维持基于旧规则的区块链。
3.在中心化基础设施中,外部攻击者更容易实施审查。区块生产节点交易吞吐量高,非常易被检测到,关停这些节点也很容易。审查专用的高性能计算在上和后勤上比在单个用户的笔记本电脑上进行审查要容易得多。改:与追踪个人用户的笔记本电脑相比,对专用的高性能计算进行审查在逻辑和实践中都更加容易。
4.高性能计算向中心化云服务转移会面对更大压力,增加了风险,因为整个链将在1-3家公司的云服务中运行,如果许多区块生产者同时出现故障,会增大区块链崩溃的风险。验证节点都在个人硬件上运行的分片链不会那么容易受到这种攻击。
系统适当分片化后,能更加适合作为基础层。基于一个分片化的基础层,你始终能够通过构建Rollup的方式创建一个中心化的产品系统(例如用于DeFi的具有同步可组合性的高吞吐量领域)。但是,如果基础层依赖于中心化区块生产,则无法基于此构建一个更加去中心化的Layer2。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。