简介
如果你想学鬼步舞(shuffledance)的话,那你就走错地方了。但相信我,Eth2里的混洗(shuffle)也一样让人兴奋。
混洗列表是以太坊2.0里一个基本运算。它主要用于在每12秒的slot里伪随机挑选验证者来组成委员会,以及在每个slot里选出信标链区块的提议者。
混洗似乎相当简单。尽管它有一些隐患需要注意,这些隐患在计算机科学里是非常容易理解的。其中的黄金标准大概就是Fisher-Yeatsshuffle了。那我们为什么不在Eth2里使用它呢?我将在文末详细解释,但简单来说就是——轻客户端。
我们用的混洗算法是swap-or-not,而不是Fisher-Yates。这个选择是基于这篇本来用于构建加密方案的论文。我最近在Eth2客户端Teku中重写我们的实现,因此我想趁热把它写出来。
Swap-or-Not混洗算法
一轮的操作过程
混洗以轮次进行。每轮的过程是一样的,因此我在下面只会演示一轮的过程,它比看上去简单多了。?
以太坊开发者:矿工应该在一年前参与讨论EIP-1559:针对推特网友表示,矿工是以太坊的利益相关者,并且没有得到足够的重视。尽管EIP1559直接影响到了他们,但他们的意见并没有得到尊重。如果矿工觉得自己被听到了,就不会计划发起51小时算力转移示威活动以反对EIP-1559。以太坊开发者Tim Beiko回复表示,强烈反对矿工没有被倾听和尊重。一些开发人员/研究人员花了数周时间回答他们的问题,驳斥他们的一些反对意见,并帮助他们建立一个EIP。几乎每个核心开发人员都意识到,EIP-1559之后,哈希率可能会大幅下降,但他们并不像矿工那样认为是大问题。矿工“感觉不被听到”的很大一部分原因是他们直到最后才参与。矿工们参与的最佳时机应该是1年前,当时1559正处于非常活跃的开发阶段。对于矿工的任何一项提议,就其性质而言,都将是有争议的,我很难看到在伦敦硬分叉之前评估人们的情绪。[2021/3/15 18:45:18]
选择一个轴心点并找出第一个镜像索引
首先,我们选一个轴心索引p,这是基于轮次和其他一些种子数据,通过伪随机选出的。这个轴心选出后就在该轮次里固定了。
Tether在以太坊上将100个地址列入黑名单:金色财经报道,根据The Block Research的新发现,以太坊网络上被Tether列入黑名单的地址数量已达到100个。该黑名单行动中有84项发生在2020年,其中大部分发生在7月之后。[2020/10/9]
基于这个轴心点,我们在p和0的中间点选出一个镜像索引m1,即m1=p/2。
轴心点和第一个镜像index
从第一个镜像索引到轴心点,替换与否
?对于镜像索引m1和轴心索引p之间的每个索引,我们随机决定是否对这些元素进行替换。
比如对于索引i1,如果我们选择不替换,那么我们就继续选下一个索引。
如果我们决定替换,那么我们将i1上的列表元素与i1’上的替换,即它在镜像索引上的图像。也就是i1与i1’=m1-(i1-m1)替换,这样i1和i1’到m1的距离是相等的。
我们对每个m1和p之间的索引都做相同的swap-or-not的决定。
从第一个镜像索引到轴心的swap-or-not决定
Pax Treasury在以太坊网络增发近1117万枚BUSD:据whale alert数据,北京时间10月5日12:36,Pax Treasury在以太坊网络增发11,165,763枚BUSD,交易哈希为0x0cb663f4378e2ace83010f1840ee4c22118409ceb849c1d3af51be2c6e5e9364。[2020/10/5]
计算第二个镜像索引
在做完从m1到p的所有索引决定后,我们现在找到第二个以m2为中点的镜像索引,即到p和列表末端的距离相等的点。也就是m2=m1n/2。
第二个镜像索引
从轴心点到第二个镜像,替换与否
最后,我们重复swap-or-not的过程,考虑所有点到轴心p替换的决定,即p到第二个镜像m2的决定。如果我们选择不替换,就继续下一个。如果我们选择替换,那么我们在镜像索引m2上把j1上的元素与它在j1’上的镜像进行替换。
从轴心到第二个镜像索引的swap-or-not决定
组合起来
分析 | 以太坊Parity客户端存在安全隐患,可能会意外导致主网“分叉”:PeckShield安全人员研究发现,由于以太坊Parity客户端存在某种缺陷,当它收到一个问题区块时,下个有同样哈希的合法区块将不被处理。具体而言:攻击者可向Parity客户端发送合法header+非法body,使得之后的合法区块header+body被Partiy客户端过滤,但可以被geth等客户端接收,进而可能会导致以太坊主网意外“分叉”。Parity客户端目前占以太坊主网的22.08%,主要应用于矿池、交易所等相关节点。PeckShield安全人员建议,矿池和交易所节点应尽快升级Parity新版本或将节点迁移至geth客户端,同时应适当提高区块确认块数。[2019/12/31]
在一轮的最后,我们都已经考虑了m1到m2之间所有的索引,即所有索引的一半,且无论替换与否,每个索引都在另一半有一个特定的索引。因此,关于替换与否,所有的索引都已被考虑过一次了。
下一轮以增加(或减少)轮次开启,这样我们会有一个新的轴心索引,然后开始循环上述的过程。
同一轮中从一个镜像移向另一个镜像的过程
声音 | 以太坊开发团队:计划继续细化工作证明链:据trustnodes消息,以太坊1.0团队计划继续细化当前的工作证明(Proof?of?work)链。以太坊开发人员Casey?Detrio表示,第一个目标是提高主网上的事务吞吐量。他们最近发现了一种客户端优化办法,可能会在保持较低的主速率的同时大幅提高区块燃料(Gas)的限制。[2018/11/27]
有趣之处
巧妙的地方
当在决定要不要替换的时候,这个算法会巧妙地选择候选索引或其镜像中的更高者。意思是当在轴心之下时,被选择的是i_1而不是i_1’;当在轴心之上时,被选择的时i_k’而不是i_k。这意味着,我们可以灵活遍历列表中的索引:我们可以将0到m1和p到m2分为两个独立的循环,或将两者合在同一个从m1到m2的循环,如我在上文所描绘的。这两种做法的结果是一样的:无论我考虑的是i_1还是镜像i_1’都没有关系;替换与否得出的是相同的结果。
轮次
在Eth2,上述的过程会进行90次。原始论文里提到要经历6lgN个轮次才能“开始在选择性密码攻击(CCA)上出现较好的安全性界限”,其中N是列表的长度。在Vitalik的注释规范里,他说“密码学专家建议我们4log2N个轮次就能提供足够的安全性了”。
在Eth2里验证者数量的绝对最大值,也就是我们需要混洗的列表最大次数,大概是222(420万)。Vitalik给出的预估值是88轮,在论文里的预估值是92轮(假设lg是自然对数)。因此,我们现在处于一个大致正确的范围,特别是我们最后非常可能没有这么多活跃验证者。
基于列表长度来调整轮次可能会得出有趣的结果,但我们不会这么做,这可能是不必要的优化。
有意思的是,当LeastAuthority审计信标链的规范时,他们一开始发现在选择区块提议者的混洗中是有偏倚的(参考IssueF)。但结果是他们错误使用了只有10轮次的混洗配置。当他们将混洗配置增加到90轮(我们在主网使用的轮次)时,偏倚的情况消失了。
(伪)随机
混洗算法要求我们在每一轮里随机选一个轴心点,且在每轮里随机选择是否对每个元素进行替换。
在Eth2,我们肯定会从一个种子值产生随机性,由此这同一个种子总会产生同一个混洗结果。
轴心指标是由把与轮次串联的种子进行8字节的SHA2哈希产生的,轴心索引由种子值SHA2哈希的八个字节生成,该种子值与轮次相串联,因此它通常在每轮里都有会改变。
用来决定是否要替换元素的决定性数位从以下几个元素中提取:种子的SHA256哈希、轮次、列表上元素的索引。
效率
这个混洗算法比Fisher-Yates算法要慢得多。如果Fisher-Yates算法需要N次混洗的话,我们的算法平均需要90N/4次。我们还要考虑伪随机性的产生,这是算法中成本最高的部分。Fisher-Yates需要接近Nlog2N数位的随机性,而我们需要90(log2NN/2)数位,根据我们在Eth2里需要的N值范围,超出的数位是相当多的?(当N为一百万时,Eth2大约需要N的两倍)。
为什么选择swap-or-not这种算法
如果效率不高,为什么要选择这个实现?
对单一元素进行混洗
这个算法的闪光点在于,如果我们只关注少数几个索引,我们不需要对整个列表的混洗进行计算。事实上,我们可以将这个算法用于单个索引,来找出哪个索引将会被替换。
因此,如果我们想知道索引217的元素被混洗到哪里了,我们可以运行只针对该索引的算法,而无需混洗整个列表。此外,相反地,如果我们想知道是什么元素被混洗到索引217,我们可以将算法倒过来运行来找到元素217(倒过来的意思是从高到低运行轮次,而不是从低到高)。
总之,我们可以在恒定时间内计算出元素?i?被混洗到哪里,也可以计算出元素?i?的源头在哪里(用反向操作),计算时间并不取决于列表的长度。Fisher-Yates混洗并不具有这种特性,且不能对单个索引进行混洗,它们往往需要重复混洗整个列表。
在Eth2规范里写的就是关于如何将算法应用到对单个索引进行混洗。事实上,一次性混洗整个列表只是它的一种优化!如果我们想的话,我们可以轮流只对列表里的一个元素进行混洗:(反向)运行混洗来找出哪个元素最终落在索引0,再运行一次混洗找出哪个元素最终落在索引1,如此进行下去。
我们不那样做的原因只是由于决定swap-or-not需要一次性生成一个256位的哈希,且就这样抛弃255位是很浪费的。如果我们使用1位的哈希或预言,混洗列表中一个元素的效率与混洗整个列表相去无几。
做到真正的“轻”客户端
这个特性之所以有意义,原因全在于轻客户端。轻客户端相当于是Eth2信标链和分片链的观测者,他们不储存整个状态,但希望可以安全地访问链上的数据。要对他们的数据正确性进行验证,即没有发生欺诈,其中的必要一步就是对证明数据的委员会进行计算。
也就是要用到混洗算法,且我们并不希望轻客户端必须存储或是混洗整个验证者列表。通过swap-or-not混洗,他们可以只对他们需要的一小部分委员会成员进行计算,这样将在整体上大幅提高效率。
历史
如果你像我一样喜欢GitHub的考古特性,你可以在这里查看最初为Eth2寻求混洗算法的讨论,这里公布了最后的胜出者。
如果想从另一个角度看swap-or-not混洗算法,可以看一下Protolambda发表的一个更可视化的解释。
最后
这张图片是2019年我在EthCC上一边听JustinDrake讲swap-or-not混洗,一边在Teku客户端(当时它还叫Artemis)中实现初版swap-or-not混洗。?
作者|BenEdgington
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。