深度剖析下个万亿赛道:零知识证明和分布式计算结合

1.分布式计算发展历史和市场前景

1.1发展历史

最开始的计算机每台只能执行一个计算任务,随着多核心多线程的CPU出现,单个计算机可以执行多个计算任务。随着大型网站的业务增加,单服务器模式很难进行扩容,又增加硬件成本。面向服务的架构出现,由多台服务器组成。由服务注册者、服务提供者和服务消费者,三者组成。但是随着业务增加和服务器增加,SOA模式下,点对点服务可维护性和可拓展性难度增加。类似微机原理中,总线模式出现,来协调各个服务单元。服务总线通过类似集线器的架构将所有系统连接在一起。这个组件被称为ESB。作为一个中间角色,来翻译协调各个不同格式或者标准的服务协议。随后基于应用程序编程接口的REST模型通信,以其简洁、可组合性更高的特性,脱颖而出。各个服务以REST形式对外输出接口。当客户端通过RESTfulAPI提出请求时,它会将资源状态表述传递给请求者或终端。该信息或表述通过HTTP以下列某种格式传输:JSON、HTML、XLT、Python、PHP或纯文本。JSON是最常用的编程语言,尽管它的名字英文原意为“JavaScript对象表示法”,但它适用于各种语言,并且人和机器都能读。虚拟机、容器技术,以及谷歌的三篇论文:2003年,GFS:TheGoogleFileSystem2004年,MapReduce:SimplifiedDataProcessingonLargeClusters2006年,Bigtable:ADistributedStorageSystemforStructuredData分别是分布式文件系统、分布式计算、分布式数据库,拉开了分布式系统的帷幕。Hadoop对谷歌论文的复现,更快更容易上手的Spark,满足实时计算的Flink。但是以往都是分布式系统,并不是完全意义上的Peertopeer系统。在Web3领域,完全颠覆以往的软件架构。分布式系统的一致性,防欺诈攻击,防粉尘交易攻击等等一系列问题,都给去中心化计算框架带来挑战。将以太坊为代表的智能合约公链,可以抽象理解为去中心化的计算框架,只不过EVM是有限指令集的虚拟机,无法做Web2需要的通用计算。而且链上资源也是极其昂贵。尽管如此,以太坊也是突破了点对点计算框架的瓶颈,点对点通信、计算结果全网一致性和数据一致性等等问题。1.2市场前景

读者在上面了解了分布式计算的历史,但还是会存在很多困惑,我来替读者列出大家可能存在的潜在疑问,如下:从业务需求出发,为什么去中心化计算网络很重要?整体市场规模有多大?现在处于什么阶段,未来还有多少空间?哪些机会值得关注?怎么去赚钱?1.2.1为什么去中心化计算很重要?在以太坊最初的愿景中,是要成为世界的计算机。在2017年,ICO大爆发之后,大家发现还是主要以资产发行为主。但是到了2020年,Defisummer出现,大量Dapp开始涌现。链上数据爆炸,面对越来越多复杂的业务场景,EVM越来越显得无力。需要链下拓展的形式,来实现EVM无法实现的功能。诸如像预言机等等角色,都是某种程度上的去中心化计算。我们再以拓展思路去思考,现在Dapp高速增长,数据量也在爆炸式增长,这些数据的价值都需要更加复杂的算法来去计算,挖掘其商业价值。数据的价值由计算来体现和产生。这些都是大部分智能合约平台无法去实现的。现在Dapp开发已经过去当初只需要完成0到1的过程,现在需要更加强大的底层设施,来支撑它完成更加复杂的业务场景。整个Web3已经从开发玩具应用阶段过去,未来需要面对更加复杂的逻辑和业务场景。1.2.2整体市场规模有多大?如何估算市场规模呢?通过Web2领域的分布式计算业务规模来估算?乘上web3市场的渗透率?把目前市面上相应融资项目的估值相加吗?我们不能将Web2的分布式计算市场规模照搬到Web3,理由是:1,Web2领域的分布式计算满足了大部分需求,Web3领域的去中心化计算是差异化满足市场需求。如果照搬,是有悖于市场客观背景环境。2,Web3领域的去中心化计算,未来成长出的市场业务范围是全球化的。所以我们需要更加严谨得去估算市场规模。对于Web3领域潜在赛道整体规模预算通过以下几点出发来进行计算:对行业内,其他可被纳入赛道范围内的项目估值,做为基准市值。依据coinmarketcap网站上数据显示,在市面上已经流通的分布式计算板块的项目市值在67亿美元。营收模型来自于,代币经济模型的设计,例如目前比较普遍流行的代币营收模型是,代币作为交易时候支付手续费的手段。所以可以通过手续费收入,间接反映生态的繁荣程度,交易活跃程度。最终作为估值评断的标准。当然,token还有其他成熟的模型,例如用于抵押挖矿,或者交易的交易对,或者是算法稳定币的锚定资产。所以Web3项目的估值模型,区别于传统股票市场,更像是国家货币。代币可以被采用的场景会有多样性。所以对于具体项目具体分析。我们可以尝试探索Web3去中心化计算场景中,代币模型应该如何进行设计。首先我们假定自己去设计一个去中心化计算框架,我们会遇到什么样的挑战?a).因为完全去中心化的网络,在这样不可信的环境中完成计算任务的执行,需要激励资源提供者保障在线率,还要保障服务质量。在博弈机制上,需要保证激励机制合理,还要如何防止攻击者发起欺诈攻击、女巫攻击等等攻击手段。所以需要代币作为质押手段参与POS共识网络,先保障所有节点的共识一致性。对于资源贡献者,需要其贡献的工作量来实施一定的激励机制,代币激励对业务增加和网络效率提升,必须要有正向循环增长的。b).相较于其他layer1,网络本身也会产生大量交易,面对大量粉尘交易,每笔交易支付手续费,是经过市场验证的代币模型。c).如果代币只是实际用途化,市值是很难再进一步扩大。如果作为资产组合的锚定资产,进行几层资产嵌套组合,极大扩张金融化的效果。整体估值=质押率*Gas消耗率*(流通量的倒数)*单个价格1.2.3现在处于什么阶段,未来还有多少空间?2017年到现在,很多团队都在尝试去中心化计算方向上发展,但是都尝试失败,后面会具体解释失败的原因。探索路径由最初类似外星人探索计划的项目,后来发展到模仿传统云计算的模式,再到Web3原生模式的探索。当前整个赛道的现状,处于在学术层面已经验证0到1的突破,一些大型项目在工程实践上,有了较大的进展。例如当前的zkRollup和zkEVM实现上,都是刚刚发布产品的阶段。未来还有很大空间,理由如下:1,还需提升验证计算的高效性。2,还需要补充丰富更多指令集。3,真正不同业务场景的优化。4,以往用智能合约无法实现的业务场景,可以通过去中心化计算实现。我们通过一个具体案例来解释,完全去中心化的游戏。目前大部分Gamefi需要一个中心化服务做为后端,其后端作用在于管理玩家的状态数据和一些业务逻辑,其应用前端在于用户交互逻辑和事件触发后传递到后端。当前市面上还没有完整的解决方案,可以支撑Gamefi的业务场景。但是可被验证的去中心化计算协议出现,后端替换为zkvm。可以真正实现去中心化的游戏。前端将用户事件逻辑,发送到zkvm执行相关业务逻辑,被验证后,在去中心化数据库记录状态。当然这只是提出的一个应用场景,而Web2有很多业务场景需要计算的能力。1.2.4哪些机会值得关注?怎么去赚钱?

深度科技风投First Star第三支基金拟募资4000万美元,将专注于区块链、AI等领域:9月17日消息,根据美国证券交易委员会披露文件显示,深度科技风投First Star旗下第三支基金计划募资4000万美元,以支持区块链、人工智能、机器学习和机器人等领域的早期阶段初创公司,目前该公司尚未披露新基金募资结束时间。

另据PitchBook数据显示,First Star在2014年推出的首支基金曾成功募资1000万美元,随后又在2019年推出了第二支基金,该基金募资规模达到2500万美元。(雅虎财经)[2022/9/17 7:02:59]

2.去中心化的分布式计算尝试

2.1云服务模式

目前以太坊有如下问题:整体吞吐量低。消耗了大量的算力,但是吞吐量只相当于一台智能手机。验证积极性低。这个问题被称为Verifier’sDilemma。获得打包权的节点得到奖励,其他节点都需要验证,但是得不到奖励,验证积极性低。久而久之,可能导致计算得不到验证,给链上数据安全性带来风险。计算量受限(gasLimit),计算成本较高。有团队尝试采用,被Web2广泛采用的云计算模式。用户支付一定费用,按照计算资源使用时间来计算费用。采取这样模式,其根本原因是因为其无法验证计算任务是否被正确执行,只能通过可检测的时间参数或者其他可控的参数。最终这个模式没有广泛应用,没有考虑人性的因素。大量资源被用于挖矿,以谋取最大利益。导致真正可被利用的资源较少。这是博弈系统内,各个角色谋求利益最大化的结果。最终呈现的结果,和最开始的初衷完全背离。2.2挑战者模式

而TrueBit则利用博弈体系,达到全局最优解,来保障下发的计算任务是被正确执行。https://www.aicoin.com/article/256862.html我们快速这种计算框架的核心要点:角色:问题解决者、挑战者和法官问题解决者需要质押资金,才可以参与领取计算任务挑战者作为赏金猎人,需要重复验证问题解决者的计算结果,和自己本地的是否一致挑战者会去抽取与两者计算状态一致的最近时间的计算任务,如果出现分歧点,提交分歧点的默克树hash值最后法官评判是否挑战成功但是这个模式存在以下几点缺陷:挑战者可以晚时间提交,只需要完成提交任务就行。这样导致结果是,缺少及时性。2.3利用零知识证明验证计算

ALPEX与区块链新媒体摩登投资达成深度合作:据官方消息,近日,ALPEX数字资产和衍生品平台与区块链新媒体摩登投资达成深度合作。摩登投资是社区化媒体,专注于区块链技术分析,致力打造一个全球范围内透明、高效、自治、共享的专业数字资产交易及全生态社区。ALPEX为用户打造高效安全的交易平台,目前拥有三大国际金融牌照。[2021/7/16 0:58:05]

所以如何实现,既保证计算过程可被验证,又能保障验证的及时性。例如zkEVM的实现,每个区块时间,需要提交可被验证的zkProof。这个zkProof包含逻辑计算业务代码生成的字节码,再由字节码执行生成电路代码。这样实现了计算业务逻辑是被正确执行,而且通过较短和固定时间来保障验证的及时性。虽然zkEVM只是针对智能合约执行的场景,本质还是在计算业务框架下面。如果我们将EVM逻辑顺延到其他通用类型的虚拟机,例如WASM虚拟机,或者更加通用的LLVM高性能虚拟机。当然在具体落实到工程实践上会有诸多挑战,却给我们更多的探索空间。在假定条件下,有足够高性能的零知识证明加速硬件和足够被优化的零知识证明算法,通用计算场景可以得到充分发展。大量Web2场景下的计算业务,都可以被零知识证明通用虚拟机进行复现。就如前文所提到可赚钱的业务方向。3.零知识证明和分布式计算的结合

3.1学术层面

我们回看一下零知识证明算法历史发展演进的路线:GMR85是最早起源的算法,来源于Goldwasser、Micali和Rackoff合作发表的论文:TheKnowledgeComplexityofInteractiveProofSystems,该论文提出于1985年,发表于1989年。这篇论文主要阐释的是在一个交互系统中,经过K轮交互,需要多少知识被交换,从而证明一个证言是正确的。姚氏混淆电路。一种著名的基于不经意传输的两方安全计算协议,它能够对任何函数进行求值。混淆电路的中心思想是将计算电路分解为产生阶段和求值阶段。每一方都负责一个阶段,而在每一阶段中电路都被加密处理,所以任何一方都不能从其他方获取信息,但他们仍然可以根据电路获取结果。混淆电路由一个不经意传输协议和一个分组密码组成。电路的复杂度至少是随着输入内容的增大而线性增长的。在混淆电路发表后,Goldreich-Micali-Wigderson将混淆电路扩展使用于多方,用以抵抗恶意的敌手。sigma协议又称为诚实验证者的零知识证明。即假设验证者是诚实的。这个例子类似Schnorr身份认证协议,只是后者通常采用非交互的方式。2013年的Pinocchio(PGHR13):Pinocchio:NearlyPracticalVerifiableComputation,将证明和验证时间压缩到适用范围,也是Zcash使用的基础协议。2016年的Groth16:OntheSizeofPairing-basedNon-interactiveArguments,精简了证明的大小,并提升了验证效率,是目前应用最多的ZK基础算法。2017年的Bulletproofs(BBBPWM17)Bulletproofs:ShortProofsforConfidentialTransactionsandMore,提出了Bulletproof算法,非常短的非交互式零知识证明,不需要可信的设置,6个月以后应用于Monero,是非常快的理论到应用的结合。2018年的zk-STARKs(BBHR18)Scalable,transparent,andpost-quantumsecurecomputationalintegrity,提出了不需要可信设置的ZK-STARK算法协议,这也是目前ZK发展另一个让人瞩目的方向,也以此为基础诞生了StarkWare这个最重量级的ZK项目。Bulletproofs的特点为:1)无需trustedsetup的shortNIZK2)基于Pedersencommitment构建3)支持proofaggregation4)Provertime为:O(N?log(N))O(N\\cdot\\log(N))O(N?log(N)),约30秒5)Verifiertime为:O(N)O(N)O(N),约1秒6)proofsize为:O(log(N))O(\\log(N))O(log(N)),约1.3KB7)基于的安全假设为:discretelogBulletproofs适用的场景为:1)rangeproofs2)innerproductproofs3)MPC协议中的intermediarychecks4)aggregatedanddistributed(withmanyprivateinputs)proofsHalo2主要特点为:1)无需trustedsetup,将accumulationscheme与PLONKisharithmetization高效结合。2)基于IPAcommitmentscheme。3)繁荣的开发者生态。4)Provertime为:O(N?logN)O(N*\\logN)O(N?logN)。5)Verifiertime为:O(1)>O(1)>O(1)>Groth16。6)Proofsize为:O(logN)O(\\logN)O(logN)。7)基于的安全假设为:discretelog。Halo2适于的场景有:1)任意可验证计算2)递归proofcomposition3)基于lookup-basedSinsemillafunction的circuit-optimizedhashingHalo2不适于的场景为:1)除非替换使用KZG版本的Halo2,否则在以太坊上验证开销大。Plonky2主要特点为:1)无需trustedsetup,将FRI与PLONK结合。2)针对具有SIMD的处理器进行了优化,并采用了64byteGoldilocksfields。3)Provertime为:O(logN)O(\\logN)O(logN)。4)Verifiertime为:O(logN)O(\\logN)O(logN)。5)Proofsize为:O(N?logN)O(N*\\logN)O(N?logN)。6)基于的安全假设为:collision-resistanthashfunction。Plonky2适于的场景有:1)任意可验证计算。2)递归proofcomposition。3)使用自定义gate进行电路优化。Plonky2不适于的场景为:1)受限于其non-nativearithmetic,不适于包含椭圆曲线运算的statements。目前Halo2成为zkvm采用的主流算法,支持递归证明,支持验证任意类型的计算。为零知识证明类型虚拟机做通用计算场景,奠定了基础。3.2工程实践层面

IOST宣布战略投资ATTN 双方将在区块链游戏领域进行深度合作:近日,IOST宣布战略投资ATTN。IOST是一个由红杉、经纬、真格等全球一线美元投资机构支持的,为在线服务提供商而开发的区块链应用平台。主网上线后IOST已正式成为除Ethereum、EOS、Tron外全球Top 4的DApp公链平台。ATTN是一个基于区块链技术的游戏数字生态平台,拥有多款自主设计的热门PVP游戏,携玩家池、CP池、流量池、主播池累积迁移上链,致力于打造游戏电竞IP价值最大化为核心目标的网络生态闭环。此前ATTN曾获OK战略合作投资机构K42以及共识实验室等机构投资。[2020/6/30]

既然零知识证明在学术层面突飞猛进,具体落地到实际开发时候,目前进展是怎样的呢?我们从多个层面去观察:编程语言:目前有专门的编程语言,帮助开发者不需要深入了解电路代码如何设计,这样就可以降低开发门槛。当然也有支持将Solidity转译成电路代码。开发者友好程度越来越高。虚拟机:目前有多种实现的zkvm,第一种是自行设计的编程语言,通过自己的编译器编译成电路代码,最后生成zkproof。第二种是支持solidity编程语言,通过LLVM编译成目标字节码,最后转译成电路代码和zkproof。第三种是真正意义的EVM等效兼容,最终将字节码的执行操作,转译成电路代码和zkproof。目前是zkvm的终局之战吗?并没有,不管是拓展到智能合约编程之外的通用计算场景,还是不同方案的zkvm针对自身底层指令集的补齐和优化,都还是1到N的阶段。任重而道远,大量工程上的工作需要去优化和实现。各家在学术层到工程实现上实现了落地,谁能最终成为王者,杀出一条血路。不仅需要在性能提升有大幅进展,还要能吸引大量开发者进入生态。时间点是十分重要的前提要素,先行推向市场,吸引资金沉淀,生态内自发涌现的应用,都是成功的要素。周边配套工具设施:编辑器插件支持、单元测试插件、Debug调试工具等等,帮助开发者更加高效的开发零知识证明应用。零知识证明加速的基础设施:因为整个零知识证明算法中,FFT和MSM占用了大量运算时间,可以GPU/FPGA等并行计算设备来并行执行,达到压缩时间开销的效果。不同编程语言实现:例如采用更加高效或者性能表现更好的编程语言:Rust。明星项目涌现:zkSync、Starkware等等优质项目,相继宣布其正式产品发布的时间。说明了,零知识证明和去中心化计算结合不再是停留在理论层面,在工程实践上逐渐成熟。4.遇到的瓶颈以及如何解决

4.1zkProof生成效率低

前面我们讲到,关于这块市场容量、目前行业发展情况、在技术上的实际进展,但是没有存在一点挑战吗?我们对整个zkProof生成的流程进行拆解:

知名专家:区块链正推动技术创新、产业应用与实体经济深度融合:5月28日下午,在国家工业信息安全发展研究中心联合武汉市经济和信息化局举办“信息技术大讲堂”武汉专场系列第五场线上活动上,多位全国知名专家表示,区块链正在推动技术创新、产业应用与实体经济的深度融合,成为产业发展创新的关键引擎,武汉有科研、人才、市场优势,在区块链与区域经济社会发展高度融合中,必将会为武汉带来新的发展机遇。 (长江日报)[2020/5/29]

在逻辑电路编译数值化r1cs的阶段,里面80%的运算量在NTT和MSM等计算业务上。另外对逻辑电路不同层级进行hash算法,随着层级越多,Hash算法时间开销线性增加。当然现在行业内提出时间开销减少200倍的GKR算法。但是NTT和MSM计算时间开销,还是居高不下。如果希望给用户减少等待时间,提升使用体验效果,必须要在数学实现上、软件架构优化、GPU/FPGA/ASIC等等层面进行加速。下图为各个zkSnark家族算法的证明生成时间和验证时间的测试:

动态 | 济南市量子技术在区块链等领域得到深度融合与广泛应用:据齐鲁晚报消息,近日,济南市政府正式批复了济南市量子信息产业发展规划(2019-2022年)。根据规划,到2030年,量子通信和量子测量领域实现大规模商用,推动实现小规模、专用量子计算机产业应用,相关技术在人工智能、机器学习、高性能计算、区块链、大数据、云计算、物联网等领域得到深度融合与广泛应用,形成产业经济规模效应和集群品牌美誉度,建成具有较强国际影响力的创新创业中心,成为全球量子技术及产业发展战略高地,实现量子信息产业规模300亿元,具备千亿级产业发展能力。[2019/3/14]

既然我们可以看到缺陷和挑战,同时也意味着其中深藏着机会:设计针对特定zkSnark算法加速或者通用zkSnark算法加速的芯片。相比其他类型的加密算法,zkSnark产生较多临时文件,对于设备的内存和显存存在要求。芯片创业项目,同时也面临大量资金投入,还不一定能保障最后可以流片成功。但是一旦成功,其技术壁垒和IP保护都将是护城河。芯片项目创业,必须要足够议价能力的渠道,拿到最低成本。以及在整体品控上做到保障。显卡加速的Saas服务,利用显卡做加速,是支出代价小于ASIC设计,而且开发周期也较短。但是软件创新上,在长周期上最终会被硬件加速所淘汰。4.2硬件资源占用大

目前和一些zkRollup项目接触,最终发现还是大内存和大显存显卡比较适合他们用于软件加速。例如在Filecoin挖矿中,大量闲置的数据封装机成为了现在热门zkRollup项目的目标设备。在Filecoin挖矿中,在C2阶段,需要将生成的电路代码文件,生成并缓存在内存中。如果业务代码逻辑十分复杂,其对应生成的电路代码规模也会非常大,最终呈现形式就是体积大的临时文件,特别涉及对电路代码进行Hash运算,需要AMDCPU指令来加速。因为直接CPU和内存之间高速交换,效率非常高。这里面还需要涉及到NVME的固态硬盘,都会是对zkSnark运算起到加速作用。以上我们对可能存在加速实现的可能性进行探讨,发现对资源要求还是非常高的。在未来,如果想大规模普及zkSnark应用,通过不同层面优化,势在必行。4.3Gas消耗成本

我们观察到所有zkRollupLayer2需要将zkProof传递到layer1进行验证和存储,因为ETH链上资源十分昂贵,如果大规模普及后,需要为ETH支付大量Gas。最终由用户承担这个成本,和技术发展的初衷。所以很多zkp项目提出,数据有效层、利用递归证明压缩提交的zkProof,这些都是为了降低Gascost。4.4虚拟机的指令缺失

当前大部分zkvm面向智能合约编程的平台,如果要更加通用的计算场景,对zkvm底层指令集有大量的补齐工作。例如zkvm虚拟机底层支持libc指令,支持矩阵运算的指令,等等其他更加复杂的计算指令。5.结语

因为智能合约平台更多面向资产进行编程,如果我们希望更多真实业务场景可以接入到Web3,零知识证明和去中心化计算的结合带来了契机。我们相应零知识证明将会成为主流赛道,不再是细分领域的技术。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

银河链

TUSD大话圆桌:Web3的投资机会

12月15日,Web3.0CloudDaySingapore2022活动于新加坡顺利举办。在第二场圆桌论坛中,Jsquare联合创始人兼CEO、DFG投资负责人JoannaLiang,GSRVFund&GSRVentures合.

TUSD去中心化应用的终极是应用链?

互操作性是近期在Web3兴起的概念,是指不同的计算机系统、网络、操作系统和应用程序一起工作并共享信息的能力。随着链上通信、语义交互逐渐复杂,链上用户多样的需求已然超出应用在单条链可承受的技术能力.

聚币Multicoin LP:为什么我想要从Multicoin赎回投资?

几天前,我参加了Multicoin每月的LP电话会议。我开始还在犹豫是否要写这篇文章,因为多年来我一直是他们的对冲基金和风险基金的忠实投资者。最后,我还是决定写一下,以下是电话会议的主要收获与总结,以及我可能会赎回资金的原因.

[0:0ms0-1:560ms