hi guys, my name is Derick and I'm a back-end programmer who loves technology. I'm looking forward to learning about the Ethereum Protocol by attending https://epf.wiki/
这篇文章讨论了软件公共资源(如Linux和以太坊)的资本和围栏问题。主要观点如下:
- 软件(如Linux和以太坊)是一种共生资源:
- 读取状态和历史记录具有低排他性和反竞争性:使用和引用EVM基础设施的人越多,对单个用户的价值就越大。任何运行节点的人都可以通过运行自己的节点来访问。链上数据可称为"知识共享资源",记录可供任何人验证,是一个广泛可用的丰富数据集。
- 写入状态具有低排他性和高竞争性:并发用户数量受区块gas限制的限制,以确保节点运营商的资源需求不会增长太快。尽管它是一个数字对象,但需要注意存储、带宽、计算等方面的限制。
-
资本会寻求从哪里提取私人利益,如从状态验证(浏览器)、区块空间生产(MEV、托管验证)和区块空间消费(用户体验、产品)中插入和提取利润。
-
文章提出了两个问题:
- 嵌入在资源生产中的本地资本形式是否能更好地修改负面外部性?
- 随着时间的推移,它是否会加强外部资本进入和吸收资源生产系统的动机?
通过学习这篇文章,它讨论了以太坊共识协议 LMD-GHOST 在实现单时隙确定性(Single Slot Finality,SSF)后的重组弹性和安全性问题。主要观点如下:
-
当前的 LMD-GHOST 协议在 SSF 设置下存在重组问题,这主要是由于协议考虑了所有的最新消息(Latest Message),而不仅仅是最近的消息。
-
为了解决这个问题,作者提出了一种改进的协议,称为 RLMD-GHOST(Recent LMD-GHOST),它只考虑最近 η 个时隙内的最新消息。当 η = 1 时,RLMD-GHOST 退化为 Goldfish 协议;当 η = ∞ 时,它退化为原始的 LMD-GHOST。
-
RLMD-GHOST 在一个广义的 sleepy 模型下是动态可用的和重组弹性的。这比通常的 sleepy 模型下的安全性要弱,因为作者对攻击者施加了一些额外的限制,不允许完全可变的参与度。
-
尽管如此,作者认为这些假设在实践中是相当合理的。通过适当地选择 η 值,RLMD-GHOST 可以在重组弹性和活性之间取得平衡。
-
作者还讨论了 RLMD-GHOST 与 Gasper 的交互,Gasper 是以太坊当前的混合共识协议。他们提出RLMD-GHOST 可以作为 Gasper 的基础层,提供一个可用和重组弹性的链,而 Casper FFG 可以在其上实现经济确定性。
这篇提案 提出了一个适度增加以太坊验证者最大有效余额(MAX_EFFECTIVE_BALANCE)的建议,主要内容总结如下:
-
目前以太坊的MAX_EFFECTIVE_BALANCE被设置为32 ETH,这导致验证者集合规模非常庞大,截至2023年6月6日已有超过60万个活跃验证者,另有9万个在激活队列中。虽然大量验证者意味着更高的去中心化,但人为限制了验证者的最大规模。
-
提案建议将MAX_EFFECTIVE_BALANCE从32 ETH提高到更高的值,以鼓励验证者集合收缩,这有利于改善以太坊的可扩展性和降低共识层的复杂性。但同时要保持激活新验证者所需的最低ETH数量不变,以维持去中心化。
-
增加MAX_EFFECTIVE_BALANCE可以让大型质押者获得更高的资本效率,因为他们可以更快地提高有效余额,减少提款和重新激活的需求。但也有观点认为,过高的罚没风险可能会阻碍验证者合并。
-
有效余额目前以1 ETH为增量单位,并与实际余额分开计算。调整增量单位可能会影响验证者集合的再散列频率,需要进一步研究其复杂性影响。
Single-slot finality (SSF) 是以太坊共识机制升级的一个重要目标,旨在将区块达成不可逆的时间从目前的64-95个时隙(约15分钟)缩短到一个时隙(12秒)。
目前以太坊采用的Gasper共识协议在终局性时间、去中心化程度和链上负载之间做出了折中。而SSF的实现将带来以下好处:
- 大幅缩短交易确认时间,提升用户体验
- 消除短程重组(short-range reorg)的风险,提高安全性
- 简化共识协议,减少潜在的漏洞
为实现SSF,以太坊需要减少参与共识的验证者数量,可能的方案包括:
- 提高每个验证者的最大质押额度(如从32 ETH提高到2048 ETH),鼓励验证者合并质押
- 动态调整验证者的奖励和惩罚,控制总数在一定范围内
- 引入超级委员会(supercommittee)机制,由部分验证者代表全体进行共识
以太坊共识层的一个改进提案,称为view-merge,旨在取代目前的proposer boost机制。主要观点如下:
-
View-merge的核心思想是让区块提议者将真实的验证者签名聚合并引用到区块中,而不是人为地提升某些区块的权重。这样可以避免proposer boost被滥用。
-
诚实的验证者只会在上一时段提交聚合签名,因此区块提议者通常只需引用上一时段的聚合签名即可。恶意聚合签名占用的空间有上限。
-
View-merge消息中只包含对聚合签名的引用以及聚合者作恶的证据,数据量较小。
-
提议者可以按照时段顺序引用聚合签名,直到达到区块大小上限。超过14个时段以前的签名通常是无关紧要的,除非存在一条很长的竞争分叉。
-
未来view-merge机制有望直接整合到区块内容中,而不是单独的消息。
view-merge提供了一种相对简洁且难以被滥用的机制,在一定程度上可以替代现有的proposer boost,改善以太坊共识的安全性和活性。
- 今天学习week 10 research 的pos演化过程分析
这篇文章主要介绍了以太坊从工作量证明(PoW)向权益证明(PoS)共识机制演进的过程和相关技术细节。
以太坊最初采用PoW共识,但一直计划过渡到PoS。PoS下,区块生产者(验证者)运行全节点,质押原生代币,并根据选择过程提议或验证区块。
2022年9月,以太坊通过"合并"升级实现了向PoS的转变。合并将原有的执行层与新的PoS共识层(信标链)连接在一起。这要求全节点同时运行执行客户端和共识客户端,两者通过API交互构成完整的以太坊节点。
合并带来几个主要好处:
- 大幅降低能耗,更加环保
- 通过质押ETH参与共识,使网络更加去中心化
- 为未来分片扩容奠定基础
文档还详细介绍了信标链区块的数据结构、验证者的有效余额计算方法等技术实现细节。
在信标链中,每个区块包含以下关键数据:
- 区块头:包含父区块哈希、状态根、签名等元数据
- 执行负载:包含已执行交易的相关信息
- 共识负载:包含Casper FFG和LMD GHOST共识所需数据,如Epoch号、验证者投票等
验证者的有效余额(effective balance)是参与共识的关键因素,但为了性能考虑,有效余额的更新频率远低于实际余额。有效余额具有以下特点:
-
有效余额以ETH为单位,必须是EFFECTIVE_BALANCE_INCREMENT常量(即1 ETH)的整数倍,而实际余额以Gwei为单位。
-
有效余额设置上限为32 ETH,超出部分不计入有效余额。这促使大户创建多个验证者账户,而不是单个账户质押过多ETH。
-
有效余额的调整具有滞后性(hysteresis)。仅当实际余额达到特定阈值时,有效余额才会更新。这避免了频繁重新计算验证者列表的哈希值。
-
验证者的出块概率、投票权重、奖惩金额等,都与其有效余额成正比。
有效余额作为验证者参与共识的加权因子,在性能和经济激励方面达成了平衡。通过限额和滞后调整,在降低计算开销的同时,确保了共识安全和网络去中心化。
- 通过week 10 dev的课外内容了解到Hyperledger Besu,做私有化,联盟链的时候可以使用。
- Hyperledger Besu是一个专为企业设计的以太坊客户端,旨在满足公共和私有许可网络的需求,具有可提取的以太坊虚拟机(EVM)实现。其主要目的包括:
-
提供一个企业友好的以太坊解决方案:Besu专为企业级用例而设计,支持公共和私有许可网络,满足企业对安全性、隐私性和性能的要求。
-
支持多种共识算法:Besu内置了多种共识机制,包括权益证明(PoS)、工作量证明(PoW)以及权威证明(PoA),如IBFT 2.0、QBFT和Clique,适应不同的使用场景。
-
提供全面的权限管理:Besu提供了专门用于联盟环境的综合权限管理方案,可以精细控制数据访问。
-
实现互操作性:Besu不仅可以构建私有网络,还与以太坊网络兼容,具有很强的互操作性。它完全支持流行的ERC721、ERC1155和ERC1400等标准。
-
构建去中心化应用:Besu可用于开发各种去中心化应用,如供应链追踪、金融结算、中央银行数字货币(CBDC)、贸易融资等。
Hyperledger Besu旨在为企业提供一个安全、灵活、高性能的以太坊平台,支持构建满足企业级需求的公共和私有许可区块链网络及应用。其开源性质和活跃的社区也为Besu的持续发展和创新提供了动力。
EVM 预编译合约的使用方式主要包括:
-
通过特定地址调用:预编译合约位于 EVM 中从 0x1 到 0x9 的特定地址。可以像调用普通合约一样,使用 CALL 等 EVM 操作码调用这些地址,执行预编译合约。
-
在 Solidity 中调用:Solidity 提供了一些内置的函数,如 ecrecover、sha256 等,可以直接在 Solidity 代码中调用这些函数,底层实际执行的是对应的预编译合约。
-
使用 Solidity assembly 调用:可以在 Solidity 的 assembly 块中,使用 CALL 操作码直接调用预编译合约的地址。
-
设置合适的 gas:调用预编译合约需要提供足够的 gas。每个预编译合约都有特定的 gas 消耗,调用时需要设置合适的 gas limit。
-
传入正确的输入:每个预编译合约都有自己的输入格式规范,调用时需要按照规范传入正确的参数。例如,ecrecover 预编译合约需要传入签名的哈希值、v/r/s 值等。
-
处理返回值:预编译合约的执行结果会通过返回值返回。调用者需要按照预编译合约的规范,正确解析返回值。
-
在 L2 上使用自定义预编译合约:一些 L2 如 Bitfinity 支持添加自定义的预编译合约。开发者可以在这些 L2 上部署和使用自己的预编译合约,来实现特定功能。
使用 EVM 预编译合约主要是通过特定地址调用,并正确设置 gas、传入参数、处理返回值。在 Solidity 中,有一些内置的函数可以直接使用。L2 上还可能支持自定义预编译合约的部署和使用。
预编译合约是以太坊提供的一组高度优化的原生函数,主要用于密码学功能。它们位于从0x1到0x8的特定地址。一些主要的预编译合约包括:
- 0x1: ECDSA 签名恢复函数(ecrecover)
- 0x2: SHA-256 哈希函数(sha256)
- 0x3: RIPEMD-160哈希函数(ripemd160)
- 0x4: 身份函数(identity)
在以太坊的Go语言客户端实现geth中,预编译合约被定义在一个映射中。Solidity作为以太坊的原生语言,大部分预编译合约的功能都可以通过内置函数直接使用。
在使用预编译合约时需要注意一些安全问题:
- 签名恢复的错误实现可能导致签名延展性问题,攻击者可以操纵签名中的v值生成不同的公钥。
- 调用预编译合约需要消耗gas,错误估计gas消耗可能导致out-of-gas异常和交易失败。
- 不能假设预编译合约的输出一定是确定性的。
预编译合约为以太坊提供了高效的密码学原语,开发者可以方便地在智能合约中使用它们,但同时也要注意相关的安全问题。
这篇提案是Vitalik Buterin提出的以太坊改进提案(EIP),主要内容是引入状态过期(State Expiry)机制。
具体来说,该提案建议用一个状态树列表取代单一的状态树,每个树对应大约一年的时间段。状态编辑存储在当前时期对应的树中,超过最近两个时期的树不再由客户端存储。
使用旧状态(在最近两个时期未被修改)的交易,需要提供证人(witness)。假设已经实施了Verkle树,因此状态对象包含一个Patricia树和一个Verkle树。
该EIP通过将状态列表扩展为N个Verkle树来实现状态过期,客户端只存储最后两棵树。旧状态仍然可以访问,但交易发送者需要提供证人来验证状态。
提案还引入了一种新的交易类型SignedNewTransaction,包含了访问旧状态所需的Verkle证明等字段。
为了支持状态过期(State Expiry)机制,引入了一种新的交易类型SignedNewTransaction。它包含以下字段:
class SignedNewTransaction(Container):
payload: NewTransaction
old_state_proof: VerkleProof
signature: ECDSASignature
class NewTransaction(Container):
nonce: uint64
target_address_period: uint24
gas: uint64
priority_fee: uint64
max_gasprice: uint64
to: Address32
value: uint256
data: bytes
claimed_states: List[StateClaim, 224]
其中最关键的是old_state_proof字段,它是一个VerkleProof类型,包含了访问过期状态所需的Verkle树证明。
由于实施了状态过期后,超过最近两个时期(每个时期约一年)的状态不再由客户端存储,因此如果一个交易需要访问这些旧状态,就必须在交易中附上相应的Verkle证明,证明这些状态在过期之前的存在性和正确性。
claimed_states字段则列出了该交易声称的一组账户状态。
其他字段如nonce、gas、to、value、data等与普通交易类似,用于指定交易的各种参数。
SignedNewTransaction通过引入old_state_proof等字段,使得在状态过期后,交易仍然能够安全地访问和使用旧状态,从而确保了状态过期机制的可行性。这是以太坊在不牺牲去中心化和安全性的前提下,努力提高可扩展性的重要探索之一。
- 学习两个提案并总结内容
EIP-4444 提议以下改变以减少以太坊全节点所需的存储空间:
-
客户端必须停止在P2P层提供超过1年历史的区块头、区块体和收据数据。客户端可以在本地修剪这些历史数据。
-
这将把全节点所需的磁盘空间从目前400GB以上减少到大约60GB。历史数据对验证新区块不是必需的。
-
这个改变会影响依赖历史数据的应用,如显示区块、交易、账户历史的Web3应用。保存以太坊历史数据仍然很重要,可以通过BT、IPFS等带外方式实现。
-
风险是更多应用会依赖中心化服务获取历史数据,因为运行全节点会更困难。独立组织应该定期保存和检查历史数据的可用性。
-
这个提案与其他一些提案(如EIP-4488)没有直接关系,可以独立实施。
-
如果通过,建议在上海升级激活,给节点运营者和基础设施提供商至少6个月时间适应改变。
EIP-7668提议从以太坊执行层区块中移除布隆过滤器(Bloom filters):
-
要求执行区块中的布隆过滤器为空,包括顶层和收据对象中的布隆过滤器。
-
最初引入日志(logs)是为了让应用记录链上事件信息,去中心化应用(dapps)可以方便地查询。使用布隆过滤器,dapps可以快速遍历历史,识别包含相关日志的区块,然后快速找到需要的日志。
-
但实际上,这种机制太慢了。几乎所有访问历史数据的dapps最终都不是通过对以太坊节点的RPC调用,而是通过中心化的链外索引服务。该提案建议承认这一现实,从协议中删除布隆过滤器。
-
需要历史查询的应用应该开发和使用去中心化协议,使用zk-SNARK和可增量验证计算等技术创建可证明的日志索引。
-
规范:执行区块的logs bloom现在必须为空(即0字节长)。交易收据的logs bloom现在也必须为空。
-
这是一种以最小破坏性的方式消除客户端处理布隆过滤器的需求。未来的EIP可以通过删除该字段以及其他已弃用的字段来进一步清理。
-
LOG操作码的gas成本不会降低,因为虽然污染布隆过滤器的外部性不再需要考虑,但由于zk-SNARK EVM实现的需要,哈希的成本已经增加。
总之,该提案旨在从以太坊执行层移除布隆过滤器,鼓励应用开发去中心化的历史数据索引方案,而不是依赖中心化服务。
- Portal Network 是一个去中心化的以太坊存档节点API访问网络,它能以近乎零的同步时间和最小的硬件要求为用户提供以太坊数据。
传统上,以太坊用户只有两个选择:
- 投入大量计算资源和带宽来运行自己的以太坊节点
- 信任中心化的第三方(如RPC提供商)来提供以太坊数据
-
Portal Network 引入了第三种选择:以最小的硬件和带宽要求,以去中心化的方式访问以太坊数据。
-
Portal Network 实际上由几个对等网络(状态网络、信标网络和历史网络)组成,可以使用Portal Network客户端访问。每个网络存储以太坊全节点存储的数据的特定子集。每个Portal客户端只存储一小部分每种类型的数据。但Portal Network(完整的节点集)存储从创世块到接近链头的所有历史以太坊数据。
-
当你向以太坊节点请求数据时,你是在本地区块链副本中查找特定信息。如果通过RPC提供商请求数据,则在其他人存储的区块链副本中查找(他们在处理请求和响应时可能会操纵数据或跟踪你)。同步以太坊全节点需要下载数百GB的历史和状态数据,对其进行验证并在本地存储。这需要节点运营者投入大量CPU、网络带宽(每月1TB)、硬盘存储(1+TB SSD)和内存来运行节点。这使得许多人不愿意完全参与网络,形成了中心化力量,将用户推向第三方。
-
Portal Network 通过分布式存储以太坊数据,允许用户以最小的硬件和带宽要求,近乎即时的同步速度,以去中心化的方式访问链上数据,从而解决了以太坊节点运营的门槛问题。这有望推动更多用户参与以太坊网络。
学习week 9 dev 过程中,了解到Kurtosis 工具,了解了它的功能和优势。
Kurtosis 是一个用于打包和启动后端技术栈的平台,主要目标是让普通开发者也能轻松上手。它主要包含两个部分:
-
一个用于分发后端技术栈定义的打包系统,可以在 Docker 或 Kubernetes 上运行。
-
一个带有每个技术栈文件管理系统的运行时环境。开发者可以专注于开发,而不用操心复杂的环境配置。
使用 Kurtosis 的主要优势在于:
-
可以轻松创建短暂的开发或测试环境,不用被环境配置等琐事困扰。这在协作开发或为开源项目做贡献时尤其有用。
-
提供了一套标准化的方式来打包、分发和运行后端技术栈,简化了环境管理。
-
内置文件管理功能,开发者不必单独搭建文件服务器。
-
支持在 Docker 和 Kubernetes 等主流容器平台上运行,兼容性好。
-
Attacknet是一个用于在以太坊上进行混沌工程测试的软件。允许模拟各种边缘情况测试场景,以太坊Dencun分叉升级和peerDAS研究都使用了该工具进行测试。Attacknet的下一步工作重点是实现自动化测试,无需人工监督即可运行。
-
Attacknet支持配置多种类型的故障,包括网络延迟、抖动、丢包、数据包损坏、带宽限制、网络分割与重新加入、时钟偏差(如NTP故障)、CPU负载、RAM负载,以及磁盘故障、磁盘访问延迟、I/O错误、服务崩溃(即kill)等。目前正在开发的还有内核故障功能。
文章列举了一些初步计划的测试方案,主要围绕以下三个变量:
- 网络中客户端组合
- 混沌故障类型
- 混沌故障参数
测试目标包括分析在不同网络延迟、丢包率、时钟偏差等故障情况下,错过的区块数量,并找出其相关性。测试计划对每种执行层(EL)和共识层(CL)的组合进行重复测试。
Attacknet的工作原理如下:
-
使用Kurtosis生成一个开发网络(devnet)环境,可以创建各种网络拓扑结构。
-
通过Chaos Mesh在devnet中注入各种故障,如网络延迟、丢包、时钟偏差、节点崩溃等,将区块链网络推向极端边缘情况。
-
故障结束后,Attacknet对网络中的每个节点执行一系列健康检查,以验证它们是否能从故障中恢复。如果所有节点都恢复了,就转移到下一个配置的故障。如果有节点未通过健康检查,则生成日志和测试信息的构件以进行调试。
-
Attacknet支持手动配置网络拓扑和故障参数的模式,以及针对特定客户端运行一系列故障的"计划模式"。未来还计划增加一个"探索模式",动态定义故障参数并反复注入监控网络健康状况,类似于模糊测试。
-
Attacknet目前正用于测试Dencun硬分叉,并在不断更新以提高覆盖率、性能和调试体验。它不是以太坊特有的工具,而是模块化设计,可轻松扩展以支持其他类型的区块链。
- 通过学习week 9 dev 了解了以太坊协议升级需要经历的测试和原型开发过程。
- 开发网络(Devnets):
- 以太坊基础层的测试镜像,包含执行层、共识层和验证者
- 允许开发者部署分叉和变更而不影响主网
- 完全可控的验证者集合,可设计边缘情况场景进行测试
- 本地测试:
- 使用Kurtosis工具进行本地devnet测试,通过YAML文件配置参数
- 可快速测试变更,支持异步开发新特性
- 可配置参数如时隙时间、快速分叉、MEV工作流等
- 原型测试:
- Kurtosis允许覆盖修改网络中的任何内容
- 通过替换客户端镜像来测试协议变更
- 在现有网络上运行并连接新工具进行测试
- 通过修改网络参数来测试快速分叉
- 公共测试网:
- 将基础逻辑移至通用Ansible roles中
- 将通用组件抽取为独立工具,如创世区块生成器
- 使用GitOps使工具独立于仓库/测试网
- 统一所有测试网的配置
- 影子分叉(Shadowforks):
- 在整个生命周期内检查所有客户端的兼容性
- 全新测试网可以轻松测试不同客户端组合
- 影子分叉在真实状态和交易负载下压测客户端
- 可控地邀请参与者参与测试
- 在向公众推荐新版本前,充当真实世界边缘情况的发布测试
- 其他有用工具:
- Assertoor: 断言网络级别的预期行为
- Forky: 以太坊分叉选择可视化工具
- Tracoor: 以太坊交易追踪浏览器
- Dora: 轻量级信标链时隙浏览器
- Xatu: 以太坊P2P层可见性分析工具
Ethereum 目前有两种主要的 PBS (Proposer-Builder Separation) 方案,旨在提高网络的去中心化和安全性:
- 在RBS模型中,区块提议者(proposer)和区块构建者(builder)的角色被分离。
- 中继者(relayer)从建造者那里收集区块,并将其转发给提议者。提议者然后选择一个区块,对其进行验证并将其添加到区块链中。
- 这种分离可以防止提议者审查特定的交易或使用MEV(最大可提取价值)获利。
- 与RBS类似,PBS也将区块提议和构建职责分离,但没有中继者的角色。
- 建造者直接将区块提交给提议者,提议者进行选择和验证。
- PBS旨在通过减少角色和简化流程,进一步去中心化并提高效率。
Vitalik Buterin在ETHTaipei 2024活动上提出了"彩虹质押"(Rainbow Staking)的概念,这是一个允许协议服务提供商(无论是"个人"还是"专业")最大限度地参与差异化协议服务菜单的概念框架。
彩虹质押旨在解决以下问题:
- 进一步整合"即插即用"方式的协议服务
- 防止出现取代以太币成为网络代币的主导性LST(流动性质押代币)
- 通过提供参与不同服务类别的机会,增强个人质押者的经济价值和代理权
彩虹质押处理"重质押"(heavy staking)和"轻质押"(light staking)两类服务:
- 重质押是可削减的,并在每个时隙签名
- 轻质押是不可削减的,通过抽签系统被提取签名时隙
- 两者都需要签署区块才能最终确定该区块
但彩虹质押仍需更多的研究和开发,才能成为以太坊长期质押的可行设计。Vitalik指出,最大的问题不是技术性的,而是哲学性的,即如何让"懒惰的以太币持有者"参与保护以太坊网络。
- 通过学习 https://github.com/eth-protocol-fellows/protocol-studies/blob/pbs/docs/wiki/research/PBS/PEPC.md 内容,了解到以下内容
-
PEPC 旨在提高区块构建者(builders)的效率和隐私性,同时防止审查。它要求区块提议者(proposers)先提交一个承诺(commitment),然后再披露区块内容。
-
PEPC 的工作原理是:
- 构建者生成一个区块,将其与一个随机数一起哈希,得到一个承诺。
- 构建者将承诺发送给提议者。提议者选择一个承诺,将其包含在信标链区块中。
- 在下一个时隙,构建者披露区块内容和随机数,证明其与先前的承诺相对应。
-
PEPC 有几个优点:
- 在提议者没有披露区块内容的情况下,构建者可以开始构建下一个区块,提高了效率。
- 提议者在构建者披露区块内容之前,无法审查特定交易。
- 通过使用 VDF (Verifiable Delay Function),可以抵抗 DoS 攻击。
-
PEPC 的一些权衡和开放性问题包括:
- 构建者在披露区块之前可能会撤回,造成区块丢失。
- 恶意构建者可能会提交无效的承诺。需要一些机制来惩罚这种行为。
- 实现 VDF 可能具有挑战性。
这篇文章主要介绍了以太坊中的最大可提取价值(MEV)概念:
-
MEV的定义: MEV指通过在区块中包含、排除和更改交易顺序而获得的最大价值。这些操作由拥有交易排序权的参与者(如矿工)执行。
-
MEV的起源: MEV最初被称为"矿工可提取价值",因为在工作量证明系统中,矿工控制交易的包含和排序。但在权益证明系统中,验证者和区块构建者也可以提取MEV,因此现在称为"最大可提取价值"。
-
MEV的例子: 常见的MEV机会包括DEX套利、清算、夹心交易等。搜索者编写复杂算法来检测盈利的MEV机会。
-
MEV的影响: MEV有积极和消极的影响。积极的是,MEV可以使DeFi协议更加稳定和有用。消极的是,MEV可能导致网络拥塞、用户体验变差、共识不稳定等问题。
-
MEV的状况: 2021年MEV开采量剧增,导致矿工费价格极高。Flashbots的MEV中继的出现,降低了普通抢跑者的效力,并将矿工费价格拍卖带出链外,降低了普通用户的矿工费。
-
权益证明下的MEV: 在权益证明系统下,区块生产被分成构建(由区块构建者完成)和提议(由验证者完成)。构建者负责打包交易,可以从MEV中获利。中继者负责将交易包传送给提议者。托管负责存储构建者发送的区块体和验证者发送的区块头。
Teku 是由 ConsenSys 开发的开源以太坊共识客户端,包含完整的信标链节点和验证者客户端实现。它采用 Java 编写,并以 Apache 2.0 许可证发布。
-
信标节点 (Beacon Node): 信标节点是 Teku 的核心组件之一。它连接到以太坊 2.0 网络,负责同步和验证区块,并维护最新的网络状态。
-
验证者客户端 (Validator Client): 验证者客户端负责管理验证者的密钥和签名操作。它与信标节点通信,根据信标链的状态参与证明权益共识过程。
-
存储: Teku 使用 LevelDB 作为底层存储,用于存储区块、状态和其他链数据。
-
网络: Teku 使用 libp2p 网络库与其他节点通信,并实现了以太坊 2.0 的网络协议。
-
共识: Teku 实现了以太坊 2.0 的 Gasper 共识算法,包括 Casper FFG 和 LMD GHOST。
-
API: Teku 提供了 REST API 和 JSON-RPC API,允许外部应用程序与之交互。
Teku 支持多种同步模式,以适应不同的使用场景和性能要求:
-
快照同步 (Snap Sync): 这是 Teku 的默认同步模式。它从一个可信的检查点开始同步,并下载最新的状态快照,以快速同步到网络的当前状态。
-
完全同步 (Full Sync): 在完全同步模式下,Teku 从创世区块开始同步,并逐个验证每个区块,以建立完整的区块链状态。
-
归档同步 (Archive Sync): 归档同步类似于完全同步,但它会存储所有的历史状态,而不仅仅是最新的状态。
- Teku 在设计时考虑了可扩展性和安全性。它支持单独运行信标节点和验证者客户端,以提高安全性。Teku 还与 Web3Signer 集成,以实现签名密钥的安全存储和防双签保护。是一个功能完备、架构良好的以太坊 2.0 客户端。它提供了灵活的部署选项、多种同步模式以及与以太坊生态系统的无缝集成,是机构级用户和企业的理想选择。
关于verkle树的学习,已经在week3 中有过总结 ,在此只记录下视频中提到的如何将以太坊状态转换为verkle树的过程。 Converting the Ethereum state into a Verkle tree is a complex process with ongoing research. Here's a breakdown of the key aspects:
Challenges:
- Data Size: The Ethereum state is massive, and converting it all at once is impractical. The process needs to be batched and optimized for efficiency.
- State Updates: Ethereum is constantly evolving, with new data added and existing data modified through transactions. The conversion needs to account for these ongoing updates.
- Trade-offs: While Verkle trees offer efficiency benefits, there might be trade-offs in terms of complexity and gas costs for specific operations compared to the current Merkle Patricia Trie (MPT).
General Steps (Conceptual):
- Preparation: Identify a starting point (block) and determine the size of data batches for conversion.
- Iterative Conversion:
- Extract a batch of state data from the existing MPT.
- Process the data and organize it according to the Verkle tree structure. This involves hashing and creating Merkle proofs.
- Store the Verkle tree representation of the batch.
- State Updates:
- As new transactions occur, update the corresponding sections in the Verkle tree efficiently. This might involve partial updates or witness creation.
- Verification: Implement mechanisms to verify the integrity of the Verkle tree data.
- Modularity
-
Every component of Reth is built to be used as a library: well-tested, heavily documented and benchmarked. We envision that developers will import the node's crates, mix and match, and innovate on top of them.
-
Examples of such usage include, but are not limited to, spinning up standalone P2P networks, talking directly to a node's database, or "unbundling" the node into the components you need.
-
To achieve that, we are licensing Reth under the Apache/MIT permissive license.
- Performance
-
Reth aims to be fast, so we used Rust and the Erigon staged-sync node architecture.
-
We also use our Ethereum libraries (including Alloy and revm) which we’ve battle-tested and optimized via Foundry.
- Free for anyone to use any way they want
-
Reth is free open source software, built for the community, by the community.
-
By licensing the software under the Apache/MIT license, we want developers to use it without being bound by business licenses, or having to think about the implications of GPL-like licenses.
- Client Diversity
- The Ethereum protocol becomes more antifragile when no node implementation dominates. This ensures that if there's a software bug, the network does not finalize a bad block. By building a new client, we hope to contribute to Ethereum's antifragility.
- Used by a wide demographic
-
We want to solve for node operators that care about fast historical queries, but also for hobbyists who cannot operate on large hardware.
-
We also want to support teams and individuals who want both sync from genesis and via "fast sync".
-
We envision that Reth will be configurable enough for the tradeoffs that each team faces.
今天学习了v神发布的一篇文章,是一份提案,该提案使用侧重数据可用性的方法来构建以太坊分片实现的第 1 阶段。
-
信标链的主要新增内容将是一个 ShardDataHeader 对象的向量,每个分片一个。ShardDataHeader 表示大量的底层数据(大小为 0-512 kB)。
-
只有当 ShardDataHeader 所指向的底层数据可用时,区块才有效,这意味着它已经发布到网络上,任何人都可以下载。
-
为了保持可扩展性,客户端在验证区块时不会下载每个 ShardDataHeader 的完整底层数据。相反,他们将使用一种称为数据可用性抽样的间接技术来验证数据可用性。
-
文章还讨论了与分片实现相关的一些参数,例如分片数量、每个 epoch 的槽位数以及每个委员会周期的槽位数。
提出了一种侧重数据可用性的方法,用于以太坊分片实现的第 1 阶段,引入了 ShardDataHeader 对象和数据可用性抽样,以确保数据可用性,同时保持可扩展性。
- 通过阅读week6中的资料
共识层规范(Consensus Layer Spec):
- 以太坊共识层负责维护以太坊区块链的安全性和一致性,目前采用的是权益证明(PoS)共识机制。
- 在PoS下,验证者需要质押ETH作为抵押,并参与区块提议和投票过程。验证者的权重与其质押的ETH数量成正比。
- 为了防止验证者作恶,以太坊引入了罚没机制。如果验证者违反协议,其质押的部分ETH将被罚没。
- 共识层的主要组件包括信标链(Beacon Chain)、分片(Sharding)等。信标链是PoS的核心,负责管理验证者集合和协调分片。
- 未来以太坊计划实现Danksharding,进一步提高可扩展性。Danksharding允许验证者只保存和验证分片数据的一部分。
执行层规范(Execution Layer Spec):
- 以太坊执行层负责处理交易和维护状态,目前采用的是以太坊虚拟机(EVM)。
- EVM是一个图灵完备的虚拟机,支持通过智能合约执行任意复杂度的计算。
- 执行层的关键组件包括交易池(Txpool)、状态存储(State)、收据存储(Receipt)等。
- 为了提高执行层的可读性和可维护性,以太坊社区推出了以太坊执行层规范(EELS)。
- EELS是用Python编写的执行层参考实现,为每个分叉提供了完整的协议快照,有助于开发者理解和实现EIP。
- EELS的目标是成为指定核心EIP的默认方式,也是EIP作者首先用来原型开发提案的工具。
-
通过阅读 https://ethereum.org/en/developers/docs/nodes-and-clients/node-architecture/ 了解了以太坊节点架构
-
以太坊节点由两个客户端组成:执行客户端和共识客户端。
-
在以太坊使用工作量证明时,只需要执行客户端就可以运行一个完整的以太坊节点。但自从实施权益证明后,执行客户端需要与另一个称为"共识客户端"的软件一起使用。
-
两个客户端分别连接到各自的对等网络(P2P)。执行客户端通过P2P网络传播交易,管理本地交易池,而共识客户端通过P2P网络传播区块,实现共识和区块链增长。
执行客户端的作用包括:
-
作为以太坊的用户网关
-
包含以太坊虚拟机、以太坊状态和交易池
-
提供JSON-RPC接口供用户查询区块链、提交交易和部署智能合约
-
共识客户端的作用是参与权益证明共识,验证执行客户端的计算结果。节点运营者可以通过在质押合约中存入32 ETH来给共识客户端添加验证者角色。
-
新的以太坊节点架构采用模块化设计,由执行客户端和共识客户端组成,分工明确,共同维护以太坊网络的安全和去中心化。
-
自EIP-4844之后,以太坊网络的数据吞吐量与存储压力日益增长,不断增长的存储需求为以太坊节点带来了巨大挑战。为了降低存储压力,部分以太坊客户端对本地存放的以太坊历史数据进行删剪,不同的全节点在存储行为上的一致性被逐渐瓦解。
-
EIP-4444:限制执行客户端中的历史数据:该提案允许客户端删除超过一年的过往区块。假设平均区块大小为 100K,历史块数据上限约为 250 GB(100K * (3600 * 24 * 365) / 12,假设区块时间 = 12 秒)。
-
EIP-4844:分片 BLOB 交易:丢弃超过 18 天的 BLOB数据。与 EIP-4444 相比,这是一种更激进的方法,将历史 BLOB 大小限制在 100 GB 左右((18 * 3600 * 24) * 128K * 6 / 12,假设区块时间 = 12 秒)。
-
昨天做了执行客户端端的介绍,其中Geth是保留全部数据,并且不提供api进行删减历史数据,而其他客户端如Nethermind 和 Besu 以配置删除某些以太坊历史数据(例如历史区块)。这会让部分客户端节点的行为与其他客户端不一致。
- 新节点无法通过“full sync”模式来同步到最新状态, “full sync”是一种将历史数据重放,从创世区块同步到最新区块的数据同步方案。相应地,我们必须采取“snap sync”或“state sync”来直接同步以太坊节点的最新状态。这种方法已在 Geth 中实现,并作为默认的同步运行方式。
- 节点删除掉以太坊主网历史数据,也会导致以太坊 L2出现问题,即新加入的Layer2节点,无法通过重放 Layer2全部历史数据的方法,同步至当前的最新状态。此外,由于 L1 节点不维护 L2 状态,L2 的“snap sync”方法无法根据Layer1区块直接派生出最新的 Layer2 状态,这违反了Layer2继承以太坊安全所需的重要假设。
-
以太坊 Portal 网络是一个轻量级、去中心化的网络,用于连接到以太坊协议。它提供eth_call,eth_getBlockByNumber等以太坊 JSON-RPC 接口,它将 JSON-RPC 请求转换为对分布式哈希表(DHT)的 P2P 请求,类似于 IPFS 网络。与允许存储任何数据类型且容易受到垃圾数据影响的 IPFS 不同,Portal P2P 网络专门托管以太坊数据,如历史区块头和交易数据,这是通过 Portal 网络内置的轻客户端验证技术来实现的。
-
Portal 网络的一个重要特性是。其轻量级的运行设计以及与资源受限设备的兼容性。它可以运行在具有几MB存储空间和低内存的节点之上,从而促进去中心化。即使是手机或 Raspberry Pi 设备也有可能加入该网络,为解决以太坊DA问题做出贡献。
-
EthStorage 网络是一个去中心化的激励存储网络,专门用于存储 EIP-4844 BLOB,并获得 ESP 项目的资助。
-
最小信任:与需要中心化数据桥的现有解决方案不同,EthStorage 依赖于以太坊的共识和无需许可的 EthStorage 存储节点的 1/m 信任模型。存储 BLOB 的过程是这样的:用户签署一个携带 BLOB 的交易,调用存储合约的put(key, blob_idx) 方法。然后存储合约将记录 BLOB 哈希在链上。之后存储提供商将直接从以太坊 DA 网络下载并存储 BLOB,从而绕过数据桥问题。
-
存储成本与激励相一致:当调用 put() 方法时,交易必须发送存储费(通过 msg.value)并存入合约中。在成功链下存储节点提交并验证存储证明后,这个存储费用将随着时间的推移逐渐分配给存储节点。与现有的向出块者(proposer)支付一次性存储费的以太坊存储费模型相比,随着时间的推移,支付的存储费遵循贴现现金流模型——假设随着时间的推移,存储成本将相对于 ETH价格而降低。EthStorage 引入的这一重大创新使得费用和存储节点的存储贡献保持一致。
-
存储证明:存储证明是受到数据可用性抽样的启发,而 EthStorage 中的采样是针对一段时间内的保存的BLOB。为了有效地验证链上采样,EthStorage 充分利用了智能合约和最新的 SNARK 技术发展。
-
无许可操作:EthStorage 中的任何存储节点只要存储数据并定期在链上提交存储证明,都可以获得报酬。
- 了解了共识客户端和执行客户端信息
Client | 占比 | Status | Support | Language |
---|---|---|---|---|
Grandine | beta | Linux, Win, macOS | - | |
Lighthouse | 33.47% | stable | Linux, Win, macOS, ARM | Rust |
Lodestar | 0.92% | stable | Linux, Win, macOS | TypeScript |
Nimbus | 9.34% | stable | Linux, Win, macOS, ARM | Nim |
Prysm | 37.89% | stable | Linux, Win, macOS, ARM | Golang |
Teku | 18.39% | stable | Linux, Win, macOS | Java |
Data provided by Sigma Prime's Blockprint — updated daily. Data may not be 100% accurate.
Client | 占比 | Status | Support | Language |
---|---|---|---|---|
Akula | deprecated | - | - | |
Besu | 12% | stable | Linux, Win, macOS | Java |
Erigon | 2% | alpha & beta | Linux, Win, macOS, ARM | Golang |
EthereumJS | alpha | Linux, Win, macOS | TypeScript | |
Geth | 63% | stable | Linux, Win, macOS, ARM | Golang |
Nethermind | 23% | stable | Linux, Win, macOS, ARM | .NET |
Nimbus | pre-alpha | - | Nim | |
Reth | alpha | Linux, Win, macOS, ARM | Rust | |
Silkworm | pre-alpha | Linux, Win, macOS | C++ |
Data provided by supermajority.info — updated manually. Data may not be 100% accurate.
许多人知道客户端的多样性对于构建一个更有韧性的网络非常重要,但他们不明白为什么这么重要,或者它的重要性到底有多大。这不仅仅是重要——它是至关重要的。如果有一个单一的客户端被三分之二(66%)的验证者使用,这将非常真实地带来中断链条和节点操作者经济损失的风险。 达到最终一致性需要三分之二的验证者。如果一个拥有超过66%市场份额的客户端出现了一个错误,并分叉到它自己的链上,它将能够完成最终确定。一旦分叉完成最终确定,验证者就无法返回到真正的链上,而不被惩罚。如果66%的链同时被惩罚,那么罚款就是全部的32 ETH。 那么,为什么超过50%的市场份额仍然危险呢?如果一个少数客户端分叉,那么超过50%的多数客户端可以获得超过66%的多数。如果没有任何一个客户端的市场份额超过33%,这些情况就可以避免。这就是为什么所有客户端的目标市场份额是小于33%。 执行客户端也不是免疫的。上面提到的风险同样适用于共识客户端和执行客户端。
ZK Rollups和Optimistic Rollups是以太坊上两种主要的二层扩容解决方案,它们都通过将交易计算和存储转移到链下,同时依赖以太坊主链的安全性来显著提高交易吞吐量和降低成本。下面详细解释它们的原理和区别:
ZK Rollups利用零知识证明技术,在链下执行交易并生成加密证明,证明这些交易的正确性和合法性,然后将证明提交到主链进行验证。主要特点包括:
- 通过压缩交易数据和使用通用或专用电路生成证明,显著减少在主链上的数据量
- 主链只需验证证明的合法性,不需要重放所有交易,因此验证成本相对较低(每个批次约50万gas)
- 提取资金非常快,只需等待下一个批次的交易
- 零知识证明技术相对复杂,通用计算电路的证明生成成本很高
- 代表项目有zkSync、Loopring、Starkware等
Optimistic Rollups采用欺诈证明,乐观地假设链下的交易都是正确的,除非有人提出质疑并提供欺诈证明。主要特点包括:
- 将批量交易数据作为简单的状态根变更提交到主链,每个批次的固定成本只有4万gas
- 如果有错误交易,需要在挑战期内提交欺诈证明,因此提款需要等待1周左右
- 技术门槛相对较低,更容易实现EVM兼容的通用计算
- 每笔交易在链上的成本相对ZK Rollup略高,因为需要将完整交易数据发布上链
- 代表项目有Optimism、Arbitrum等
https://www.aicoin.com/article/324592.html
EIP-4844 被称为 proto-danksharding,它是以太坊的 Dencun 硬分叉中包含的一组升级提案之一。
-
引入「blob」数据块 本质上是大数据包,可以比当前以太坊使用的 calldata 更有效地处理和存储数据。这些 blob 可以存储大量信息,例如去中心化交易所的订单簿数据。
-
区块链验证的权衡:验证器节点(以前称为矿工)仍然需要完全验证交易本身,但他们可以選擇不下载和验证相关联的 blob 数据。这降低了运行以太坊节点所需的计算量和存储空间。
-
Rollup 是以太坊扩展解决方案的重要组成部分,它们将交易数据存储在链下,以降低成本并提高吞吐量。EIP-4844 将允许 rollup 使用这些 blob 来存储交易数据,而无需将其包含在主网上需要支付 gas 费用的每一笔交易中。
-
数据有效期有限:为了平衡去中心化和可扩展性,EIP-4844 规定了 blob 数据的有效期。这些数据块仅在共识层上存储有限的时间(通常约 18 天),然后将被删除。
它提出了一种新的交易类型,称为「blob携带交易 (blob-carrying transactions
)」。这种交易类似于附加在以太坊交易上的「sidecar」,可以包含额外的信息块。这些 blob 的体积很大(最大可达 128 KB),但与当前的 calldata 相比费用更低。通过将这些 blob 临时存储在以太坊的共识层上,EIP-4844 旨在显着降低 rollup 向以太坊主网传输数据的成本,从而实现降低交易费用。
- 降低交易费用:EIP-4844 的主要优势之一是降低交易费用。通过将交易数据和执行分开,EIP-4844 使得 rollup 等第 2 层扩展解决方案可以更便宜地存储数据。
- 为分片扩展奠定基础:EIP-4844 的设计与以太坊未来的分片扩展路线图兼容。分片是一种将区块链数据分布到多个分片中的方法,可以显着提高可扩展性。EIP-4844 引入了分片所需的一些技术要素,例如 blob 和分离的交易数据。
EIP-4844 预计将对以太坊生态系统产生重大影响。它可以降低交易费用,使以太坊对更广泛的用户和用例更具吸引力。它还可以通过为分片扩展奠定基础,为以太坊的可扩展性带来长期收益。
EIP-4844 的重要之处在于它可以在不增加去中心化性的情况下提高可扩展性。虽然共识节点需要下载这些 blob,但由于它们仅保存有限的时间,因此不会对长期存储需求造成太大压力。
EIP-4844 将为以太坊带来以下好处:
- 降低 Layer 2 rollup 解决方案的交易费用
- 为以太坊未来更复杂的扩容方案(例如完整分片)奠定基础
ethereum/execution-spec-tests
框架收集并执行测试用例,以生成测试夹具(JSON),任何执行客户端都可以使用该夹具来验证其以太坊/执行规范的实现。fixture定义了状态转换和块测试,由框架使用大多数执行客户端提供的 t8n
命令行工具之一来生成.
Client | t8n Tool | Tracing Support |
---|---|---|
ethereum/evmone | evmone-t8n | Yes |
ethereum/execution-specs | ethereum-spec-evm | Yes |
ethereum/go-ethereum | evm t8n | Yes |
hyperledger/besu | evm t8n-server | No |
status-im/nimbus-eth1 | t8n | Yes |
sudo add-apt-repository -y ppa:ethereum/ethereum
sudo apt-get update
sudo apt-get install ethereum solc
git clone https://github.com/ethereum/execution-spec-tests
cd execution-spec-tests
python3 -m venv ./venv/
source ./venv/bin/activate
pip install -e '.[docs,lint,test]'
fill --collect-only
fill -v tests/berlin/eip2930_access_list/test_acl.py
📁 execution-test-specs/
├─╴📁 tests/
| ├── 📄 __init__.py
│ ├── 📁 cancun/
| | ├── 📄 __init__.py
│ | └── 📁 eip4844_blobs/
| | ├── 📄 __init__.py
| | ├── 📄 test_blobhash_opcode.py
| | ├── 📄 test_excess_blob_gas.py
| | └── 📄 ...
| ├── 📁 shanghai
| | ├── 📁 eip3651_warm_coinbase
| | | ├── 📄 __init__.py
| | | └── 📄 test_warm_coinbase.py
| | ├── 📁 eip3855_push0
| | | ├── 📄 __init__.py
| | | └── 📄 test_push0.py
| | ├── 📁...
| | ...
│ └── 📁 ...
每个测试用例都被定义为一个Python函数,该函数通过使用框架提供的 state_test 或 blockchain_test 对象之一来定义单个 StateTest 或 BlockchainTest 。测试用例和测试模块必须满足以下要求:
Requirement | When |
---|---|
Be decorated with validity markers | If the test case is not valid for all forks |
Use one of state_test or blockchain_test in its function arguments |
Always |
Call the state_test or blockchain_test in its test body |
Always |
Add a reference version of the EIP spec under test | Test path contains eip |
对于状态测试:
def test_access_list(state_test: StateTestFiller):
对于区块链测试:
def test_contract_creating_tx(
blockchain_test: BlockchainTestFiller, fork: Fork, initcode: Initcode
):
state_test
和 blockchain_test
对象实际上分别是 StateTest
和 BlockchainTest
对象的包装器类,它们一旦被调用就实际上实例化这些对象的新实例,并根据测试中定义的前状态和后状态以及事务使用 evm 工具填充测试用例。
Retesteth是以太坊测试工具,用于对以太坊客户端进行共识测试、区块测试、状态测试等。工作流程如下:
-
准备测试用例。Retesteth会读取定义好的测试用例文件,这些文件描述了具体的测试场景,包括预置状态、执行的交易、预期结果等。测试用例存放在tests仓库中。
-
配置被测客户端。在运行测试前,需要先设置好待测试的以太坊客户端,如geth、besu、nimbus等。可以通过环境变量、命令行参数等方式传递客户端信息给Retesteth。
-
执行测试。通过Retesteth命令行启动测试,它会逐个读取测试用例文件,然后调用以太坊客户端执行相应的测试场景。在测试过程中,Retesteth会:
- 将测试用例的预置状态导入到客户端
- 发送测试交易给客户端执行
- 获取客户端执行完交易后的状态
- 将实际状态与预期结果进行比对,判断测试是否通过
-
生成测试报告。测试完成后,Retesteth会生成测试报告,展示测试通过和失败的情况。对于未通过的测试用例,可以分析具体失败的原因,并反馈给客户端开发者进行修复。
-
补充测试用例。如果在测试中发现了客户端实现的问题,可以据此补充新的测试用例到tests仓库中,丰富测试内容。
Retesteth作为以太坊规范的参考测试工具,通过运行各类测试场景,验证不同以太坊客户端的一致性,是保障以太坊生态健康发展的重要手段。
Guillaume Ballet的讲座和演示集中讨论了Verkle树带来的技术变化,它们的实现现状,以及无状态以太坊的愿景。开发工作涉及大量关于密码学、数据结构和共识机制的工作,以将Verkle树整合到以太坊中。
Verkle树是一种数据结构,代表了从当前以太坊使用的Merkle Patricia树(MPT)的演进。它们结合了向量承诺,允许更高效的数据存储和检索。这种效率对于以太坊的可扩展性和性能改进至关重要。
-
更小的证明大小:Verkle树显著减少了验证区块链状态所需的证明(见证)的大小。证明大小的减少意味着证明可以更高效地在网络上传递,使新类型的功能成为可能,并使无状态客户端可行。
-
更低的硬件要求:通过使以太坊状态更加紧凑和证明更小,Verkle树降低了运行以太坊节点的硬件要求。这种改进使得更多设备,甚至可能是智能手机,能够参与网络,从而增强了去中心化。
-
新节点更快的同步:Verkle树的效率允许新节点加入网络并更快地同步,比当前的MPT更快。这种更快的同步提高了以太坊网络的整体鲁棒性和可访问性。
-
可能的更高gas limits:减少的计算开销和提高的效率可能允许更高的gas limits,使以太坊能够每秒处理更多交易,提高其可扩展性。
-
与未来创新的兼容性:Verkle树与未来以太坊创新,如zk-EVMs(零知识以太坊虚拟机)更加兼容。这种兼容性对于以太坊的长期发展及其能够整合尖端加密技术至关重要。
地址:https://domothy.com/proof-of-stake/
这篇文章主要讨论了以太坊从工作量证明(PoW)转向权益证明(PoS)共识机制的话题,包括:
-
PoS并非一开始就被以太坊采用,主要原因是早期PoS还处于理论研究阶段,存在一些基本问题有待克服,且不同区块链的PoS实现各有利弊,没有放之四海而皆准的方案。
-
有观点认为PoS会导致中心化,本质上与PoW类似,拥有更多资金的人可以获得更高的收益。但在PoS下,不管质押10美元还是1000万美元,每个人的收益率是一样的。
-
虽然没有像PoW那样重复计算哈希,但验证者在PoS下仍然要做"工作",即创建和验证区块,只是这种工作完全由区块链达成共识所需的有用工作组成。
-
文章认为,无论是PoW还是PoS,拥有资金优势的人都能获得更多的算力或质押币,从而获利更多。PoW因规模效应会导致矿池中心化,而PoS下大户的收益率与小户一致。
这篇文章分析了PoS相对PoW的优缺点,指出二者在趋于中心化方面并无本质区别。PoS的核心在于让验证者做有助于区块链共识的有意义工作,而非单纯计算哈希。以太坊选择PoS是经过长期研究和权衡的结果。
https://consensys.io/blog/what-is-proof-of-stake
权益证明(Proof of Stake, PoS)是一种加密货币共识机制,用于验证和添加新的交易记录到区块链。与工作量证明(Proof of Work, PoW)相比,PoS不依赖于矿工通过解决复杂计算问题来竞争新区块的创建权,而是基于参与者持有的加密货币数量和持有时间来选择验证者。
- 能源效率:PoS机制不需要大量的计算资源,因此相比PoW,它大大减少了能源消耗。
- 降低参与门槛:由于不需要昂贵的计算硬件,更多的用户可以参与到验证和维护网络的过程中。
- 加强网络安全:在PoS中,验证者需要质押(锁定)一定数量的加密货币作为参与验证的“抵押”。如果验证者试图攻击网络或验证不正确的交易,他们将有可能失去部分或全部的质押资金。
- 更公平的奖励分配:所有验证者根据他们质押的资金比例获得奖励,这意味着收益率对于大户和小户是一致的。
以太坊2.0是以太坊网络的一次重大升级,其核心是从PoW转向PoS共识机制。这一转变旨在解决以太坊当前面临的扩展性、能源效率和安全性问题。
- 更高的交易吞吐量:通过引入分片技术和PoS,以太坊2.0旨在大幅提高网络的处理能力,使其能够处理更多的交易和应用。
- 更低的参与门槛:与PoW相比,PoS允许更多的用户以较低的成本参与到网络的维护中,增加了网络的去中心化程度和安全性。
- 环境友好:PoS显著减少了能源消耗,与日益增长的环保意识相符。
权益证明机制为加密货币网络提供了一种更加高效、安全和环保的共识机制。以太坊2.0的升级标志着对这一机制的重大采纳,预计将为整个区块链行业带来深远的影响。
- Proof of Stake addresses the three issues of PoW chains discussed earlier - accessibility, centralization, and especially scalability:
在权益证明(PoS)共识机制中,分布式网络通过拜占庭容错(BFT)算法来处理故障或恶意节点的问题,以确保网络的正常运行。具体来说:
-
PoS网络利用BFT算法在存在一定数量的故障或恶意节点的情况下仍能达成共识,只要故障节点的数量不超过一定阈值。
-
验证者需要质押(锁定)一定数量的加密货币作为抵押。如果验证者试图攻击网络或验证错误的交易,他们将损失部分或全部的质押资金作为惩罚。这种惩罚机制激励验证者诚实行事。
-
一些PoS区块链会对验证者的停机时间进行严厉惩罚,如果他们的在线时间低于一定阈值,就会销毁("削减")部分质押的币。这促使验证者保持高水平的可用性。
-
PoS共识的安全性直接掌握在那些维护网络并在协议中持有原生加密资产的人手中。与PoW相比,这种架构能更好地将网络安全与参与者的经济利益绑定在一起。
-
尽管PoS在安全性方面可能不如PoW得到充分验证,但通过质押、惩罚和激励等机制,PoS网络能有效应对故障和恶意行为,维护系统的可靠运行。
PoS网络主要通过BFT算法、质押和惩罚机制来处理故障或恶意节点。通过将验证者的经济利益与诚实行为绑定,并对不当行为进行严厉惩罚,PoS激励验证者维护网络的安全和可用性,从而确保系统在存在一定比例的拜占庭节点时仍能正常运行。
信标链是以太坊2.0 PoS共识系统的核心协调机制。学习总结下它的工作原理:
-
信标链是一个独立的区块链,与以太坊主链并行运行。它负责管理PoS协议并协调验证者网络。
-
验证者持有32个ETH来参与共识过程。它们被信标链随机分配到每个槽位(12秒)至少128个验证者的“委员会”中,以提出和验证新区块。
-
信标链将时间组织为“插槽”(12秒)和“epoch”(32个插槽,约6.4分钟)。每个槽位都有一个由信标链选择的区块提议者来创建一个新的区块。
-
每个槽位委员会中的验证者通过广播“证明”对提议的区块进行投票。当委员会的绝对多数成员证明了一个区块时,它就会被添加到信标链。
-
在每个epoch的开始,信标链从前一个epoch指定一个检查点块。如果代表总以太坊2/3的验证者投票支持该检查点,它就变得“合理”。如果下一个epoch的检查点也被证明是合理的,那么前一个检查点就会“最终确定”,这意味着它是不可逆的。
-
信标链根据验证者的表现对其进行奖励和惩罚,并通过“砍”来惩罚恶意行为,导致验证者失去一些押注的ETH。
https://consensys.io/blog/the-ethereum-2-0-beacon-chain-is-here-now-what
在以太坊网络中,节点可以是轻节点、全节点或存档节点。轻节点只下载区块头,而不是整个区块链的所有数据,这使得它们可以快速同步并验证数据的有效性。全节点则存储整个区块链的数据,并参与到区块的验证过程中。存档节点存储了全节点的所有信息,并且还建立了历史状态的存档。
以太坊客户端的功能包括创建和管理钱包、发送交易、查询区块链信息、与智能合约交互以及管理本地节点等。
以太坊节点和客户端的设计旨在支持去中心化,确保网络的安全性和可靠性。每个节点都运行着以太坊虚拟机(EVM)并执行相同的指令,这些节点彼此平等,实时沟通同步区块资料,以维持以太坊区块链的运作。
https://ethereum.org/en/developers/docs/nodes-and-clients/
https://cs251.stanford.edu/lectures/lecture7.pdf
以太坊执行层节点是以太坊网络中的一种节点,负责执行交易和智能合约的代码。执行层节点运行着以太坊虚拟机(EVM),这是一个全局的、沙盒化的执行环境,可以精确地执行智能合约的字节码。EVM确保了智能合约在不同节点上的执行结果是一致的,从而维护了网络的同步和共识。
执行层节点通过验证和执行交易,来维护以太坊区块链的状态。每个执行层节点都会验证每个区块中的所有交易,并执行这些交易中定义的智能合约代码。这个过程包括计算交易费用、更新账户余额、执行智能合约的函数调用等。执行层节点还负责创建新的区块,并将这些区块广播到网络中的其他节点。
执行层节点与共识层节点(Consensus Layer node)一起工作,共识层节点负责网络的共识机制,例如在以太坊2.0中的权益证明(Proof of Stake, PoS)机制。执行层节点提供了执行交易和合约的功能,而共识层节点则确保了区块的产生和链的安全性。
以太坊客户端软件,如Geth或Parity,通常包含了执行层的功能。这些客户端软件实现了以太坊的规范,并通过点对点网络与其他以太坊客户端通信。不同的客户端软件可能用不同的编程语言编写,但它们都遵循相同的协议规则,因此可以互操作。
https://ethereum.stackexchange.com/questions/136728/who-runs-the-evm
以太坊的状态转换函数是以太坊区块链核心概念之一,它描述了如何从当前的全局状态转换到下一个状态。这个过程是以太坊执行交易和智能合约的基础。
在以太坊中,全局状态是由所有账户的当前状态(包括它们的余额、存储的数据和代码)组成的。每当一个交易被执行时,状态转换函数就会被调用来更新全局状态。这个函数接受当前的全局状态和一个交易作为输入,输出一个新的全局状态。
状态转换函数的工作流程大致如下:
- 验证交易:首先验证交易的有效性,包括签名的验证和交易发起者账户余额是否足够支付交易费用。
- 执行交易:然后根据交易的内容执行相应的操作。这可能包括转移以太币、执行智能合约代码或创建新的智能合约。
- 更新状态:执行交易后,更新全局状态以反映交易的结果。这可能包括改变账户的余额、更新存储的数据或更改智能合约的代码。
- 收取交易费:最后从交易发起者的账户中扣除交易费用,并将其作为奖励发给矿工或验证者。
以太坊的状态转换函数是确定性的,如果给定相同的输入(当前状态和交易),它总是产生相同的输出(新状态)。这保证了所有节点在处理相同的交易集合时,最终会达成相同的全局状态,从而维护了区块链的一致性和安全性。
- P2P网络,又叫点对点网络,是一种去中心化的网络结构,其中每个网络节点既是客户端又是服务器,能够直接与其他节点进行通信和数据交换。这种网络结构允许节点共享资源,如文件、存储空间或带宽,无需依赖中央服务器
- P2P网络的工作原理是基于对等的节点之间直接进行通信和数据交换,而不依赖于中央服务器。在P2P网络中,每个节点既是客户端也是服务器,可以提供和请求服务。这种网络模型允许节点共享文件、处理器运算能力、存储空间等资源。
- 在P2P网络中,节点需要解决如何加入和离开网络、如何在网络中查找和连接到其他节点、以及如何处理节点故障和恢复等问题。为了实现这些功能,P2P网络通常采用特定的通信协议,如Gossip协议,该协议通过节点之间的相互传递信息来实现数据的分发和更新
-
IPFS(InterPlanetary File System)是一个点对点的分布式文件存储系统,旨在连接所有计算设备具有相同的文件系统。在区块链领域,IPFS常被用来存储不适合直接存储在区块链上的大型数据,例如图片、视频等媒体文件。
-
IPFS的工作原理是将文件分割成小块,每一块都通过加密哈希函数生成一个唯一的哈希值。这些哈希值作为文件内容的唯一标识符,可以用来检索文件。当用户需要获取某个文件时,IPFS网络可以利用这些哈希值找到存储相应文件块的节点,并从多个节点处并行下载,提高了数据的检索效率和系统的健壮性。
-
IPFS使用分布式哈希表(DHT)来跟踪数据块的位置。DHT是一种用于去中心化网络的键值存储系统,它允许网络中的节点高效地找到存储特定数据的其他节点。IPFS中的DHT基于Kademlia算法,这是一种专为P2P网络设计的DHT。
-
在区块链中,IPFS可以与智能合约结合使用,以实现去中心化的数据存储解决方案。例如,可以将数据存储在IPFS中,而将数据的哈希值和其他相关信息(如交易地址和签名)存储在区块链上。这样,区块链就可以提供一个不可篡改的数据历史记录,而IPFS则负责存储实际的数据内容。
-
IPFS的优势在于它能够解决区块链在数据存储方面的限制,如存储空间和响应时间。通过将数据存储在IPFS上,区块链可以保持轻量级,同时确保数据的不可篡改性和持久性。此外,IPFS的去中心化特性也有助于提高数据存储的安全性和隐私保护。
今天了解了p2p网络的工作原理和IPFS的优势,以及它们在区块链领域的应用。
https://icommunity.io/en/what-is-ifps-the-hard-drive-for-blockchain/
https://www.youtube.com/watch?v=vTIfRgoaCIM
本视频是以太坊联合创始人Vitalik Buterin在2022年波哥大Devcon会议上的演讲。在演讲中,Vitalik讨论了以太坊的现状及其未来的发展。
-
以太坊是一个去中心化的开源区块链平台,可以创建智能合约和去中心化应用程序(dApps)。智能合约是自动执行的合约,其协议条款直接写入代码,允许数字交易自动化和消除中介。
-
Vitalik讨论了以太坊面临的可扩展性挑战以及为解决这些挑战而开发的解决方案,例如分片和第二层扩展解决方案。分片是一种将以太坊网络分割成更小,更易于管理的碎片的方法,称为分片,这允许更大的可扩展性和更快的交易处理。第2层扩展解决方案,如乐观rollup和zk - rollup,建立在以太坊区块链之上,通过链下处理,然后提交给以太坊网络进行最终结算,从而实现更快、更便宜的交易。
-
Vitalik还讨论了以太坊从工作量证明(PoW)共识机制向权益证明(PoS)共识机制的过渡,称为以太坊2.0或Serenity。PoS是一种更节能、更环保的共识机制,它用验证者取代了对矿工的需求,验证者将他们的以太币(ETH)用于验证交易并保护网络。
以太坊的工作量证明(Proof of Work,简称PoW)和权益证明(Proof of Stake,简称PoS)是两种不同的共识机制,用于在去中心化网络中验证交易和创建新区块。
工作量证明(PoW)
在PoW系统中,矿工使用GPU和ASIC(专用集成电路)等硬件来解决复杂的数学问题,以此来验证交易并创建新的区块。这个过程被称为挖矿。挖矿的矿工会获得新创建的加密货币和交易费用作为奖励。PoW机制提供了很强的网络安全性,但它非常耗能,因为它需要大量的计算能力。这种能源消耗一直是环境倡导者的批评点,并且对网络的可扩展性也有限制。例如,比特币挖矿大约消耗全球0.5%的能源,但每秒只能处理7笔交易。
权益证明(PoS)
为了解决PoW带来的能源消耗和可扩展性问题,以太坊在2022年9月完成了从PoW向PoS的重大转变。PoS机制远不像PoW那样耗能,据估计能够将能源消耗减少高达99%。在PoS系统中,不是通过解决数学问题来竞争创建新区块,而是通过持有并愿意“抵押”一定数量的币的验证者来创建新区块。在以太坊中,验证者抵押的是以太币(ETH)。验证者还参与确认提议区块的有效性。这个过程确保了添加到链上的区块是有效的,并且得到了大多数验证者的同意。验证者通过提议新区块和确认交易的有效性来获得奖励,这些奖励来自交易费用,有时还包括新铸造的加密货币。为了确保验证者诚实行事,PoS系统设有一种惩罚措施,称为“削减”。如果验证者试图批准欺诈交易或行为不端,他们抵押的加密货币的一部分或全部可能会被没收或“削减”。这种机制阻止了不诚实的行为。
- 散列 (Hashing)详解 散列函数像是信息摘要工具,可以将任意长度的输入数据转换成固定长度的输出结果,称为散列值 (Hash 值)。这个过程就像把一堆文件的内容浓缩成一个简短的指纹一样。散列函数有以下关键特性:
- 易于计算 (Easy to Compute): 任何人都能快速计算出给定数据的散列值。
- 抗碰撞 (Collision Resistant): 对于不同的输入数据,产生相同散列值的可能性极低。就好比不同的人几乎不可能有相同的指纹一样。
- 单向性 (One-Way): 仅凭散列值本身,几乎无法推导出原始的输入数据。就如同指纹只能用来验证身份,却无法还原成完整的个人信息。
-
散列函数在密码学领域有着广泛的应用:
-
数字签名 (Digital Signature): 利用散列函数对数据进行签名,可以确保数据的完整性 and 可靠性 (可靠性 - refers to authenticity in this context)。就好比给重要文件盖上印章,可以验证发送者身份并且确保内容没有被篡改。
-
数据校验 (Data Integrity Check): 通过比较原始数据的散列值和传输过程中的散列值,可以判断数据是否在传输过程中被修改。就如同核对货物出库时的封条一样,可以确保货物在运输途中没有被掉包。
-
密码存储 (Password Storage): 网站不会存储用户的原始密码,而是存储密码的散列值。这样即使黑客窃取了数据库,也无法获得用户的明文密码。就好比指纹识别系统只存储指纹的特徵,而不是整只手的外貌。 常用的散列函数包括 MD5、SHA-1 和 SHA-2 家族。
-
公钥密码学 (Public Key Cryptography)详解 公钥密码学采用密钥对 (Key Pair) 的方式进行加密和解密。密钥对包含公钥 (Public Key) 和私钥 (Private Key)。形象地比喻,公钥就像是邮箱的地址,所有人都可以知道;而私钥就像邮箱的钥匙,只有持有者才能打开邮箱。
-
公钥密码学的工作流程如下:
加密 (Encryption): 信息发送者使用接收方的公钥对信息进行加密。 任何人都可以用公钥加密信息,但是只有持有私钥的人才能解密。 解密 (Decryption): 信息接收者使用自己的私钥解密密文,还原成原始信息。 因为只有持有私钥的人才能解密,所以可以确保信息的保密性。
常用的公钥密码算法包括 RSA 算法
- Merkle 树是一种树形数据结构,常用于高效验证大型数据的完整性。它利用密码学中的散列函数来构建,具有以下特点:
- 数据完整性校验 (Data Integrity Verification): 可以方便地校验数据块 (Data Block) 的完整性,而无需检查整个数据。
- 去重存储 (Deduplication): 可以识别并消除数据中的重复部分,节省存储空间。
Merkle 树由节点 (Node) 组成,每个节点包含以下信息:
- 数据块哈希 (Hash of Data Block): 对数据块计算所得的散列值。
- 子节点哈希 (Hashes of Children Nodes)(可选): 对于非叶子节点,包含其子节点的哈希值。 Merkle 树的层级结构清晰,叶子节点代表原始数据块的哈希值,非叶子节点的哈希值由其子节点的哈希值计算得到。计算方法通常采用一种称为 "Merkle-Damgård Hash Function" 的技术,例如 SHA-256。
-
在Merkle树中,每个叶子节点都标记了一个数据块的加密哈希值,而每个非叶子节点则标记了其子节点标签的加密哈希值。
-
叶子节点的数据先被哈希,然后成对分组。每对节点的哈希值再被哈希,生成它们的父节点。重复这个过程,直到只剩下一个根节点,称为Merkle根。
-
Merkle树通常使用二叉树结构,即每个节点最多有2个子节点。但也可以使用多叉树,每个节点有多个子节点。
-
为了验证某个叶子节点是否属于Merkle树,只需计算沿着该叶子到根的路径上的哈希值,数量与树的深度成正比。这比在哈希列表中逐个检查每个节点要高效得多。
-
如果Merkle树的任何部分发生变化,都会传播到根节点。通过比较根哈希,可以快速检测出数据是否被篡改。
-
Merkle树的搜索、插入、删除操作复杂度为O(logn),空间复杂度为O(n),其中n是叶子节点数。
Merkle树利用哈希指针构建一个树形结构,可以高效地验证大型数据结构的完整性,广泛用于区块链、分布式系统、版本控制等领域中。它通过递归哈希的方式,在保证安全性的同时提供了更好的性能。
https://www.youtube.com/watch?v=3AcQyTs_Es4&t=0
https://brilliant.org/wiki/merkle-tree/