Lộ trình của Ethereum ban đầu bao gồm hai chiến lược mở rộng: phân đoạn và giao thức Layer2. Hai con đường này cuối cùng đã hòa nhập lại với nhau, hình thành lộ trình tập trung vào Rollup, điều này vẫn là chiến lược mở rộng hiện tại của Ethereum.
Bản đồ lộ trình lấy Rollup làm trung tâm đã đưa ra một sự phân công đơn giản: Ethereum L1 tập trung vào việc trở thành một lớp nền tảng mạnh mẽ và phi tập trung, trong khi L2 đảm nhận nhiệm vụ giúp hệ sinh thái mở rộng. Mô hình này hiện diện khắp nơi trong xã hội: sự tồn tại của hệ thống tòa án (L1) không phải để theo đuổi siêu tốc độ và hiệu quả cao, mà là để bảo vệ hợp đồng và quyền sở hữu tài sản, trong khi các doanh nhân (L2) phải xây dựng trên lớp nền tảng vững chắc này, dẫn dắt nhân loại hướng tới sao Hỏa.
Năm nay, lộ trình tập trung vào Rollup đã đạt được những thành tựu quan trọng: với việc ra mắt các blob EIP-4844, băng thông dữ liệu của Ethereum L1 đã tăng đáng kể, nhiều máy ảo Ethereum (EVM)Rollup đã bước vào giai đoạn đầu tiên. Mỗi L2 tồn tại như một "mảnh" với quy tắc và logic nội bộ của riêng mình, sự đa dạng và phong phú trong cách thực hiện các mảnh giờ đây đã trở thành hiện thực. Nhưng như chúng ta đã thấy, con đường này cũng đối mặt với một số thách thức độc đáo. Do đó, nhiệm vụ hiện tại của chúng ta là hoàn thành lộ trình tập trung vào Rollup và giải quyết những vấn đề này, đồng thời duy trì sự vững chắc và phi tập trung vốn có của Ethereum L1.
The Surge: Mục tiêu chính
Tương lai Ethereum thông qua L2 có thể đạt hơn 100.000 TPS;
Giữ cho L1 có tính phi tập trung và độ bền vững;
Ít nhất một số L2 hoàn toàn kế thừa các thuộc tính cốt lõi của Ethereum ( như tin cậy, mở và chống kiểm duyệt );
Ethereum nên cảm thấy như một hệ sinh thái thống nhất, chứ không phải 34 blockchain khác nhau.
Nội dung chương này
Tam giác nghịch lý khả năng mở rộng
Tiến bộ hơn nữa trong việc lấy mẫu khả năng dữ liệu
Nén dữ liệu
Plasma Tổng Quát
Hệ thống chứng minh L2 trưởng thành
Cải tiến khả năng tương tác giữa các L2
Mở rộng thực thi trên L1
Nghịch lý tam giác khả năng mở rộng
Tam giác mâu thuẫn về khả năng mở rộng là một ý tưởng được đưa ra vào năm 2017, cho rằng có sự mâu thuẫn giữa ba đặc tính của blockchain: phi tập trung (, cụ thể hơn là: chi phí vận hành nút thấp ), khả năng mở rộng ( số lượng giao dịch xử lý nhiều ) và an ninh ( kẻ tấn công cần phải phá hủy một phần lớn các nút trong mạng để làm cho một giao dịch thất bại ).
Đáng chú ý là, nghịch lý tam giác không phải là một định lý, các bài viết giới thiệu về nghịch lý tam giác cũng không kèm theo chứng minh toán học. Nó thực sự đưa ra một lập luận toán học mang tính hướng dẫn: nếu một nút thân thiện với phi tập trung ( chẳng hạn như máy tính xách tay tiêu dùng ) có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi có thể xử lý k*N giao dịch mỗi giây, thì mỗi giao dịch (i) chỉ có thể được nhìn thấy bởi 1/k nút, điều này có nghĩa là kẻ tấn công chỉ cần phá hủy một số ít nút để thực hiện một giao dịch độc hại, hoặc (ii) nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không phi tập trung. Mục đích của bài viết này không phải để chứng minh rằng việc phá vỡ nghịch lý tam giác là không thể; ngược lại, nó nhằm chỉ ra rằng việc phá vỡ nghịch lý ba phần là khó khăn, và nó cần phải thoát khỏi một cách nào đó khuôn khổ tư duy mà lập luận đó ngụ ý.
Trong nhiều năm qua, một số chuỗi hiệu suất cao thường tuyên bố rằng chúng đã giải quyết được nghịch lý ba phần mà không thay đổi cấu trúc cơ bản, thường là thông qua việc sử dụng các kỹ thuật kỹ thuật phần mềm để tối ưu hóa nút. Điều này luôn gây hiểu lầm, việc chạy nút trên những chuỗi này khó hơn nhiều so với việc chạy nút trên Ethereum. Bài viết này sẽ khám phá lý do tại sao lại như vậy, cũng như tại sao chỉ riêng kỹ thuật phần mềm khách hàng L1 không thể mở rộng Ethereum?
Tuy nhiên, sự kết hợp giữa mẫu tính khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một lượng dữ liệu nhất định là khả dụng chỉ bằng cách tải xuống một lượng dữ liệu nhỏ và thực hiện rất ít tính toán. SNARKs là không cần tin cậy. Mẫu tính khả dụng dữ liệu có một mô hình tin cậy tinh vi few-of-N, nhưng nó giữ lại các đặc tính cơ bản mà chuỗi không thể mở rộng có, đó là ngay cả khi bị tấn công 51%, cũng không thể buộc các khối xấu được mạng chấp nhận.
Một phương pháp khác để giải quyết ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ tinh vi để chuyển giao trách nhiệm giám sát tính khả dụng của dữ liệu cho người dùng một cách tương thích với động lực. Từ năm 2017 đến 2019, khi chúng ta chỉ có bằng chứng gian lận như một phương tiện để mở rộng khả năng tính toán, Plasma đã bị hạn chế rất nhiều trong việc thực hiện an toàn, nhưng với sự phổ biến của SNARKs( các chứng minh không kiến thức ngắn gọn không tương tác), kiến trúc Plasma trở nên khả thi hơn cho nhiều bối cảnh sử dụng rộng rãi hơn bao giờ hết.
Tiến triển hơn nữa trong việc lấy mẫu khả dụng dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi nâng cấp Dencun được triển khai, mỗi slot của chuỗi khối Ethereum có 3 blob khoảng 125 kB mỗi 12 giây, hoặc băng thông dữ liệu khả dụng của mỗi slot khoảng 375 kB. Giả sử dữ liệu giao dịch được phát hành trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta thêm giá trị tối đa lý thuyết của calldata Ethereum (: mỗi slot 30 triệu Gas / mỗi byte 16 gas = mỗi slot 1,875,000 byte ), thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên 8-16, điều này sẽ cung cấp cho calldata 463-926 TPS.
Đây là một sự nâng cấp đáng kể cho Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có nhiều khả năng mở rộng hơn. Mục tiêu trung hạn của chúng tôi là mỗi slot 16 MB, nếu kết hợp với cải tiến nén dữ liệu Rollup, sẽ mang lại khoảng ~58000 TPS.
Nó là gì? Nó hoạt động như thế nào?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253 bit (prime field). Chúng tôi phát sóng các shares của đa thức, trong đó mỗi shares chứa 16 giá trị đánh giá từ 16 tọa độ liền kề trong tổng số 8192 tọa độ. Trong 8192 giá trị đánh giá này, bất kỳ 4096 cái nào ( theo các tham số được đề xuất hiện tại: bất kỳ 64 cái nào trong số 128 mẫu có thể phục hồi blob.
![Vitalik mới: Tương lai có thể của Ethereum, The Surge])lab.com/yijian/2024/10/17/images/5be9d7b18dd5154d181bd4c34ad8a3c4.jpg(
Cách hoạt động của PeerDAS là cho phép mỗi máy khách lắng nghe một số lượng nhỏ các subnet, trong đó subnet thứ i phát sóng mẫu thứ i của bất kỳ blob nào, và yêu cầu các đối tác trong mạng p2p toàn cầu ) ai sẽ lắng nghe các subnet khác nhau ( để yêu cầu blob cần thiết từ các subnet khác. Phiên bản bảo thủ hơn SubnetDAS chỉ sử dụng cơ chế subnet mà không có yêu cầu bổ sung từ lớp đối tác. Đề xuất hiện tại là để các nút tham gia vào việc chứng minh cổ phần sử dụng SubnetDAS, trong khi các nút khác ) tức là khách hàng ( sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô "1D sampling" khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256) mục tiêu là 128(, thì chúng ta có thể đạt được mục tiêu 16MB, và trong mẫu khả dụng dữ liệu, mỗi nút có 16 mẫu * 128 blob * mỗi blob mỗi mẫu 512 byte = băng thông dữ liệu 1 MB cho mỗi slot. Điều này chỉ vừa đủ trong phạm vi chấp nhận của chúng ta: điều này khả thi, nhưng có nghĩa là các khách hàng bị giới hạn băng thông không thể lấy mẫu. Chúng ta có thể tối ưu hóa điều này ở một mức độ nào đó bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Do đó, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện 2D sampling), phương pháp này không chỉ thực hiện lấy mẫu ngẫu nhiên trong blob mà còn lấy mẫu ngẫu nhiên giữa các blob. Sử dụng thuộc tính tuyến tính của KZG commitment, mở rộng tập hợp blob trong một khối bằng một tập hợp blob ảo mới, những blob ảo này mã hóa thừa thông tin giống nhau.
Do đó, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện lấy mẫu 2D, không chỉ trong blob mà còn giữa các blob. Tính chất tuyến tính của cam kết KZG được sử dụng để mở rộng tập hợp blob trong một khối, bao gồm danh sách blob ảo mới mã hóa dư thừa cho cùng một thông tin.
Điều quan trọng là, việc mở rộng cam kết tính toán không cần có blob, vì vậy kế hoạch này về cơ bản là thân thiện với việc xây dựng khối phân tán. Các nút thực tế xây dựng khối chỉ cần sở hữu cam kết blob KZG, và chúng có thể dựa vào mẫu khả dụng dữ liệu (DAS) để xác minh khả dụng của khối dữ liệu. Mẫu khả dụng dữ liệu một chiều (1DDAS) về cơ bản cũng thân thiện với việc xây dựng khối phân tán.
( Còn cần làm gì nữa? Còn có những sự đánh đổi nào?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, tăng dần số lượng blob trên PeerDAS, đồng thời theo dõi mạng chặt chẽ và cải thiện phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Đồng thời, chúng tôi hy vọng có nhiều công trình học thuật hơn để quy định PeerDAS và các phiên bản DAS khác cũng như sự tương tác của chúng với các vấn đề an toàn như quy tắc chọn nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng ta cần phải làm nhiều việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính an toàn của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế an toàn trước lượng tử mà không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn chưa rõ những ứng cử viên nào là thân thiện với việc xây dựng khối phân phối. Ngay cả khi sử dụng công nghệ "brute force" đắt đỏ, tức là sử dụng STARK đệ quy để tạo ra các chứng minh tính hợp lệ cho việc tái cấu trúc các hàng và cột, cũng không đủ để đáp ứng nhu cầu, bởi vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O)log(n) * log###log(n() giá trị băm( sử dụng STIR(, nhưng thực tế STARK gần như lớn như toàn bộ blob.
Đường đi thực tế lâu dài mà tôi nghĩ là:
Thực hiện DAS 2D lý tưởng;
Kiên trì sử dụng 1D DAS, hy sinh hiệu quả băng thông lấy mẫu, chấp nhận giới hạn dữ liệu thấp hơn vì sự đơn giản và tính đáng tin cậy.
Từ bỏ DA, hoàn toàn chấp nhận Plasma như kiến trúc Layer2 chính mà chúng tôi quan tâm.
Xin lưu ý, ngay cả khi chúng tôi quyết định mở rộng thực thi trực tiếp trên lớp L1, lựa chọn này vẫn tồn tại. Điều này là do nếu lớp L1 phải xử lý một lượng lớn TPS, các khối L1 sẽ trở nên rất lớn, các khách hàng sẽ muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, do đó chúng tôi sẽ phải sử dụng các công nghệ giống như Rollup) như ZK-EVM và DAS) trên lớp L1.
( Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu thực hiện nén dữ liệu, nhu cầu về 2D DAS sẽ giảm bớt, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm thêm. DAS cũng đặt ra thách thức cho các giao thức và cơ chế xây dựng khối phân tán: mặc dù DAS về lý thuyết thân thiện với việc tái tạo phân tán, nhưng điều này trong thực tế cần phải kết hợp với đề xuất danh sách bao gồm gói và cơ chế lựa chọn phân nhánh xung quanh nó.
Nén dữ liệu
) Chúng ta đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ chiếm một lượng lớn không gian dữ liệu trên chuỗi: Chuyển ERC20 mất khoảng 180 byte. Ngay cả khi có mẫu khả năng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, chúng ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ có thể giải quyết vấn đề của tử mà còn giải quyết vấn đề của mẫu, khiến cho mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì điều đó sẽ như thế nào?
Nó là gì, nó hoạt động như thế nào?
Trong ý kiến của tôi, lời giải thích tốt nhất là bức tranh này cách đây hai năm:
 và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
12 thích
Phần thưởng
12
6
Chia sẻ
Bình luận
0/400
DeFiVeteran
· 13giờ trước
L2 đường đua đã vào giai đoạn đẩy mạnh
Xem bản gốcTrả lời0
SquidTeacher
· 08-02 08:18
Công việc của L2 vẫn còn nhiều lắm...
Xem bản gốcTrả lời0
DevChive
· 08-02 08:12
Không thể lấy được tiền miễn phí, phải chi tiền để duy trì sinh mệnh.
Xem bản gốcTrả lời0
GraphGuru
· 08-02 08:06
Hệ sinh thái L2 đang To da moon, BTC vẫn đang giảm
Ethereum The Surge: 100,000 TPS, L2 kế thừa thuộc tính cốt lõi, tầm nhìn về hệ sinh thái thống nhất
Tương lai của Ethereum: The Surge
Lộ trình của Ethereum ban đầu bao gồm hai chiến lược mở rộng: phân đoạn và giao thức Layer2. Hai con đường này cuối cùng đã hòa nhập lại với nhau, hình thành lộ trình tập trung vào Rollup, điều này vẫn là chiến lược mở rộng hiện tại của Ethereum.
Bản đồ lộ trình lấy Rollup làm trung tâm đã đưa ra một sự phân công đơn giản: Ethereum L1 tập trung vào việc trở thành một lớp nền tảng mạnh mẽ và phi tập trung, trong khi L2 đảm nhận nhiệm vụ giúp hệ sinh thái mở rộng. Mô hình này hiện diện khắp nơi trong xã hội: sự tồn tại của hệ thống tòa án (L1) không phải để theo đuổi siêu tốc độ và hiệu quả cao, mà là để bảo vệ hợp đồng và quyền sở hữu tài sản, trong khi các doanh nhân (L2) phải xây dựng trên lớp nền tảng vững chắc này, dẫn dắt nhân loại hướng tới sao Hỏa.
Năm nay, lộ trình tập trung vào Rollup đã đạt được những thành tựu quan trọng: với việc ra mắt các blob EIP-4844, băng thông dữ liệu của Ethereum L1 đã tăng đáng kể, nhiều máy ảo Ethereum (EVM)Rollup đã bước vào giai đoạn đầu tiên. Mỗi L2 tồn tại như một "mảnh" với quy tắc và logic nội bộ của riêng mình, sự đa dạng và phong phú trong cách thực hiện các mảnh giờ đây đã trở thành hiện thực. Nhưng như chúng ta đã thấy, con đường này cũng đối mặt với một số thách thức độc đáo. Do đó, nhiệm vụ hiện tại của chúng ta là hoàn thành lộ trình tập trung vào Rollup và giải quyết những vấn đề này, đồng thời duy trì sự vững chắc và phi tập trung vốn có của Ethereum L1.
The Surge: Mục tiêu chính
Tương lai Ethereum thông qua L2 có thể đạt hơn 100.000 TPS;
Giữ cho L1 có tính phi tập trung và độ bền vững;
Ít nhất một số L2 hoàn toàn kế thừa các thuộc tính cốt lõi của Ethereum ( như tin cậy, mở và chống kiểm duyệt );
Ethereum nên cảm thấy như một hệ sinh thái thống nhất, chứ không phải 34 blockchain khác nhau.
Nội dung chương này
Nghịch lý tam giác khả năng mở rộng
Tam giác mâu thuẫn về khả năng mở rộng là một ý tưởng được đưa ra vào năm 2017, cho rằng có sự mâu thuẫn giữa ba đặc tính của blockchain: phi tập trung (, cụ thể hơn là: chi phí vận hành nút thấp ), khả năng mở rộng ( số lượng giao dịch xử lý nhiều ) và an ninh ( kẻ tấn công cần phải phá hủy một phần lớn các nút trong mạng để làm cho một giao dịch thất bại ).
Đáng chú ý là, nghịch lý tam giác không phải là một định lý, các bài viết giới thiệu về nghịch lý tam giác cũng không kèm theo chứng minh toán học. Nó thực sự đưa ra một lập luận toán học mang tính hướng dẫn: nếu một nút thân thiện với phi tập trung ( chẳng hạn như máy tính xách tay tiêu dùng ) có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi có thể xử lý k*N giao dịch mỗi giây, thì mỗi giao dịch (i) chỉ có thể được nhìn thấy bởi 1/k nút, điều này có nghĩa là kẻ tấn công chỉ cần phá hủy một số ít nút để thực hiện một giao dịch độc hại, hoặc (ii) nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không phi tập trung. Mục đích của bài viết này không phải để chứng minh rằng việc phá vỡ nghịch lý tam giác là không thể; ngược lại, nó nhằm chỉ ra rằng việc phá vỡ nghịch lý ba phần là khó khăn, và nó cần phải thoát khỏi một cách nào đó khuôn khổ tư duy mà lập luận đó ngụ ý.
Trong nhiều năm qua, một số chuỗi hiệu suất cao thường tuyên bố rằng chúng đã giải quyết được nghịch lý ba phần mà không thay đổi cấu trúc cơ bản, thường là thông qua việc sử dụng các kỹ thuật kỹ thuật phần mềm để tối ưu hóa nút. Điều này luôn gây hiểu lầm, việc chạy nút trên những chuỗi này khó hơn nhiều so với việc chạy nút trên Ethereum. Bài viết này sẽ khám phá lý do tại sao lại như vậy, cũng như tại sao chỉ riêng kỹ thuật phần mềm khách hàng L1 không thể mở rộng Ethereum?
Tuy nhiên, sự kết hợp giữa mẫu tính khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một lượng dữ liệu nhất định là khả dụng chỉ bằng cách tải xuống một lượng dữ liệu nhỏ và thực hiện rất ít tính toán. SNARKs là không cần tin cậy. Mẫu tính khả dụng dữ liệu có một mô hình tin cậy tinh vi few-of-N, nhưng nó giữ lại các đặc tính cơ bản mà chuỗi không thể mở rộng có, đó là ngay cả khi bị tấn công 51%, cũng không thể buộc các khối xấu được mạng chấp nhận.
Một phương pháp khác để giải quyết ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ tinh vi để chuyển giao trách nhiệm giám sát tính khả dụng của dữ liệu cho người dùng một cách tương thích với động lực. Từ năm 2017 đến 2019, khi chúng ta chỉ có bằng chứng gian lận như một phương tiện để mở rộng khả năng tính toán, Plasma đã bị hạn chế rất nhiều trong việc thực hiện an toàn, nhưng với sự phổ biến của SNARKs( các chứng minh không kiến thức ngắn gọn không tương tác), kiến trúc Plasma trở nên khả thi hơn cho nhiều bối cảnh sử dụng rộng rãi hơn bao giờ hết.
Tiến triển hơn nữa trong việc lấy mẫu khả dụng dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi nâng cấp Dencun được triển khai, mỗi slot của chuỗi khối Ethereum có 3 blob khoảng 125 kB mỗi 12 giây, hoặc băng thông dữ liệu khả dụng của mỗi slot khoảng 375 kB. Giả sử dữ liệu giao dịch được phát hành trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta thêm giá trị tối đa lý thuyết của calldata Ethereum (: mỗi slot 30 triệu Gas / mỗi byte 16 gas = mỗi slot 1,875,000 byte ), thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên 8-16, điều này sẽ cung cấp cho calldata 463-926 TPS.
Đây là một sự nâng cấp đáng kể cho Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có nhiều khả năng mở rộng hơn. Mục tiêu trung hạn của chúng tôi là mỗi slot 16 MB, nếu kết hợp với cải tiến nén dữ liệu Rollup, sẽ mang lại khoảng ~58000 TPS.
Nó là gì? Nó hoạt động như thế nào?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253 bit (prime field). Chúng tôi phát sóng các shares của đa thức, trong đó mỗi shares chứa 16 giá trị đánh giá từ 16 tọa độ liền kề trong tổng số 8192 tọa độ. Trong 8192 giá trị đánh giá này, bất kỳ 4096 cái nào ( theo các tham số được đề xuất hiện tại: bất kỳ 64 cái nào trong số 128 mẫu có thể phục hồi blob.
![Vitalik mới: Tương lai có thể của Ethereum, The Surge])lab.com/yijian/2024/10/17/images/5be9d7b18dd5154d181bd4c34ad8a3c4.jpg(
Cách hoạt động của PeerDAS là cho phép mỗi máy khách lắng nghe một số lượng nhỏ các subnet, trong đó subnet thứ i phát sóng mẫu thứ i của bất kỳ blob nào, và yêu cầu các đối tác trong mạng p2p toàn cầu ) ai sẽ lắng nghe các subnet khác nhau ( để yêu cầu blob cần thiết từ các subnet khác. Phiên bản bảo thủ hơn SubnetDAS chỉ sử dụng cơ chế subnet mà không có yêu cầu bổ sung từ lớp đối tác. Đề xuất hiện tại là để các nút tham gia vào việc chứng minh cổ phần sử dụng SubnetDAS, trong khi các nút khác ) tức là khách hàng ( sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô "1D sampling" khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256) mục tiêu là 128(, thì chúng ta có thể đạt được mục tiêu 16MB, và trong mẫu khả dụng dữ liệu, mỗi nút có 16 mẫu * 128 blob * mỗi blob mỗi mẫu 512 byte = băng thông dữ liệu 1 MB cho mỗi slot. Điều này chỉ vừa đủ trong phạm vi chấp nhận của chúng ta: điều này khả thi, nhưng có nghĩa là các khách hàng bị giới hạn băng thông không thể lấy mẫu. Chúng ta có thể tối ưu hóa điều này ở một mức độ nào đó bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Do đó, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện 2D sampling), phương pháp này không chỉ thực hiện lấy mẫu ngẫu nhiên trong blob mà còn lấy mẫu ngẫu nhiên giữa các blob. Sử dụng thuộc tính tuyến tính của KZG commitment, mở rộng tập hợp blob trong một khối bằng một tập hợp blob ảo mới, những blob ảo này mã hóa thừa thông tin giống nhau.
Do đó, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện lấy mẫu 2D, không chỉ trong blob mà còn giữa các blob. Tính chất tuyến tính của cam kết KZG được sử dụng để mở rộng tập hợp blob trong một khối, bao gồm danh sách blob ảo mới mã hóa dư thừa cho cùng một thông tin.
Điều quan trọng là, việc mở rộng cam kết tính toán không cần có blob, vì vậy kế hoạch này về cơ bản là thân thiện với việc xây dựng khối phân tán. Các nút thực tế xây dựng khối chỉ cần sở hữu cam kết blob KZG, và chúng có thể dựa vào mẫu khả dụng dữ liệu (DAS) để xác minh khả dụng của khối dữ liệu. Mẫu khả dụng dữ liệu một chiều (1DDAS) về cơ bản cũng thân thiện với việc xây dựng khối phân tán.
( Còn cần làm gì nữa? Còn có những sự đánh đổi nào?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, tăng dần số lượng blob trên PeerDAS, đồng thời theo dõi mạng chặt chẽ và cải thiện phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Đồng thời, chúng tôi hy vọng có nhiều công trình học thuật hơn để quy định PeerDAS và các phiên bản DAS khác cũng như sự tương tác của chúng với các vấn đề an toàn như quy tắc chọn nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng ta cần phải làm nhiều việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính an toàn của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế an toàn trước lượng tử mà không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn chưa rõ những ứng cử viên nào là thân thiện với việc xây dựng khối phân phối. Ngay cả khi sử dụng công nghệ "brute force" đắt đỏ, tức là sử dụng STARK đệ quy để tạo ra các chứng minh tính hợp lệ cho việc tái cấu trúc các hàng và cột, cũng không đủ để đáp ứng nhu cầu, bởi vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O)log(n) * log###log(n() giá trị băm( sử dụng STIR(, nhưng thực tế STARK gần như lớn như toàn bộ blob.
Đường đi thực tế lâu dài mà tôi nghĩ là:
Xin lưu ý, ngay cả khi chúng tôi quyết định mở rộng thực thi trực tiếp trên lớp L1, lựa chọn này vẫn tồn tại. Điều này là do nếu lớp L1 phải xử lý một lượng lớn TPS, các khối L1 sẽ trở nên rất lớn, các khách hàng sẽ muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, do đó chúng tôi sẽ phải sử dụng các công nghệ giống như Rollup) như ZK-EVM và DAS) trên lớp L1.
( Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu thực hiện nén dữ liệu, nhu cầu về 2D DAS sẽ giảm bớt, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm thêm. DAS cũng đặt ra thách thức cho các giao thức và cơ chế xây dựng khối phân tán: mặc dù DAS về lý thuyết thân thiện với việc tái tạo phân tán, nhưng điều này trong thực tế cần phải kết hợp với đề xuất danh sách bao gồm gói và cơ chế lựa chọn phân nhánh xung quanh nó.
Nén dữ liệu
) Chúng ta đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ chiếm một lượng lớn không gian dữ liệu trên chuỗi: Chuyển ERC20 mất khoảng 180 byte. Ngay cả khi có mẫu khả năng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, chúng ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ có thể giải quyết vấn đề của tử mà còn giải quyết vấn đề của mẫu, khiến cho mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì điều đó sẽ như thế nào?
Nó là gì, nó hoạt động như thế nào?
Trong ý kiến của tôi, lời giải thích tốt nhất là bức tranh này cách đây hai năm:
![Vitalik bài viết mới: Ethereum có thể trong tương lai, The Surge](