PeerDAS
Protokol Ethereum sedang menjalani peningkatan skala paling signifikan sejak pengenalan transaksi blob dengan EIP-4844. Sebagai bagian dari peningkatan Fusaka, PeerDAS memperkenalkan cara baru dalam menangani data blob, memberikan peningkatan kapasitas ketersediaan data (DA) sekitar satu urutan besaran untuk L2.
Lebih lanjut tentang peta jalan peningkatan blob (opens in a new tab)
Skalabilitas
Visi Ethereum adalah menjadi platform yang netral, aman, dan terdesentralisasi yang tersedia untuk semua orang di dunia. Seiring dengan pertumbuhan penggunaan jaringan, hal ini membutuhkan penyeimbangan trilema skala, keamanan, dan desentralisasi jaringan. Jika Ethereum hanya meningkatkan data yang ditangani oleh jaringan dalam desainnya saat ini, hal itu akan berisiko membebani node yang diandalkan Ethereum untuk desentralisasinya. Skalabilitas membutuhkan desain mekanisme yang ketat yang meminimalkan pertukaran (trade-off).
Salah satu strategi untuk mencapai tujuan ini adalah dengan memungkinkan ekosistem solusi peningkatan layer 2 yang beragam daripada memproses semua transaksi di mainnet. atau rollup memproses transaksi pada rantai terpisah mereka sendiri dan menggunakan Ethereum untuk verifikasi dan keamanan. Dengan hanya memublikasikan komitmen yang sangat penting bagi keamanan dan mengompresi muatan (payload), L2 dapat menggunakan kapasitas DA Ethereum dengan lebih efisien. Pada gilirannya, L1 membawa lebih sedikit data tanpa mengorbankan jaminan keamanan, sementara L2 menerima lebih banyak pengguna dengan biaya gas yang lebih rendah. Awalnya, L2 memublikasikan data sebagai calldata dalam transaksi biasa, yang bersaing dengan transaksi L1 untuk mendapatkan gas dan tidak praktis untuk ketersediaan data dalam jumlah besar.
Proto-Danksharding
Langkah besar pertama menuju peningkatan L2 adalah peningkatan Dencun, yang memperkenalkan Proto-Danksharding (EIP-4844). Peningkatan ini menciptakan tipe data baru yang dikhususkan untuk rollup yang disebut blob. Blob, atau objek besar biner (binary large objects), adalah potongan data arbitrer sementara yang tidak memerlukan eksekusi EVM dan hanya disimpan oleh node untuk waktu yang terbatas. Pemrosesan yang lebih efisien ini memungkinkan L2 untuk memublikasikan lebih banyak data ke Ethereum dan meningkat lebih jauh lagi.
Meskipun sudah memiliki manfaat yang kuat untuk peningkatan, penggunaan blob hanyalah bagian dari tujuan akhir. Dalam protokol saat ini, setiap node di jaringan masih perlu mengunduh setiap blob. Hambatannya menjadi bandwidth yang dibutuhkan oleh masing-masing node, dengan jumlah data yang perlu diunduh secara langsung meningkat seiring dengan jumlah blob yang lebih tinggi.
Ethereum tidak berkompromi pada desentralisasi, dan bandwidth adalah salah satu pengaturan yang paling sensitif. Bahkan dengan komputasi canggih yang tersedia secara luas bagi siapa saja yang mampu membelinya, keterbatasan bandwidth unggah (opens in a new tab) bahkan di kota-kota yang sangat urban di negara maju (seperti Jerman (opens in a new tab), Belgia (opens in a new tab), Australia (opens in a new tab) atau Amerika Serikat (opens in a new tab)) dapat membatasi node untuk hanya dapat berjalan dari pusat data jika persyaratan bandwidth tidak disesuaikan dengan hati-hati.
Operator node memiliki persyaratan bandwidth dan ruang disk yang semakin tinggi seiring dengan bertambahnya blob. Ukuran dan kuantitas blob dibatasi oleh kendala ini. Setiap blob dapat membawa hingga 128kb data dengan rata-rata 6 blob per blok. Ini hanyalah langkah pertama menuju desain masa depan yang menggunakan blob dengan cara yang lebih efisien.
Pengambilan sampel ketersediaan data
Ketersediaan data adalah jaminan bahwa semua data yang diperlukan untuk memvalidasi rantai secara independen dapat diakses oleh semua peserta jaringan. Hal ini memastikan bahwa data telah dipublikasikan sepenuhnya dan dapat digunakan untuk memverifikasi status baru dari rantai atau transaksi yang masuk tanpa perlu rasa percaya (trustlessly).
Blob Ethereum memberikan jaminan ketersediaan data yang kuat yang memastikan keamanan L2. Untuk melakukan ini, node Ethereum perlu mengunduh dan menyimpan blob secara keseluruhan. Namun, bagaimana jika kita dapat mendistribusikan blob di jaringan dengan lebih efisien dan menghindari batasan ini?
Pendekatan yang berbeda untuk menyimpan data dan memastikan ketersediaannya adalah pengambilan sampel ketersediaan data (DAS). Alih-alih setiap komputer yang menjalankan Ethereum menyimpan setiap blob secara penuh, DAS memperkenalkan pembagian kerja yang terdesentralisasi. Ini memecah beban pemrosesan data dengan mendistribusikan tugas-tugas yang lebih kecil dan dapat dikelola ke seluruh jaringan node. Blob dibagi menjadi beberapa bagian dan setiap node hanya mengunduh beberapa bagian menggunakan mekanisme untuk distribusi acak yang seragam di semua node.
Hal ini menimbulkan masalah baru—membuktikan ketersediaan dan integritas data. Bagaimana jaringan dapat menjamin bahwa data tersedia dan semuanya benar ketika masing-masing node hanya menyimpan potongan-potongan kecil? Node yang berbahaya dapat menyajikan data palsu dan dengan mudah merusak jaminan ketersediaan data yang kuat! Di sinilah kriptografi datang untuk membantu.
Untuk memastikan integritas data, EIP-4844 telah diimplementasikan dengan komitmen KZG. Ini adalah bukti kriptografi yang dibuat ketika blob baru ditambahkan ke jaringan. Bukti kecil disertakan dalam setiap blok, dan node dapat memverifikasi bahwa blob yang diterima sesuai dengan komitmen KZG blok tersebut.
DAS adalah mekanisme yang dibangun di atas hal ini dan memastikan data tersebut benar dan tersedia. Pengambilan sampel adalah proses di mana node hanya menanyakan sebagian kecil data dan memverifikasinya terhadap komitmen. KZG adalah skema komitmen polinomial yang berarti bahwa setiap titik tunggal pada kurva polinomial dapat diverifikasi. Dengan hanya memeriksa beberapa titik pada polinomial, klien yang melakukan pengambilan sampel dapat memiliki jaminan probabilistik yang kuat bahwa data tersebut tersedia.
PeerDAS
PeerDAS (EIP-7594) (opens in a new tab) adalah proposal spesifik yang mengimplementasikan mekanisme DAS di Ethereum, yang mungkin menandai peningkatan terbesar sejak The Merge. PeerDAS dirancang untuk memperluas data blob, membaginya menjadi beberapa kolom dan mendistribusikan sebagian (subset) ke node.
Ethereum meminjam beberapa matematika cerdas untuk mencapai hal ini: ia menerapkan pengkodean penghapusan (erasure coding) gaya Reed-Solomon ke data blob. Data blob direpresentasikan sebagai polinomial yang koefisiennya menyandikan data, kemudian mengevaluasi polinomial tersebut pada titik-titik tambahan untuk membuat blob yang diperluas, menggandakan jumlah evaluasi. Redundansi tambahan ini memungkinkan pemulihan penghapusan: bahkan jika beberapa evaluasi hilang, blob asli dapat direkonstruksi selama setidaknya setengah dari total data, termasuk potongan yang diperluas, tersedia.
Pada kenyataannya, polinomial ini memiliki ribuan koefisien. Komitmen KZG adalah nilai dari beberapa byte, sesuatu seperti hash, yang diketahui oleh semua node. Setiap node yang menyimpan titik data yang cukup dapat merekonstruksi kumpulan data blob secara efisien (opens in a new tab).
Fakta menarik: teknik pengkodean yang sama digunakan oleh DVD. Jika Anda menggores DVD, pemutar masih dapat membacanya berkat pengkodean Reed-Solomon yang menambahkan potongan polinomial yang hilang.
Secara historis, data dalam blockchain, baik blok maupun blob, disiarkan ke semua node. Dengan pendekatan pemisahan-dan-pengambilan sampel (split-and-sample) PeerDAS, menyiarkan semuanya ke semua orang tidak lagi diperlukan. Pasca-Fusaka, jaringan lapisan konsensus diatur ke dalam topik/subnet gosip: kolom blob ditetapkan ke subnet tertentu, dan setiap node berlangganan ke subset yang telah ditentukan sebelumnya dan hanya menyimpan potongan-potongan tersebut.
Dengan PeerDAS, data blob yang diperluas dibagi menjadi 128 bagian yang disebut kolom. Data didistribusikan ke node-node ini melalui protokol gosip khusus pada subnet tertentu yang mereka langgani. Setiap node reguler di jaringan berpartisipasi dalam setidaknya 8 subnet kolom yang dipilih secara acak. Menerima data dari hanya 8 dari 128 subnet berarti bahwa node default ini hanya menerima 1/16 dari semua data, tetapi karena data tersebut diperluas, ini adalah 1/8 dari data asli.
Hal ini memungkinkan batas peningkatan teoretis baru sebesar 8x dari skema "semua orang mengunduh semuanya" saat ini. Dengan node yang berlangganan ke subnet acak yang berbeda yang melayani kolom blob, probabilitasnya sangat tinggi bahwa mereka didistribusikan secara seragam dan oleh karena itu setiap bagian data ada di suatu tempat di jaringan. Node yang menjalankan validator diharuskan untuk berlangganan lebih banyak subnet dengan setiap validator yang mereka jalankan.
Setiap node memiliki ID unik yang dihasilkan secara acak, yang biasanya berfungsi sebagai identitas publiknya untuk koneksi. Dalam PeerDAS, angka ini digunakan untuk menentukan set subnet acak yang harus dilangganinya yang menghasilkan distribusi acak yang seragam dari semua data blob.
Setelah node berhasil merekonstruksi data asli, ia kemudian mendistribusikan kembali kolom yang dipulihkan kembali ke jaringan, secara aktif menyembuhkan celah data apa pun dan meningkatkan ketahanan sistem secara keseluruhan. Node yang terhubung ke validator dengan saldo gabungan ≥4096 ETH harus menjadi supernode dan oleh karena itu harus berlangganan ke semua subnet kolom data dan menyimpan semua kolom. Supernode ini akan terus menyembuhkan celah data. Sifat protokol yang dapat menyembuhkan diri sendiri secara probabilistik memungkinkan jaminan ketersediaan yang kuat tanpa membatasi operator rumahan yang hanya menyimpan sebagian data.
Ketersediaan data dapat dikonfirmasi oleh node mana pun yang hanya menyimpan sebagian kecil data blob berkat mekanisme pengambilan sampel yang dijelaskan di atas. Ketersediaan ini ditegakkan: validator harus mengikuti aturan pilihan fork (fork-choice) yang baru, yang berarti mereka hanya akan menerima dan memberikan suara untuk blok setelah mereka memverifikasi ketersediaan data.
Dampak langsung pada pengguna (terutama pengguna L2) adalah biaya yang lebih rendah. Dengan ruang 8x lebih banyak untuk data rollup, operasi pengguna pada rantai mereka menjadi lebih murah seiring berjalannya waktu. Namun, biaya yang lebih rendah pasca-Fusaka akan memakan waktu dan bergantung pada BPO.
Blob-Parameter-Only (BPO)
Jaringan secara teoretis akan dapat memproses 8x lebih banyak blob, tetapi peningkatan blob adalah perubahan yang perlu diuji dengan benar dan dieksekusi dengan aman secara bertahap. Testnet memberikan kepercayaan diri yang cukup untuk menerapkan fitur-fitur tersebut di mainnet, tetapi kita perlu memastikan stabilitas jaringan p2p sebelum mengaktifkan jumlah blob yang jauh lebih tinggi.
Untuk secara bertahap menaikkan target jumlah blob per blok tanpa membebani jaringan, Fusaka memperkenalkan fork Blob-Parameter-Only (BPO) (opens in a new tab). Tidak seperti fork biasa yang membutuhkan koordinasi ekosistem yang luas, kesepakatan, dan pembaruan perangkat lunak, BPO (EIP-7892) (opens in a new tab) adalah peningkatan yang telah diprogram sebelumnya yang meningkatkan jumlah maksimum blob dari waktu ke waktu tanpa intervensi.
Ini berarti bahwa segera setelah Fusaka aktif dan PeerDAS ditayangkan, jumlah blob akan tetap tidak berubah. Jumlah blob akan mulai berlipat ganda setiap beberapa minggu hingga mencapai maksimum 48, sementara pengembang memantau untuk memastikan mekanismenya bekerja seperti yang diharapkan dan tidak memiliki efek buruk pada node yang menjalankan jaringan.
Arah masa depan
PeerDAS hanyalah sebuah langkah menuju visi peningkatan FullDAS yang lebih besar (opens in a new tab), atau Danksharding. Sementara PeerDAS menggunakan pengkodean penghapusan 1D untuk setiap blob secara individual, Danksharding penuh akan menggunakan skema pengkodean penghapusan 2D yang lebih lengkap di seluruh matriks data blob. Memperluas data dalam dua dimensi menciptakan sifat redundansi yang lebih kuat serta rekonstruksi dan verifikasi yang lebih efisien. Mewujudkan FullDAS akan membutuhkan pengoptimalan jaringan dan protokol yang substansial, bersama dengan penelitian tambahan.
Bacaan lebih lanjut
- PeerDAS: Peer Data Availability sampling oleh Francesco D'Amato (opens in a new tab)
- Dokumentasi PeerDAS Ethereum (opens in a new tab)
- Membuktikan Keamanan PeerDAS tanpa AGM (opens in a new tab)
- Vitalik tentang PeerDAS, dampaknya, dan pengujian Fusaka (opens in a new tab)
Pembaruan terakhir halaman: 23 Februari 2026

