Оновлення Fusaka-останнього разу поставило перед розробниками Ethereum нові проблеми. Завдяки восьмикратному збільшенню обсягів Blob-даних для рішень Layer-2 має покращитися масштабованість, але практична реалізація виявляє значні слабкі місця мережі. Кілька незалежних дослідницьких ініціатив одночасно виявили однакові проблеми, які виникають при обробці занадто великої кількості блоків з підвищеним навантаженням даних одночасно.
Потужність Blob і її вплив на стабільність мережі
Оновлення Fusaka мало на меті більш ефективне використання обсягу даних шляхом масивного збільшення кількості Blob. Однак саме це збільшення спричинило несподівані проблеми зі стабільністю. За даними досліджень NS3.AI вже виявляються слабкі місця: блоки з високою кількістю Blob виявляються значно більш вразливими до збоїв, що, у свою чергу, спричиняє безпосереднє навантаження на всю мережу. Дані свідчать про те, що інфраструктура ще не повністю підготовлена до зростаючого навантаження.
Кілька дослідницьких команд підтверджують критичні проблеми
Незалежні дослідження MigaLabs і PandaOps надають додаткові дані про технічні недоліки. Їхній аналіз виявив, що валідатори через свої стратегії часу при виробництві блоків сприяють додатковим збоїм. На диво, поточні показники вже свідчать про зниження середньої кількості Blob — це ознака того, що мережа автоматично повертається до більш стабільного стану, але вразливість під час пікових навантажень залишається проблемою.
Заплановані оптимізації перед подальшим збільшенням потужності
Розробники Ethereum реагують на ці висновки обережною стратегією. Замість негайного подальшого збільшення потужності Blob вони розглядають можливість невеликого проміжного оновлення. Це оновлення має оптимізувати ефективність процесів поширення даних і підвищити стійкість системи до сценаріїв пікових навантажень. Лише після успішної стабілізації та покращення цих базових механізмів розробники планують розглянути подальше збільшення обсягів Blob-даних.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Ethereum після оновлення Fusaka: виклики з підвищеною ємністю Blob-даних
Оновлення Fusaka-останнього разу поставило перед розробниками Ethereum нові проблеми. Завдяки восьмикратному збільшенню обсягів Blob-даних для рішень Layer-2 має покращитися масштабованість, але практична реалізація виявляє значні слабкі місця мережі. Кілька незалежних дослідницьких ініціатив одночасно виявили однакові проблеми, які виникають при обробці занадто великої кількості блоків з підвищеним навантаженням даних одночасно.
Потужність Blob і її вплив на стабільність мережі
Оновлення Fusaka мало на меті більш ефективне використання обсягу даних шляхом масивного збільшення кількості Blob. Однак саме це збільшення спричинило несподівані проблеми зі стабільністю. За даними досліджень NS3.AI вже виявляються слабкі місця: блоки з високою кількістю Blob виявляються значно більш вразливими до збоїв, що, у свою чергу, спричиняє безпосереднє навантаження на всю мережу. Дані свідчать про те, що інфраструктура ще не повністю підготовлена до зростаючого навантаження.
Кілька дослідницьких команд підтверджують критичні проблеми
Незалежні дослідження MigaLabs і PandaOps надають додаткові дані про технічні недоліки. Їхній аналіз виявив, що валідатори через свої стратегії часу при виробництві блоків сприяють додатковим збоїм. На диво, поточні показники вже свідчать про зниження середньої кількості Blob — це ознака того, що мережа автоматично повертається до більш стабільного стану, але вразливість під час пікових навантажень залишається проблемою.
Заплановані оптимізації перед подальшим збільшенням потужності
Розробники Ethereum реагують на ці висновки обережною стратегією. Замість негайного подальшого збільшення потужності Blob вони розглядають можливість невеликого проміжного оновлення. Це оновлення має оптимізувати ефективність процесів поширення даних і підвищити стійкість системи до сценаріїв пікових навантажень. Лише після успішної стабілізації та покращення цих базових механізмів розробники планують розглянути подальше збільшення обсягів Blob-даних.