Новая неделя несёт очередную порцию фундаментальной информации про крипту.
Если ты ещё не успел ознакомиться с предыдущими частями, они лежат по ссылкам ниже:
- Первая часть лежит по этой ссылке
- Вторая часть лежит по этой ссылке
- Третья часть лежит по этой ссылке
- Четвёртая часть лежит по этой ссылке
- Пятая часть лежит по этой ссылке
- Шестая часть лежит по этой ссылке
- Cедьмая часть лежит по этой ссылке
Глава XIII: DePIN

Инфраструктура, от которой ты зависишь (сотовые вышки, облачные серверы, карты улиц), всегда строилась по одной и той же схеме: корпорация развертывает оборудование «сверху вниз» и управляет им как закрытой проприетарной сетью. Эта модель работает, но она дорога и избирательна. Компании строят там, где отдача выше всего, оставляя огромные территории мира без должного обслуживания.
А что, если бы существовал другой путь? Что, если бы обычные люди могли коллективно строить глобальную инфраструктуру, запуская оборудование из своих домов, машин и офисов, координируясь не корпоративной иерархией, а криптоэкономическими стимулами, заложенными в протокол?
Это и есть DePIN: децентрализованные сети физической инфраструктуры. DePIN стоит в одном ряду с DeFi и NFT как третий столп криптомира. Вместо того чтобы просто перемещать деньги или записи о собственности, DePIN переносит блокчейн в физический мир. Эта модель заменяет централизованные капитальные бюджеты распределенным участием, превращая энтузиастов и малый бизнес в операторов сетей, которые соперничают - а иногда и превосходят - то, что построили гиганты рынка.
К концу 2022 года одна из таких сетей под названием Helium объединяла почти миллион беспроводных устройств, развернутых в почти 200 странах. Большинство из них не были вышками сотовых операторов. Это были скромные коробочки, включенные в розетку в гостиных, магазинах и на складах обычными людьми, которые зарабатывали криптовалюту за обеспечение покрытия IoT (интернета вещей). Всего за несколько лет эта построенная сообществом сеть выросла настолько, что стала сопоставима с традиционными сетями, на создание которых телекоммуникационным компаниям требовались десятилетия и миллиарды долларов.
Примерно в то же время Hivemapper запустил децентрализованную картографическую сеть, которая платит водителям за сбор снимков улиц с помощью видеорегистраторов. К 2024 году участники нанесли на карту около 16 миллионов уникальных километров дорог - более четверти всей мировой дорожной сети, - развиваясь темпами, превосходящими историческое расширение Google Street View. Они использовали обычные автомобили и токен-стимулы вместо специализированных автопарков.
Это не просто любопытные побочные проекты. Они представляют собой общую закономерность того, как модель работает на практике. Большинство проектов опираются на одну и ту же базу криптоинфраструктуры, но их успех ограничен оборудованием и локальной экономикой, а не только кодом.
Раздел I: Инфраструктурный разрыв
«Мертвые зоны» в твоем телефоне, счета за облачные сервисы на сотни долларов и города, застрявшие на DSL-интернете со скоростью 3 Мбит/с - это не случайности. Это особенности того, как мы финансируем инфраструктуру. Для централизованных игроков, таких как AT&T или AWS, каждая новая вышка, оптоволоконная линия или дата-центр - это упражнение в таблицах Excel: капитальные затраты против долгосрочной прибыли.
Прокладка оптоволокна в сельский городок с населением 500 человек требует миллионов долларов авансовых инвестиций, при этом ежемесячная выручка от подписок может возвращать этот долг десятилетиями. Результатом является ловушка централизации: инфраструктура развертывается только в плотных, прибыльных городских центрах, оставляя значительную часть населения мира за бортом.
Инверсия DePIN
DePIN переворачивает эту модель. Вместо того чтобы одна компания привлекала миллиарды для строительства закрытой сети, протокол координирует тысячи людей для самостоятельного развертывания оборудования. Здесь нет плана внедрения «сверху вниз»; сеть растет везде, где экономические стимулы делают выгодным для кого-то покупку и подключение устройства.
Основная ставка проста: если платить людям правильным образом, сообщество сможет запустить глобальную сеть быстрее и дешевле, чем любая отдельная компания. Протокол не прокладывает кабели и не покупает серверы; он управляет маркетплейсом, позволяя любому подключить «железо» и зарабатывать, при этом экономика вшита напрямую в код через нативные токены и ончейн-учет оказанных услуг.
Сети без генерального директора всё равно нужен способ принимать решения. Как и другие криптопротоколы, сети DePIN полагаются на управление на базе токенов (механизмы, изученные в Главе XII). Держатели токенов голосуют за критические параметры: технические характеристики оборудования, графики эмиссии наград и обновления протокола. Часто этими избирателями являются сами операторы, а значит, сеть принадлежит и управляется стороной предложения (supply side). Это создает самоорганизующуюся систему, где личные мотивы получения прибыли направлены на создание единого общественного блага.
Раздел II: Экономический движок
Не все DePIN требуют одинакового уровня вовлеченности. Проекты с тяжелым оборудованием требуют от операторов покупки и установки специализированных устройств, оплаты электроэнергии, интернета и технического обслуживания. Более легкие модели предлагают делиться существующими ресурсами: домашним интернетом, датчиками телефона или лишним местом на диске. В этом случае цена участия смещается с наличных денег на твое время, внимание и терпимость к риску.
Если цель - построить глобальную сеть без центральной казны, первым препятствием становится проблема холодного старта. На ранних этапах у сети нет полезности, а значит, нет клиентов. Приложение для поездок без водителей не имеет пассажиров, а телеком-сеть без вышек не имеет абонентов.
В то время как традиционный стартап сжигает венчурный капитал для субсидирования этой фазы, протоколы DePIN используют эмиссию токенов как временную субсидию. Ранние последователи покупают и устанавливают оборудование не потому, что есть существующий спрос, а чтобы захватить эти награды, фактически выступая в роли бизнес-ангелов, которым платят токенами, похожими на акции, а не наличными.
График эмиссии
Этот механизм работает только при соблюдении двух условий: согласованности графика эмиссии и реального спроса на токен. Если токенов выпускается слишком много, инфляция обрушивает их стоимость, и награды перестают иметь значение. Если слишком мало - никто не захочет покупать дорогое оборудование.
На ранних стадиях большую часть реальных затрат фактически несут пассивные покупатели. Операторы продают часть своих наград для покрытия расходов на «железо» и эксплуатацию, а спекулянты поглощают это давление продаж. Эти спекулянты финансируют сеть не из альтруизма; они ставят на то, что позже она будет стоить намного дороже. Биткоин следовал той же схеме: майнеры добывали монеты, чтобы заработать и продать их для оплаты счетов за электричество, а долгосрочные держатели финансировали расширение сети, выкупая то, что майнерам приходилось сбрасывать.
Проекты DePIN, такие как Helium, часто используют график халвинга, похожий на биткоинский, где награды падают через фиксированные интервалы для создания чувства срочности. Чтобы оборудование не скапливалось в уже насыщенных городах, такие графики часто включают географические множители, предлагающие более высокие награды за развертывание в неосвоенных районах. Эти географические зоны делят мир на ячейки, приносящие награды, направляя физический рост сети через экономический код.
Переход к реальной выручке
Эмиссия - это субсидия для запуска, а не бизнес-модель. В долгосрочной перспективе сеть DePIN должна финансироваться реальными клиентами, платящими реальные деньги. Чтобы токен имел устойчивую стоимость, часть этой внешней выручки должна возвращаться держателям токенов через казначейство, разделение комиссий или механизмы обратного выкупа и сжигания.
Распространенным подходом является равновесие сжигания и чеканки (burn-and-mint equilibrium). Использование сети требует сжигания нативного токена, что безвозвратно сокращает его предложение. Если эти токены сначала были куплены за внешний капитал (например, клиенты платят фиатом, а посредник покупает и сжигает токены от их имени), то выручка сети фактически выкупает и уничтожает предложение. Со временем это может поддерживать цену токена и делать награды операторов экономически значимыми, при условии, что использование сети растет быстрее, чем выпуск новых токенов и давление продаж.
Helium демонстрирует этот дизайн на практике. Доступ к сети оплачивается в «Data Credits» (кредитах данных) - непередаваемых единицах с фиксированной долларовой ценой за пакет данных. Эти кредиты создаются только путем сжигания нативного токена HNT по текущей цене оракула. Чтобы пакеты данных передавались, кто-то должен потратить деньги, приобрести HNT и сжечь их в кредиты. Каждый переданный пакет соответствует небольшому количеству предложения HNT, выведенному из обращения.
Эта структура связывает ценность HNT с фактическим использованием сети, а не только со спекуляциями. Однако сила этой связи зависит от масштаба. Пока доминируют эмиссия токенов и спекулятивная торговля, сжигание остается скорее структурной особенностью в ожидании реального спроса.
Сеть DePIN становится экономически устойчивой только тогда, когда сжигание токенов из-за использования становится достаточно масштабным, чтобы существенно компенсировать эмиссию и финансировать награды операторов без опоры на бесконечный поток новых спекулянтов.
Разнообразие моделей выручки
Помимо Helium, большинство сетей DePIN экспериментируют с различными моделями выручки, которые со временем должны заменить эмиссию. Некоторые берут плату напрямую за потребление: за гигабайт хранилища или за час вычислений. Другие вводят планы подписки для получения предсказуемого регулярного дохода, особенно в сфере связи и SaaS-предложений. Многие взимают транзакционные комиссии с платежей внутри сети или монетизируют агрегированные анонимные наборы данных, продавая их предприятиям, исследовательским институтам или разработчикам приложений.
Механика предложения токенов
Механика предложения токенов сильно различается, даже если сети решают схожие задачи.
Возьмем Filecoin - децентрализованную сеть хранения данных, где пользователи платят за хранение своих файлов независимым провайдерам. Каждая транзакция в Filecoin включает базовую комиссию, которая сжигается, навсегда удаляя токены из обращения, в то время как провайдеры зарабатывают новые токены через награды за блоки и сделки с пользователями. Это сочетает инфляционную эмиссию (для вознаграждения провайдеров) со встроенной дефляцией (через сжигаемые комиссии).
В сфере вычислений Render Network координирует поставщиков GPU для выполнения задач рендеринга и ИИ. Здесь сжигание токенов привязано напрямую к выполненным заданиям: когда пользователи оплачивают рендеринг, часть задействованных токенов уничтожается, так что сокращение предложения явно связано с объемом предоставленных вычислений.
Многие другие DePIN-проекты добавляют третий ингредиент: стейкинг. Операторы должны заблокировать токены в качестве залога для участия, выводя их из эффективного обращения. Если они не выполняют гарантии обслуживания или действуют нечестно, часть этого стейка может быть слэшнута (аналогично слэшингу валидаторов в системах Proof-of-Stake, описанному в Главе II). Комбинируя сжигание комиссий, сжигание по факту работ и стейкинг залога, каждая сеть собирает свой микс инфляции и дефляции, чтобы согласовать стимулы и закрепить долгосрочную стоимость токена в реальной полезности.
Когда такие системы работают, они демонстрируют мощные сетевые эффекты. Ранние развертывания могут почти не использоваться, но по мере роста плотности покрытия и интеграции сети в приложения, использование и выручка на каждый узел могут расти нелинейно. Когда цикл идет в обратную сторону, сеть сталкивается с «спиралью смерти»: использование стагнирует, сжигание токенов падает, цена снижается, и операторы оборудования начинают отключать свои узлы, так как награды больше не покрывают расходы на электричество, трафик и обслуживание.
Раздел III: Машина доверия
Экономические стимулы, описанные выше, очень сильны, но они создают побочную проблему: мошенничество. Если сеть платит анонимным игрокам за обеспечение беспроводного покрытия или хранение файлов, злоумышленники неизбежно попытаются получить награды, не выполняя работу.
Поэтому техническая архитектура DePIN существует прежде всего для ответа на один вопрос: действительно ли ты оказал услугу? Для этого нужна экосистема поставщиков услуг, развертывающих физические активы, и валидаторов с оракулами, которые подтверждают работу.
Роли и обязанности
Процесс верификации опирается на четкие, стимулируемые роли. В основе лежат поставщики услуг - операторы «железа», которые устанавливают и обслуживают физические активы, такие как хотспоты, серверы хранения или датчики.
Поставщики услуг обычно должны соответствовать минимальным требованиям к оборудованию, качеству связи и времени безотказной работы (аптайму). Мониторинг производительности отслеживает пропускную способность, задержки и надежность, а многие сети ведут ончейн- или оффчейн-рейтинги репутации, которые направляют больше трафика и комиссий наиболее надежным операторам.
За их работой следят валидаторы и оракулы. В отличие от поставщиков услуг, валидаторы предоставляют вычислительные ресурсы, а не физическую инфраструктуру, подтверждая криптографические свидетельства оказания услуг. Во многих сетях эти функции еще более специализированы: генераторы испытаний (challenge generators) создают случайные проверочные задачи, а сети свидетелей (witness networks) независимо подтверждают ответы, добавляя избыточность против сговора.
Оракулы служат мостом между физическим и цифровым мирами, проверяя внесетевые данные (например, локальные погодные условия или местоположение автомобиля) и передавая их в блокчейн для расчета наград. (Сети оракулов и вопросы их безопасности рассматривались в разделе «Зависимости инфраструктуры» Главы VII).
Proof-of-Coverage (Доказательство покрытия) для беспроводных сетей
В беспроводных сетях верификация достигается через Proof-of-Coverage. Хотспоты периодически отправляют своим соседям радио-вызовы (challenges) - зашифрованные пакеты, передаваемые в эфир. Когда соседний хотспот «слышит» этот пакет, он сообщает сети об уровне сигнала, создавая криптографическую карту покрытия, основанную на физическом распространении радиоволн.
Ключевым параметром настройки здесь является частота испытаний. Если проверять слишком часто, верификация перегрузит сеть данными и расходами; если слишком редко - у злоумышленников появятся широкие окна для симуляции покрытия без риска быть пойманными. Большинство конструкций - это компромисс: достаточно проверок, чтобы обман стал невыгодным, но не настолько много, чтобы верификация поглотила экономическую ценность услуги.
Чтобы представить покрытие в виде, устойчивом к манипуляциям, мир часто делят на гексагональную сетку. Это мешает хотспотам, стоящим в одной комнате, претендовать на огромные награды за дублирующее покрытие. Чтобы справиться с массивом данных от миллионов радио-проверок, многие реализации выносят вычисления в специализированные сети оракулов (упомянутые ранее), которые агрегируют сырые данные свидетелей и отправляют сокращенные доказательства в высокопроизводительный блокчейн, такой как Solana.
Proof-of-Spacetime (Доказательство пространства-времени) для сетей хранения
Сети хранения сталкиваются с другим вызовом: доказать, что данные не просто сохранены, а сохраняются в течение времени. Filecoin заменяет юридические контракты и соглашения об уровне обслуживания (SLA) централизованных провайдеров двумя криптографическими системами: Proof-of-Replication и Proof-of-Spacetime.
Proof-of-Replication (Доказательство репликации) используется в момент заключения сделки. Провайдер берет данные клиента, создает их уникально закодированную копию на своем оборудовании и выдает доказательство того, что именно эта копия существует на его дисках. Это мешает нечестному оператору притворяться, что он предлагает большой объем памяти, в то время как на самом деле он использует одни и те же данные для множества разных клиентов.
Proof-of-Spacetime используется на протяжении всего срока хранения. Сеть должна быть уверена, что данные всё еще там, но проверять каждый байт каждого файла постоянно было бы слишком дорого. Вместо этого Filecoin использует вероятностную выборку. По регулярному графику, примерно раз в день, протокол просит провайдера доказать, что он всё еще хранит случайно выбранные фрагменты данных. Если он отвечает правильно и вовремя, сеть считает это веским доказательством того, что полная закодированная копия остается доступной.
В Filecoin эти постоянные проверки реализованы в системе под названием WindowPoSt (Window Proof-of-Spacetime). Каждое временное окно сопровождается своим набором испытаний и доказательств, которые провайдер обязан предоставить. Если он пропускает эти проверки или предоставляет неверные данные, часть его заблокированного залога может быть слэшнута, а будущие награды - сокращены. Надежность обеспечивается не судами, а автоматическими экономическими штрафами, срабатывающими при провале доказательств.
Проблема местоположения
Самый сложный технический вектор для защиты - это местоположение. Поскольку многие сети стимулируют географическое расширение, они уязвимы для спуфинга GPS (подмены координат), когда операторы используют софт для подделки своих координат ради получения наград, предназначенных для неосвоенных зон. Защита от этого - постоянная гонка вооружений.
Протоколы используют триангуляцию для валидации местоположения через уровень сигнала между пиринговыми устройствами и всё чаще применяют оборудование с функцией proof-of-location, имеющее защищенные элементы (Secure Elements), которые подписывают данные GPS на уровне чипа. Некоторые сети, такие как Hivemapper, добавляют слой поведенческого анализа на базе ИИ, помечая неорганические паттерны или используя визуальные данные для подтверждения того, что камера действительно движется через физический мир.
Многие проекты также полагаются на сдерживание через стейкинг: операторы должны блокировать токены, которые могут быть конфискованы при обнаружении манипуляций. Также используются инструменты сообщества, позволяющие участникам помечать подозрительные развертывания для целевых аудитов. Вместе эти механизмы пытаются превратить спуфинг местоположения из малорискованного софтверного трюка в высокорискованную экономическую авантюру.
[Image showing GPS spoofing vs proof-of-location hardware mechanism]
Строительные блоки
Эти экономические и верификационные примитивы - фундамент DePIN. Разные типы инфраструктуры комбинируют их в разных пропорциях, балансируя стоимость оборудования, сложность доказательств, регуляторные риски и паттерны спроса.
Чтобы увидеть, как это работает на практике, полезно изучить, как архитектуры DePIN расходятся по трем основным доменам вызовов: географическое покрытие, сохранность данных и вычислительные ресурсы.
Раздел IV: Категории и реализация
Теперь мы можем рассмотреть, как различные проекты DePIN применяют эти принципы для решения конкретных задач. Каждая категория сталкивается с уникальными техническими и экономическими барьерами, которые определяют её архитектуру.
Сети географического покрытия
Цель таких сетей - заполнить физическое пространство оборудованием для обеспечения связи или сбора экологических данных. Их главный вызов - стимулировать установку «железа» в нужных местах и доказать, что оно действительно присутствует и активно.
Беспроводная связь: модель Helium
В сфере беспроводной связи Helium служит эталоном модели «полевого развертывания». Стимулируя частных лиц устанавливать маломощные беспроводные хотспоты для IoT-устройств, сеть развернула более 900 000 узлов в примерно 170 странах. Это подтвердило тезис о том, что токен-стимулы могут финансировать огромные капитальные затраты без привлечения баланса централизованного оператора.
Исторически награды операторов делились между обеспечением покрытия, подтверждением испытаний других хотспотов и фактической передачей данных пользователей, напрямую переводя механизмы эмиссии и сжигания в физический рост сети.
Однако Helium также проиллюстрировал волатильность этой модели. С переходом к сотовому покрытию 5G и разгрузке Wi-Fi в последующие годы, сети пришлось управлять сложным переходом от фазы чистого строительства покрытия к фазе генерации трафика, напрямую конкурируя с признанными операторами в надежности и клиентском опыте.
Картографические сети: Hivemapper против Google
Картографические и сенсорные сети сталкиваются со схожими вызовами в других модальностях данных. Hivemapper бросает вызов Google Street View, выплачивая вознаграждение водителям за установку видеорегистраторов. В результате получается карта, которая может обновляться еженедельно, а не ежегодно.
К началу 2026 года участники Hivemapper нанесли на карту более 500 миллионов километров дорог и обеспечили покрытие примерно трети мировой дорожной сети - поразительный темп для сети, которой всего несколько лет. Для сравнения, Google за десять с лишним лет накопил снимки Street View для десятка миллионов миль дорог; у Google почти универсальное покрытие во многих странах, но циклы обновления медленнее.
Сравнительное преимущество Hivemapper не в абсолютном охвате (здесь Google всё еще доминирует во многих регионах), а в свежести данных и предельных издержках. Традиционное картографирование требует дорогих парков специализированных машин и штата сотрудников; DePIN превращает сбор данных в фоновую задачу для существующих водителей, чьи награды зависят от местоположения и новизны снимков.
Сети экологических датчиков
Сети экологических датчиков распространяют ту же схему на погоду и качество воздуха. WeatherXM управляет персональными метеостанциями в десятках стран, проверяя их показания путем сравнения с соседними станциями и спутниковыми снимками, и вознаграждает операторов токенами за качество и стабильность данных.
Ценность здесь - в гиперлокальном покрытии, которое национальные метеослужбы или коммерческие провайдеры вряд ли могли бы оправдать финансово. Planetwatch применяет схожий сценарий к качеству воздуха: откалиброванные датчики в домах, офисах или на уличных объектах передают измерения регуляторного уровня в сеть.
Награды в токенах привязаны к классу датчика и времени его работы без сбоев. Полученные наборы данных используются для исследований в области здравоохранения, анализа климата и мониторинга. Здесь преимущество перед централизованными системами не только в цене; традиционные сети могут предлагать более контролируемое оборудование, но DePIN может обеспечить во много раз более плотное покрытие, если решит проблемы калибровки и мошенничества.
Сети сохранности данных
Если географические сети сосредоточены на месте установки оборудования, то сети сохранности данных - на том, остаются ли данные доступными по нужной цене и в нужном временном горизонте. Их главная задача - заменить корпоративные контракты и гарантии обслуживания криптографическим и экономическим принуждением.
Filecoin: открытый маркетплейс
Filecoin работает как открытый рынок хранения данных. Майнеры соревнуются, предлагая емкость, а клиенты заключают сделки, указывая цену, длительность, избыточность и географические предпочтения.
Анализ показывает, что в определенные периоды рекламируемые цены на хранение в Filecoin составляли несколько долларов за терабайт в год, тогда как стандартные уровни AWS S3 обходились в 20–30 долларов. Это говорит о десятикратной разнице в стоимости при наличии промо-стимулов и агрессивной конкуренции. К этим цифрам нужно относиться осторожно: эффективная стоимость зависит от факторов репликации, цены извлечения данных и операционной сложности. Тем не менее, конкурентное давление реально.
IPFS (также упоминавшийся в Главе XI об NFT) стоит рядом с Filecoin как слой адресации и распределения, идентифицируя файлы по их криптографическому хешу, а не по местоположению. Filecoin добавляет слой стимулов, чтобы гарантировать, что критически важный контент сохраняется во времени.
Arweave: модель эндаумента
Arweave использует принципиально иной подход, предлагая вечное хранение через модель эндаумента (целевого фонда). Пользователи платят разовый авансовый платеж, который фактически инвестируется в фонд хранения; майнеры затем получают вознаграждение из этого пула за хранение исторических данных. Это гарантирует, что постоянный архив данных остается доступным бесконечно без ежемесячных платежей.
На практике эта модель привела к ценам для пользователей в районе нескольких долларов за гигабайт для долгосрочного хранения. Это может быть дорого для очень больших массивов данных, но привлекательно для ценного архивного контента: культурных артефактов, юридических записей или незаменимых состояний приложений.
Здесь отличие от AWS не только в цене, но и в горизонте времени и контроле. Корпоративный провайдер может изменить цены или закрыть сервис; обещание Arweave в том, что пока живет сеть и её токеномика, данные будут доступны без дополнительных переговоров.
Сети вычислительных ресурсов
Последняя категория инфраструктуры DePIN монетизирует простаивающие или недоиспользуемые вычислительные мощности. Их вызов - превратить фрагментированный ландшафт разнородных машин в нечто, что с точки зрения пользователя ощущается как связное облако.
Render Network: использование простаивающих GPU
Дефицит GPU в 2023 году подсветил неэффективность централизованных облаков: премиальные чипы были в дефиците и стоили дорого, в то время как видеокарты потребительского класса простаивали в игровых ПК по всему миру. Render Network использует эти «невозвратные затраты».
Сеть агрегирует простаивающие GPU для задач рендеринга и ИИ, распределяя работу между узлами, которые заявляют о подходящем железе и приемлемой цене. Механизм Proof-of-Render разбивает задания на части и проверяет результаты через избыточность или криптографические проверки (например, повторный рендеринг маленьких фрагментов или сравнение хешей детерминированных выводов).
Узлы, возвращающие неверные или низкокачественные результаты, могут быть оштрафованы или исключены из будущих работ на основе репутации.
Akash: облачные вычисления общего назначения
Akash расширяет эту модель на облачные вычисления общего назначения. Она создает маркетплейс обратных аукционов, где арендаторы указывают свои требования (CPU, память, диск, срок), а провайдеры торгуются за право выполнить заказ, вместо того чтобы заставлять пользователей принимать фиксированные прайс-листы Amazon или Google.
Так как многие провайдеры уже оплатили своё оборудование для игр, майнинга или существующих задач дата-центров, они часто могут предложить вычисления со значительной скидкой по сравнению с маржой централизованных облаков, особенно для некритичных или пиковых нагрузок.
Как и в других сетях DePIN, теоретическое преимущество здесь - цена и гибкость; практическое ограничение - надежность, сложность оркестрации и комплаенс.
Раздел V: Проверка реальностью
Изучив теоретические модели и реализации, мы должны признать разрыв между обещаниями DePIN и текущей реальностью. Несмотря на быстрый рост показателей развертывания и привлекательные сравнения цен, DePIN пока не вытеснил традиционную инфраструктуру. Барьеры для массового принятия значительны, и они кроются в суровой реальности надежности, безопасности, регулирования, управления и пользовательского опыта.
Вызов надежности
Надежность - самое заметное препятствие, и она не так бинарна, как предполагает фраза «пять девяток». Корпоративная инфраструктура требует аптайма 99,999% для критически важных задач, и централизованные провайдеры достигают этого за счет избыточных мощностей, профессиональных команд и контрактных SLA.
Сеть DePIN, напротив, представляет собой совокупность тысяч любителей с разным оборудованием и разным уровнем ответственности. Если оператор узла уедет в отпуск и у него отключится интернет - качество сервиса упадет.
Протоколы пытаются смягчить это через избыточность, системы репутации и слэшинг. Для многих сценариев (бэкап личных файлов, сбор некритичных данных IoT, кэширование для приложений, терпимых к задержкам) аптайм 99,9% за малую часть стоимости может быть вполне приемлемым.
Проблема в том, что самые высокодоходные задачи - те, что приносят основные деньги, - обычно требуют высочайшей надежности. Пока DePIN не сможет либо напрямую соответствовать этим стандартам, либо позволить надежным сервис-провайдерам строиться поверх него как оптового слоя, он будет ограничен подмножеством потенциального рынка.
Уязвимости безопасности
Безопасность стоит рядом с надежностью как жесткое ограничение. Сети DePIN наследуют все обычные сценарии отказов криптосистем: эксплойты смарт-контрактов, ошибки оракулов, атаки на базовый уровень консенсуса. Но они добавляют новую поверхность атаки - аппаратную.
Уязвимость в популярной модели хотспота или в прошивке датчика может быть использована сразу на десятках тысяч узлов, подрывая целостность доказательств, на основе которых сеть решает, кому платить. Протоколы могут отвечать патчами и агрессивными проверками, но сочетание стандартизированного «железа» и псевдонимных операторов делает системные сбои вполне возможными и, в ряде случаев, трудноустранимыми в короткие сроки.
Регуляторная сложность
Регулирование еще больше усложняет картину. Эти сети работают в физических юрисдикциях с правовыми нормами, которым безразлична неизменяемость блокчейна. Телеком-сети должны ориентироваться в лицензировании частот и соблюдать национальные правила связи. Сети хранения и картографии сталкиваются с законами о суверенитете данных (такими как GDPR в ЕС) и опасениями по поводу приватности при публичной слежке. Сети датчиков должны соответствовать стандартам точности измерений и отчетности.
Враждебное действие регулятора - например, запрет использования нелицензированных частот, ограничение экспорта определенных типов данных или классификация токенов как незарегистрированных ценных бумаг - может парализовать полезность сети. В отличие от чисто цифровых DeFi-протоколов, DePIN-проекты не могут просто «уйти в киберпространство»; их оборудование и многие операторы укоренены в конкретных странах.
Цикличность рынка
Всё это накладывается на волатильность крипторынков. Когда цены на токены рушатся, награды могут внезапно стать ниже реальных затрат операторов, даже если использование сети стабильно. Эта цикличность делает DePIN необычайно чувствительным к колебаниям широкого крипторынка. Медвежий рынок может спровоцировать массовое отключение узлов задолго до того, как сама идея инфраструктуры будет опровергнута.
На практике многие сети переживают короткий период экстремального взлета цены токена в начале жизни. В это окно доходность в фиате выглядит абсурдно привлекательной, затягивая операторов и капитал гораздо быстрее, чем это оправдано органическим спросом. Парки оборудования строятся под ценовой сигнал, а не под реальное использование. Ожидания фиксируются вокруг этих раздутых наград.
Когда приходит неизбежная коррекция (часто с падением на 90–99% от пика), экономика переворачивается за одну ночь. Тот же парк устройств, который казался сверхприбыльным, теперь с трудом окупает электричество и трафик. Результат - рефлексивное сворачивание: отключение узлов ухудшает качество сервиса, что еще больше отпугивает спрос и усиливает нисходящий тренд.
Ключевая долгосрочная метрика здесь - сможет ли сжигание токенов за использование со временем обогнать эмиссию, создав устойчивый спрос, не зависящий от спекуляций. Большинство сетей никогда не пересекают этот порог.
Парадокс управления и удобства
В конечном счете модель сталкивается с парадоксом управления и юзабилити. Управление, взвешенное по токенам, может быть медленным, конфликтным и захваченным крупными держателями, что затрудняет быстрые маневры, часто необходимые в отраслях с реальным «железом».
У операторов, спекулянтов и конечных пользователей часто разные приоритеты, и без тщательного дизайна процесс принятия решений может усиливать краткосрочные интересы в ущерб долгосрочному здоровью сети. В то же время пользовательский опыт для стороны спроса (реальных потребителей данных или связи) часто сопряжен с неудобными кошельками, мостами и комиссиями за газ.
Для многих потенциальных клиентов любое теоретическое экономическое преимущество перекрывается операционной сложностью и воспринимаемыми рисками.
Путь вперед
И всё же было бы преждевременно списывать DePIN как простое доказательство концепции. Сети в этой главе уже демонстрируют, что слабо скоординированные сообщества могут строить и эксплуатировать реальную инфраструктуру в масштабе: глобальное покрытие IoT, рынки хранения петабайтного уровня, фермы рендеринга на GPU и живые сетки экологических датчиков.
Вопрос уже не в том, работает ли модель, а в том, где она сможет масштабироваться. Переход от нишевого эксперимента к массовой полезности, скорее всего, потребует нескольких ключевых элементов. Сетям нужны стандартизированные сервисные слои, объединяющие разнородные узлы в предложения корпоративного уровня. Структуры управления должны двигаться быстро, не попадая в зависимость от узких групп. Регуляторные режимы должны научиться классифицировать и контролировать децентрализованных операторов. Пользовательские интерфейсы должны сделать потребление DePIN-услуг таким же простым, как использование современных облаков.
Если эти части сойдутся, DePIN, возможно, не заменит инкумбентов полностью, но сможет их трансформировать. Традиционные платформы могут превратиться в бренды, которые упаковывают, регулируют и перепродают услуги, построенные на глобальном, принадлежащем сообществу фундаменте физической инфраструктуры.
Глава XIV: Квантовая устойчивость

Раздел I: Квантовые вычисления
Обычные компьютеры работают с битами - крошечными переключателями, которые могут находиться в одном из двух состояний: либо 0, либо 1. Квантовые компьютеры, однако, оперируют совершенно иными единицами, называемыми кубитами. Кубит обладает замечательным свойством: он может находиться в смеси 0 и 1 одновременно, неся в себе своего рода состояние «возможно» до того момента, пока вы его не измерите.
Взлом шифрования с помощью обычных компьютеров подобен поиску иголки в стоге сена. Вам приходится перебирать бесчисленные варианты один за другим, методично проверяя каждую соломинку. Стог настолько огромен, что на поиск иголки ушли бы тысячи лет, что делает задачу фактически невыполнимой в любые разумные сроки.
Взлом шифрования с помощью квантовых компьютеров подобен использованию магнита для поиска этой иголки. Внезапно то, что казалось невозможным, становится осуществимым. Способность квантового компьютера исследовать множество возможностей одновременно в сочетании с эффектами интерференции, которые усиливают правильные ответы, действует как магнит, притягивающий иголку прямо к вам.
Именно поэтому криптографы разрабатывают квантово-устойчивое шифрование. Представь это как замену железной иголки на алюминиевую. Теперь магнит больше не может её притянуть. Эти новые методы шифрования разработаны таким образом, что даже квантовые компьютеры теряют своё особое преимущество и вынуждены возвращаться к перебору стога сена по крупицам, точно так же, как их классические собратья.
Однако квантовые компьютеры не делают быстрее всё подряд. Они дают значительные преимущества только для определенных типов задач, таких как взлом некоторых кодов и ускорение специфических операций поиска.
Что уязвимо, а что нет
Сегодняшнее шифрование опирается на математические задачи, которые легко проверить, но практически невозможно решить в обратном направлении. Например, легко перемножить два огромных числа, но крайне трудно взять полученный результат и выяснить, какими были исходные два числа. Эта асимметрия является фундаментом большинства систем интернет-безопасности сегодня; на решение таких задач у обычных компьютеров ушли бы миллиарды лет.
Квантовая угроза не является равномерно разрушительной для всех криптографических систем. Системы шифрования с открытым ключом, такие как RSA и ECC, подвергаются наибольшему риску. Квантовый алгоритм, называемый алгоритмом Шора, может взломать их, используя математическую структуру, на которую опираются эти системы. Эти математические паттерны обладают элегантными свойствами, которыми могут воспользоваться квантовые алгоритмы.
Симметричное шифрование, такое как AES-256, остается безопасным лишь с небольшими корректировками размера ключа. Хеш-функции также остаются жизнеспособными, хотя использование более длинных выходных данных позволяет сохранить безопасность против квантовых атак. Ключевая идея заключается в том, что квантово-устойчивые подходы используют математические задачи, лишенные той элегантной структуры, которую могут эксплуатировать квантовые компьютеры. Эти альтернативные задачи остаются трудными даже для квантовых машин, именно поэтому криптографы потратили годы на разработку новых стандартов на их основе.
Что поставлено на карту
Сегодняшний цифровой мир держится на зашифрованной связи так, как большинство людей даже не задумывается. Каждый раз, когда кто-то проверяет баланс в банке, отправляет личное сообщение, совершает покупку в интернете или входит в электронную почту, шифрование защищает эту информацию.
Помимо личных данных, шифрование обеспечивает безопасность электросетей, систем управления воздушным движением, военной связи и самого костяка интернета. Оно делает возможными защищенные системы голосования, защищает источники журналистов и позволяет людям безопасно общаться в условиях деспотичных режимов.
Значок замка «https» в браузерах, обновления безопасности на телефонах и даже чип в кредитных картах - всё зависит от шифрования, которое эти машины теоретически могут взломать.
Проблема сроков
Один из самых сложных аспектов заключается в том, что мы не знаем точно, когда квантовые компьютеры станут достаточно мощными, чтобы взломать текущее шифрование. В октябре 2025 года Google объявила о значительном достижении со своим алгоритмом под названием «квантовое эхо» (quantum echoes). Система успешно рассчитала молекулярные структуры способами, недоступными для классических суперкомпьютеров, продемонстрировав то, что эксперты называют «квантовым превосходством».
Однако нынешние системы не могут угрожать шифрованию. Прорыв Google позволил решить узкую научную задачу, но для взлома современной криптографии потребуются машины с сотнями тысяч или миллионами стабильных кубитов. Сегодняшние системы с трудом удерживают даже гораздо меньшее количество кубитов в тех экстремально контролируемых условиях, которые им необходимы.
Сроки остаются неопределенными. Google оценивает, что до реальных прикладных применений остается около пяти лет, в то время как квантовые компьютеры, способные взламывать шифры, появятся значительно позже.
Чтобы представить это в перспективе: квантовому компьютеру, способному взломать современное шифрование, потребуются специфические возможности. Ранние оценки предполагали, что для взлома шифрования RSA-2048 потребуется около 20 миллионов квантовых битов (кубитов) и 8 часов работы. Недавняя работа Гидни снижает эту оценку до менее чем 1 миллиона кубитов и менее чем одной недели. Эти оценки предполагают наличие почти идеальных квантовых компьютеров практически без ошибок, чего сегодняшние квантовые машины и близко не достигли.
Реалистично говоря, большинство экспертов сходятся во мнении, что мы ориентируемся на начало 2030-х годов как на самый ранний срок. Более вероятно, что это произойдет где-то между серединой 2030-х и 2040-ми годами. Это может занять даже больше времени, если инженеры столкнутся с неожиданными препятствиями, или произойти быстрее, если прорывы случатся раньше из-за непредвиденного прогресса в области ИИ.
Однако не все разделяют этот консервативный взгляд. В ноябре 2025 года основатель Ethereum Виталик Бутерин предсказал, что квантовые компьютеры, способные взломать базовую модель безопасности Ethereum, могут появиться еще до следующих президентских выборов в США в 2028 году.
Существует также риск «укради сейчас, расшифруй потом» (steal now, decrypt later), когда злоумышленники могут собирать зашифрованные данные сегодня, планируя взломать их, как только станут доступны мощные квантовые компьютеры. Это делает защиту долгосрочных секретов особенно важной.
Это похоже на знание о том, что приближается сильный шторм, но неясно, случится ли он на следующей неделе или в следующем десятилетии. Разумный подход - начать подготовку сейчас, а не ждать и наблюдать.
Криптографическое решение
Криптографы готовились к этому «квантовому переходу» более десяти лет. В 2024 году правительство США утвердило первый набор новых стандартов шифрования, разработанных для противостояния квантовым компьютерам. Представь это как замену механических замков на умные замки во всем городе. Это большой проект, но вполне осуществимый при правильном планировании.
Эти усилия являются частью глобального скоординированного ответа под руководством таких организаций, как Национальный институт стандартов и технологий США (NIST). В течение почти 10 лет NIST проводил открытый конкурс по проверке и отбору портфеля квантово-устойчивых криптографических алгоритмов. Первый набор этих стандартов был финализирован в 2024 году, обеспечив надежный фундамент для перехода отрасли.
Эти новые стандарты включают алгоритмы из различных математических семейств. В августе 2024 года NIST утвердил три начальных стандарта, основанных на двух различных подходах: криптография на базе решеток(lattice-based cryptography), которая ставит в приоритет эффективность, и хеш-подписи (hash-based signatures), которые приоритезируют высокую уверенность в безопасности за счет более простых математических допущений. NIST продолжает оценивать и дополнительные подходы. Каждый из них предлагает свои компромиссы между размером подписи, скоростью и допущениями безопасности. Такое разнообразие обеспечивает страховку: если один математический подход окажется уязвимым, экосистема сможет переключиться на альтернативы.
Сроки внедрения
Крупные технологические компании, правительства и организации по безопасности уже тестируют и внедряют эти квантово-устойчивые системы. Вместо катастрофических мгновенных перемен нас ожидает постепенный, управляемый переход в течение ближайших десятилетий.
Критические системы, такие как банковская инфраструктура, государственная связь и электросети, обновятся первыми, за ними последуют потребительские приложения. Многие организации уже сейчас закладывают гибкость в свои системы: возможность быстро менять методы шифрования, подобно замене батареек в устройстве. Цель состоит в том, чтобы большинство этих обновлений безопасности могло быть доставлено через обычные обновления программного обеспечения, хотя некоторые потребуют и замены оборудования.
Однако блокчейны сталкиваются с уникальными проблемами внедрения, которых нет в централизованных системах. Традиционные организации могут директивно обновлять свою инфраструктуру через внутренние ИТ-отделы. Сети блокчейн, напротив, должны координировать изменения среди тысяч независимых операторов узлов, поставщиков кошельков и пользователей, и всё это без центрального органа, который мог бы принудить к исполнению. Эта задача координации становится еще сложнее, если учитывать «спящие» кошельки, потенциально утерянные закрытые ключи и философские разногласия относительно того, должны ли сети принудительно проводить обновления или рискнуть оставить уязвимые активы без защиты.
Хотя квантовые компьютеры представляют реальную будущую угрозу для текущего шифрования, сообщество кибербезопасности активно готовит решения. Переход для традиционных систем будет постепенным и плановым, а не внезапным кризисом, хотя сети блокчейн сталкиваются с уникальными вызовами координации при внедрении этих новых стандартов в децентрализованных системах.
Раздел II: Оценка уязвимости блокчейнов
Проблемы координации, описанные выше, усугубляются особенностью, присущей только блокчейнам: постоянством публичных записей. Каждая подпись, когда-либо опубликованная в сети, становится потенциальной поверхностью атаки, как только квантовые компьютеры достигнут зрелости. Традиционные финансовые системы могут менять свои ключи шифрования за закрытыми дверями, но адреса блокчейна с раскрытыми открытыми ключами остаются уязвимыми навсегда, если только не вмешаются изменения на уровне протокола. В этом разделе рассматривается, какие блокчейн-активы подвергаются наибольшему квантовому риску, почему некоторые адреса более уязвимы, чем другие, и что пользователи могут сделать для своей защиты, пока разработчики работают над сетевыми решениями.
Технический фундамент
Большинство блокчейн-сетей защищают транзакции с помощью цифровых подписей (криптографическая основа, описанная в Главе I для Биткоина и в Главе V для кастодиальных практик), которые опираются на математические задачи, непосильные для эффективного решения классическими компьютерами. Квантовая угроза для этих систем проявляется в двух формах, которые лучше всего представить через аналогию.
Алгоритм Шора подобен мастеру-взломщику, который может воссоздать чертеж любого замка по его внешнему виду (открытому ключу) и изготовить подходящий ключ напрямую. Это катастрофично для схем подписи, которые сегодня используют Биткоин, Ethereum и Solana. Как только квантовые компьютеры станут достаточно мощными, чтобы запускать алгоритм Шора в масштабе, они смогут выводить закрытые ключи из открытых, разрушая фундаментальное допущение безопасности блокчейн-кошельков.
Алгоритм Гровера напоминает сверхчеловека-библиотекаря, которому всё еще нужно искать информацию в библиотечных стеллажах, но который делает это гораздо эффективнее, фактически вдвое снижая криптостойкость хеш-функций. Это менее разрушительно, так как защита прямолинейна: нужно использовать более длинные хеши. Один алгоритм полностью разрушает математическую структуру; другой лишь ускоряет поиск методом перебора.
Модели раскрытия открытого ключа
Представь это так: адрес Биткоина подобен сейфу, комбинация которого (открытый ключ) не раскрывается до тех пор, пока кто-то его не откроет. Как только сейф открыт, любой слушатель может записать комбинацию. Сегодняшние подслушивающие не могут использовать эту комбинацию для взлома сейфов, но когда появятся квантовые «отмычки», они смогут воспроизвести эти записанные комбинации, чтобы украсть всё, что осталось внутри.
Эта аналогия отражает фундаментальный принцип: квантовые компьютеры могут взламывать открытые ключи, но они не могут легко взламывать криптографические хеши этих ключей. Это различие определяет, какие средства находятся в зоне риска.
Почему устаревшие адреса Биткоина более уязвимы
Устаревшие (Legacy) адреса Биткоина подвергаются значительно более высокому квантовому риску по двум конкретным причинам. Первая - это прямое раскрытие открытого ключа через выходы типа P2PK. В раннем Биткоине (2009–2012) часто использовались выходы Pay-to-Public-Key, которые публикуют открытый ключ непосредственно в блокчейне без какой-либо криптографической защиты.
Транзакция буквально говорит: «вот открытый ключ, любой, кто докажет, что контролирует его, может это потратить». Более 1,5 миллионов BTC (примерно 8,7% от общего предложения Биткоина, но лишь 0,025% от всех UTXO) остаются заблокированными в этих полностью открытых P2PK-выходах, включая ранние награды Сатоши за майнинг. Это как иметь сейф с комбинацией, написанной прямо на дверце. Квантовым компьютерам не нужно будет взламывать замки; они смогут просто прочитать комбинацию и зайти.
Вторая уязвимость проистекает из паттернов повторного использования адресов. Ранние пользователи Биткоина часто использовали один и тот же адрес для нескольких транзакций, что позже стало порицаться. Каждый раз, когда кто-то тратит средства с адреса, он раскрывает его открытый ключ в блокчейне. При повторном использовании адреса первая же трата раскрывает открытый ключ, и любой остаток баланса, привязанный к этому ключу, становится легкой добычей для будущего квантового атакующего. Многие старые пользователи со временем накопили большие балансы на одном адресе, а затем тратили лишь части, оставляя значительные выходы «сдачи» (change) за уже раскрытыми открытыми ключами. В модели раскрытия открытых ключей эти выходы сдачи фактически заранее помечены для квантовой «жатвы».
Современные стандарты
Более новые адреса Биткоина используют форматы типа P2PKH (Pay-to-Public-Key-Hash) и нативный SegWit (оба описаны в Главе I), которые хранят в блокчейне только хеш открытого ключа. Сам открытый ключ остается скрытым до тех пор, пока вы не потратите свой Биткоин. В сочетании с современной практикой использования каждого адреса только один раз это обеспечивает гораздо более сильную защиту от квантовых компьютеров.
Неизрасходованные средства в этих современных форматах адресов гораздо более квантово-устойчивы, так как открытые ключи остаются скрытыми. Квантовому атакующему сначала пришлось бы взломать сам слой хеширования, что намного сложнее, чем атаковать открытые ключи напрямую.
Использование каждого адреса только один раз также снижает долгосрочный риск. Открытый ключ раскрывается только в момент траты средств. До тех пор, пока транзакция подтверждается быстрее, чем атакующие успеют вычислить ваш закрытый ключ (что требует времени даже для квантовых компьютеров), вы фактически в безопасности. А так как вы потратили все средства, на этом теперь уже раскрытом ключе не остается баланса для будущих атак.
Однако адреса Taproot (представленные в Главе I) демонстрируют иной паттерн раскрытия. При использовании стандартной траты по «пути ключа» (key-path spend), Taproot встраивает открытый ключ прямо в выход, помещая его в категорию раскрытых ключей, аналогично уязвимым устаревшим форматам. Хотя на Taproot сейчас приходится относительно небольшая доля общего предложения Биткоина, пользователи должны знать, что эти адреса не обеспечивают такую же квантовую защиту, как альтернативы на базе хешей.
Модель аккаунтов Ethereum (Глава II) создает иные паттерны раскрытия. Каждая транзакция с внешнего аккаунта (EOA) раскрывает восстанавливаемый открытый ключ, но аккаунты, которые никогда не отправляли транзакций, остаются защищенными. Однако как только адрес Ethereum отправляет свою первую транзакцию, открытый ключ навсегда раскрывается для любых будущих депозитов на этот же адрес.
Хотя управление индивидуальными адресами сопряжено с очевидными сложностями, кошельки на смарт-контрактах в основном обеспечивают архитектурную гибкость, а не немедленное решение квантовых угроз. Логика аутентификации в этих кошельках живет в обновляемом коде, а не привязана навсегда к единственному ключу подписи, поэтому в принципе они могли бы переключиться на квантово-устойчивые схемы подписи без смены адреса кошелька. Однако это станет практичным только после того, как в Ethereum будет добавлена эффективная встроенная поддержка проверки этих новых типов подписей. Сегодня проверка постквантовых подписей напрямую в EVM технически возможна, но обходится слишком дорого по газу, поэтому этот путь обновления остается скорее теоретическим, а не тем, что пользователи могут внедрять массово. На практике польза от этой гибкости для любого конкретного кошелька на смарт-контракте целиком зависит от его специфической реализации и доступных механизмов обновления.
Кошельки с мультиподписью (рассмотренные в Главе V) ставят сложные задачи по миграции, обычно требуя от всех подписантов скоординированного одновременного перехода на постквантовые схемы. Механизмы социального восстановления могут предложить альтернативные пути миграции, хотя они требуют тщательного проектирования для сохранения допущений безопасности.
Спящие и потенциально утерянные кошельки
Спящие адреса с раскрытыми открытыми ключами представляют значительный системный риск для всей экосистемы. К ним относятся адреса ранних последователей, владельцы которых могли потерять закрытые ключи, но уже раскрыли свои открытые ключи в ходе прошлых трат. Сюда же относятся заброшенные адреса майнеров из ранней эпохи Биткоина, особенно те, что использовались для получения первых наград за блок, которые были впоследствии частично потрачены, что подставило их открытые ключи под будущую квантовую жатву.
Фундаментальная сложность заключается в том, чтобы отличить действительно утерянные средства от спящих, но восстанавливаемых кошельков. Квантовые атакующие потенциально могут восстановить средства с адресов, которые считались навсегда утраченными: представь рыночный хаос, если миллионы «утерянных» Биткоинов внезапно станут доступны для восстановления, создавая неожиданные шоки предложения и сложные споры о праве собственности, которые могут дестабилизировать всю экосистему.
Это создает сценарий с высокими ставками, который часто называют «квантовой лихорадкой» (quantum rush). Если мощный квантовый компьютер появится внезапно, это спровоцирует безумную гонку. Злоумышленники бросятся взламывать восприимчивые адреса и красть открытые средства, в то время как разработчики сети и сообщество будут спешить развернуть экстренные форки для заморозки или миграции этих активов. Исход такого события будет сильно зависеть от того, кто подействует первым, что вносит жесткую теоретико-игровую динамику в модель безопасности.
При текущих оценках эти «находящиеся под угрозой» BTC представляют собой более 100 миллиардов долларов раскрытой стоимости, что фактически создает массивную награду для того, кто первым достигнет квантового превосходства. Это превращает разработку квантовых вычислений из чисто научной деятельности в стратегическое соревнование. У государств и хорошо финансируемых частных структур теперь есть конкретный финансовый стимул, помимо военных или разведывательных целей, ускорять свои квантовые программы: тот, кто первым преодолеет порог, получит возможность захватить миллиарды в заброшенных или утерянных Биткоинах до того, как сеть успеет скоординировать защитные форки. Гонка идет не только за то, кто построит компьютер, но и за то, кто сможет извлечь максимум выгоды до того, как окно закроется.
Лучшие практики
Для защиты от будущих угроз квантовых вычислений пользователям следует применять осторожные практики управления ключами. В случае Ethereum избегай хранения больших сумм на адресе после его первой транзакции, так как любая ончейн-подпись раскрывает открытый ключ для потенциальных квантовых атак. Вместо этого переходи на свежий, неиспользованный адрес или, что предпочтительнее, на кошелек со смарт-контрактом, который можно обновить до постквантовых криптографических схем.
Пользователям Биткоина следует аналогично избегать повторного использования адресов, тратя UTXO целиком на новые адреса, чтобы гарантировать, что никакая ценность не остается привязанной к ранее раскрытым открытым ключам. Хотя решения с мультиподписью и многосторонними вычислениями (MPC) обеспечивают повышенную безопасность сегодня, они не устраняют квантовый риск, если базовая схема подписи остается уязвимой. Их основная ценность заключается в обеспечении пути обновления на постквантовые алгоритмы, когда они станут доступны.
Вызов на уровне протокола
Хотя отдельные пользователи могут применять защитные практики, паттерны раскрытия ключей, описанные выше, выявляют фундаментальное ограничение: личное управление ключами не может защитить экосистему в целом. Огромное количество Биткоинов, находящихся в открытых устаревших выходах, бесчисленные повторно используемые адреса ранних дней Биткоина и раскрытие в модели аккаунтов Ethereum - всё это требует скоординированных ответов на уровне протокола.
Никакая бдительность отдельных лиц не может обезопасить средства, чьи открытые ключи уже навсегда видны в сети, равно как и предотвратить системный хаос потенциальной «квантовой лихорадки». Эта реальность подтолкнула разработчиков блокчейнов к переходу от обучения пользователей к конкретным техническим предложениям по обеспечению сетевой квантовой устойчивости. Вопрос уже не в том, нужны ли блокчейнам изменения в протоколе, а в том, как их внедрить, не нарушая существующую функциональность и не создавая неприемлемых экономических потрясений.
Раздел III: Переход к квантовой устойчивости
Установив ландшафт угроз и паттерны уязвимости, мы переходим к тому, как реагируют крупнейшие блокчейн-сети. Каждая сеть сталкивается с уникальными архитектурными ограничениями и проблемами управления, которые определяют их стратегии миграции. Биткоин должен балансировать неизменность с обновлениями безопасности, в то время как Ethereum использует свою более гибкую культуру обновлений. Технические решения существуют, но их внедрение требует решения сложных задач социальной координации, которые проверяют пределы децентрализованного управления.
Подход Биткоина
Сообщество разработчиков Биткоина активно работает над конкретными планами по защите сети от будущих квантовых угроз; сейчас на рассмотрении находятся несколько серьезных предложений. Уязвимые устаревшие выходы, обсуждавшиеся в Разделе II, включая монеты самых первых дней Биткоина, представляют собой непропорционально большую ценность, сконцентрированную в небольшом количестве открытых транзакций.
Рассматриваемые технические решения сложны и опираются на существующие механизмы обновления Биткоина. Одно из заметных предложений, BIP-360, вводит новый тип адреса, разработанный специально для квантовой устойчивости. Этот подход опирается на архитектуру Taproot, но отключает функции, раскрывающие открытые ключи, заменяя их квантово-безопасными альтернативами. Это представляет собой постепенный подход, который можно внедрить без нарушения текущей работы сети.
Однако основной вызов не технический, а социально-экономический: должен ли Биткоин принуждать пользователей к миграции или оставить её добровольной? Предлагаемые решения охватывают широкий спектр. Предложение QBIP Джеймсона Лоппа описывает многолетний план вывода из эксплуатации с поэтапными изменениями, включая широко анонсированный «день флага» (flag day) примерно через пять лет после активации для аннулирования уязвимых трат. Более агрессивный протокол «QRAMP» Агустина Круса предлагает жесткие дедлайны для обновления, хотя это встречает сопротивление из-за риска сделать «спящие» средства навсегда непригодными для траты. Другие предложения исследуют схемы обязательств, позволяющие текущим владельцам доказать право собственности и безопасно переместить активы, или системы на основе дедлайнов с льготными периодами.
Дискуссия обостряется при рассмотрении того, что должно произойти со спящими активами, которые не могут или не будут перемещены до появления квантовых компьютеров. Некоторые предлагают навсегда сжигать (burn) активы, находящиеся под угрозой, чтобы предотвратить их захват квантовыми силами. Другие предлагают ничего не делать и позволить квантовым игрокам забрать заброшенные монеты, относясь к этому как к своего рода «цифровой утилизации». Третий подход позволил бы забирать уязвимые монеты, но наложил бы лимиты на транзакции, замедляющие процесс вывода, создавая конкуренцию среди претендентов и направляя комиссии майнерам, а не позволяя легко извлечь всю ценность.
Каждый вариант сталкивается со значительным философским сопротивлением внутри сообщества Биткоина. Этос сети решительно выступает против сжигания активов, принадлежащих законным владельцам, даже если владелец считается умершим или отсутствует. Принцип незыблемости прав собственности глубоко укоренен в культуре Биткоина; многие считают, что активы эпохи Сатоши по праву принадлежат их оригинальным владельцам, и любое изменение протокола, делающее их нетратимыми (будь то через сжигание или перераспределение), нарушает фундаментальное обещание: «ваши ключи - ваши монеты» означает вечное владение. Это создает болезненное напряжение: защита сети от квантовой атаки может потребовать нарушения тех самых прав собственности, которые в первую очередь делают Биткоин ценным.
В конечном счете, для действительно утерянных или заброшенных активов, где закрытые ключи безвозвратно утрачены, разработчики стоят перед трудным выбором: либо эти средства будут украдены тем, кто первым овладеет квантовыми вычислениями, либо они станут нетратимыми в результате защитных изменений консенсуса. Хотя сам Сатоши еще в 2010 году обсуждал необходимость перехода на новую криптографически надежную систему в случае взлома текущей, это решение работает только для тех, кто всё еще контролирует свои закрытые ключи. Консенсус относительно сроков или принудительных мер пока не достигнут, но сообщество Bitcoin Optech продолжает отслеживать эти дебаты по мере их эволюции от ранних концепций к потенциальным правилам консенсуса.
Подход Ethereum
В отличие от философских споров Биткоина о правах собственности и сжигании монет, Ethereum сталкивается преимущественно с техническими инженерными компромиссами. Более гибкая культура обновлений сообщества позволяет находить итеративные решения, хотя практические препятствия остаются существенными. Схемы подписи, используемые сейчас как пользовательскими аккаунтами, так и валидаторами, были бы восприимчивы к атакам, обсуждавшимся ранее.
Стратегия обновления сосредоточена на многостороннем поэтапном подходе, а не на разовом переключении всей сети. Для пользовательских транзакций EIP-7932 предлагает поддержку нескольких алгоритмов подписи, чтобы сделать возможным использование постквантовых схем при сохранении обратной совместимости с существующими аккаунтами. Абстракция аккаунта (Account Abstraction) служит ключевым инструментом перехода, позволяя смарт-кошелькам внедрять эти квантово-безопасные подписи без необходимости немедленных изменений в протоколе. Ethereum Foundation активно финансирует исследования постквантовых схем мультиподписи, чтобы решить проблему увеличенных размеров подписей, характерных для квантово-устойчивых алгоритмов.
Однако эти новые алгоритмы сопряжены со значительными практическими издержками. Самый очевидный вызов - резкое увеличение размера данных. Текущая подпись в Ethereum занимает всего 65 байт. Квантово-устойчивые альтернативы варьируются от примерно 2400 байт до более чем 29 000 байт в зависимости от выбранного алгоритма и уровня безопасности. Это представляет собой увеличение размера подписи в 37–450 раз.
Такой рост размеров напрямую влияет на работу блокчейна по нескольким направлениям. Транзакции становятся больше, что ведет к росту требований к хранилищу и раздуванию блокчейна. Более высокие комиссии за транзакции естественным образом следуют из увеличения объема данных, которые необходимо обрабатывать и хранить. Более медленное время верификации также может повлиять на обработку блоков и пропускную способность сети, создавая серьезное инженерное препятствие для разработчиков протокола, которые должны балансировать безопасность и удобство использования.
Помимо пользовательских аккаунтов, исследователи изучают альтернативы для более широких архитектурных основ Ethereum. Криптографические методы, используемые для обеспечения доступности данных, такие как KZG-обязательства, обсуждавшиеся в Главе II, также нуждаются в квантово-устойчивой замене. Конструкции на основе хешей и в стиле STARK являются перспективными кандидатами, так как они сталкиваются лишь с более управляемым ускорением по алгоритму Гровера, а не с разрушительным преимуществом алгоритма Шора. Ethereum Foundation финансирует эти исследования; также существуют предложения по экстренному восстановительному форку, который мог бы быстро заморозить открытые аккаунты в случае внезапных квантовых прорывов.
Подход Solana
Solana сталкивается с более острой проблемой раскрытия: адреса большинства аккаунтов Solana напрямую раскрывают открытый ключ с момента их создания, в отличие от Биткоина или Ethereum, где открытый ключ может оставаться скрытым до совершения транзакции. Это означает, что каждый адрес Solana уже виден потенциальным будущим квантовым атакующим. В декабре 2025 года Solana Foundation в сотрудничестве с Project Eleven провела оценку угроз и создала прототип тестовой сети с использованием постквантовых цифровых подписей, рассматривая это как перспективное упражнение по миграции, а не как экстренное реагирование.
Работа над прототипом сосредоточена на стресс-тестировании того, как квантово-устойчивые подписи повлияют на пропускную способность, вычислительные затраты и комиссии при их широком внедрении. Тем временем в экосистеме Solana проводились эксперименты с добровольной защитой на уровне кошельков, использующей одноразовые подписи на основе хешей для пользователей, которые хотят получить дополнительную безопасность уже сейчас. Этот подход полезен как временная мера, но не является полноценным планом миграции в масштабах всей сети.
Глава XV: Рынки предсказаний

Раздел I: Основной механизм
Представь себе ночь выборов: комментаторы спорят на ТВ, опросы показывают противоречивые результаты, и все ждут официального подсчета голосов. В то же время в параллельной вселенной тысячи людей ставят реальные деньги на свои убеждения об исходе, создавая живой, публично наблюдаемый поток данных, который непрерывно обновляет вероятность этого исхода. И зачастую этот поток оказывается точнее любого экспертного анализа.
В этом заключается главная идея рынков предсказаний: когда люди рискуют собственными деньгами, ставя на будущие события, они раскрывают информацию, которую опросы и мнения экспертов уловить не могут. В отличие от традиционных сайтов ставок, которые просто предлагают коэффициенты, установленные букмекерами, рынки предсказаний создают механизм, где коллективный разум участников определяет цены через спрос и предложение.
Фундаментальный механизм работает через токены бинарных исходов: для президентских выборов трейдер может купить токены «Кандидат А победит» по 45 центов за штуку. Если кандидат А побеждает, каждый токен выплачивает $1. Если проигрывает - токены обесцениваются. Текущая цена (45 центов) представляет собой коллективную оценку рынка, согласно которой у кандидата А есть 45-процентный шанс на победу.
Это создает мощную систему агрегации информации. Люди с инсайдерскими знаниями, глубоким анализом или особым видением ситуации могут извлечь прибыль, торгуя против консенсуса, что двигает цены к более точным вероятностям. Результатом часто становится удивительно точный прогноз, который превосходит традиционные опросы и предсказания экспертов.
Эмпирические данные убедительны. Академические исследования последовательно показывают, что рынки предсказаний оказываются точнее опросов в большинстве выборов. Это превосходство проистекает из фундаментальных структурных преимуществ. Традиционные опросы сталкиваются со снижением доли ответивших (сейчас менее 5% для многих исследований), трудностью охвата определенных демографических групп и «эффектом социальной желательности», когда респонденты могут скрывать непопулярные предпочтения. Рынки предсказаний обходят эти проблемы, требуя от участников ставить деньги на кон, что создает более сильные стимулы к точности, чем просто ответы на вопросы анкеты. Вместо того чтобы полагаться на репрезентативную выборку, рынки агрегируют убеждения людей, готовых подкрепить свои слова капиталом.
Это порождает фундаментальный вопрос дизайна: должны ли такие рынки управляться централизованными компаниями или децентрализованными протоколами?
Раздел II: Аргументы в пользу децентрализации
Децентрализованные рынки предсказаний полностью исключают центральные органы власти из уравнения. Вместо того чтобы полагаться на букмекеров в установке коэффициентов и управлении выплатами, эти платформы используют смарт-контракты для автоматического сопоставления трейдеров, исполнения транзакций и разрешения исходов через заранее определенные механизмы оракулов (инфраструктура оракулов описана в Главе VII). Этот фундаментальный сдвиг создает отчетливые преимущества перед традиционными букмекерскими платформами.
Самое очевидное преимущество - прозрачность. Каждая транзакция, позиция и механизм разрешения споров находятся в блокчейне, и любой желающий может их проверить. Традиционные сайты ставок работают как «черные ящики», где пользователи вынуждены просто доверять коэффициентам, расчетам и честности заведения. Децентрализованные рынки делают эти элементы математически верифицируемыми, устраняя необходимость в доверии.
Не менее важна устойчивость к цензуре. Когда рынок предсказаний полностью децентрализован, никакая власть не может закрыть его или ограничить торговлю на чувствительные темы. Это становится решающим для политически значимых предсказаний, где традиционные платформы могут столкнуться с давлением с целью удаления определенных рынков. Протокол продолжает работать независимо от внешнего давления.
Безразрешительный (permissionless) доступ фундаментально меняет динамику рынка. Любой человек с криптокошельком может начать торговать немедленно, без предоставления документов, задержек на верификацию или географических ограничений. Традиционные платформы обязаны проверять личность и ограничивать пользователей по юрисдикции, что создает значительное трение. Децентрализованные рынки полностью обходят эти барьеры, подключаясь к глобальной ликвидности от любого держателя стейблкоинов или других криптоактивов. Разница в доступной пользовательской базе может составлять порядки, хотя, как обсуждается ниже, это преимущество находится в конфликте с регуляторными реалиями.
Помимо масштаба, отсутствие требований к идентификации личности обеспечивает свободный поток информации. Инсайдеры индустрии, политические технологи и лица, обладающие важными сведениями, могут торговать, не оставляя следов, которые могли бы повлечь профессиональные или юридические последствия. Представь сотрудника избирательного штаба, который знает данные внутренних опросов, или руководителя корпорации, осведомленного о грядущих анонсах. На традиционных платформах они должны взвешивать ценность информации против риска разоблачения. На децентрализованных платформах они могут торговать псевдонимно, немедленно включая ценную информацию в рыночные цены.
С точки зрения эффективности рынка это ускоряет обнаружение цены. Участники с самой ценной информацией - это именно те люди, которых отсеивают проверки KYC. Когда такие информированные трейдеры могут вносить свои знания без опасений, рынки быстрее сходятся на истинных вероятностях.
Тем не менее, эти же преимущества создают глубокое напряжение в отношениях с регуляторами. То, что сторонники рынков предсказаний называют «превосходной агрегацией информации», во многом совпадает с тем, что финансовые регуляторы называют «инсайдерской торговлей». Эта деятельность в случае с ценными бумагами на традиционных рынках незаконна именно потому, что она дает преимущество лицам с привилегированным доступом над обычными участниками. Эти этические и юридические противоречия нельзя просто игнорировать.
Децентрализованные платформы исторически работали, базируясь в юрисдикциях с мягкими правилами и блокируя пользователей из определенных стран на уровне веб-интерфейса. Такой подход обеспечивает безразрешительный доступ и агрегацию информации, но несет в себе существенные риски. Действия CFTC (основного регулятора деривативов в США) против Polymarket в 2022 году показали, что работа без лицензии влечет реальные последствия. Хотя децентрализованная архитектура усложняет надзор, платформы остаются уязвимыми для проверок, штрафов и операционных ограничений.
Раздел III: Ранние неудачи
Чтобы понять, почему прагматизм в вопросах пользовательского опыта, ликвидности и механизмов разрешения исходов стал решающим, рассмотрим первую волну децентрализованных платформ. Преимущества таких рынков мотивировали значительные инвестиции в середине 2010-х годов, когда Gnosis и Augur стали самыми заметными попытками построить эту инфраструктуру. Оба проекта привлекли крупное финансирование и вызвали ажиотаж, однако ни один из них не достиг значимого принятия.
Gnosis
Gnosis, запущенный в 2017 году после привлечения $12,5 млн в ходе одной из самых быстрых публичных продаж в истории (12 минут), пострадал от классического случая преждевременной оптимизации. Платформа была технически сложной, с запутанными алгоритмами маркет-мейкинга и системой из двух токенов, но эта сложность создала барьеры для обычных пользователей. Интерфейс был непонятным, процесс создания рынков - громоздким, а экономическая модель - трудной для восприятия.
По сути, Gnosis сосредоточился на строительстве инфраструктуры, а не на создании привлекательных рынков. Платформа теоретически могла поддерживать любой тип рынка предсказаний, но запустилась с малым количеством интересных тем и почти без маркетинга. Без достаточной ликвидности (глубины ордеров, позволяющей трейдерам получать хорошие цены с узкими спредами) даже технически совершенная инфраструктура становится бесполезной.
Augur
Augur выбрал другой путь, запустившись в 2018 году после нескольких лет разработки как полностью децентрализованная платформа оракулов и рынков предсказаний. Главным новшеством Augur был механизм децентрализованного разрешения исходов: вместо доверенного оракула результаты определялись держателями нативного токена REP («репутация»). Они могли стейкать свои токены, чтобы сообщать, что произошло в реальности. Если они сообщали исход, с которым соглашалось большинство, они зарабатывали комиссии; если лгали - теряли часть стейка. В теории этот метод должен был сделать правду самой прибыльной стратегией.
Однако децентрализованная чистота Augur стала его слабостью. Процесс разрешения был медленным и сложным, часто занимая недели. Платформа привлекла скандальные рынки (включая рынки «убийств»), что создало проблемы с регуляторами и репутацией. Комиссии за газ в Ethereum сделали мелкие ставки экономически невыгодными, а пользовательский опыт оставался тяжелым для массового потребителя.
Обе платформы столкнулись с проблемой «курицы и яйца»: трейдерам нужна ликвидность, а ликвидности нужны трейдеры. Кроме того, запуск пришелся на периоды «медвежьего» рынка, когда спекулятивный интерес и внимание масс были минимальны. Самое важное: и Gnosis, и Augur поставили децентрализацию выше удобства и качества рынков.
Раздел IV: Прорыв
Понимание причин неудач предшественников объясняет, что Polymarket сделал иначе. Выборный цикл 2024 года стал поворотным моментом, когда Polymarket достиг беспрецедентного массового принятия. Его успех стал результатом усвоения уроков прошлых лет, хотя и ценой отказа от многих принципов децентрализации.
Polymarket обработал более $3 млрд объема торгов в ходе выборов 2024 года. Построенный на Polygon (сети более быстрой и дешевой, чем базовый слой Ethereum), Polymarket принял несколько ключевых решений. Вместо сложной токеномики он использовал простые рынки в USDC, где всё оценивалось в долларах. Что еще важнее, Polymarket снизил барьер входа, взяв на себя техническую сложность перевода денег на платформу «за кулисами», так что многие пользователи вообще не задумывались о механике блокчейна.
Вместо децентрализованного разрешения исходов была использована система, где любой может предложить исход, и если никто не оспорит его в течение короткого окна, он принимается как истинный. Этот «оптимистичный» подход (похожий на оптимистичные роллапы из Главы II) ускорил выплаты. Создание рынков было курируемым, а не свободным, что обеспечивало четкость вопросов и наличие ликвидности, но ввело централизованную фильтрацию.
Подход платформы к регулированию оказался критическим. Работая в оффшоре без требований KYC (после урегулирования с CFTC в 2022 году), Polymarket обеспечил безразрешительный глобальный доступ. Стоит отметить, что Polymarket блокирует доступ по IP-адресам во многих юрисдикциях (включая США, Великобританию, Францию), но эти ограничения часто обходят с помощью VPN.
Прорыв Polymarket произошел благодаря фокусу на событиях с высокой видимостью. Вместо того чтобы пытаться охватить всё сразу, он сконцентрировался на крупных политических рынках. Президентские выборы 2024 года стали идеальным катализатором: событие мирового масштаба, огромный интерес публики, четкие бинарные исходы и сильные полярные мнения.
Kalshi: Регулируемая альтернатива
В то время как Polymarket выбрал оффшорный путь, Kalshi пошел в противоположную сторону. Являясь регулируемым CFTC рынком контрактов (Designated Contract Market), Kalshi работает в рамках закона более чем в 100 странах. Платформа требует верификации KYC от всех пользователей и использует традиционную централизованную книгу ордеров вместо расчетов в блокчейне.
Kalshi позиционирует себя как «CME следующего поколения». Его подход к крипте также строго ориентирован на комплаенс. Хотя платформа принимает депозиты в USDC и BTC, они немедленно конвертируются в доллары. Kalshi никогда не держит криптовалюту на своем балансе. Все расчеты идут в USD через стандартные клиринговые процедуры.
Недавно Kalshi начал экспансию в крипто-нативную дистрибуцию. В декабре 2025 года он начал запуск токенизированных позиций на Solana (Глава III). Эти позиции можно покупать и продавать через обычные криптокошельки без прохождения KYC на самой платформе Kalshi. Однако система не полностью свободна: доступ ограничен географически (заблокирован в США), а результаты всё равно определяет централизованный орган.
Ландшафт конкуренции недавно резко изменился. В сделке на $112 млн Polymarket приобрел QCEX - регулируемую CFTC деривативную биржу. Это дает Polymarket легальную инфраструктуру для работы в США, подготавливая почву для прямой схватки с Kalshi. Polymarket планирует развивать две платформы: существующую оффшорную без KYC и новую на базе QCEX с полным соблюдением законов США.
Раздел V: Техническая архитектура успеха
Прорыв Polymarket стал результатом прагматичного компромисса: использовать блокчейн там, где это важно, но не позволять идеологии децентрализации мешать качеству продукта.
Избирательная децентрализация
Платформа работает по принципу избирательной децентрализации. Выбрав Polygon, Polymarket избежал высоких комиссий, которые погубили Augur. Смарт-контракты управляют критическими функциями (хранение средств и расчет ставок), а централизованные системы обеспечивают скорость и эффективность всего остального.
Пользователи сохраняют полный контроль над деньгами через кошельки на смарт-контрактах (Главы II и V), которые ощущаются как обычные аккаунты с привязкой к e-mail. Это решило проблему UX: ты получаешь самостоятельное хранение (self-custody), не зная о сид-фразах. Polymarket не может забрать деньги пользователей, а победители получают выплаты напрямую через контракты.
Модель полного обеспечения проста: из одного USDC чеканится один токен YES и один токен NO. Это гарантирует, что денег всегда хватит для выплат победителям, устраняя риск контрагента, характерный для обычных букмекеров. Однако сопоставление ордеров и создание рынков идет на обычных серверах.
Оптимистичное разрешение
Для фиксации исходов Polymarket использует систему оптимистичного оракула. Любой может предложить исход, внеся залог (обычно $750). Если в течение двух часов никто не оспорит предложение, исход принимается. Споры запускают голосование держателей токенов. Это намного быстрее голосований Augur и сохраняет стимулы к честности.
Скрыв сложность блокчейна, Polymarket сделал децентрализацию невидимой. Компромисс: ты доверяешь мэтчинг ордеров централизованному оператору, хотя он и не может украсть твои деньги.
Раздел VI: Сетевые эффекты политических прогнозов
Платформа преуспела, став частью информационной инфраструктуры, через которую люди следили за выборами 2024 года.
Интеграция в медиа
Крупные СМИ начали цитировать вероятности с рынков предсказаний наравне с данными опросов. Это создало петлю обратной связи: освещение в прессе приводило новых пользователей, росла ликвидность и точность, что оправдывало еще более активное освещение в СМИ. Вероятности Polymarket регулярно появлялись на CNN, Fox News и в крупнейших газетах.
Это породило так называемые «информационные каскады»: по мере того как рынки становились точнее, они привлекали более искушенных трейдеров (аналитиков, сотрудников штабов, институциональных инвесторов), что еще сильнее повышало качество прогнозов.
Возможность обработки информации в реальном времени оказалась бесценной. Если опросы - это статичные «снимки», то рынки мгновенно реагировали на события. Во время выборов 2024 года в США обвинительный приговор Трампу в Манхэттене за несколько часов обвалил его шансы с 54% до 47%. Когда Байден снялся с гонки, шансы Харрис взлетели с 15% до 38% менее чем за 24 часа.
Результаты 2024 года
Результаты подтвердили правоту рынков. Опросы в октябре показывали разрыв в 1-2%, предрекая неопределенность. В Пенсильвании, Мичигане и Висконсине опросы сулили Харрис лидерство или ничью. Итог: Трамп выиграл Пенсильванию с отрывом 2,2%, Мичиган - 1,4%, Висконсин - 0,9%, превзойдя данные опросов в среднем на 2-3 пункта. Polymarket же всю последнюю неделю показывал фаворитом Трампа во всех трех штатах (например, 57% на победу Трампа в Пенсильвании).
Раздел VII: Будущее рынков информации
Успех 2024 года вызвал интерес к рынкам информации вне политики: от экономических индикаторов до результатов научных исследований. Однако остаются серьезные вызовы.
Манипуляции и глубина рынка
Опасения по поводу манипуляций сохраняются, особенно на рынках с малым числом участников. Богатые игроки или штабы могут пытаться двигать вероятности в свою пользу для создания нужного медиа-нарратива. Лекарство здесь - глубокая ликвидность. Нужно, чтобы попытка «купить нарратив» стоила непомерно дорого.
Масштабируемость
Polymarket сохраняет объем торгов более $1 млрд в месяц и спустя год после выборов. Это доказывает успешную диверсификацию. Однако ликвидность концентрируется в топовых темах (геополитика, крипта), тогда как нишевые рынки (наука, локальные события) всё еще страдают от нехватки участников.
Технологический путь вперед
Следующая фаза - это не новые фичи, а укрепление фундамента. С точки зрения пользователя продукт уже «достаточно хорош». Главный вопрос: насколько трудно это «выключить»?
Нативный стейблкоин с доходностью
Пользователь вносит стейблкоины, они конвертируются в «рыночный доллар», который тихо зарабатывает доходность от залоговой стратегии. Для пользователя всё выглядит как «у меня лежат доллары», но экономика системы становится эффективнее.
Оффчейн-скорость, ончейн-верификация
Централизованный мэтчинг - это риск одной точки отказа. Новая архитектура позволит любому запустить свой мэтчер, а ончейн-верификатор будет принимать только доказанно корректные исполнения через криптографические механизмы, исключающие обман.
Множественные интерфейсы
Если протокол - нейтральная инфраструктура, он должен пережить потерю любого сайта. Поддержка сторонних UI и статических фронтендов делает рынок неубиваемым: нет единого интерфейса, который можно закрыть, чтобы убить рынок.
Вероятное равновесие: Двухпутевая экосистема
С одной стороны - безразрешительные рынки на уровне протокола. Хранение и верификация в блокчейне, но для пользователя это выглядит как обычное приложение. Профи-юзеры используют альтернативные фронтенды для обхода локальных блокировок.
С другой стороны - регулируемые площадки в конкретных странах. Они полностью легальны, интегрированы с банками и имеют KYC. Такие рынки (Polymarket US или Kalshi) будут похожи скорее на обычные биржи.
Если этот путь продолжится, рынки предсказаний станут глобальной координационной структурой - «машиной поиска истины», которая в реальном времени рисует карту коллективных ожиданий будущего.
Заключение
Вот и подошла к концу наша масштабная серия публикаций, в которой мы шаг за шагом разбирали фундаментальную механику и философию криптоиндустрии по главам книги. Крипта - это самая агрессивно капиталистическая среда без страховочных сеток, где выживают и побеждают только те, кто развивает свои навыки и понимает, как системы работают под капотом.
За время нашего пути мы отбросили маркетинговый шум и разобрали техническую реальность индустрии. Давайте вспомним основные вопросы, которые мы подробно изучили:
- Архитектура базовых блокчейнов (L1): Мы разобрались, как Биткоин создает проверяемый дефицит через Proof-of-Work и модель UTXO, как Ethereum превратился в мировой компьютер с помощью EVM и перехода на стейкинг, и почему Solana сделала ставку на параллельное исполнение транзакций и Proof-of-History.
- Масштабирование и интероперабельность: Изучили дилемму блокчейн-трилеммы, революцию роллапов (Optimistic и ZK), а также уязвимости и модели работы кроссчейн-мостов.
- Безопасность и хранение капитала (Custody): Разобрали всё - от работы сид-фраз и аппаратных кошельков для личного использования до сложных институциональных моделей (MPC, мультисиг), а также оценили грядущие риски квантовых вычислений для криптографии.
- Структура рынка и трейдинг: Погрузились в механику централизованных и децентрализованных бирж, разобрали, как работают бессрочные фьючерсы (perpertuals) и ставка фандинга, как маркет-мейкеры обеспечивают ликвидность и как анализировать открытый интерес для управления рисками.
- Глубокий DeFi и максимизация доходности: Поняли математику автоматических маркет-мейкеров (AMM) вроде Uniswap и Curve, архитектуру кредитных протоколов (Aave, Morpho) и сложные механизмы генерации доходности с помощью синтетических долларов (Ethena) и торговли будущей доходностью (Pendle).
- Скрытые налоги и MEV: Исследовали «темный лес» публичных мемпулов, поняв, как извлекается ценность (MEV), чем сэндвич-атаки грозят обычным пользователям и как от них защищаться.
- Токеномика, DAO и новые нарративы: Проанализировали, как работают цифровые демократии (DAO), фиатные стейблкоины и токенизация реальных активов (RWA). Мы также коснулись эволюции NFT, децентрализованных сетей физической инфраструктуры (DePIN) и предсказательных рынков вроде Polymarket.
Что дальше?
Чтение этих материалов - это лишь закладка фундамента. Настоящее понимание рынка приходит только при его постоянном изучении и взаимодействии с протоколами.
- Изучать еще глубже: Если вы хотите продолжить погружение в теорию, разбирать фундаментальную механику новых проектов, анализировать токеномику и отличать реальные инновации от хайпа - подписывайтесь на канал «Альманах криптоинвестора». Там мы продолжаем теоретический разбор и поиск качественных идей.
- Отрабатывать на практике: Знания бесполезны, если их не применять. Если вы готовы переходить к делу, торговать, использовать DeFi-инструменты своими руками, выстраивать стратегии хеджирования и управлять рисками в реальном времени - жду вас в канале «The VSE». Там мы переводим теорию в реальный профит.
И помни, что рубеж перейдёт лишь подготовленный!