Данные под контролем

ТЕХНОЛОГИИ/ #5_2025
Текст: Екатерина ЧИСТОВА / Фото: Wikipedia, АО «АТОМДАТА», «Росатом», Калининская АЭС

В эпоху глобального бума цифровизации, ИИ и облачных решений Россия строит собственную систему обработки данных, и один из самых амбициозных игроков в нашей стране — ​вовсе не IT-гигант. Почти 10 лет назад «Росатом» предложил концепцию симбиоза атомных электростанций и дата-центров. Сегодня госкорпорация входит в топ‑3 операторов ЦОДов в России и создает уникальную инфраструктуру на стыке энергетики и ИТ.

В 2014 году «Росатом», задумав построить в Удомле, рядом с Калининской АЭС, свой первый центр обработки данных (ЦОД, или дата-центр), существенно опередил свое время. В США, нынешнем лидере в развитии информационных технологий и, как следствие, в разворачивании ЦОДов для различных целей, к этой идее пришли только в 2020‑х годах. Первыми начали майнеры криптовалют, которым коллаборация с атомной энергетикой (от традиционной до передовой) потребовалась, в числе прочего, для «очищения» углеродного следа и имиджа. К 2025 году долгосрочными договоренностями с АЭС обзавелись уже все крупнейшие компании бигтеха: Amazon, Google, Microsoft, Meta и т. д. Что же представляют собой центры обработки данных? Каков рынок их услуг? Какие факторы влияют на его развитие? И наконец, в чем особенность российского пути? Попробуем разобраться
Взгляд снаружи и изнутри
На первый взгляд ЦОД — ​ничем не примечательное здание. Чаще всего это ангар без окон, спрятанный за высоким забором, под наблюдением камер и систем контроля доступа. Но за его стенами скрывается сердце цифровой экономики — ​технически сложная, высокозащищенная инфраструктура, обеспечивающая бесперебойную работу онлайн-­сервисов, приложений и корпоративных информационных систем. Внутри — ​ряды серверных стоек с оборудованием, километры кабелей, гудящие системы вентиляции и охлаждения, сухой воздух. Атмосфера строго технологичная, минимум человеческого присутствия. Все автоматизировано, от питания до мониторинга.

Обычный пользователь Интернета, возможно, даже не задумывается о работе ЦОДов. Но именно ЦОДы обеспечивают нам привычный цифровой комфорт: возможность мгновенно совершать онлайн покупки, хранить в "облаке" тысячи фотографий и любимую музыку, использовать стриминговые сервисы и соцсети.

Для бизнеса дата-центр — ​это не абстрактное «облако», это возможность хранения и обработки данных. Компания может выбрать модель владения ресурсами: разместить в дата-центре свое оборудование, арендовать стойки или модули с уже установленными серверами либо использовать «облачные» вычисления без привязки к "железу". Владельцы ЦОДов, в свою очередь, могут как использовать мощности для собственных нужд, так и сдавать их в аренду клиентам — ​от банков до онлайн-­ритейлеров. Показательный пример — ​недавний сбой в дата-центре «Яндекса»: из-за отключения электроснабжения пострадали не только внутренние сервисы компании, но и приложения: «М.Видео», Delivery Club, «Кинопоиск», KFC и ЦИАН.

Современные ЦОДы различаются по масштабу, назначению и способу использования. По типу владельца и задачам их можно условно разделить на три категории. Самые крупные — ​гиперскейлеры (от англ. hyperscale, масштабируемый) — ​это дата-центры, которые строят технологические гиганты вроде Amazon или Google для собственных нужд. Такие инфраструктуры рассчитаны на сотни тысяч серверов и изначально проектируются с прицелом на масштабируемость, автоматизацию и энергоэффективность. Именно эти мощности чаще всего лежат в основе публичных «облаков», доступных миллионам пользователей по всему миру.
Серверы дата-центра Google в Орегоне, обрабатывающие запросы нейросетей
В отличие от них, корпоративные ЦОДы принадлежат конкретным компаниям и используются исключительно для внутренних задач. Их архитектура, как правило, адаптирована к специфике отрасли и требованиям бизнеса, будь то банковский сектор, промышленность или ритейл. А коммерческие центры обработки данных предоставляют свои мощности сторонним клиентам: кто-то арендует только стойку, кто-то — ​полноценное IT-решение под ключ.

Различаются и модели использования. Локальные ЦОДы (или on-premise) размещаются непосредственно на территории компании, полностью ею управляются и обеспечивают максимальный уровень контроля. Однако это требует значительных инвестиций как на этапе строительства, так и в процессе эксплуатации.

Альтернатива — ​модель колокейшн (от англ. сolocation — ​соразмещение), при которой компания размещает свое оборудование в уже построенном коммерческом дата-центре и пользуется только необходимой инфраструктурой: энергоснабжением, охлаждением, каналами связи.

Наконец, все большую популярность приобретают «облачные» решения. В этом случае вычислительные ресурсы предоставляются «как услуга» (IaaS, PaaS, SaaS — ​см. Справку): пользователь платит только за фактически использованную мощность, избавляясь от необходимости содержать собственное «железо».

Отдельно стоит упомянуть так называемые пограничные, или переферийные ЦОДы (edge). В отличие от гиперскейлеров, они представляют собой компактные, распределенные узлы, размещенные ближе к источникам данных — ​на заводе, в торговом центре или вблизи вышек связи. Такая архитектура позволяет сократить задержки при передаче информации и обеспечить быстрый отклик, что критично, например, для беспилотных автомобилей или стриминга в высоком качестве. Edge-­ЦОДы не являются самостоятельной категорией, они могут встречаться в разных моделях: корпоративной, «облачной» и даже колокейшн — ​в зависимости от того, кто ими владеет и как используется инфраструктура.
«Облачный» ликбез
Модели XaaS (X as a service, что-либо как услуга) появились около 20 лет назад, но по-настоящему массовое распространение получили лишь в последние 10−15 лет — ​во многом благодаря ускорению цифровизации, переходу значительной части персонала на удаленную работу и росту спроса на гибкую ИТ-инфраструктуру. Это обобщенный термин, означающий, что любая ИТ-услуга и любой цифровой ресурс могут предоставляться через Интернет по подписке или по запросу. Буква «X» здесь — ​переменная, ее заменяют на конкретный тип предоставляемой услуги: инфраструктура, платформа, софт и так далее.

Самые известные модели — ​это IaaS, PaaS и SaaS.

IaaS (Infrastructure as a Service, инфраструктура как услуга) предлагает пользователю доступ к базовым ресурсам вроде серверов, сетей и хранилищ данных. Клиент сам управляет системой: выбирает операционку, устанавливает ПО и разворачивает приложения.

PaaS (Platform as a Service, платформа как услуга) — ​более высокий уровень сервиса: помимо инфраструктуры пользователь получает готовую среду для разработки, тестирования и запуска программ.

SaaS (Software as a Service, ПО как услуга) — ​полностью готовое решение: пользователь заходит в браузер и работает в приложении, не задумываясь о серверах, коде и обновлениях.

Сегодня модель «X как услуга» вышла за пределы ИТ: она применяется в науке, в сфере недвижимости, в аэрокосмических проектах. Все, что доступно для стандартизации и передачи по сети, может стать частью XaaS-экономики.
Дело техники
Инженерная инфраструктура — ​критическая часть любого ЦОДа. Помимо ИТ-оборудования, ключевыми элементами становятся системы электроснабжения и охлаждения. Без стабильной подачи энергии и эффективного теплоотвода бесперебойная работа ЦОДа попросту невозможна.

Электроснабжение в дата-центрах строится по принципу резервирования. Даже если внешний источник энергии отключится, систему должны моментально поддержать источники бесперебойного питания (ИБП), а затем — ​дизельные генераторы. Такая многоуровневая схема обеспечивает непрерывность работы и защищает от любых перебоев в электросетях.

Классическим решением для охлаждения серверов остается воздушная система кондиционирования, основанная на технологии «горячих» и "холодных" коридоров. Серверные стойки размещаются лицевыми панелями друг к другу — ​так формируется «холодный коридор», в который поступает охлажденный воздух; теплый воздух выходит с тыльной стороны и отводится в "горячий коридор", откуда возвращается к кондиционерам. Такая система проста в обслуживании, совместима с разным оборудованием, подходит для стандартных нагрузок, но имеет ограниченную энергоэффективность. Кроме того, затрудняется охлаждение высоконагруженных стоек, а в случае ошибок в организации воздушных потоков возникают риски тепловых завихрений и перегревов. Поэтому по мере роста нагрузок операторы все чаще переходят на более современные технологии охлаждения (об этом подробнее расскажем ниже).
Серверные стойки Petabox в Internet Archive, обеспечивающие сохранность петабайтов цифровых данных
Надежность инженерных систем напрямую влияет на класс дата-центра. В мировой практике используется стандартизированная классификация Uptime Institute, где различают четыре уровня: от Tier I (базовая архитектура без резервирования, с единственным путем подачи питания и охлаждения) до Tier IV (полная отказоустойчивость, резервирование всех компонентов и возможность проводить любые работы без остановки системы). Tier I и Tier II чаще встречаются у небольших компаний, где допустим кратковременный простой. Наиболее популярным стандартом стал Tier III — ​сбалансированное решение для корпоративных и коммерческих дата-центров. А Tier IV — ​высшая лига, ориентированная на критически важные отрасли: банковский сектор, медицину, оборону и биржевую инфраструктуру.

Первым коммерческим ЦОДом Tier IV в России стал «Москва‑2″ от "Атомдаты» (структура «Росатома»), запущенный в феврале 2024 года. Это более 20 тыс. квадратных метров площади, мощность — ​36 МВт, четыре машинных зала по 910 стоек каждый, 16 генераторов и резервная система охлаждения. По сути, проект стал ориентиром для рынка. Сегодня дата-центры Tier III и выше постепенно становятся стандартом, прежде всего в Москве, Петербурге и крупных регионах, где бизнес и государство все чаще требуют непрерывной доступности цифровых сервисов.
  • $350 млрд

    объем мирового рынка ЦОДов (2024 г.)
Суммарная установленная мощность ЦОДов в мире, 2024 г.
Обзор рынка ЦОДов
По итогам 2024 года мировой рынок ЦОДов оценивается (существует как минимум десяток отчетов исследовательских компаний, специализирующихся на производстве подобных платных отраслевых исследований) суммой порядка $ 350 млрд. Эта сумма включает как оборудование и ПО, так и услуги. По данным консалтинговой компании BCG, суммарная установленная мощность дата-центров в мире в 2024 году достигла 71 ГВт.

Наиболее востребованной (порядка 50 % от суммарной мощности всех ЦОДов) остается модель колокейшн — ​она предлагает заказчикам гибкость масштабирования, высокий уровень надежности, соответствие нормативным требованиям и снижает капитальные затраты. Этот формат особенно популярен среди технологических компаний, представителей e-commerce, FinTech и стартапов, а также организаций, работающих с высоконагруженными сервисами.

Стремительно завоевывают рынок гиперскейлеры (40 % от мощности всех дата-центров): бигтех наращивает инвестиции в строительство и модернизацию мегацентров, чтобы обеспечить потребности бизнеса в хранении и обработке данных. Согласно BCG, именно на гиперскейлеров в ближайшие годы придется львиная доля роста инфраструктуры.

Корпоративные ЦОДы, или on-premise решения (10 % от всех глобальных мощностей ЦОД), сохраняют значение в отраслях с особыми требованиями к информационной безопасности: в первую очередь в финансовом секторе, здравоохранении и государственных организациях. Здесь критичны полное управление ИТ-инфраструктурой и соблюдение локального законодательства.
Страны — лидеры по количеству ЦОДов, март 2025 г.
Драйверы
Лидером мирового рынка остаются США — ​на их долю приходится около 60 % глобальной вычислительной мощности, а также наибольшее число ЦОДов, в том числе крупнейших.

Развитие индустрии ЦОДов ускоряется благодаря нескольким факторам. Первый — ​взрывной рост объемов данных. Расширение IoT, развитие мобильных приложений, массовое производство видеоконтента, автоматизация производственных и логистических процессов — ​все это создает гигантские объемы данных, которые нужно где-то хранить, обрабатывать и анализировать. По состоянию на 2024 год объем глобальных данных (созданных, собранных, скопированных и потребленных) оценивался в 149 зеттабайт, согласно отчету компании Rivery. Прогноз на 2025 год предполагает дальнейший рост до 181 зеттабайта. Для сравнения, 1 зеттабайт — ​это 1 млрд терабайт, что соответствует 250 млрд фильмов в full hd по 4 ГБ каждый.
Дата-центр Bytesnet в Нидерландах
Второй драйвер — ​рост вычислительных потребностей, связанных с искусственным интеллектом. Модели И И, особенно большие языковые, вроде GPT, требуют массивных кластеров GPU- и TPU-процессоров, что стимулирует строительство специализированных дата-центров. Крупнейшие облачные платформы (AWS, Google Cloud, Microsoft Azure) уже интегрируют такие кластеры в свою архитектуру.

Значительное влияние на развитие ЦОДов оказывают регуляторные ограничения, такие как требования к локализации данных в соответствии с европейским GDPR, китайское законодательство, российский ФЗ‑152 и другие национальные нормы. Это ведет к созданию дата-центров в новых юрисдикциях. Наконец, цифровизация секторов — ​от финтеха и e-commerce до образования и госсервисов — ​требует устойчивых и масштабируемых инфраструктур, что поддерживает высокий спрос на ЦОДы.
  • 130 ГВт

    прогнозируемый спрос на мощности ЦОДов к 2028 г.
    Источник: консалтинговая компания BCG.
Прогнозы
Спрос на вычислительные мощности дата-центров стремительно растет. BCG ожидает, что к 2028 году этот показатель достигнет примерно 130 ГВт. Сегодня традиционные корпоративные нагрузки — ​не связанные с ИИ приложения, такие как хранение и передача файлов, обработка транзакций и другие стандартные бизнес-­процессы — ​составляют основную часть спроса на мощности ЦОДов и, по прогнозам, будут сохранять доминирующее положение в будущем, занимая около 55 % от общего спроса в 2028 году. Генеративный И И продемонстрирует наибольшую динамику: обучение крупных базовых моделей, таких как GPT от OpenAI, будет расти в среднем на 30 % в год, тогда как выполнение задач инференса (использование обученных моделей) будет увеличиваться на 122 % в год. При этом доля генеративного ИИ в общем спросе на мощности ЦОДов к 2028 году составит около 35 %.

Структура спроса в разбивке по назначению и модели размещения будет меняться. Доля on-premise, по прогнозу BCG, снизится почти вдвое — ​компании все активнее переходят на услуги гиперскейлеров и колокейшн-­провайдеров. Доля гиперскейлеров в общем приросте мощностей превысит 60 %. А колокейшн-­центры сохранят устойчивые позиции, в том числе за счет аренды самими гиперскейлерами, не всегда успевающими вводить в строй собственные мощности.
Дата-центры Equinix AM3 и AM4 в Амстердаме
Для удовлетворения этого роста гиперскейлерам потребуется до 2030 года инвестировать порядка $ 1,8 трлн только в США. Параллельно средний размер ЦОДа в стране вырастет с 40 до 60 МВт, а единичная мощность трети новых объектов превысит 200 МВт — ​это связано как с требованиями ИИ, так и с экономией за счет масштаба, например, в системах охлаждения. Для обучения моделей с миллиардами и даже триллионами параметров требуются масштабная параллельная обработка и сверхбыстрая коммуникация между централизованными серверами, что делает крупные дата-центры не только выгодными, но и необходимыми.

США останутся ключевым драйвером спроса на вычислительные мощности дата-центров, однако около 30 % прироста придется на другие регионы. Этому способствуют три фактора: регуляторные ограничения на трансграничную передачу данных, доступность дешевой и экологически чистой энергии (например в Скандинавии), а также повышение допустимой задержки при выполнении ИИ-задач, что снижает значение близости ЦОДа к пользователю.
Дата-центр TEPCO в Токио
Технические тенденции
Бурный рост применения графических процессоров в дата-центрах — ​прежде всего для решения задач искусственного интеллекта и высокопроизводительных вычислений — ​меняет требования к инфраструктуре, особенно в части охлаждения. Воздушное охлаждение часто занимает бо́льшую площадь и требует больше энергии, чем жидкостное, но операционные издержки с ним по факту ниже: нет потребления воды, и техобслуживание легче. Однако стандартные системы на воздушной циркуляции уже не справляются с тепловой нагрузкой современных стоек, поэтому на смену им приходят жидкостные решения (вода, диэлектрики и хладагенты отводят тепло гораздо лучше, чем воздух).

Наиболее продвинутыми считаются три типа жидкостного охлаждения. Прямое охлаждение чипа (система direct-to-chip) подводит теплоноситель непосредственно к CPU или GPU через водоблоки. Жидкость циркулирует по замкнутому контуру, отводя тепло на внешний теплообменник. Иммерсионное охлаждение (immersion cooling) предполагает полное погружение вычислительных модулей в диэлектрическую жидкость, не проводящую ток, — ​решение дорогое и технологически сложное, но крайне эффективное. Самым щадящим способом остается охлаждение через так называемые задние дверцы стоек: тепло отводится от серверов с помощью радиаторов, установленных на выходе горячего воздуха. Выбор подхода зависит от плотности вычислительных нагрузок, стоимости оборудования и энергетической стратегии ЦОДа.
Серверные стойки ЦЕРНа
Еще один значимый тренд — ​устойчивое энергоснабжение. На фоне растущего потребления электроэнергии ЦОДами крупнейшие игроки индустрии делают ставку на повышение энергоэффективности и переход на питание от "зеленых" источников энергии. Для этого используются прямые контракты с генерацией на основе возобновляемых источников (Power Purchase Agreements), а также партнерства с атомной и гидроэнергетикой.

Применяются и менее очевидные практики: использование холодной морской воды или горного воздуха для естественного охлаждения (free cooling, фрикулинг) с целью оптимизации этой статьи расходов электроэнергии, установка солнечных панелей на крышах для генерации собственной, вторичное использование тепла — ​например, для обогрева теплиц или жилых комплексов. Кроме того, владельцы ЦОДов используют алгоритмы машинного обучения для оптимизации микроклимата и энергопотребления за счет управления системами в реальном времени.

Все эти меры нацелены на снижение значения коэффициента PUE (Power Usage Effectiveness) — ​ключевого показателя энергоэффективности ЦОДов, отражающего отношение общего энергопотребления к объему энергии, доставленной непосредственно на серверы. Чем ближе это значение к единице, тем выше эффективность объекта. У ведущих операторов этот показатель уже сегодня приближается к 1,1: у Google — ​1,10, у Microsoft — ​1,12. Владельцы скандинавских ЦОДов уже обеспечивают свои объекты на 100 % возобновляемой энергией и демонстрируют одни из самых низких показателей PUE в мире.

Экологические цели становятся неотъемлемой частью стратегий операторов. Google заявляет о намерении к 2030 году полностью перейти на безуглеродное энергоснабжение дата-центров. Microsoft планирует стать углеродно-­отрицательной к тому же сроку. Устойчивость и энергоэффективность становятся не только маркетинговыми преимуществами, но и факторами соответствия международным стандартам. Все больше объектов сертифицируются по программам LEED, BREEAM и ISO 50 001, подтверждая соответствие требованиям к энергоэффективности и снижению углеродного следа.

Параллельно меняется и архитектура ЦОДов. Например, растет спрос на модульные дата-центры — ​быстровозводимые решения, позволяющие гибко масштабировать мощности по мере необходимости.
  • ₽156,5 млрд

    объем российского рынка ЦОДов на конец 2024 г.
  • 3,6 ГВт

    совокупные мощности российских ЦОДов на конец 2024 г.

Источник: Альфа-банк.

Россия: и благодаря, и вопреки
По данным Statista.com, Россия входит в топ‑10 стран мира по количеству дата-центров и совокупной подведенной мощности коммерческих объектов — ​более 800 МВт. Если учесть также мощности, используемые для майнинга, совокупный объем достигнет 3,6 ГВт. При этом темпы роста сопоставимы с глобальными, а по данным Альфа-банка, в 2024 году российский рынок даже опережал мировые тренды. В целом за пять лет, с 2020 по 2024 год, его объем вырос почти втрое — ​с 53,1 млрд руб. до 156,5 млрд руб., при среднем годовом темпе роста около 30 %. (В 2024 году прирост по отношению к 2023 году — ​33 % в денежном и 22 % в физическом выражении.)

Российский рынок, безусловно, подвержен влиянию мировых трендов, таких как развитие ИИ, однако имеет и свои существенные особенности развития. В феврале 2024 года страны Запада ввели санкции против российских компаний в сферах ИТ и ЦОДов. В ответ отечественные поставщики оборудования и ИТ-систем усилили позиции на внутреннем рынке, в том числе благодаря партнерствам с китайскими производителями. Существенно выросла роль государства: в 2024 году госсектор обеспечил половину выручки в сегменте проектирования и строительства дата-центров. Из бюджета было выделено 60 млрд руб. на инфраструктурные проекты для таких ведомств, как «Росатом», МВД, Минприроды, ФНС и ФМС.
ЦОД «Москва-2» — первый в России дата-центр наивысшего уровня надежности TIER IV
В противоположность глобальному тренду на снижение доли on-premise дата-центров, в России именно корпоративный сегмент демонстрирует опережающие темпы ввода новых объектов, отмечает Альфа-банк в своем обзоре. Многие крупные компании и государственные структуры по-прежнему предпочитают размещать данные в собственных ЦОДах — ​из соображений безопасности, в связи с необходимостью соответствовать требованиям к объектам критической информационной инфраструктуры, а также с нехваткой вычислительных мощностей на рынке. Так, Wildberries планирует ввести в эксплуатацию два ЦОДа в 2025 году, Северсталь — ​построить объект на площадке ЧМК, а Газпром — ​в Великом Новгороде.

Произошедшие в 2024 году подорожание оборудования и рост ключевой ставки ЦБ РФ на 5 процентных пунктов (до 21 %) существенно осложнили реализацию новых проектов. Операторы ожидают запуска 13 тыс. новых стойко-мест в 2025 году (по данным CNews Analytics), однако увеличение стоимости заимствований, напрямую зависящей от ключевой ставки, может затормозить реализацию этих планов. Минцифры Р Ф пообещало разработать механизмы льготного кредитования для ЦОДов, но решение на уровне правительства пока не принято.

В результате предложение не поспевало за спросом. По данным консалтинговой Key Point, в Санкт-­Петербурге в ноябре 2024 года сохранялся дефицит более 700 стойко-мест, несмотря на ввод новых мощностей. В Москве в III квартале 2024 года аренда стойко-мест подорожала на 21 % в годовом выражении, главным образом из-за ограниченного предложения в сегменте колокейшн. На этом фоне наиболее активные заказчики стали выкупать стойко-­места уже на этапе проектирования или строительства ЦОДов, обеспечивая себе доступ к вычислительным ресурсам. Это немного облегчает положение операторов — ​теперь даже строящиеся дата-центры могут быть частично или полностью предоплачены.

В чем Россия идет в ногу с миром, так это в трендах на децентрализацию, активное подключение девелоперов к этому бизнесу и в технологическом совершенствовании. Все чаще новые дата-центры строятся за пределами Москвы и Санкт-­Петербурга. Причин несколько: региональные проекты дешевле в реализации, а государственные инициативы и субсидии стимулируют развитие вычислительной инфраструктуры по всей стране. Это позволяет выравнивать цифровой ландшафт и сокращать цифровое неравенство.
Кроме того, к рынку стали активно подключаться девелоперы коммерческой недвижимости (например, WildTeam, «Монарх», PNK Group). Ранее ориентированные на жилую и офисную застройку, теперь они рассматривают строительство ЦОДа как перспективное направление инвестиций. Девелоперы либо предлагают земельные участки с готовой инфраструктурой, либо берут на себя проектирование «под арендатора», а в некоторых случаях самостоятельно возводят дата-центры с последующей сдачей операторам в долгосрочную аренду (схема built-to-suit). За счет опыта в поиске земли, в управлении разрешениями и строительством привлечение девелоперов ускоряет реализацию проектов в условиях высокой капиталоемкости отрасли. В 2023−2024 годах 65 % ввода новых стойко-мест в российских коммерческих ЦОДах пришлось на девелоперские компании — ​аналитики отмечают, что именно благодаря их входу на рынок были зафиксированы рекордные темпы роста строительства в этот период.
ЦОД «Иннополис»
Что касается глобальных технологических тенденций, то примеров промышленного применения жидкостного охлаждения в российских ЦОДах пока найти не удалось (разработки ведутся), зато операторы РФ вовсю используют преимущества климата и применяют фрикулинг. Кроме того, уже есть примеры вторичного использования тепла, генерируемого ЦОДами. Так, компания IXcellerate применяет тепло, выделяемое оборудованием ЦОДа MOS2, для отопления административных и производственных помещений. По оценкам генерального директора IXcellerate Андрея Аксенова, экономия за отопительный сезон составляет около 1,5 млн руб. Кроме того, на юге Санкт-­Петербурга строится научно-­образовательный и инновационный центр ИТМО «Хайпарк», первым резидентом которого стала компания «Обит" — ​она планирует построить на этой локации энергоэффективный дата-центр. Его фишка — ​использование вторичного тепла для выращивания растений.

Есть и глобальный тренд, законодателем которого выступила именно Россия, причем еще много лет назад, — ​комбинация работы дата-центров с атомными мощностями.

«Росатом» — ​один из ключевых игроков российского рынка центров обработки данных. Атомщики решили вой­ти в этот сектор задолго до формирования тренда на устойчивое электроснабжение ЦОДов: концерн «Росэнергоатом» приступил к строительству ЦОДа «Калининский» рядом с Калининской АЭС в Удомле еще в 2016 году. Партнером по проекту выступил «Ростелеком», ставший якорным арендатором. В 2018 году объект был введен в эксплуатацию. Использование электроэнергии АЭС обеспечило ЦОДу высокую надежность и конкурентное преимущество по стоимости энергоресурсов.

С 2020 года развитие этого направления ведется через специализированную группу компаний «Атомдата». Она выступает центром компетенций «Росатома» по созданию геораспределенной, катастрофоустойчивой цифровой инфраструктуры, включая «облачные» и платформенные сервисы. С 2021 года началась активная экспансия в секторе ЦОДов: рост группы обеспечивается как органическим путем (строительство новых объектов), так и за счет сделок M&A. В 2021 году «Росатом» приобрел ЦОДы Xelent в Санкт-­Петербурге и StoreData в Москве, в 2022 году начал строительство ЦОДа «Иннополис» в Татарстане, а в 2023 году купил крупный строящийся объект «Москва‑2». В 2024 году ЦОДы в Иннополисе и Москве были введены. Таким образом, в 2023−2024 годах «Росатом» отметился в секторе ЦОДов целым рядом видных достижений: совершил крупнейшую сделку на российском рынке ЦОДов (ЦОД «Москва‑2»), ввел первый в России ЦОД с уровнем надежности Tier IV (тот же ЦОД), а также вошел в топ‑3 игроков на этом рынке по количеству введенных стойко-мест и по максимальной разрешенной мощности в МВт.
ЦОД «Калининский»
Сегодня в распоряжении «Атомдаты" — ​пять высокотехнологичных дата-центров уровней Tier III и Tier IV в Москве, Санкт-­Петербурге, Татарстане и Тверской области общей мощностью свыше 93 МВт и более 6,5 тыс. стойко-мест. В 2025 году компания планирует ввести в эксплуатацию ЦОД «Арктика» на Кольской АЭС, а также развернуть модульные дата-центры на Нововоронежской, Балаковской и Смоленской АЭС. Таким образом, «Росатом» последовательно развивает инфраструктуру, опираясь на уникальные возможности интеграции с атомной генерацией.

Цифровая стратегия «Росатома» до 2030 года включает развитие ЦОДов по принципу колокейшн, «облачных» услуг и сооружение дата-центров на заказ. Логичными шагами выглядят масштабирование геораспределенной сети и усиление позиций в коммерческом сегменте, в том числе за счет экспортных предложений.

С учетом растущего мирового спроса на энергоэффективные дата-центры с низким углеродным следом и опыта «Росатома» в комплексной реализации технологических проектов, участие госкорпорации в цифровой трансформации страны выглядит не только своевременным, но и стратегически обоснованным. Как подчеркнула начальник управления президента РФ по развитию ИКТ и инфраструктуры связи Татьяна Матвеева (цитата по Forbes.ru), «Росатом» находится «в фарватере технологических трендов" — ​от квантовых вычислений до развития ЦОДов — ​и занимает проактивную позицию в реализации приоритетов государственной цифровой повестки.
Эволюция направления ЦОД в «Росатоме»
2014 год
Инициирована концепция создания сети ЦОДов на объектах электрогенерации
2016 год
Начало строительства ЦОДа на Калининской АЭС, выход «Росэнергоатома» на рынок ЦОДов
2018 год
Ввод ЦОДа «Калининский» в эксплуатацию
2020 год
Старт развития направления контейнерных ЦОДов

Создание компании «Атомдата»
2021 год
Покупка ЦОДов Xelent, StoreData
2022 год
Начало строительства ЦОДа «Иннополис»
2023 год
Покупка ЦОДа «Москва‑2»
2024 год
Ввод в эксплуатацию ЦОДов «Иннополис», «Москва‑2»

Завершение разработки КД модульных ЦОДов для размещения на АЭС
2025 год
Планируемый ввод модульного ЦОДа на Нововоронежской АЭС, затем — ​на Балаковской и Смоленской АЭС

Планируемый ввод в эксплуатацию ЦОДа «Арктика» на Кольской АЭС
ДРУГИЕ МАТЕРИАЛЫ