Космические дата-центры: энергия бесплатная, и воды не надо

Техно
BB.LV
Дата публикации: 26.02.2026 07:07
Lonestar Data Holdings предлагает разместить сервера на нашем естественном спутнике.

Орбитальные мощности помимо прочего будут еще и более защищенными, нежели наземная инфраструктура.

Стремительно растущий объем вычислений – прежде всего за счет масштабирования генеративного искусственного интеллекта (ИИ) – заставляет искать новые подходы к организации дата-центров (ЦОД). Рекордно гигантские кластеры, которые займутся хранением и обработкой немыслимых ранее объемов данных, уже возводят на Земле.

Но есть и особый тренд: развертывание таких комплексов на орбите планеты. Разбираемся, зачем это нужно и какие вызовы стоят перед технологическими компаниями в новом секторе.

По итогам 2024 года, подсчитали аналитики Structure Research, свыше 1,1 % всего мирового энергопотребления пришлось именно на дата-центры – 310,6 ТВт·ч. Это уже больше, чем у отдельных стран, а в течение следующих пяти лет показатель может превысить 1000 ТВт·ч и составить до 3 % от глобального объема. Параметры усредненные: в странах – лидерах по развитию ИИ, США и Китае, аккумулируется 69 % всей энергии, расходуемой дата-центрами, соответственно, там энергозатраты будут кратно выше, чем в других государствах.

Несмотря на растущую востребованность компьютерных технологий (как следствие, и связанных с этим вычислений), у медали есть оборотная сторона. Прежде всего воздействие на экологию.

Согласно прогнозам аналитиков, объемы выбросов углекислого газа (CO2) к 2030 году только в США могут превысить 80 млн т, что эквивалентно выхлопам примерно 10 млн автомобилей на двигателях внутреннего сгорания. Также увеличиваются расходы воды, которую используют для охлаждения оборудования. По подсчетам медиа, сегодня дата-центры потребляют 560 млрд литров в год, а уже к 2030-му потребуется по крайней мере вдвое больше.

Еще один аспект, связанный с экологией скорее косвенно, – объемы мусора. ИТ-корпорации представляют новое «железо» каждый год, а ИИ-компании, само собой, хотят использовать передовое оборудование, ведь оно дает конкурентное преимущество. Как следствие, растут объемы утилизации устаревших графических ускорителей, серверов и пр.

Поэтому нет ничего удивительного в возникшей идее переместить часть компьютерных вычислений за пределы атмосферы Земли.

Жизнеспособность такого плана подтвердили, в частности, ученые из Наньянского технологического университета (NTU) в Сингапуре осенью 2025-го, но проработка проектов началась еще раньше.

Осторожные тесты технологии орбитальных вычислений ведутся уже несколько лет. Выделить стоит Axiom Space – космическую корпорацию из США, которая с 2022 года развивает проект ODC (Orbital Data Center, орбитальный дата-центр). Он должен стать частью будущей орбитальной станции, пока же метод тестируется на МКС для обмена большими объемами данных с Землей.

Американский стартап Starcloud в ноябре отправил на орбиту свой первый спутник с графическим ускорителем (GPU) Nvidia H100. Это говорит о нацеленности именно на ИИ-сегмент: подобные чипы применяются как раз для работы нейросетей. Цель стартапа – сформировать сеть орбитальных ИИ-дата-центров. Следующий запуск запланирован на 2026 год.

Китай, как водится, решил подойти к вопросу масштабно. В мае компания Chengdu Guoxing Aerospace Technology, также известная как Adaspace, запустила сразу 12 спутников, на каждом из которых можно развернуть ИИ-модель на 8 млрд параметров. Это не так много по меркам индустрии, но основной эффект в другом: общий состав группировки в перспективе составит 2800 аппаратов, связанных между собой в единую сеть. Когда и в каких действительно объемах проект будет реализован, пока неясно. Планируется, что первые реальные, т. е. не тестовые, вычисления получится произвести в 2027 году, а выйти на целевую мощность – к 2030-му. Заявлено, что работать спутники будут прежде всего с астрономическими данными: обрабатывать информацию о космосе, анализировать снимки Земли и т. д.

Конечно, само по себе обслуживание – равно как и развертывание – подобного оборудования в космосе вполне осуществимо. Вопрос в цене: самый дешевый запуск 1 кг груза на околоземную орбиту обходится примерно в $1500. По различным подсчетам, экономика соответствующих проектов может начать работать в долгосрочной перспективе при снижении затрат до $100 за килограмм и больше. Такой показатель пока только прогнозируется для разрабатываемого SpaceX Starship.

Получится ли у корпорации добиться указанной стоимости, сказать сложно. Но, учитывая амбиции ее главы Илона Маска, который параллельно развивает ИИ-компанию xAI (а значит, заинтересован в росте вычислительных мощностей), все возможно. Тем более что у него уже есть реальный опыт развертывания космических систем: интернет, работающий благодаря тысячам спутников Starlink, – тоже детище Маска.

Конечно, на экономику космических вычислений будет влиять не только стоимость запусков. Действительно, ни проблему радиации, ни вопросы охлаждения в космосе нельзя недооценивать. Оборудование, не защищенное земной атмосферой, подвержено излучению Солнца, и обычные чипы – такие как Nvidia H100, отправленные на орбиту стартапом Starcloud, – будут очень быстро приходить в негодность, если их не защитить.

Высокоэнергетические частицы Солнца и галактические космические лучи, прилетающие от сверхновых, способны повредить электронику и вызвать сбои. «В «Сколтехе» мы изучаем, как моделировать и прогнозировать космическую погоду, чтобы минимизировать такие риски. Орбитальные дата-центры должны уметь «укрываться» от солнечных штормов, как современные спутники, но в куда большем масштабе», – уточняет Подладчикова.

Иными словами, вариантов два: либо сразу разрабатывать электронику, устойчивую к радиации (как это делается на многих спутниках; такое оборудование, как правило, на 1–2 порядка дороже обычного), либо создавать специальные антирадиационные экраны (как на МКС).

С охлаждением тоже загвоздка. На Земле это сравнительно просто: нагретая электроника охлаждается при соприкосновении с водой или даже воздухом. В космосе нет ни того, ни другого – фактически вообще ничего, что могло бы отводить тепло. Поэтому инженеры придумывают специальные радиаторы, которые станут рассеивать тепловую энергию в вакууме. Starcloud, например, проектирует радиаторы километровой величины для своих будущих дата-центров, которые тоже придется выводить в космос.

Одним из ключевых факторов эффективности орбитальных ЦОД, конечно, будет качественная связь. Наилучшим демонстратором актуальных технологий служит система Starlink, тысячи спутников которой обеспечивают высокоскоростной интернет в разных регионах Земли. Это возможно благодаря межспутниковой оптической (лазерной) связи с каналом 100 Гбит/с. Максимальная удаленность спутников друг от друга (то есть расстояние, которое преодолевает сигнал) при этом составляет более 5 тыс. км.

Подобные системы прорабатываются многими инженерными командами и провайдерами. Китайская Chang Guang Satellite Technology (CGST), например, в 2025 году сумела добиться скорости 100 Гбит/с при передаче сигнала на Землю, а в сентябре обновила рекорд для геостационарных спутников (на расстоянии 36 тыс. км). Очевидно, именно лазеры станут стандартом связи для орбитальных дата-центров. Дальше операторам предстоит перейти к терабитным каналам и реализовать технологии квантового шифрования.

Кажется, что с учетом вызовов и ограничений концепт выглядит сомнительно: слишком сложный и экстремально дорогой. Зачем тогда вообще прорабатывать идею – неужели только из экологических соображений (что, впрочем, не так уж и мало)? Конечно, нет.

Прежде всего все упирается в энергию. Орбитальные дата-центры смогут получать ее от Солнца напрямую, без рассеивания в атмосфере (т. е. прирост примерно на 40 %) и перерывов на ночь и плохую погоду. В результате коэффициент использования такой энергии – предельно дешевой ко всему прочему, ведь солнечный свет вырабатывается естественным образом, – вырастет примерно с 29 % до более чем 99 %.

В итоге при исключении космических ЦОД из наземных энергетических сетей общие затраты на питание орбитальных кластеров могут оказаться на порядок ниже, чем на Земле. Плюс экономия на воде (миллионы литров которой тоже совсем не дешевы): несмотря на то что вакуумные радиаторы дороже в производстве, их один раз поставил, и они непрерывно отводят тепло в бесконечность космоса.

К слову, о бесконечности: потенциально просторы Вселенной обеспечивают соответствующие возможности для масштабирования. Однако тут есть ограничитель – ученые заявляют о замусоренности орбиты уже сегодня, а когда спутниковые группировки будут прирастать тысячами новых аппаратов, проблема станет еще более критичной. Но почти ничто не мешает располагать подобные ЦОД в отдалении от Земли, хотя бы, например, на относительно свободной геостационарной орбите.

Считается, что орбитальные дата-центры помимо прочего будут еще и более защищенными, нежели наземная инфраструктура. В этом есть логика: непосредственно на спутниках постоянного персонала не предусмотрено, да и злоумышленники физически добраться туда никак не смогут. Плюс все каналы связи, во-первых, зашифрованы (в том числе с помощью квантовой криптографии), во-вторых, локализованы: оператор сам решает, куда лазер «отгружает данные» со спутника.

Но полностью угроза, разумеется, не снимается. Основной точкой уязвимости окажутся как раз наземные пункты. Если хакерам удастся взломать условный ЦУП и передать на спутники несанкционированные, но при этом якобы верифицированные команды, предсказать последствия трудно. Иными словами, окно возможностей для злоумышленников сужается, но вот последствия от хакерской атаки, если она случится, будут на порядки более серьезными, нежели на наземных ЦОД.

Упомянутое выше «почти» отчасти определяет ограничения по задачам, которые могут выполнять орбитальные ЦОД. Как мы помним, Китай нацелен прежде всего на работу с астрономическими данными. Такие материалы – параметры, снимки и пр., – как правило, сначала аккумулируются на орбите: в спутниках связи, дистанционного зондирования Земли, станциях, научных аппаратах и пр. Сегодня, чтобы обработать данные, необходимо весь их массив передать на Землю.

Правильнее будет сразу на орбите с помощью умных алгоритмов отфильтровать большинство «пустышек», провести все нужные операции с тем, что осталось, и передать на Землю только итоги работы.

С «земными» задачами сложнее. Немного странной выглядит система, когда запрос пользователя уходит на орбиту, там в процессе обработки «скачет» по спутникам, и только затем результат возвращается обратно. Для некоторых индустрий, где скорость критически важна (например, трейдинг, онлайн-игры), такой подход нежизнеспособен в принципе.

В остальных случаях, если это в конечном счете сделает вычисления дешевле, то почему бы и нет? Допустим, ждать ответа условного ChatGPT придется на секунду-другую дольше. Но если ожидание будет бесплатным, большинство пользователей (чье общее число в мире, напомним, стремительно растет от месяца к месяцу) это устроит.

Платные подписки – да, можно оставить «на Земле»: потребитель платит за быстрый результат за счет использования более дорогой и менее экологичной инфраструктуры. Но и тут есть нюанс: последние обновления нейросетей для написания кода (в большинстве случаев они платные) могут без преувеличения часами корпеть над сложными пользовательскими задачами. На этом фоне секунды задержки будут незаметными – так почему бы и такие процессы не перенаправлять на орбитальные ЦОД?

Собственно, технологические лидеры уже начали реализовывать подобные инициативы. Самая заметная – проект Suncatcher («Ловец Солнца»), который Google прорабатывает совместно со стартапом Planet. Корпорация планирует в 2027 году запустить на орбиту несколько спутников с нейропроцессорами Trillium TPU v6e, способными, судя по тестам, до пяти лет работать в агрессивной радиационной среде. Ключевой составляющей миссии, как следует из названия, станет «подключение» распределенной сети аппаратов к солнечной энергии и обмен данными на терабитных скоростях.

В целом ни по одному из пунктов развертывания дата-центров на орбите уже нет непреодолимых преград, а значит, осталось дождаться, когда концепция будет реализована. А после – наблюдать за новыми, уже действительно космическими масштабами конкуренции ИИ-гигантов между собой.

<iframe width="560" height="315" src="https://www.youtube.com/embed/7_TCvYtbkmU?si=EB-Em0O6jKrYpgW_" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>

ТАКЖЕ В КАТЕГОРИИ

ЧИТАЙТЕ ТАКЖЕ