;
Кейсы 14 мая 2020

«Зеленые» дата-центры: энергия гейзеров, фрикулинг и океан-охладитель

Далее

Дата-центры строят недалеко от гейзеров, тестируют в океане, используют для их энергоснабжения силу ветра и собирают дождевую воду для систем адиабатического охлаждения. Мировой тренд на зеленое строительство, казалось бы, не оставляет центрам обработки данных (ЦОД) другого пути: как и все здания, они не должны причинять вред окружающей среде или хотя бы свести его к минимуму. Сергей Махлин, руководитель направления электромеханических систем ИТ-компании КРОК, рассказывает, какие технологии уже сейчас используются в дата-центрах по всему миру, какие из них будут востребованы в ближайшее время и есть ли у российского рынка центров обработки данных шанс наконец присоединиться к мировому зеленому движению.

«Аппетиты» дата-центров растут

Главное отличие дата-центров от других зданий — промышленных или офисных — состоит в том, что они работают круглый год, без остановки даже на одну-две минуты. А значит — нон-стоп потребляют энергию. По данным британского научного журнала Nature, на все центры обработки данных в мире уходит около 200 ТВт·ч электроэнергии в год. Это больше, чем национальное энергопотребление некоторых не самых маленьких стран и примерно половина электричества, которое используется для транспорта во всем мире. И, конечно, далеко не всегда эта энергия производится из чистых источников: например, Китай занимает второе место по объему рынка ЦОД, но около 73% электроэнергии для них в стране получают из угля и только 23% — из возобновляемых источников энергии.

Что касается выбросов CO2, то доля дата-центров в углеродном следе, по данным Британского открытого университета, достигает 2% мирового объема. И если сейчас эта цифра не кажется критичной, всё может измениться в ближайшие годы. Объем данных постоянно растет, «аппетиты» дата-центров тоже увеличиваются. Поэтому вывод прост: зеленые технологии для центров обработки данных актуальны сейчас и будут еще более востребованы в ближайшие годы.

Энергия от гейзеров

Современный дата-центр — здание, буквально напичканное ИТ-оборудованием и инженерными системами, которые обеспечивают его бесперебойное функционирование. И первый разговор о зеленых технологиях может возникнуть еще на этапе выбора площадки и проектирования. В мире есть случаи, когда дата-центры строят недалеко от гейзеров, как, например, Verne Global в Рейкьявике, 100% энергопотребления которого — возобновляемая энергия геотермальных и гидроэлектростанций. А центр обработки данных Citigroup во Франкфурте спроектирован таким образом, что он может использовать дождевую воду. За счет этого существенно сокращается в потребление воды из городской сети.

Есть ли интерес у российских компаний к особому расположению дата-центров? В отличие от Европы, где экологическая повестка и устойчивое развитие актуальны уже не один десяток лет, в России гонки зеленых технологий до сих пор нет. Причина — недорогая по европейским и американским меркам электроэнергия.

Ни для кого не секрет: возобновляемые источники энергии в России распространены не широко. Но даже если где-то они и существуют (например, на Дальнем Востоке), экономия от размещения дата-центра в «особенном» месте будет ничтожна из-за каналов связи, которые потребуется проложить. Расположение ЦОД в России, как и везде, определяется двумя факторами: доступностью каналов связи и стоимостью электроэнергии. Есть районы, где она стоит в районе 3 рублей за киловатт — например, рядом с электростанциями. Поэтому нередко ЦОДы появляются рядом с ними. За примерами ходить далеко не надо: именно по такому пути пошла одна из российских госкорпораций, которая строит дата-центры рядом с АЭС.

Фрикулинг наступает

Энергоэффективность — краеугольный камень в строительстве дата-центров, и все используемые технологии и решения так или иначе подчинены этой теме. Например, холодоснабжение. После ИТ-нагрузки системы холодоснабжения — вторые по энергопотреблению в дата-центрах. Поэтому инженеры ищут решения, которые помогут сократить затраты на «холод» и снизить один из главных показателей эффективности ЦОД — PUE (Power Usage Effectiveness, эффективность использования энергии — «Хайтек»). Если коротко, то PUE демонстрирует, насколько эффективно используется электроэнергия в дата-центре, а вычисляется он как отношение энергопотребления всего объекта к энергопотреблению ИТ-оборудования.

Итак, как тратить на холодоснабжение меньше, то есть делать дата-центр более зеленым и безопасным для окружающей среды? Все мировые тенденции указывают на то, что в ближайшие три-пять лет распространенные системы воздушного охлаждения, такие как как чиллер-фанкойлы или фреоновые кондиционеры, будут вытесняться системами с прямым или косвенным фрикулингом (от англ. free-cooling — свободное охлаждение). Этот тренд уже отчетливо прослеживается на Западе, где за счет фрикулинга удается достигать среднегодовой PUE в пределах 1,05-1,15. А если использовать еще и солнечные батареи, можно достичь еще более впечатляющих цифр. Для сравнения, при традиционных системах охлаждения среднегодовой PUE составляет 1,4-1,6.


Чиллер (водоохлаждающая машина) — аппарат для охлаждения жидкости, использующий парокомпрессионный или абсорбционный холодильный цикл. После охлаждения в чиллере жидкость может подаваться в теплообменники для охлаждения воздуха (фанкойлы) или для отвода тепла от оборудования. В ходе охлаждения жидкости чиллер создает избыточное тепло, которое должно быть отведено в окружающую среду.

Вентиляторный доводчик, или фанкойл — приемник охлажденного или нагретого носителя локального типа (воды, незамерзающей смеси) — конечный элемент систем кондиционирования воздуха типа чиллер-фанкойл или систем отопления, предназначенный как минимум для рециркуляции и охлаждения воздуха в кондиционируемом помещении.


Как это работает? Прямой фрикулинг использует предварительно очищенный наружный воздух для охлаждения серверных. Если не вдаваться в технические детали, то главные преимущества такой системы — простота конструкции и ее внедрения, невысокое потребление электроэнергии. Косвенный фрикулинг предполагает, что охлаждение внутреннего воздуха дата-центров происходит в промежуточных теплообменниках, поэтому в машинных залах циркулирует один и тот же очищенный воздух. В некоторых случаях сделать фрикулинг еще эффективнее помогает адиабатическое охлаждение, при котором температура воздушного потока понижается за счет распыленной в нем воды.

Прямой фрикулинг уже используют дата-центры крупнейших компаний — Google, Facebook и Amazon. В России к этой технологии пока только присматриваются, но примеры реализации уже есть. Например, для одного из дата-центров мы рассчитали возможность круглогодичного стопроцентного фрикулинга, причем вовсе не в условиях севера, а в одном из центральных российских регионов. Для этого, правда, нам потребовалась глубокая аналитика — например, для расчетов мы исследовали данные о погоде, минимальных и максимальных температурах за последние 50 лет.

В нашем собственном ЦОДе фрикулинг тоже задействован. Когда на улице температура от 0 до 10 °С, используется микс-режим, а при температуре ниже нуля применяется только фрикулинг. Это позволяет нам снизить расходы на потребление примерно до 30% в год.

Свободное охлаждение в современных российских реалиях, по нашей оценке, наиболее применимо в крупных корпоративных дата-центрах, которые были изначально спроектированы под этот тип охлаждения. В таком случае можно сразу выбрать нужную компоновку системы и закупить серверы, устойчивые к возможному повышению температуры. В коммерческих дата-центрах, в которых арендуют площади разные компании, выполнить все эти требования куда сложнее.

Океан или река?

Ведущие мировые компании экспериментируют не только с фрикулингом, они ищут и другие способы снизить энергопотребление дата-центров. Например, c 2014 года Microsoft тестирует варианты размещения водонепроницаемых центров в океане, надеясь тем самым сократить количество электроэнергии, которое тратится на охлаждение. В холодной океанской воде оно, как несложно представить, происходит естественным образом. Однако вряд ли эта технология найдет широкое применение, по крайней мере в ближайшем будущем. Во-первых, доступа к серверам, которые находятся под водой, нет, и в случае их выхода из строя сделать ничего нельзя. Во-вторых, дата-центр выделяет тепло в океан, и в перспективе это может повлиять на его живой и растительный мир (именно по этой причине их не планируется размещать, например, в озерах). И, наконец, выход к морю есть далеко не у всех стран.

Попытки использовать холодную воду для охлаждения есть и в России, но пока их не так много. В нашей практике был случай, когда мы проектировали дата-центр в Сибири рядом с ТЭЦ. По проекту теплоэлектроцентраль получала воду из реки, при этом температура воды в реке в разные месяцы колебалась от 0 до +15 °С, а ТЭЦ требовалось +25 °С. Так родилась схема: тепло, которое отдавал центр, использовалось для подогрева воды в контуре ТЭЦ — в среднем на 1 °С. PUE такого дата-центра составляет около 1,15 круглый год.

Как быть с углеродом?

Еще один важный экологический ракурс — выброс углерода. Мировые гиганты уже вовсю дают громкие обещания по сокращению углеродного следа. Так, Microsoft пообещал к 2030 году стать углеродно-нейтральной корпорацией, то есть достичь отрицательного уровня эмиссии углерода, а еще через 20 лет — целиком ликвидировать последствия выбросов за все время, что компания существует. Выбросы дата-центров беспокоят и европейские власти: цифровая стратегия Еврокомиссии заявляет, что поскольку дата-центры оказывают значительное негативное воздействие на окружающую среду, они должны стать климатически-нейтральными к 2030 году.

А вот что уже сделано в датском городе Ольборге. Одна из компаний создала систему прямой передачи тепла от дата-центра в городские теплосети. В реализации проект оказался весьма экономичным — для него не нужны дорогостоящие и энергоемкие внешние тепловые насосы. По расчетам, такой подход позволит на 25% снизить потребление энергии, а выработанное ЦОДом тепло будет использоваться на 70–80%. Интересно, что власти Дании поставили своей целью сократить выбросы CO2 на 70% к 2030 году, а упомянутая технология по использованию тепла позволит взять на себя, по предварительной оценке, 4 из 70 процентных пунктов.

Кто оценит «зеленость»

Какие еще зеленые технологии могут быть актуальны для дата-центров? Это и применение в строительстве экологически чистых и энергосберегающих материалов, и максимальное использование солнечного света для освещения, и экодизайн, и создание условий для сотрудников, и многое другое. Основные зеленые стандарты задают специальные системы сертификации. Одной из самых популярных считается The Leadership in Energy & Environmental Design (LEED), разработанная в Америке в 1990-х годах.

Она оценивает энергоэффективность зданий, а также применение при их проектировании и строительстве экологически чистых материалов и технологий. Не так давно в LEED появился раздел, посвященный дата-центрам: по специальной шкале можно оценить то, насколько они соответствуют зеленым стандартам. Один из центров в Турции, при строительстве которого мы выступали техническими консультантами, такую сертификацию прошел. Для нас это был интересный и необычный опыт. Например, требовалось показать не только экономию водных ресурсов и электроэнергии, но и предоставить данные по планируемой утилизации серверов в будущей.

В России большого интереса к зеленой сертификации дата-центров пока нет, но тем, кто планирует их строить, стоит как минимум к ней присмотреться. По крайней мере потому, что она служит точным ориентиром для всех, кто хочет их строить с максимальной энергоэффективностью и минимальным ущербом для окружающей среды. И, конечно, стоит помнить, что в каждом случае проект дата-центра уникален (особенно в России) и требует детальной проработки и расчетов. Именно это в конечном итоге позволяет сделать его безопасным для природы, экономичным и надежным для тех, кто пользуется его услугами.


Читайте также:

Моделирование климата Марса показало непригодность его древних морей для жизни

Ученые выяснили, куда пропала Луна в 1110 году. Её закрыло облако пепла

Новая 3D-модель атома поможет лучше понять происхождение жизни на Земле

Загрузка...