Мы используем cookies, чтобы оптимизировать функциональность нашего сайта и в определенных маркетинговых целях. Вы соглашаетесь на использование нами cookies нажав на "Разрешить cookies» или, продолжив просматривать этот веб-сайт. Нажмите сюда, чтобы ознакомиться с политикой Приватности и использования Cookie.
40,000+ продуктов и 1,5 млн закупщиков. Присоединяйтесь!

Тепло и ещё теплее

Тепло и ещё теплее

Цифровые технологии широко внедрились в нашу повседневную жизнь и сильно изменили способы решения привычных вопросов. Упростив многие стороны жизни, они, в то же время, иногда становятся причиной серьёзных сбоев. В конце мая 2017 г. многие испытали подобный сбой на себе – почти весь день в нескольких регионах страны абоненты одного из мобильных операторов не могли звонить и принимать звонки. Совсем недавно из-за вирусной атаки временно прекратила работу популярная сеть приёма медицинских анализов… Правда, есть ещё области человеческой деятельности, не столь критичные к качеству используемого «софта» – например, сфера ЖКХ. Тем не менее, несколько лет назад и в этой области наметились сдвиги.


Всеобщая «цифровизация» породила огромное количество центров обработки данных (ЦОД), где хранятся и обрабатываются большие объёмы информации. Современный ЦОД средней мощности занимает здание площадью во много тысяч квадратных метров, а подведённая к этому зданию электрическая мощность изменяется мегаваттами. Значительная часть этой мощности преобразуется в тепло. До недавнего времени с ним боролись, как с неизбежном злом, устанавливая мощные кондиционеры, которые сами потребляли немало энергии.Лет десять назад ситуация стала меняться. Крупные дата-центры стали проектироваться и строиться с учётом возможности использования естественных источников холода, например, воды одного из шведских фьордов, температура которой в любое время года не превышает +8С. Сам же ЦОД находится в бункере, где раньше был склад боеприпасов НАТО. Подобную технологию использует и Google в одном из своих дата-центров на юге Финляндии. Такой подход не только снижает затраты на эксплуатацию комплекса, но и очень симпатичен с экологической точки зрения. Недаром подобные проекты и готовые объекты получают высокую оценку от Гринпис. Апофеозом этой идеологии на сегодняшний день, несомненно, является ЦОД Facebook в Лулео. Первый ЦОД компании за пределами США, он построен в 2013 году и расположен в лесах северной Швеции, в 120 километрах южнее Полярного круга. Размещённое в здании, площадь которого равна шести футбольным полям, оборудование охлаждается мощными вентиляторами, засасывающими окружающий воздух, среднегодовая температура которого не превышает 2С. Часть отводимого тепла используется для отопления помещений, в которых работают около 150 человек.Казалось бы, вот пример энергоэффективности в мире обработки данных – но нет, можно поступить иначе. Джон Карлунг, генеральный директор известного шведского провайдера Bahnhof, считает, что сотни мегаватт в Лулео могли бы обогревать не только здание дата-центра, а десяток подобных населённых пунктов. Проблема в том, что их там нет, а вот Bahnhof, имеющий дата-центры в Стокгольме, обогревает около 1000 квартир в его центре, передавая в городскую систему отопления тепло своих серверов. В планах – расширение сотрудничества с энергетической компанией Fortum Värme, поскольку оно приносит заметный дополнительный доход. Разве это не лучший способ утилизировать «тепловые отходы»? Технически несложно нагреть воду горячим воздухом, есть даже серверы с охлаждением жидким диэлектриком – отапливай город, в котором расположен дата-центр, и получай дополнительный доход! И действительно, в стране расширяется практика теплоснабжения жилых домов предприятиями, недавно даже появился специальный термин – cooling-as-a-service.Но и тут не всё так просто. Швеция – одна из немногих стран Европы, где удачно сочетается наличие развитых сетей центрального отопления и большого количества дата-центров, при этом правительство планирует укреплять позиции централизованной системы теплоснабжения, чтобы привлечь в страну ещё больше компаний-операторов ЦОД. Что же делать жителям стран, где центральное отопление отсутствует – и тем, кто греется, и тем, кто греет?


Новаторы из голландской компании Nerdalize решили, что если тепло нечем перенести от сервера в дом, то в дом надо перенести сервер, создав тем самым «распределённый» ЦОД. В 2015 году Nerdalize в партнёрстве с энергетической компанией Eneco произвела первый опыт – несколько домов получили серверы в корпусе, напоминающим обычную батарею, и начали отапливаться их теплом. Nerdalize смогла привлечь посредством краудфандинга значительную сумму, и в августе 2017 года планируется расширение масштабов эксперимента – «отопительными» серверами будет оснащено 42 домохозяйства, каждое их которых в результате получит горячий душ. Компания оплачивает электроэнергию, используемую сервером, и интернет-канал для передачи данных. Такая схема не только позволит экономить жильцам около 300 евро в год, но и избавит атмосферу от трёх тонн углекислого газа.


Я решил побеседовать на эту тему со специалистами, не понаслышке знакомыми с практикой эксплуатации серверов и использования распределённых вычислительных мощностей.


Первый наш собеседник – директор компании, разрабатывающей программное обеспечение.



Какую электрическую мощность имеет современный сервер?


Это не постоянная величина. Прогресс идёт быстро, потребляемая мощность серверов падает, в частности, за счёт широкого распространения твердотельных жестких SSD-дисков. К тому же, у современного сервера максимальное энергопотребление – около 2-х киловатт – наблюдается только на старте. Он запускает всё, что у него есть, на полную мощность – проверяет, тестирует, включает вентиляторы… Очень много энергии сервер потребляет при решении сложных вычислительных задач, загружающих все ядра. Вот тогда разогреваются процессорные сборки и приходят в движение те самые вентиляторы, которые тестировались при старте. На «холостом ходу» сервер может потреблять вдвое меньше энергии.


Так вот почему Nerdalize предусмотрел «план Б» на случай снижения вычислительной нагрузки или отключения канала передачи данных! И какая же часть электрической мощности переходит в тепловую?


Более 80%.


Какие, на Ваш взгляд, технические проблемы предстоит решить разработчикам схемы отопления распределёнными серверами?


Схема охлаждения серверов, по крайней мере, таких, с которыми работают в нашей компании и в большинстве современных дата-центров, значительно сложнее, чем просто размещение их в хорошо охлаждаемой комнате. Воздух от кондиционеров поступает по «холодному коридору» к лицевой части серверных шкафов и, пройдя через охлаждаемые устройства, поступает в «горячий коридор», откуда снова засасывается в теплообменник кондиционера. При этом он осушается и очищается от пыли. «Отопительные» серверы будут устанавливаться в жилых помещениях, гораздо более пыльных и влажных. Следовательно, это должны быть пылевлагозащищённые устройства. Кроме того, серверы, размещённые в стойке, централизовано получают электричество от мощного источника бесперебойного питания. Будет ли экономически оправдано появление множества UPS малой мощности для каждого сервера? На мой взгляд, несомненно, перспективным является поставка большими дата-центрами тепла в систему центрального отопления, что же касается отопления распределёнными серверами – тут пока много нерешённых вопросов.


С этим не согласен второй собеседник – директор компании, предоставляющей консалтинговые услуги в области телекоммуникаций.


Он сказал: «Мини-ЦОДы уже получили широкое распространение, в частности, это неотъемлемая часть будущих систем сотовой связи стандарта 5G! Уже сейчас существуют расчёты капитальных затрат на создание сетей пятого поколения, и на мини-ЦОДы в них предусмотрено около 20% средств. А это – и система охлаждения, и система питания, отличные от гигантских дата-центров и максимально приближенные к нуждам распределённых «отопительных серверов». Несколько лет назад, оборудуя офис в бывшем производственном здании, мне пришлось столкнуться со сложностями устройства кондиционирования нашей небольшой серверной. Пришлось, используя вентиляционные каналы помещения, организовать воздушное отопление офиса теплом, которое выделяли наши несколько машин. Да, понадобились дополнительные воздушные фильтры, но в целом идея себя оправдала».


Итак, очередное будущее стремительно входит в нашу жизнь. Но, как верно заметил Козьма Прутков, «И при железных дорогах лучше сохранять двуколку». Что будет, если появится специальный вирус, и, настраивая холодным зимним утром свой отопительный сервер на +25С, вы увидите на экране надпись: «Гони монету, а то замёрзнешь»!?

Новые публикации в блоге