|
|
Обозрение
ИТ-инфраструктура предприятия 2007Обозрение подготовлено
Современные профессиональные вычислительные машины способны справиться с огромным количеством задач за доли секунды. Тем не менее того, что они могут, всегда недостаточно — хочется разогнать еще быстрее. Но любой оверклокер знает, что чем больше скорость, тем сильнее надо охлаждать аппарат. Как это сделать в промышленных масштабах?
Потребность центра обработки данных в охлаждении должна удовлетворяться соответственно времени его работы. Поскольку современные серверы на предприятиях и в организациях эксплуатируются 24 часа в сутки 365 дней в году, то и система кондиционирования должна действовать в таком режиме. При этом, используя ЦОДы для выполнения множества важных функций, пользователи постоянно выдвигают все новые и новые требования к увеличению скорости обработки информации, что достигается за счет наращивания мощностей. Следовательно, растет и необходимость в более сильном охлаждении существующего оборудования. Но здесь создается замкнутый круг проблем: больше и мощнее техника — больше энергопотребление; больше энергопотребление — больше выделяется тепла и надо больше кондиционеров для его отвода; больше кондиционеров — больше энергопотребление.
Ситуация с каждым днем становится все критичнее. Множатся затраты на энергопотребление и охлаждение, составляя по оценкам Gartner, около 25-50%, в зависимости от мощности аппаратуры, всех ежегодных расходов на эксплуатацию серверов. Эксперты прогнозируют, что в ближайшем будущем при росте цен на электроэнергию издержки на поддержание компьютерных центров в рабочем состоянии станут настолько большими, что превратятся в практически не окупаемые. Поэтому неудивительно, что уже сейчас большинство заказчиков при создании ЦОД уделяет огромное внимание количеству потребляемой энергии и эффективности теплоотвода. И хотя в России стоимость кВт только становится ощутимой проблемой для бизнесменов, поиск оптимальных технологий кондиционирования не менее актуален, чем на Западе. Помимо экономии бюджета предприятия, правильно подобранное охлаждение обеспечит безотказность сервера и облегчит получение требуемых мощностей.
Как известно, все технически сложные вещи создаются на основе жестких требований и расчетов. Иначе нетрудно запутаться и сделать малоэффективную систему. Подобные руководства существуют и для ЦОД. С 2005 года множество из них по всему миру строятся, исходя из стандарта ANSI/TIA/EIA -942. Безусловно, этим стандартом не исчерпывается вся нормативная база: действуют и другие европейские и американские документы, регламентирующие либо конструирование системы целиком, либо одной из ее частей. В нашей стране, видимо в виду территориальной близости, традиционно больше используют европейские стандарты, хотя последние время все чаще прибегают к уже названному.
Здесь прописаны состав ЦОД и главные аспекты его конструирования. Содержится информация по принципам построения кабельной системы, приводятся характеристики помещения, в котором будут расположены вычислительные мощности (размеры, высота потолка, двери, освещение, нагрузка на пол), даны требования по резервированию различных элементов, другими словами, описан процесс формирования катастрофоустойчивого ЦОД и др. Существуют и правила создания системы кондиционирования и электропитания.
Ключевой мыслью этого стандарта является необходимость применения интегрированных систем, где все компоненты — серверы, контроллеры, накопители информации, источники бесперебойного питания, климатконтроль и пр. — все согласованы между собой. Согласно нормативному документу, органичной частью ЦОД являются и технические площади, требуемые для обслуживания аппаратов, и проходы. Таким образом, блок кондиционирования и вентиляции на современном этапе нельзя воспринимать как набор отдельных элементов: отдельно действующих кондиционеров, вентиляторов, холодильных шкафов, вентиляционных шахт.
Другим не менее важным руководством, знакомство с которым обязательно для наладчика системы кондиционирования, считается принятое в сентябре 2004 года ASHRAE (American Society of Heating, Refrigeration, and Air-Conditioning Engineers), «Руководство по созданию температурного режима в дата-центрах», Thermal Guidelines for Data Processing Environments. Здесь отражены главные тенденции, в том числе и повышение нагрузок на ЦОД.
Стремление к согласованности проявляется и в конструкции самих составляющих ЦОД. Так, сегодняшние интегрированные системы резервного электроснабжения одновременно со своей главной функцией отвечают за кондиционирование и управление. Холодный воздух при таких решениях, как и электроэнергия, централизовано поступает в стойку с серверами и уже дальше равномерно распределяется внутри. Безусловно, важна и специфическая конструкция стоек, позволяющая воздуху циркулировать подобным образом.
Выгода от использования комплексных систем очевидна: повышение эффективности, в виду согласованных действий, и экономия на покупке оборудования не по компонентам. Но последнее нередко оборачивается и трудностями. Поменять одну секции на более мощную, сохранив другую, оказывается невозможным без использования решений производителя комплекса. Поэтому не стоит забывать и о других технологиях.
Сегодня в России доступны практически все существующие на рынке решения от бюджетных, до самых престижных. Так, можно добиться уменьшения температуры посредствам контурных систем натурального охлаждения, Free Cooling, использующих воздух с улицы и воду. Когда речь идет о построении ЦОД не в условиях теплого климата, то подобные оказываются весьма практичны. Уже в Москве экономия электроэнергии составит 10-15%, а в северных регионах и до 20-30%. С другой стороны, можно установить более дорогостоящие, но и более мощные чиллеры.
Но это все достаточно сложные системы. На практике чаще всего используются охлаждаемые водой мощные кондиционеры (их еще именуют фэн-койлами или CRAH - Computer Room Air Handler). Они действую по принципу нижнего выдува, когда холодный воздух нагнетается под фальшпол, на котором стоят стойки и шкафы с вычислительной техникой. Через специальные отверстия холодный воздух затягивается в стойки. Поскольку охлаждение снизу-вверх эффективно, то его стараются использовать и в случае, когда фальшпол отсутствует. Для этого проветриваемое оборудование расставляется на специальные подиумы, под которые подается холодный воздух.
Все стандартные рекомендации по организации помещения ЦОД, где используются восходящие воздушные потоки, приведены в указанном руководстве ASHRAE. Остальные характеристики рассчитываются профессионалами по методу числового модулирования. Другой способ циркуляции воздуха заключается в подаче воздушных масс на фронтальную поверхность шкафов или стоек. Тогда перед рядами машин устанавливаются вентиляционные короба.
Часто возникает и такая ситуация, когда использовать инженерные решения, описанные выше, невозможно из-за большой плотности агрегатов в ЦОД и различных способов их охлаждения. В этом случае можно воспользоваться устройствами локального кондиционирования. Они располагаются либо над стойками, либо непосредственно на мебели. Ведущими производители такого оборудования являются APC, Rittal, Emerson, Knuеrr. Поскольку мощность серверов постоянно возрастает сегодня локальное и традиционное охлаждение практически всегда используют вместе. Ведь для отведения уже 10кВт с каждой потребуются дополнительные устройства. Но иногда тепловыделение составляет более 30 кВт. В данной ситуации справиться помогут только сверхмощные системы, устанавливаемые рядом со стойкой и достигающие ее размеров.
Итак, создавать необходимую температуру можно по-разному. Все зависит от конктретных условий. Но некоторые сводные правила у профессионалов существуют. Они касаются схемы организации системы кондиционирования. Во-первых, в помещение должен поступать свежий воздух. Наиболее очевидный путь — через каналы вентиляции здания. Во-вторых, должны постоянно поддерживаться комфортные условия. И только потом настраиваются точная температура и влажность для каждого объекта.
Когда нет необходимости или средств внедрять новую мощную аппаратуру, или переделывать помещение ЦОД, но существует реальная потребность улучшить кондиционирование серверов, на помощь приходят способы, проверенные временем. Некоторые появились еще на заре «цодостроения» в 1970-х. Один из них заключается в рациональной организации устройств внутри помещения. Поскольку вентиляторы, расположенные внутри машин, забирают «холодный» воздух спереди, то находящийся внутри горячий кусок атмосферы вытесняется назад. Поэтому необходимо расставить серверные шкафы так, чтобы тыльная часть одного из них не смотрела в «лицо» противоположному. Наоборот, наилучшим выходом будет поставить шкафы навстречу друг другу. Между рядами образуются так называемые «холодные» и «горячие» коридоры, по температуре воздуха. В «горячих» проходах рекомендуется установить кондиционеры.
Другой не менее интересный и одновременно легкий способ борьбы за градус — поэкспериментировать с конструкцией самих аппаратных стоек. Большинство недорогих моделей сделаны из стекла или цельного металла, что не является наилучшим решением. Поэтому профессионалы советуют заменить стандартную дверь шкафа на перфорированную. Но только ее. Применение этого решения в других зонах шкафа, в случае с нижним выдувом, может привести к нежелательным последствиям.
Не стоит пренебрегать и советами специалистов по организации самого нижнего выдува. Во-первых, когда в ЦОДе существуют фальшпол, то зазор между ним и «стандартным» полом должен быть не менее 50 см. Во-вторых, настоятельно рекомендуется разобраться с кабелями, путающимися под стойками и шкафами. Они не только путают инсталляторов, но и мешают холодному воздуху подниматься сквозь специальные каналы вверх. Распутав и упорядочив провода, необходимо будет законопатить отверстия, по которым они попадают к устройствам в шкафу.
Существуют и другие не менее актуальные народные методы поддержания оптимальной температуры. Среди них: установка под каждую из действующих программ своего климатического режима. Дело в том, что разные приложения требуют разной мощности, и поэтому иногда можно позволить кондиционерам «отдохнуть». Помимо названного, хорошим выходом будет подобрать нужный порядок включения систем охлаждения, чтобы не тратить за зря энергию. Узнать про все эти уловки, безусловно, интересно. Им можно поудивляться, над ними можно смеяться, как над заново изобретенным велосипедом. Но смысл их, отнюдь, не в этом. Главное — что нет необходимости решать проблемы кондиционирования, каждый раз прибегая к серьезным изменениям информационной системы. Достаточно здравого смысла и немного знаний законов физики.
Стремясь решить насущные проблемы кондиционирования, хозяева ЦОД сталкиваются с дилеммой: либо потратить много денег сразу на стадии создания, спроектировав помещение и установив дорогостоящее оборудование, либо, израсходовав меньше средств, получить не столь впечатляющий результат, но и не переживать, когда наступит время обновления серверов. Дело в том, что в течении жизни ЦОД вычислительные средства подвергаются апгрейду, минимум, около пяти раз. И вполне вероятно, что даже самая дорогая система кондиционирования, инсталлированная сегодня, лет через десять не сможет справиться с возложенными на нее нагрузками. Поэтому, отбросив все технические подробности, прислушаемся к самому главному совету инсталляторов: проект любой сложности должен оставаться достаточно гибким.
Сергей Ильин