Модернизации вычислительной системы "Уралсвязьинформа"

10 Сентября 2007 IE
Intelligent Enterprise
Спецвыпуск, 2007 г.

Ввиду сильного роста объемов обрабатываемой информации в "Уралсвязьинформе" потребовались соответствующие технические решения в области вычислительных средств и систем хранения данных. О том, как решалась эта задача, рассказывает главный инженер сетевого информационного центра пермского филиала электросвязи ОАО "Уралсвязьинформ" Константин Афанасьев.

Какие проблемы испытывала ваша компания и почему стало необходимо модернизировать вычислительный комплекс?

    Решение о модернизации было принято на основании показателей бизнес-процессов ОАО "Уралсвязьинформ" в Пермском крае. Вычислительный комплекс должен обеспечивать функционирование автоматизированной системы расчетов. В 2003—2004 годах сильно возрос объем операционной деятельности компании, а точнее, такие его характеристики, как количество абонентов сотовой и фиксированной связи. Этот показатель стал основным исходным параметром при определении требуемой производительности вычислительного комплекса, объемов хранимых данных и темпов их роста. Кроме того, учитывались и временные характеристики выполнения бизнес-операций. На их основе определяются параметры доступности вычислительного комплекса, допустимая продолжительность регламентных работ и характеристики нагрузки. Кроме того, была поставлена задача последующей централизации расчетов для абонентов фиксированной связи пермского филиала, поскольку старый вычислительный комплекс этих параметров обеспечить не мог.

    Если говорить о том, какие цели мы ставили перед собой, открывая проект модернизации, то прежде всего это повышение вычислительной мощности и надежности работы комплекса, а также создание сети хранения данных и системы резервного копирования. Модернизации были подвергнуты как серверы, так и подсистема хранения. При этом было решено использовать устройства хранения производства компании ЕМС.

Что послужило поводом к выбору продуктов ЕМС в качестве базовых систем хранения? Пожалуйста, расскажите, как вы выбирали системы хранения.

    На этапе формирования технического задания и выбора решения мы рассмотрели программно-аппаратные комплексы трех производителей — IBM, Sun Microsystems и ЕМС. В первую очередь мы ориентировались на производительность решения, не забывая при этом и фактора расширяемости. Наиболее выгодным в ценовом отношении оказались, как мы и предполагали, системы хранения Sun, однако по производительности они значительно уступали системам ЕМС. Что же касается хранилищ IBM, то у нас практически не было опыта работы с ними. Вторая причина в том, что дисковые массивы ЕМС созданы с использованием наиболее передовых технологий. Они предназначены для работы в режиме "365 х 24 х 7". Все активные компоненты этих массивов продублированы, что исключает их остановку в случае сбоя. Не требует остановки работы и процедура обновления встроенного программного обеспечения. Встроенный аппаратный RAID-контроллер обеспечивает защиту дисков от сбоя с поддержкой RAID уровней 0, 1 и 5. Если же сбой диска всё же случится, то во избежание потери производительности используется пул "горячей" замены [hot spare pool]. Диски из этого пула идут на замену вышедших из строя, а сама замена производится автоматически. Массивы подключаются к сети хранения данных по протоколам Fibre Channel или iSCSI. В массивах ЕМС CLARiiON CX могут использоваться диски архитектур Fibre Channel и SATA. Высокопроизводительные диски Fibre Channel предназначены для хранения продуктивных данных, а более дешевые, но менее производительные диски SATA — для резервного копирования.

    Наконец, есть и третья причина: оборудование ЕМС было установлено в Екатеринбургском филиале электросвязи ОАО "Уралсвязьинформ" и не вызвало никаких нареканий. Учитывая все эти три фактора, мы и приняли решение приобрести системы хранения ЕМС. Ну а выбор в качестве интегратора компании Открытые Технологии, думаю, понятен: компания не один год принимала непосредственное участие в поставках оборудования для ОАО "Уралсвязьинформ" и в процессах построения вычислительных комплексов, одновременно выполняя и сервисное обслуживание поставленных комплексов.

Какова архитектура вычислительного комплекса "Уралсвязьинформа"?

    В её основу положены две сети передачи данных — LAN (локальная вычислительная сеть) и SAN (сеть хранения данных), обеспечивающие взаимодействие компонентов комплекса: серверов, устройств хранения и вспомогательного оборудования. При этом локальная вычислительная сеть обеспечивает обмен информацией между серверами и взаимодействие с сетью передачи данных ОАО «Уралсвязьинформ». На этом же уровне осуществляется разграничение доступа к сетевым ресурсам комплекса, управление компонентами и их мониторинг, а также защита от сетевых атак. Сеть хранения отвечает за взаимодействие серверов, хранилищ данных и устройств резервного копирования. На уровне SAN поддерживается разграничение доступа к дисковым ресурсам вычислительного комплекса, предоставление ресурсов хранения для использования серверов, передача данных в ходе операций резервного копирования и восстановления. Доступ серверов к ресурсам хранения осуществляется непосредственным подключением к SAN.

    В основе концепции SAN лежит возможность соединения любого сервера с любым устройством хранения данных, работающим по протоколу Fibre Channel. Разнообразные топологии SAN, такие как точка — точка, петля с арбитражной логикой [Arbitrated Loop] и коммутация, замещают традиционные шинные соединения "cервер — устройства хранения", предоставляя большую гибкость, производительность и надежность. Чаще всего для построения SAN используется топология на основе коммутаторов Fibre Channel. Транспортную основу SAN составляет протокол Fibre Channel, использующий как медные, так и волоконно-оптические соединения и обеспечивающий скорость передачи данных до 400 Мбайт/с в дуплексном режиме.

    Сеть хранения данных обеспечивает независимость собственно серверов (вычислительной мощности) от подсистем дисковых накопителей. SAN позволяет раздельно масштабировать вычислительные мощности и дисковую подсистему и в случае необходимости производить динамическое перераспределение объемов дискового пространства. Для повышения надежности подключать оборудование к сети хранения данных можно двумя или более путями. Программное обеспечение, используемое в сетях хранения данных, позволяет реализовать резервирование путей доступа серверов к дисковым массивам и динамическое распределение нагрузки между ними.

    Кроме прочего сети хранения данных значительно расширяют возможности резервного копирования информации. Они позволяют, например, выполнять резервное копирование данных минуя локальную сеть, непосредственно через SAN. Более того, это можно делать без участия сервера, с помощью технологии server-free backup, когда выполняется непосредственный перенос информации с дискового массива на ленточный накопитель по сети хранения данных.

Как проходили предпроектные работы? С какими проблемами вам пришлось столкнуться в процессе проектирования и реализации проекта?

    Была создана проектная группа, куда вошли специалисты "Уралсвязьинформа" и Открытых Технологий. Все работы, в том числе и предпроектные, были проведены совместно. Техническое задание и пояснительная записка к проекту модернизации вычислительного комплекса ОАО "Уралсвязьинформ" также были разработаны при активном участии сотрудников пермского филиала. Как я уже говорил, с компанией Открытые Технологии был заключен договор на постгарантийное сервисное обслуживание уже имевшегося у нас программно-аппаратного комплекса, причём специалисты компании были очень хорошо знакомы как с самим комплексом, так и с его узкими местами и проблемами нашей работы. Это обстоятельство освободило проектную группу от необходимости проводить полномасштабное предпроект-ное обследование, а также избавило нас от возможных ошибок при оформлении проектной документации.

    Мы заблаговременно провели обучение и подготовку персонала. Кроме того, были вовремя подготовлены помещения серверных комнат, инсталлированы сами серверы, выстроена кабельная инфраструктура. Как только была поставлена система хранения, сразу начались работы по настройке серверов и переносу данных со старых дисковых массивов на новые. На это ушло около двух месяцев, и в апреле 2006 года мы уже работали в модернизированной системе.

Достигли ли вы тех целей, которые поставили в начале проекта? Каковы планы по развитию системы?

    Да, поставленных целей мы достигли. Повысилась надежность работы комплекса и его вычислительная мощность. Создана система резервного копирования. Благодаря реализации данного проекта мы смогли централизовать расчеты с абонентами фиксированной телефонной сети по всему филиалу. Это нельзя было сделать сразу — в течение 2006 года проводилась подготовительная работа по централизации расчетов, и только недавно мы перешли на централизованную систему расчетов телефонной сети общего пользования пермского филиала. Сейчас для более чем 728 тысяч абонентов телефонной сети общего пользования на территории Пермского края работает единая биллинговая система.

    Комплекс изначально строился с учетом не только централизации расчетов, но и значительного увеличения абонентской базы. Возврат инвестиций ожидается через три года эксплуатации. Поэтому существенного развития созданной системы не планируется. Пожалуй, единственное, что мы хотели бы сделать в будущем году, это увеличить мощность ленточной библиотеки, чтобы повысить производительность системы резервного хранения.




Предыдущая новость:
Терафлоп терафлопу - рознь
Следующая новость:
Безопасная интеграция