7 (495) 510 3335 | 8 (800) 505 5110 (бесплатно по РФ)
Узнать Что будет завтра
Купить Быстро и выгодно
Решить От задач к внедрению
  • Узнать
  •  / 
  • Новое в ИТ для бизнеса
  •  / 
  • Сегодня проблема нехватки процессоров и памяти решена с помощью новых гибких платформ
  • Сегодня проблема нехватки процессоров и памяти решена с помощью новых гибких платформ

    Развитие любых технологий происходит циклично. Каждый новый цикл делает решения мощнее. При этом для производителя важно найти баланс между новыми технологиями и выверенными на практике решениями.

    Что было до гиперконвергентного подхода

    Конец 2009 года ознаменовался появлением на рынке первых серверов Cisco UCS. На тот момент трендовым направлением было консолидировать вычислительные ресурсы в ЦОД и при этом активно внедрять технологии виртуализации. Все силы были брошены на основную задачу: оптимизировать подключения серверов к сетям (LAN, SAN, управления) и упростить настройки пула серверов, решающих однотипные задачи.

    В течение следующих 5 лет блейд-решения Cisco UCS заняли второе место в мировом рейтинге продаж, опередив игроков, присутствующих на рынке на тот момент свыше 10 лет. Конвергентный подход – вот что добавило немалую популярность серверным решениям от Cisсo, которые вместе с системой хранения Netapp и универсальным коммутатором для ЦОД семейства Nexus 5000 объединились в один инфраструктурный «кубик». Эта совместная разработка получила название FexPod и пережила пять поколений серверов UCS, а также несколько поколений дисковых массивов NetApp, не потеряв при этом своей популярности.

    К достоинствам конвергентных решений (а сейчас их насчитывается более десятка, в том числе с различными производителями дисковых массивов), так полюбившихся заказчикам, относится простота, надежность и предсказуемая работа. По информации компании IDC, проводившей исследования в 2016 году, когда еще учет конвергентных систем велся отдельно, свыше 70 % конвергентных решений, представленных на рынке, были на базе серверов Cisco UCS.

    Что такое гиперконвергенция и зачем она нужна

    Но на этом прогресс не остановился, и на рынке был представлен гиперконвергентный подход к построению ИТ-инфраструктуры. При этом новым поколением молодых компаний внешняя система хранения стала рассматриваться как рудимент. Что практически означало хранение и обработку данных на одних и тех же серверах, заполненных накопителями, процессорами и оперативной памятью.

    Отказоустойчивость системы достигается хранением одних и тех же копий файлов на разных серверах, поэтому, если вдруг один из узлов перестанет работать, информация не пропадет и виртуальная машина может быть перезапущена на другом сервере. Традиционные производители серверов поначалу настороженно отнеслись к новому подходу, так же как и компания Cisco, причислявшая себя к ним в конце 2015 года. Но заказчики оценили гиперконвергенцию благодаря простоте внедрения и расширения.

    Производительность и удобство эксплуатации на тот момент еще мало кого беспокоили, поскольку разработанные в то время решения уступали по этим характеристикам конвергентным аналогам. На рынке гиперконвергентных решений компания Cisco стартовала в 2016 году, представив продукт Cisco Hyperfex в рамках партнерства с компанией SpringPath, позиционирующей себя в качестве разработчика самой передовой на то время, объектно-ориентированной программно-определяемой системы хранения.

    Сервер

    Cisco Hyperflex – передовая система хранения информации

    Тут то и выяснилось, что достоинства аппаратной платформы Cisco UCS дают значительный выигрыш в производительности и простоте работы гиперконвергентных решений. Полученный компанией в течение 2–3 лет опыт поставок Hyperflex и наличие свыше 3500 клиентов по всему миру указывают на состоятельность такого подхода. Давайте выясним, что же такое Cisco Hyperflex и для каких задач его нужно использовать уже сейчас.

    Обзор технологий – что нового?

    По внутреннему устройству платформы Cisco Hyperflex стоит отметить, что в систему входят два обязательных компонента и один опциональный.

    Информационный кластер – Datacluster

    Относится к обязательному компоненту и состоит из набора узлов, обеспечивающих хранение информации и запуск виртуальных машин. Узлы устанавливаются на основе серверов С220 и С240. Они являются фиксированными конфигурациями этих серверов с префиксом HX. К единственным подлежащим замене параметрам относятся процессоры, память и накопители для хранения информации, то есть все, что относится к «вычислительным ресурсам» кластера. Минимальное число этих узлов в пределах одного информационного кластера – три. Начиная с разработки HXDataplatform 4.0, выпуск которой намечен на апрель 2019 г., объявлено о сокращении до двух узлов минимальной конфигурации кластера HyperflexEdge;

    Вычислительная фабрика – Fabricinterconnect

    Относится к обязательному компоненту, не считая конфигурации HyperflexEdge. Разработана как пара специализированных устройств, которые выполняют функции ядра сетевой системы и в то же время блока управления наружными подключениями и серверами. Это основная часть инфраструктуры Cisco UCS. С помощью фабрики все серверы UCS настраиваются по одной схеме кликом мышки или одним вызовом API-функции, то есть автоматически. Система самостоятельно поддерживает идентичность настроек всех серверов в кластере, по запросу администратора обновляет прошивки. Использование FabricInterconnect позволяет объединить весь кластер серверов в рамках одного объекта управления, что на сегодня не может предложить ни один производитель серверных решений. В текущее время выпущены модели FabricInterconnect 6300 серии с портами 40 Гбит/с и 6400 серии с портами 10/25 Гбит/с. Эти семейства располагают моделями с портами FC для соединения с сетями SAN, что позволяет применять их для хранения информации, в том числе и вместе с внешними дисковыми массивами.

    Вычислительные узлы – Compute-onlynodes

    Относятся к необязательному компоненту. Часто возникают ситуации, когда при расширении гиперконвергентной системы дискового пространства бывает достаточно, а производительности процессоров и объема памяти под выполнение текущих задач – мало. Если случается наоборот, то такой вопрос легко разрешим с помощью добавления дисков в серверы или, в случае их заполнения, наружного дискового накопителя к вычислительной фабрике. Если в кластере вдруг не хватает вычислительных ресурсов, можно воспользоваться режимом расширения, добавив вычислительные узлы. В качестве таких узлов могут использоваться стоечные или серверы Cisco UCS в блейд-исполнении, соединенные с фабрикой. Помимо гибкости в расчете ресурсов, основным достоинством этого подхода является возможность продлить работу серверов, работавших в традиционной, конвергентной схеме, после того как их объемы вычислений мигрировали на Hyperflex. Другим популярным направлением является соединение с кластером 4-процессорного сервера C480, в который можно ставить графические ускорители (GPU) для «тяжелых» VDI-решений в количестве до шести единиц.

    Достоинства платформы Hyperflex

    Без изменений в архитектурном подходе и без перепроектирования на платформе можно создавать кластеры виртуализации на несколько десятков серверов. Все процедуры по настройке и включении в кластер нового сервера автоматизированы – от пользователя требуется только подтверждение.

    Сервер

    Платформа Hyperflex как основа для создания кластеров виртуализации

    Такая система имеет широкий спектр использования – начиная с локальных серверных в удаленных филиалах компаний, складах, объектах торговли и заканчивая центральными дата-центрами с ключевыми сервисами компаний. Все это возможно на основе единой платформы, единых принципов управления и автоматизации.

    Решение предоставляется на технологической базе единого вендора. Это дает заказчикам преимущество – техническая поддержка компании Cisco по системе единого окна. Даже в случае проблем, связанных с работой платформы виртуализации, заказчик получит помощь от технической поддержки Cisco. На сегодня в ряд поддерживаемых платформ входят решения от VMware, Hyper-V и Docker.

    Для решения каких задач нужна эта система?

    Изначально гиперконвергентные системы зарекомендовали себя при решении задач по виртуализации рабочих мест – VDI. Это объясняется строением архитектуры подсистемы хранения, которая состоит из множества отдельных дисков, разделенных по серверам. В случае большого числа не крупных нагрузок получается идеально ровное распределение операций ввода-вывода.

    Инженеры Cisco пошли дальше. К ключевому фактору, ограничивающему производительность гиперконвергентной платформы, относится сетевое ядро. Связано это с необходимостью обеспечить отказоустойчивость информации, что решаемо благодаря схеме хранения одних и тех же блоков данных на разных серверах. По этой причине во время записи система не должна отправлять приложению сигнал о завершении записи, пока информация не будет сохранена на одном или нескольких серверах. А поскольку копирование выполняется по сети – сеть является слабым звеном.

    В Cisco Hyperflex сетевое ядро расположено, как уже упоминалось, на FabricInterconnect, которые имеют неблокируемые порты с низкой и предсказуемой задержкой среди подобных типов систем. В связи с этим при разработке платформы HXDataPlatform принято решение писать информацию сразу по сети на нужное число серверов, используя все доступные накопители кластера для хранения информации всех виртуальных машин.

    Сервер

    Cisco Hyperflex как инструмент для виртуализации рабочих мест

    К еще одному преимуществу такого решения относится то, что при выходе из строя одного из узлов нет необходимости отслеживать место расположения резервных данных виртуальных машин, чтобы повысить их производительность. Можно задействовать их на любом оставшемся в кластере сервере, и проблем с производительностью машины не возникнет. В целом производительность кластера также не снижается, что дает системе возможность обрабатывать критично важные для бизнеса нагрузки.

    Трансформация системы Cisco Hyperflex

    Система Cisco Hyperflex быстро перешла из сегмента «платформы для VDI» в сегмент платформ для разных виртуализированных нагрузок. Этот переход ускорил появление систем на основе твердотельных накопителей. Если до начала использования Allflash-систем наибольший размер виртуальных машин, которые работали у заказчиков через Hyperflex, был не более 2 ТБ (объем единичного накопителя), то на Allflash-системах хорошо себя показали информационные базы Oracleи MSSQLразмером до 10 ТБ. Это подтверждается в документах CVD – Cisco Validated Design, которые описывают архитектуру таких решений, относящуюся к типовому дизайну Cisco.

    Cisco Hyperflex – это единственная гиперконвергентная платформа, одновременно сертифицированная по трем основным компонентам ландшафта SAP: Application, DataHubи HANA.

    Поддержка контейнерной инфраструктуры

    В мае 2018 года компания Cisco выпустила продукт Cisco Container Platform (CCP), разработанный совместно с компанией Google. Это решение выполнено в виде готовой сборки кластера Kubernetes с элементами контейнерной виртуализации Docker. Сontainer Platform автоматически устанавливается на Cisco Hyperflex и внесен в регламент обслуживания заказчиков компании Cisco. Все это позволяет ИТ-департаменту построить рабочую платформу под контейнерную виртуализацию и обслуживать созданные в компании сервисы, что удобно, так как не требует разработки in-house.

    Показатели отказоустойчивости Hyperflex

    Защита информации внутри кластера от выхода из строя одного из узлов обеспечивается распределением нескольких копий одних и тех же блоков данных по разным хранилищам. В Cisco Hyperflex содержится 2–3 копии данных, что задается в настройках при создании кластера. Учитывая это, на работу кластера не окажет существенного влияния потеря 1–2 узлов.

    Сервер

    Решение Hyperflex – это отказоустойчивая платформа с многоуровневой защитой

    Опционально есть возможность устанавливать «домены отказа» – эта функция актуальна для кластеров, состоящих из десятков узлов. Если ее использовать и, например, распределить серверы, расположенные в трех различных стойках по трем доменам, то в одну стойку на хранение никогда не попадут все копии данных. Поэтому даже в случае выхода из строя какой-то стойки целиком – например, при обрыве сетевых кабелей или выключении питания – копия информации гарантированно сохранится в остальных работоспособных стойках.

    Оптимизация дискового пространства

    Так как для обеспечения отказоустойчивости в системе хранятся несколько копий информации, то необходим какой-то способ для оптимизации дискового пространства, иначе размер полезной информации будет в 2–3 раза ниже, чем номинальная емкость накопителей.

    Метод дедупликации

    В традиционных системах хранения для этих целей разработан метод дедупликации и компрессии данных. Эти механизмы в Hyperflex встроены на архитектурном уровне и внедрены в общие процессы работы с информацией. Механизм задействован в автоматическом режиме даже в самых младших моделях, для него не нужно отдельного лицензирования – все входит в цену системы.

    Вся информация, записываемая на дисках серверов, сначала дедуплицируется, что означает хранение только одной копии при совпадении двух или более блоков информации. После этого информация дополнительно сжимается. В сумме это позволяет экономить от 40 до 60 % места для информации общего характера. Для таких категорий, как диски виртуальных десктопов, экономия дискового пространства может достигать кратного размера.

    Метод репликации

    Очередным этапом защиты от сбоев кластера Hyperflex выступает репликация информации на удаленный кластер. В версиях 3.5 и выше доступны синхронный и асинхронный режимы репликации: они работают по обычной IP-сети и им не требуется доступ к сети SAN.

    Ограничения синхронного режима репликации существуют только по скорости канала – 10G и продолжительности задержек между кластерами – до 5 мс. Оба режима обладают простой настройкой, выполняются из одного и того же интерфейса и позволяют гибко контролировать виртуальные машины, реплицируемые между кластерами. Контроль происходит именно на уровне виртуальных машин, а не разделов дисковых накопителей. Так выглядит ключевое отличие традиционных конвергентных решений от режима репликации.

    Так как Hyperflex на удаленной площадке получает данные о виртуальной машине, то процесс восстановления очень простой – на удаленной площадке необходимо только включить виртуальную машину. При этом скрипты и кластерное ПО не нужны. В асинхронном режиме копирование происходит с некоторой задержкой, зависящей от пропускных способностей канала и интенсивности ввода-вывода виртуальной машины. Синхронный режим предполагает хранение полностью идентичных копий виртуальных машин на обоих узлах.

    Метод резервного копирования

    Резервное копирование – это следующий уровень защиты данных:

    • система обладает встроенным механизмом создания мгновенных копий информации диска для любой виртуальной машины. Основой для этого механизма служит работа с указателями на информационные блоки, что обеспечивает ему высокую скорость работы;
    • во многих продуктах для выполнения резервного копирования встроен механизм мгновенных копий Hyperflex. При работе этого механизма окно резервного копирования сокращается в несколько раз по сравнению со стандартным режимом. К таким продуктам относятся решения для резервного копирования от Veeam, CommVault, Cohesity;
    • с этими решениями у Cisco есть встроенный шаблон взаимодействия, который позволяет значительно уменьшить время внедрения системы и избежать типовых ошибок. Все эти решения можно приобрести, используя прайс-лист Cisco.

    Что необходимо для внедрения гиперконвергенции

    Далее возникает вопрос: «Отлично, но что мне делать с имеющейся традиционной системой?» При развитии любой системы следует учитывать инвестиции, сделанные ранее, поэтому для перехода на гиперконвергентное решение нужны основания. Обычно поводом для этого служит внедрение новых сервисов или вывод из работы устаревшей техники.

    Сервер

    Гиперконвергентное решение от Cisco как способ оптимизации ИТ-инфраструктуры бизнеса

    В обоих случаях клиент получает входную информацию для расчетов – необходимую вычислительную мощность, отображаемую в характеристиках процессоров, памяти и объеме накопителей. В случае нехватки только, например, дискового пространства это может послужить достаточным основанием для начала работы с гиперконвергентным решением.

    Перед тем, как дооборудовать традиционный дисковый массив под новые задачи бизнеса, стоит сравнить стоимость такой модернизации со стоимостью внедрения гиперконвергентной системы. Если расходы сопоставимы или отличаются на величину не более 10–15 %, то в долгосрочной перспективе заказчик однозначно выигрывает, сделав ставку на Hyperflex, поскольку это позволяет значительно оптимизировать операционные расходы на поддержку уже в течение 3–5 лет.

    Особенности перехода на гиперконвергентное решение

    На этапе проектирования системы нужно определиться, какие ее элементы и в какой конфигурации необходимо приобрести, чтобы запустить гиперконвергентную платформу. Сделать это будет проще тем, кто уже применяет серверную фабрику Cisco UCS. При наличии Fabric Interconnect нет необходимости в их отдельной закупке – можно работать с уже имеющимися, если есть свободные порты. В таком случае можно просто приобрести не меньше трех узлов Hyperflex и начать создавать кластера.

    И основное – в будущем возможно применять наличные узлы в виде вычислительных (Compute only) узлов для Hyperflex, то есть текущие инвестиции не обнуляются.

    Если же в настоящее время заказчик не располагает серверами Cisco UCS, необходимо приобретать всю инфраструктуру полностью, в том числе и Fabric Interconnect. Для любой другой платформы тоже потребуются коммутаторы – эти затраты необходимо учесть. Тем не менее по результатам исследования компании IDC от 2016 г. ввод в работу фабрики Cisco UCS в течение трех лет уменьшает общую стоимость владения серверной системой на 46 %.

    Несмотря на относительно недавнюю разработку систем Cisco Hyperflex, они зарекомендовали себя как зрелые, апробированные решения, надежность которых испытана в инфраструктурах 3500 заказчиков по всему миру.