Протокол iscsi: Iscsi — Википедия – iSCSI и другие

Содержание

iSCSI и другие

Вступление

С появлением Fibre Channel и SAN, построенных на нем, мир storage сделал ставку на сетевой доступ к системам хранения. Практически все в один голос заявили, что за сетями хранения данных — будущее. На протяжении нескольких лет FC интерфейс оставался безальтернативным стандартом для их построения, но уже сегодня многие понимают, что наступает время перемен. В SAN на основе FC есть пара серьёзных недостатков — это цена и проблемы доступа к географически (на расстоянии больше сотен км) отдаленным устройствам. В последнее время возник ряд инициатив, которые находятся на этапе стандартизации и призваны решить или же обойти указанные проблемы. Интереснейшая из них — iSCSI.

Буквосочетание iSCSI все чаще попадает на страницы газет и проспекты ведущих производителей систем хранение данных. Загляните на ресурсы, посвященные storage, и вы обязательно его увидите. Но, просмотрев статьи и новости, вы скорее всего найдете массу абсолютно противоположных утверждений: одни преподносят iSCSI как неопровержимого лидера для сетей хранения данных уже в недалеком будущем, другие поставили на нем крест еще до его рождения.

Sun стала в оппозицию к ІP Storage

Sun стала в оппозицию к IP Storage. Sun Microsystems не будет выпускать систем хранения данных с доступом по IP. Марк Канепа, вице-президент Sun, ответственный за производство всех систем хранения данных, заявил на днях, что IP Storage был всего лишь «мечтой», сообщает Byte and Switch.

Канепа сказал, что «непрактично применять TCP/IP для организации SAN из-за большей задержки в таких сетях. Даже если у сетей хранения на основе IP есть будущее, то наступит оно через три-пять лет, а возможно, не наступит никогда. Поток от систем хранения данных не может работать поверх стека протоколов общего назначения, у него есть особые потребности. Технологические трудности внедрения TCP/IP намного более велики, чем многие думают. Именно поэтому мы в Sun делаем ставку на Fibre Channel», сказал он. До сих пор никто из производителей систем хранения данных не занимал столь четкой позиции против IP Storage. Конкуренты Sun, компании Hewlett-Packard и IBM, более или менее активно поддерживают эти технологии.

17 декабря, 2001: www.ustar.kiev.ua

HP обещает поддержку iSCSI

«Окончательная версия новой технологии должна появиться в первом квартале 2002 года, — сообщил руководитель подразделения систем сетевого хранения HP Марк Томпсон. Корпорация намеревается представить широкий спектр продуктов, которые поддерживают стандарт, іSCSI, предназначенный для объединения систем хранения в ІP-сетях…»

В HP признают, что пользователи систем Fibre Channel чувствуют себя достаточно комфортно и большее тяготеют к модернизованной технологии FCIP, чем к іSCSI. Но, в то же время, в HP верят, что опыт работы с решениями, основанными на протоколе ІP, и в особенности с Ethernet, сделает продукты іSCSI привлекательными для многих заказчиков.

Computerworld, #35/2001: «Федеративные системы хранения»

IBM выпускает продукт на базе iSCSI

IBM TotalStorage IP Storage 200i обеспечивает прямое подключение накопителей Ethernet LAN. Эта высокоскоростная система хранения данных поддерживает новый промышленный стандарт iSCSI, что обеспечивает передачу SCSI протокола поверх IP.

Ну что ж, столь противоречивые сообщения не оставляют нам другого выбора кроме как разобраться самим и самостоятельно взвесить все «ЗА» или «ПРОТИВ».

iSCSI

«iSCSI (Internet Small Computer System Interface) — это протокол, который базируется на TCP/IP и разработан для установления взаимодействия и управления системами хранения данных, серверами и клиентами».

Определение SNIA — IP Storage Forum: www.snia.org

iSCSI описывает:

  • Транспортный протокол для SCSI, который работает поверх TCP
  • Новый механизм инкапсуляции SCSI команд в IP сети
  • Протокол для новой генерации систем хранения данных, которые будут использовать «родной» TCP/IP

Сразу возникает негодование, хочется все разложить по отдельным кучкам. Как говорил один мой преподаватель: «Котлеты отдельно, мухи отдельно». Дело в том, что правила доставки пакетов в IP и SCSI абсолютно противоположные. В IP пакеты доставляются получателю без соблюдения строгой последовательности, он же и восстанавливает данные, на что затрачиваются определенные ресурсы. В то же время, по спецификации SCSI, как канального интерфейса, все пакеты должны передаваться один за другим без задержки, а нарушение этого порядка приводит к потере данных. Несмотря на то, что, по мнению некоторых специалистов, эта проблема вносит неоднозначность в практическое использование технологии iSCSI, на сегодня уже реализован ряд устройств, которые подтверждают ее жизнеспособность. Инженеры, которые работали над iSCSI, смогли определенным образом решить эту проблему. Спецификация iSCSI требует увеличения размеров заголовка пакета. В заголовок включается дополнительная информация, которая значительно ускоряет сборку пакетов.

По мнению одного из болельщиков iSCSI, Хеймора, старшего системного инженера университета штата Юта, основным препятствием для распространения Ethernet как базовой технологии построения сетей хранения данных является относительно большое время задержки (близкое к 75 микросекундам), которое возникает из-за особенностей стека TCP/ІР. В High-End системах при одновременном обращении к тысячам файлов это может стать серьезной проблемой.

Специалисты, которые работают над iSCSI, осознают значение проблемы задержки. И несмотря на то, что разрабатывается масса средств для уменьшения влияния параметров, которые служат причиной задержки при обработке IP пакетов, технология iSCSI позиционируется для построения систем среднего уровня.

iSCSI развивается очень быстро. Потребность в новом стандарте ощущалась так сильно, что буквально за 14 месяцев с момента предложения по созданию iSCSI, с которым в феврале 2000 года выступила IETF, появилось достаточно много устройств, чтобы продемонстрировать возможности по их взаимодействию. В июле 2000-го был опубликован Draft 0 по iSCSI, который стал началом работ по реализации технологии. В январе 2001 года в рамках SNIA (Storage Networking Industry Association) был создан IP Storage форум, который через полгода уже насчитывал 50 членов, а в апреле этого же года был представлен продукт, который в скором времени выиграл награду «Enterprise Networking Product».

Что же такого замечательного в iSCSI, что он находит поддержку среди грандов компьютерной индустрии, не считаясь с существующими внутри стандартам противоречиями.

Некоторые из важнейших прикладных задач и функций, реализуемые с использованием систем хранения данных, это:

Задачи, которые эффективно реализуются современными методами:

    · Консолидация систем хранения данных · Резервирование данных · Кластеризация серверов · Репликация (дублирование) · Восстановление в аварийных ситуациях

Новые возможности, которые эффективно реализуются с использованием IP Storage:

    · Географическое распределение SAN · QoS · Безопасность

Вместе с этим, новые системы хранения данных, для которых iSCSI будет родным протоколом, сформируют еще массу преимуществ:

    · Обеспечивается единая технология для подсоединения систем хранения, серверов и клиентов в рамках LAN, WAN, SAN · Наличие значительного опыта индустрии в Ethernet и SCSI технологиях · Возможность значительного географического отдаления систем хранения · Возможность использовать средства управления TCP/IP сетями

Причем, для передачи данных на storage с интерфейсом iSCSI можно использовать не только носители, коммутаторы и маршрутизаторы существующих сетей LAN/WAN, но и обычные сетевые карточки на стороне клиента. Правда, при этом возникают значительные накладные расходы процессорной мощности на стороне клиента, который использует такую карточку. По утверждению разработчиков, программная реализация iSCSI может достичь скоростей среды передачи данных Gigabit Ethernet при значительной, до 100% загрузке современных CPU. В связи с чем, рекомендуется использование специальных сетевых карточек, которые будут поддерживать механизмы разгрузки CPU от обработки стека TCP. На момент написания статьи (Июнь 2002 года), такие карточки производила компания Intel.

Intel PRO/1000T IP Storage Adapter предлагается компанией Intel по цене 700USD за штуку. Это устройство содержит мощный процессор Xscale, 32M памяти и осуществляет передачу вычислений, связанных с протоколами iSCSI и TCP/IP, а также расчет контрольных сумм кадров TCP, IP на интегрированный процессор. Его быстродействие, согласно внутренним тестам компании, может достигать 500Mbit/s при 3-5% загрузке CPU host системы.

Давайте рассмотрим iSCSI повнимательней


Рисунок 1. IP сеть с использованием iSCSI устройств

В примере, изображенном на рисунке 1, каждый сервер, рабочая станция и накопитель поддерживают Ethernet интерфейс и стек протокола iSCSI. Для организации сетевых соединений используются IP маршрутизаторы и Ethernet коммутаторы.

С внедрением SAN мы получили возможность использовать SCSI протокол в сетевых инфраструктурах, обеспечивая высокоскоростную передачу данных на уровне блоков между множественными элементами сети хранения данных.

Internet Small Computer System Interface тоже обеспечивает блочный доступ к данным, но не самостоятельно, а поверх сетей TCP/IP.

Архитектура обычного SCSI базируется на «клиент»/«серверной» модели. «Клиент», например сервер, или рабочая станция, инициирует запросы на считывание или запись данных с исполнителя — «сервера», например системы хранения данных. Команды, которые выдает «клиент» и обрабатывает «сервер» помещаются в Command Descriptor Block (CDB). «Сервер» выполняет команду, а окончание ее выполнения обозначается специальным сигналом. Инкапсуляция и надежная доставка CDB транзакций между инициаторами и исполнителями через TCP/IP сеть и есть главная задача iSCSI, причем ее приходится осуществлять в нетрадиционной для SCSI, потенциально ненадежной среде IP сетей.

Перед вами модель уровней протокола iSCSI, которая дает возможность понять порядок инкапсуляции SCSI команд для передачи их через физический носитель.


Рисунок 2. Модель нижних уровней протокола iSCSI

iSCSI протокол осуществляет контроль передачи блоков данных и обеспечивает подтверждение достоверности завершения операции ввода/вывода. Что, в свою очередь, обеспечивается через одно или несколько TCP соединений.

іSCSI имеет четыре составляющие:

  • Управление именами и адресами (iSCSI Address and Naming Conventions).
  • Управление сеансом (iSCSI Session Management).
  • Обработка ошибок (iSCSI Error Handling).
  • Безопасность (iSCSI Security).
Управление именами и адресами
Так как iSCSI устройства являются участниками IP сети, они имеют индивидуальные Сетевые Сущности (Network Entity). Сетевая Сущность может содержать одних или несколько iSCSI Узлов.


Рисунок 3. Модель сетевых сущностей

iSCSI узел является идентификатором SCSI устройств (в Сетевой Сущности), доступных через сеть. Каждый iSCSI узел имеет уникальное iSCSI имя (длиной до 255 байт), которое формируется по правилам, принятым для обозначения узлов в Internet. Например: «fqn.com.ustar.storage.itdepartment.161». Такое название имеет удобную для восприятия человеком форму и может обрабатываться Сервером Доменных Имен (DNS). Таким образом, iSCSI имя обеспечивает корректную идентификацию iSCSI устройства вне зависимости от его физического местонахождения. В то же время, в процессе контроля и передачи данных между устройствами удобнее пользоваться комбинацией IP адреса и TCP порта, которые обеспечиваются Сетевым порталом (Network Portal). iSCSI протокол дополнительно к iSCSI именам обеспечивает поддержку псевдонимов, которые, как правило, отображаются в системах администрирования для удобства идентификации и управления администраторами системы.

Управление сеансом

iSCSI сессия состоит из фаз аутентификации (Login Phase) и фазы обмена (Full Feature Phase), которая звершается специальной командой.

Фаза аутентификации iSCSI аналогична процессу Fibre Channel Port Login (PLOGI). Она используется для того, чтобы согласовать разнообразные параметры между двумя Сетевыми Сущностями и подтвердить право доступа инициатора. Если фаза аутентификации iSCSI завершается успешно, исполнитель подтверждает login инициатору, иначе логин не подтверждается, а TCP соединение закрывается.

Как только login подтвердится, iSCSI сессия переходит к фазе обмена. Если было установлено более одного соединения TCP, iSCSI требует, чтобы каждая пара команда/ответ проходила через одно TCP соединение. Такая процедура гарантирует, что каждая отдельная команда считывания или записи будет осуществляться без необходимости дополнительно отслеживать каждый запрос по поводу его прохождения по разным потокам. Однако разные транзакции могут одновременно передаваться через разные TCP соединения в рамках одной сессии.


Рисунок 4. Пример iSCSI Write

В завершение транзакции инициатор передает/принимает последние данные, а исполнитель отправляет ответ, который подтверждает успешную передачу данных.

В случае необходимости закрыть сессию, используется команда iSCSI logout, которая передает информацию о причинах завершения сессии. Она также может передать информацию о том, какое соединение следует закрыть в случае возникновения ошибки соединения, чтобы закрыть проблемные TCP связи.

Обработка ошибок

В связи с высокой вероятностью возникновения ошибок при передаче данных в некоторых типах IP сетей, в особенности WAN реализациях, в которых может функционировать iSCSI, протокол предусматривает массу мероприятий по обработке ошибок.

Для того, чтобы обработка ошибок и восстановление после сбоев функционировали корректно, как инициатор, так и исполнитель должны иметь возможность буферизации команд до момента их подтверждения. Каждое конечное устройство должно иметь возможность выборочно восстановить утраченный или испорченный PDU в рамках транзакции для восстановления передачи данных.

Иерархия системы обработки ошибок и восстановление после сбоев в iSCSI включает:

  1. На наиболее низком уровне — определение ошибки и восстановление данных на уровне SCSI задачи, например, повторение передачи утраченного или поврежденного PDU.
  2. На следующем уровне — в TCP соединении, которое передает SCSI задачу, может произойти ошибка, а именно, TCP соединение может повредиться. В этом случае осуществляется попытка восстановить соединение.
  3. И наконец, сама iSCSI сессия может испортиться. Терминация и восстановление сессии, как правило, не требуется, если восстановление корректно отрабатывается на других уровнях, однако может произойти обратное. Такая ситуация требует закрытия всех TCP соединений, завершения всех задач, недовыполненных SCSI команд и перезапуска сессии через повторный login.
Безопасность

В связи с использованием iSCSI в сетях, где возможен несанкционированный доступ к данным, спецификация предусматривает возможность использования разнообразных методов для повышения безопасности. Такие средства шифрования, как IPSec, которые используют нижние уровни, не требуют дополнительного согласования, так как являются прозрачными для верхних уровней, в том числе для iSCSI. Для аутентификации могут использоваться разнообразные решения, например такие, как Kerberos, или обмен Частными Ключами, в качестве репозитария ключей может использоваться iSNS сервер.

Другие (iFCP, FCIP)

В рамках работы над сетевыми технологиями хранения данных в Internet Engineering Task Force (IETF) была создана рабочая группа IP Storage (IPS) по направлениям:

  • iSCSI (Internet Small Computer Systems Interface)
  • FCIP (Fibre Channel over TCP/IP)
  • iFCP (Internet Fibre Channel Protocol)
  • iSNS (Internet Storage Name Service)

А также, как уже отмечалось, в январе 2001 в рамках SNIA (Storage Networking Industry Association) был организован IP Storage форум. Сегодня форум включает три подгруппы: FCIP, iFCP, iSCSI. Каждая из которых представляет протокол, который находится под протекцией IETF.

FCIP — созданный на базе TCP/IP туннельный протокол, функцией которого является соединение географически отдаленных FC SAN без какого-либо влияния на FC и IP протоколы.

iFCP — созданный на базе TCP/IP протокол для соединения FC систем хранения данных FC сетей хранение данных, используя IP инфраструктуру совместно или вместо FC коммутационных и маршрутизирующих элементов.

iSCSI — рассматривается выше…

Для лучшего понимания позиционирования этих трёх протоколов приведем структурную схему сетей, построенных с их использованием.


Рисунок 5. Блок-схема IP Storage сетей

Fibre Channel over IP

Наименее революционным из трех названых выше является протокол Fibre Channel over IP. Он не вносит практически никаких изменений в структуру SAN и в организацию самых систем хранения данных. Главная идея этого протокола — реализация возможности объединения географически отдаленных сетей хранения данных.

Вот так выглядит стек протокола FCIP:


Рисунок 6. Нижние уровни протокола FCIP

FCIP помогает эффективно решить задачу территориального распределения, и объединения SAN на больших расстояниях. Его основными преимуществами является то, что этот протокол полностью прозрачен для существующих FC SAN сетей и ориентирован на использование инфраструктуры современных MAN/WAN сетей. Таким образом, для обеспечения новой функциональности пользователям, которые ищут возможности связать между собою географически отдаленные FC SAN, будет нужен всего лишь FCIP шлюз и подключение к MAN/WAN сети. Географически распределенная SAN, построенная с помощью FCIP, воспринимается SAN устройствами как обычная FC сеть, а для MAN/WAN сети, к которой она подключенная, она представляет обычный IP трафик.

Draft стандарт рабочей группы IETF IPS — FCIP определяет:

  • правила инкапсуляции FC кадров для передачи через TCP/IP;
  • правила использования инкапсуляции для создания виртуальной связи между FC устройствами и элементами FC сети;
  • окружение TCP/IP для поддержки создания виртуальной связи и обеспечение тунелирования FC трафика через IP сеть, включая безопасность, целостность данных и вопрос скорости передачи данных.

Среди прикладных задач, которые можно качественно решить с использованием FCIP протокола: удаленное резервирование, восстановление данных и общий доступ к данным. При использовании высокоскоростных MAN/WAN коммуникаций можно также с успехом применять: синхронное дублирование данных и общий распределенный доступ к системам хранения данных.

iFCP

Internet Fibre Channel Protocol — это протокол, который обеспечивает передачу FC трафика поверх TCP/IP транспорта между шлюзами iFCP. В этом протоколе, транспортный уровень FC замещается транспортом IP сети, трафик между FC устройствами маршрутизируется и коммутируется средствами TCP/IP. Протокол iFCP предоставляет возможность подключать существующие FC системы хранения данных к IP сети с поддержкой сетевых сервисов, которые нужны этим устройствам.

Стек протокола iFCP имеет такой вид:


Рисунок 7. Нижние уровни протокола iFCP

iFCP, согласно спецификации:

  • накладывает кадры FC для их транспортирования на предварительно определенное TCP соединение;
  • FC сервисы передачи сообщений и маршрутизации перекрываются в шлюзовом устройстве iFCP, таким образом, сетевые структуры и компоненты FC не сливаются в общую FC SAN, а управляются средствами TCP/IP;
  • динамично создает IP туннели для FC кадров

Важной особенностью iFCP является то, что этот протокол обеспечивает FC device-to-device связь (связь между устройствами) через IP сеть, которая является значительно более гибкой схемой, если сравнивать ее со связью SAN-to-SAN. Так, например, если iFCP имеет TCP связь между парами портов N_Port двух FC устройств, такая связь может иметь свой собственный уровень QoS, который будет отличаться от уровня QoS другой пары FC устройств.

Заключение

Подводя итоги, хочется выразить свою твёрдую уверенность в том, что Fibre Channel в ближайшее время никуда не исчезнет, рынок FC SAN будет расти и развиваться. В то же время, IP Storage протоколы предоставят возможность эффективно использовать сети хранения данных в тех прикладных задачах, для которых FC не может обеспечить эффективной реализации. Используя протоколы FCIP и iFCP, сети хранения данных станут географически распределенными. А внедрение iSCSI в свою очередь, даст возможность использования преимуществ SAN в сферах, которые до сих пор остаются нереализованными, или реализуются неэффективно в рамках распространенных сегодня технологий.

P.S.

Бурное развитие сетей хранения данных стало основой формирования концепции World Wide Strorage Area Network. WWSAN — всемирная сеть хранения данных и предусматривает создание инфраструктуры, которая обеспечит высокоскоростной доступ и хранение данных, распределенных по всему миру. Концепция очень близкая к существующей сегодня WWW, но имеет в своей основе другие сервисы. Одним из оригинальных примеров является обслуживание «менеджера», который ездит по всему миру с презентациями. WWWSAN предусматривает прозрачное перемещение «мобильных» данных вслед за персональным перемещением их собственника по всему миру. Таким образом, где бы ни находился «менеджер», он всегда будет иметь возможность получить высокоскоростной доступ к нужным ему данным, работа с которыми не будет требовать сложной, временами очень неэффективной синхронизации через WWW.

Можно с уверенностью утверждать, что концепция построения всемирной сети хранения данных идеально вписывается в развитие современных технологий IP Storage.

Термины и сокращения:
  • SAN — Storage Area Network, Сеть Хранения Данных
  • CDB — command descriptor block, протокол дескриптора (описания) команды.
  • PDU — Protocol Data Unit протокольная единица обмена, модуль данных протокола.
  • QoS — сокр. от Quality of Service качество и класс предоставляемых услуг передачи данных (обычно описывает сеть в терминах задержки и полосы сигнала).
  • SNIA — Storage Networking Industry Association, ассоциация индустрии сетевых систем хранения данных.
  • DNS — Domain Name Server, сервер доменных имен.
  • PLOGI — Fibre Channel Port Login.
  • iSCSI — Internet Small Computer Systems Interface
  • FCIP — Fibre Channel over TCP/IP
  • iFCP — Internet Fibre Channel Protocol
  • iSNS — Internet Storage Name Service
  • WWSAN — World Wide Strorage Area Network, всемирная сеть хранения данных
Литература:
  • «SAN после Fibre Channel», — Лукас Мериан. 12.02.2002: Computerworld, #05/2002;
  • IP Storage Tutorial, — SNIA;
  • iSCSI Technical White Paper, — SNIA;
  • Internet Fibre Channel Protocol (iFCP) — A Technical Overview, — SNIA;
  • Storage Forum, — HP EMEA, 12-13 июня 2002 года.

Данную статью можно также прочитать в журнале «Сети и Телекоммуникации» №6, 2002

Бездисковая загрузка по технологии iSCSI / Habr

Начну из далека. Как часто вы встречаете организации использующие «Подключение к удаленному рабочему столу» как основной способ работы в офисе? Я стал встречать такие все чаще и мое личное мнение — это удобно! Удобно для сотрудников, удобно для системных администраторов, а самой компании это позволяет сократить IT расходы. А нередко это даже необходимость для комфортной многопользовательской работы в некоторых программах (пример — ПО 1С).

А как часто вы видите что в качестве клиентов используются обычные себе полноценные ПК, иногда даже вполне производительные и для локальной работы.

Разговор будет о замечательной технологии iSCSI, и как мы её можем использовать чтобы уменьшить совокупную стоимость владения, и поможет тем кто хочет познакомиться с технологией поближе.

Вики гласит:
iSCSI (англ. Internet Small Computer System Interface) — протокол, который базируется на TCP/IP и разработан для установления взаимодействия и управления системами хранения данных, серверами и клиентами.

Для понимания происходящего определимся с терминологией:

iSCSI Target: (Цель iSCSI) — программа или аппаратный контроллер (HBA), осуществляющие эмуляцию диска и выполняющие запросы iSCSI. подробнее

iSCSI Initiator: (Инициатор iSCSI) — Клиентская программа или аппаратный контроллер, который взаимодействует с iSCSI Target.

IQN: (iSCSI Qualified Name) — Уникальный идентификатор (имя) iSCSI Target’a или iSCSI Initiator’а.

LUN: (Logical Unit Number) — Адрес блочного устройства в диапазоне 0-127. подробнее

Инициатор iSCSI

Прелесть в том, что Windows 7, Windows Server 2008 и всё что старше умеют устанавливаться напрямую на iSCSI target. Проблема только в том, как инициализировать удаленное блочное устройство при включении ПК.
Все современные сетевые карты умеют работать по технологии PXE, а вот с iSCSI дружат только дорогущие серверные сетевые карты например intel

Однако есть как минимум два знакомых мне open source проекта gPXE и iPXE, последний, к слову, форк первого, с немного доработанной системой вывода ошибок и несколькими дополнительными опциями.

Лично я использую gPXE, я его нашел первым, к тому-же у них на сайте есть очень удобный генератор rom-o-matic

Есть много способов как загрузиться через gPXE. Для рабочего варианта я вшивал её ROM вместо PXE загрузчика в BIOS метеринки. Рисковый вариант, можно остаться без материнки, забегая вперед это позволит уменьшить время загрузки на ~ 10 сек.

Расскажу лучше о простом и безопасном для оборудования способе под названием PXE chainloading подробно (англ.) . Суть такова — с помощью PXE загрузчика загружаем gPXE, который в свою очередь выступает iSCSI инициатором и передает управление диску. Для этого нам нужен TFTP сервер (я не стал прибегать к стороннему софту, сделал как тут) и правильная настройка DHCP сервера.
Вот так выглядит DHCP параметры у меня:

Обратите внимание на параметр «175 gPXE_Options», инкапсулированное значение «08 01 01 ff» означает опцию keep_san = 1, которая заставляет gPXE не удалять регистрацию диска в случае неудачной загрузки с него (это необходимо для установки операционной системы).

В параметре «017 Корневой путь» самый просто синтаксис будет iscsi:<Айпи iSCSI target>:::::<IQN цели>

Настройки iSCSI инициатора на этом закончены.

Цель iSCSI

В качестве цели я использовал Microsoft iSCSI Software Target 3.3

Настройки цели крайне простые и интуитивные.

Создаём новое или импортируем существующий VHD диск:

Далее создаём цель:

Добавляем созданный или импортированный ране диск:

На этом настройка цели почти закончена. Осталось только добавить IQN(или любой другой тип индификатора: MAC, IP) инициатора(ов) который имеет доступ к этой цели.

Если после этого при загрузке клиентского ПК в gPXE промелькнут надписи:
Registered as BIOS drive 0x80
Booting from BIOS drive 0x80

Значит у нас получилось. И можно приступать к установке ОС.

Установка ОС или Epic Fail

Уже с ностальгией вспоминаю тот момент, когда первый раз я дошел до этого этапа и… поначалу меня постигало кучу разочарований. Забегая вперед скажу, что причиной многому была неудачная материнская плата GYGABYTE GA-425TUD.

Что же я увидел когда дошел до пункта выбора диска? Верно. Ничего. Подумал, ага, надо подгрузить сетевые драйвера. Аномально долгий поиск ~ 30 — 40 минут на пустой флешке, куда были переписаны исключительно дрова для нужной сетевухи, заставлял меня думать что ОС виснет и раз 5-10 я так и не дожидался окончания поиска, выключал, перезагружал, менял опции gPXE. Так сложилось, что однажды я таки дождался пока драйвера были найдены, и радовался как ребенок обнаружив что в меню выбора появился так желанный мне диск.
Радость тут-же омрачилась тем что ОС сообщила мне о невозможности установиться на этот диск и любезно попросила меня проверить включен ли в моём BIOS контроллер этого диска.

Решение было найдено довольно быстро вот тут в самом низу. Если коротко то ребята советовали включать/выключать SATA контроллер, менять режим его работы IDE, ACHI и даже попробовать подключить реальный диск на время установки, но установку проводить на iSCSI диск. Для меня сработало подключение реального диска в режиме ACHI. Теперь установка пошла на iSCSI диск без проблем. Однако после перезагрузки ОС (один из этапов установки) я постоянно ловил BSOD на classpnp.sys.

Причина до сих пор мне не совсем понятна.
Большими усилиями была найдена зацепка

Решением стало отключение LWF фильтра в ОС на сетевухе.

Открываем HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\ Class\{4D36E972-E325-11CE-BFC1-08002BE10318}
Находим и открываем подпапку для NIC (eg. 0007)
Открывает подпапку Linkage
Редактируем FilterList. Удаляем линию которая ссылается на LWF driver UUID {B70D6460-3635-4D42-B866-B8AB1A24454C}. В моём случае это бала вторая линия.

До:
{158B0494-2576-4DE5-9E32-98DB9E177DD8}-{B5F4D659-7DAA-4565-8E41-BE220ED60542}-0000
{158B0494-2576-4DE5-9E32-98DB9E177DD8}-{B70D6460-3635-4D42-B866-B8AB1A24454C}-0000
После:
{158B0494-2576-4DE5-9E32-98DB9E177DD8}-{B5F4D659-7DAA-4565-8E41-BE220ED60542}-0000

В этом варианте у меня заработало даже на проблемной материнке.
После этого я пробовал еще 2 или 3 материнки, установка проходила гладко изначально (нужно было лишь подгрузить сетевые драйвера).

Тесты


Интересно на сколько будет заметно что мой HDD где-то там в 100 метрах от меня? На глаз вообще не отличить! Но я даже не надеялся что вы поверите моему глазу по этому приведу результаты тестов.
Наши герои:

Seagate ST500DM002 — будет работать локально, как у людей ;D
iSCSI SSD Patriot 128 PYROSE — на сервере, будет работать через iSCSI, сетевой канал 1ГБ.
iSCSI RAID 10 4xSeagate ST500DM002 — на сервере, будет работать через iSCSI, сетевой канал 1ГБ.
(Локальный)Seagate ST500DM002


iSCSI SSD Patriot 128 PYROSE


iSCSI RAID 10 4xSeagate ST500DM002


Свод и выводы


На мой взгляд вполне заслуживающая внимания технология, как видно из тестов даже на 1ГБ сети имеет хороший КПД. При текущих ценах на HDD позволит экономить как минимум 2500р с рабочей станции и облегчает задачу резервирования данных. У меня в организации все сотрудники работают в терминале, еще вот открыли учебный класс на 8 рабочих мест, именно там в качестве теста я и внедрял эту технологию.

С радостью отвечу на вопросы.

Сетевое хранилище на iSCSI, что это такое?

Если вы когда-нибудь управляли серверами или корпоративной компьютерной сетью, то наверняка сталкивались с проблемой прозрачного увеличения ёмкости существующей инфраструктуры. И хотя подобные решения, в принципе, существуют, они обычно отличаются большой ценой и низкой гибкостью.

19″ системы обычно не обладают достаточным пространством, чтобы вместить дополнительные жёсткие диски. В результате появляется единственная альтернатива: подключение к серверу отдельных 19″ хранилищ по интерфейсу SCSI или Fiber Channel. Однако при этом мы всё равно смешиваем серверные задачи и функции хранения данных.

И большие серверные корпуса с дополнительными отсеками для жёстких дисков тоже не назовёшь идеальным выходом — опять же, получаем смесь задач.

Согласитесь, что идеальное хранилище должно быть очень гибким. Таким, чтобы его можно было легко развернуть, использовать из многих участков сети, из разных операционных систем и, конечно, можно было легко расширять. Да и производительность не стоит упускать из внимания. Ответом на все поставленные вопросы можно назвать iSCSI — Internet SCSI. Это решение «упаковывает» протокол SCSI в пакеты TCP/IP, в результате чего вы получаете универсальный интерфейс хранилища для всей сетевой инфрастуктуры. Кроме того, iSCSI позволяет консолидировать текущие системы хранения.

Как работает iSCSI?


На диаграмме показан принцип работы iSCSI. Подсистемы хранения должны использовать существующую сетевую инфрастуктуру, независимо от серверов. Консолидация систем хранения, которую мы упоминали выше, означает лишь то, что хранилище должно быть доступно с любого сервера, обеспечивая минимизацию затрат на управление. Кроме того, можно добавлять дополнительную ёмкость и к существующим системам.

Преимуществ у такого подхода много, и они довольно очевидны. Во многих корпорациях уже развёрнута эффективная сетевая инфраструктура, часто использующая проверенные временем технологии типа Ethernet. Никаких новых технологий для использования iSCSI или других систем типа SAN (Storage Area Networks) внедрять и тестировать не нужно. Конечно, здесь можно сэкономить и на дорогих специалистах по внедрению.

В целом, управлять клиентами и серверам iSCSI после небольшого обучения сможет любой сетевой администратор. Ведь iSCSI развёртывается на существующей инфраструктуре. Кроме того, iSCSI отличается высокой доступностью, так как серверы iSCSI можно подключать к нескольким коммутаторам или сетевым сегментам. Наконец, архитектура изначально отличается высокой масштабируемостью благодаря технологиям коммутации Ethernet.

В принципе, сервер iSCSI может быть реализован как программно, так и аппаратно. Но из-за высокой нагрузки программного решения на процессор лучше всё же придерживаться последнего варианта. Основная нагрузка на сервер iSCSI заключается в инкапсуляции пакетов SCSI в пакеты TCP/IP, причём всё должно выполняться в реальном времени. Понятно, что в программном сервере все эти задачи будет выполнять центральный процессор, а в аппаратном решении — специальные движки TCP/IP и SCSI.

Благодаря клиенту iSCSI, ресурсы хранилища iSCSI-сервера могут быть интегрированы в клиентскую систему в виде устройства, которое по смыслу близко к локальному жёсткому диску. Здесь большим преимуществом по сравнению с привычными общими сетевыми папками (share) будет высокая безопасность. Ведь iSCSI особо подчёркивает правильную аутентификацию пакетов iSCSI, а по сети они передаются в шифрованном виде.

Конечно, вы получите производительность несколько меньше, чем у локальных систем SCSI — ведь сеть вносит свои задержки. Впрочем, современные сети с пропускной способностью до 1 Гбит/с (128 Мбайт/с) уже обеспечивают достаточную скорость, но большая часть её так и не используется.

Каждому узлу iSCSI присваивается своё имя (длиной, максимум, до 255 байт) и псевдоним (короткое имя), которые не зависят от IP-адреса. Таким образом, доступ к хранилищу будет обеспечен даже после его переноса в другую подсеть.

iSCSI в деле

Конечно, не считая сеть, основным требованием для внедрения iSCSI является организация iSCSI-сервера. Мы протестировали несколько решений как программных так и аппаратных.

Оба типа решений удовлетворяют всем требованиям iSCSI, обеспечивая доступ к хранилищу клиентским компьютерам. Клиентская система может быть оснащена адаптером iSCSI, который уменьшит нагрузку на центральный процессор (очень удобно для рабочих станций).

В принципе, iSCSI можно использовать и на 100-Мбит/с сети, но тогда, по сравнению с локальными приводами, вы получите существенное замедление. Естественно, гигабитный Ethernet является куда более эффективным решением — вряд ли пропуская способность станет «узким местом» даже при использовании нескольких массивов RAID 5. В то же время, это нельзя сказать про массивы RAID 0, но подобное хранилище редко подключается по сети.

Если обратиться к клиенту, то здесь необходим инициатор iSCSI. Они выпущены практически для всех операционных систем. Поиск в Google комбинации слов «Microsoft», «iSCSI» и «Initiator» является наглядным тому примером.

Затем в программе-инициаторе нужно настроить подключение к серверу. Подключённые приводы сервера появятся на компьютере в виде жёстких дисков, и их можно использовать как самые обычные приводы.

Протокол iSCSI обеспечивает шифрование пакетов на основе IPsec, хотя оно не является обязательным. К примеру, внутри сети корпорации не всегда имеет смысл шифровать пакеты. Подобная опция будет наиболее интересна для WAN.

Дополнительные применения

iSCSI также является прекрасным средством резервирования данных, ведь информацию можно легко скопировать на другой жёсткий диск. В том числе, даже в онлайне, используя функцию теневого копирования Windows. iSCSI можно даже подключать по DSL-соединению, но здесь ограничивающим фактором уже будет скорость линии. Впрочем, всё зависит от характера применения.

Большим преимуществом iSCSI можно считать то, что классическое резервирование больше не ограничено одним местоположением — и не стоит это недооценивать. К примеру, устройства типа кассетных стримеров теперь можно устанавливать в любом месте сети. Даже если случится самое худшее, данные по iSCSI можно будет восстановить за минимальное время.

Нагрузка iSCSI

Если решение iSCSI реализовано программно, то сетевому адаптеру придётся передавать немалые данные. Поскольку обычные сетевые адаптеры не всегда используют различные технологии аппаратного ускорения, часть нагрузки может перелагаться на центральный процессор. SCSI — это блочный протокол, а Ethernet — пакетный. То есть немало нагрузки будет относиться к инкапсулированию и извлечению информации SCSI из пакетов TCP/IP. Подобная задача способна «под завязку» загрузить даже современный процессор.

Для решения проблемы были разработаны специальные движки TOE (TCP/IP Offload Engines), которые берут на себя все сложные операции iSCSI сразу же после сетевого адаптера. В результате снижается нагрузка на системный процессор, и пользователи и система могут продолжать нормально работать.

Надеюсь теперь стало чуть более понятно что такое сетевые хранилища на iSCSI и как они устроены.

Настройка хранилища iSCSI в Windows Server 2012

Internet Small Computer System Interface (iSCSI) — это протокол передачи данных, предназначенный для обмена данными между серверами и системами хранения данных (Storage Area Network, SAN). iSCSI представляет из себя комбинацию протокола SCSI и стека протоколов TCP/IP и предназначен для передачи блоков данных через сети Ethernet. Управляющие команды SCSI передаются внутри IP-пакетов, а протокол TCP обеспечивает управление потоком и надежность передачи данных.

При использовании iSCSI данные между сервером и системой хранения передаются блоками, в необработанном виде. Это позволяет использовать SAN практически так же, как если бы они были подключены к серверу напрямую, а не по сети. Хост-система может создавать на SAN логические разделы, форматировать их и использовать как обычные локальные жесткие  диски. В этом заключается основное отличие SAN от сетевых хранилищ (Network Area Storage, NAS), которые работают на уровне файловой системы и используют протоколы передачи файлов, такие как SMB или CIFS.

Технология iSCSI была разработана как более дешевая альтернатива Fibre Channel (FC). Системы на базе iSCSI поддерживают стандартные протоколы и могут быть построены на базе любой существующей сетевой инфраструктуры, поддерживающей протокол IP. Для работы iSCSI может использовать самые обычные сетевые устройства (коммутаторы, маршрутизаторы, сетевые адаптеры и т.п), тогда как для FC требуются специальные HBA-адаптеры, оптические кабеля и прочее дорогостоящее оборудование.

Архитектура iSCSI является клиент-серверной и включает в себя следующие компоненты:

iSCSI Initiator — клиентский компонент, который отправляет запросы на подключение компоненту iSCSI Target, находящемуся на стороне сервера. Инициатор может быть реализован программно, в виде драйвера, либо аппаратно, в виде специального iSCSI адаптера.

iSCSI Target — серверный компонент, слушающий клиентские запросы и обеспечивающий установку соединения между клиентом и сервером iSCSI. Кроме того, таргет связан с виртуальными дисками iSCSI, и после установки соединения все виртуальные диски, связанные с этим таргетом, становятся доступны через инициатор. В качестве iSCSI Target может выступать как специализированная СХД, так и обычный Windows сервер с установленной ролью iSCSI Target.

Виртуальные диски iSCSI — используются для разбиения дискового пространства на логические разделы (Logical Unit Number, LUN). В Windows Server 2012 iSCSI LUN представляют из себя обычные виртуальные диски формата VHD\VHDX. Кстати, в Windows Server 2012 для iSCSI поддерживался только формат VHD, что ставило ограничение в 2ТБ на максимальный размер LUN. В Windows Server 2012 R2 используется формат VHDX, что позволяет создавать LUN-ы размером до 64ТБ.

А теперь остановимся и уточним некоторые моменты:

• На каждом iSCSI сервере может быть один или несколько iSCSI Target;
• Каждый iSCSI Target может быть подключен к одному или нескольким виртуальным дискам;
• Каждый iSCSI Target может обслуживать одно или несколько подключений от iSCSI Initiator;
• В свою очередь, каждый iSCSI Initiator может подключаться к одному или нескольким iSCSI Target и, следовательно, к одному или нескольким виртуальным дискам.

Кроме того, в Windows Server 2012 поддерживается loopback-конфигурация, в которой и Target и Initiator могут находиться на одном и том же сервере.

В операционных системах Microsoft поддержка iSCSI появилась довольно давно. Первая версия Microsoft iSCSI Initiator устанавливалась в качестве отдельного компонента в Windows 2000, Windows XP SP2 и Windows Server 2003 SP1, а начиная с Windows Server 2008 и Vista iSCSI Initiator был встроен в операционную систему.

Что касается iSCSI Target, то изначально он входил в специальную версию серверной ОС Windows Data Storage Server 2003, которая была предназначена для построения систем хранения и поставлялась только в предустановленом виде. Однако с 2011 года компонент Microsoft iSCSI Software Target 3.3 стал доступен для загрузки и установки на Windows Server 2008R2, а в Windows Server 2012 он полностью интегрирован в систему и устанавливается в качестве роли сервера.

На этом закончим теоретическую часть и приступим к практике. Для настройки возьмем самый простой вариант, в качестве подопытных используем два сервера с установленной Windows Server 2012 R2: SRV2 для роли iSCSI Target и SRV3 для iSCSI Initiator.

Запуск службы iSCSI Initiator

Для начала проверим состояние службы инициатора на SRV3. Для этого открываем Server Manager и в меню «Tools» выбираем пункт «iSCSI Initiator».

Запуск iSCSI Initiator

 

Как видите, по умолчанию служба не запущена. Нажав на «Yes» в диалоговом окне, мы стартуем службу iSCSI Initiator и поставим ее в режим автоматического запуска.

подтверждение на запуск сервиса iSCSI Initiator

 

Затем в окне свойств переходим на вкладку «Configuration» и запоминаем значение IQN, оно пригодится нам при настройке сервера.

IQN (iSCSI qualified name) — это уникальный идентификатор, назначаемый для каждого iSCSI Target и Initiator. IQN формируется из даты (месяц и год) регистрации домена, официального имени домена, написанного в обратном порядке и любого произвольного имени, например имени сервера. Получается примерно так: iqn:1991-05.com.microsoft:srv3.contoso.com

свойства iSCSI Initiator

 

Стартовать сервис iSCSI Initiator и установить режим его запуска можно и из консоли PowerShell, следующими командами:

Start-Service msiscsi
Set-Service msiscsi -StartupType automatic

Установка роли iSCSI Target Server

Теперь перейдем на SRV2 и приступим к настройке серверной части. Первое, что нам надо сделать — это установить на сервер роль iSCSI Target. Открываем Server Manager, переходим по ссылке «Add roles and features»

Server Manager

 

И выбираем роль «iSCSI Target Server», которая находится в разделе File and Storage Services\File and iSCSI Services.

установка роли iSCSI Target

 

Либо воспользуемся командой PowerShell:

Install-WindowsFeature -Name FS-iSCSITarget-Server

Подготовка диска

Теперь подготовим физический диск, который будет использоваться для хранения виртуальных iSCSI дисков. Специально для этой цели к серверу подключен новый жесткий диск размером 120Гб.  На данный момент диск неактивен (Offline). Для его активации в Server Manager переходим в раздел File and Storage Services -> Disks, кликаем на диске и переводим его в Online.

подключение нового диска

 

Теперь на этом диске надо создать новый раздел (или том), для чего в контекстном меню выбираем пункт New Volume.

создание нового тома на диске

 

Выбираем физический диск, на котором будет создаваться том

выбор диска

 

указываем размер тома

выбор размера тома

 

и выбираем букву диска.

выбор буквы диска

 

Затем выбираем для диска файловую систему, размер сектора и указываем метку тома. Здесь напомню, что виртуальные диски iSCSI можно создавать только на томах NTFS, новая файловая система ReFS (Resilient File System) не поддерживается.

настройки файловой системы

 

Смотрим суммарную информацию, и если все правильно, то жмем «Create», запуская создание тома.

подтверждение на создание нового тома

 

Те же действия можно проделать с помощью PowerShell. Находим нужный диск:

Get-Disk | where {$_.OperationalStatus -eq ″Offline″}

Переводим его в online:

Set-Disk -Number 1 -IsOffline $false

Инициализируем:

Initialize-Disk -Number 1

Создаем раздел:

New-Partition -DiskNumber 1 -UseMaximumSize -DriveLetter D

И форматируем его в NTFS:

Format-Volume -DriveLetter D -FileSystem NTFS -NewFileSystemLabel ″iSCSI Storage″

Создание виртуальных дисков iSCSI

Следующим пунктом нашей программы идет создание виртуальных iSCSI дисков. Для этого переходим в раздел iSCSI и кликаем по ссылке, запуская очередной мастер.

создание виртуального iSCSI диска

 

Выбираем том, на котором будет храниться виртуальный диск.

выбор тома для размещения виртуального диска

 

Даем диску имя и описание.

задаем имя виртуальному диску

 

Указываем размер виртуального диска и его тип. Выбирать можно из трех вариантов:

• Fixed size (фиксированного размера) — создаваемый диск сразу занимает весь выделенный объем. Это наиболее производительный, но наименее экономичный вариант;
• Dynamically expanding (динамически расширяемый) — изначально создается диск минимального размера, который затем динамически изменяется в зависимости от количества записанных на него данных. Наилучший вариант в плане использования дискового пространства;
• Differencing (разностный) — в этом варианте нужно указать расположение родительского диска, с которым будет связан создаваемый диск. Разностный диск может быть как фиксированным, так и динамическим, в зависимости от типа родителя.  У этого типа дисков есть свои преимущества, но использовать их для iSCSI лично я особого смысла не вижу.

задаем тип и размер виртуального диска

 

Теперь нужно указать iSCSI Target, к которому будет подключен данный диск. Поскольку на сервере не создано ни одного таргета, выбираем «New iSCSI target».

указываем iSCSI Target

 

Даем таргету имя и описание.

задаем имя для iSCSI Target

 

И указываем сервера, которые могут получить к нему доступ.

указываем сервера доступа

 

При выборе серверов можно воспользоваться двумя способами. Если инициатор находится на Windows Server 2012 или Windows 8, то можно просто нажать «Browse» и выбрать нужный сервер из списка. Для более старых систем надо вручную ввести идентификатор сервера. В качестве идентификатора можно указать IQN инициатора, DNS имя или IP-адрес сервера, либо MAC-адрес сетевого адаптера.

окно выбора серверов доступа

 

Идем дальше. На следующей странице можно настроить аутентификацию по протоколу CHAP между серверами. CHAP (Challenge Handshake Authentication Protocol) — это протокол для проверки подлинности партнера по подключению, основанный на использовании общего пароля или секрета. Для iSCSI можно задействовать как одностороннюю, так и двухстороннюю (reverse) проверку подлинности CHAP.

настройки аутентификации

 

Проверяем правильность настроек и запускаем создание диска.

подтверждаем создание виртуального диска

 

Попробуем сделать все то же с помощью PowerShell. Создадим еще один виртуальный iSCSI диск на 20ГБ командой:

New-IscsiVirtualDisk -Path D:\iSCSIVirtualDisks\iSCSI2.vhdx

Обратите внимание, что по умолчанию создается динамический диск, для создания VHD фиксированного размера надо воспользоваться ключом -UseFixed.

создание виртуального диска из PowerShell

 

Теперь создаем второй iSCSI Target c именем iscsi-target-2 и в качестве сервера доступа укажем IQN SRV3:

New-IscsiServerTarget -TargetName iscsi-target-2 -InitiatorIds ″IQN:iqn.1991-05.com.microsoft:srv3.contoso.com″

создание iSCSI Target и подключение диска

 

И проверим результат командой:

Get-IscsiServerTarget | fl TargetName, LunMappings

вывод информации о iSCSI Target

Подключение

Возвращаемся на SRV3, открываем окно свойств инициатора, переходим на вкладку Discovery и жмем кнопку Discover Portal.

окно Discover свойств iSCSI Initiator

 

Вводим имя или IP-адрес портала и жмем ОК.

настройка подключения к iSCSI Target

 

По умолчанию iSCSI использует все доступные IP-адреса, и если вы хотите, чтобы трафик iSCSI шел только через определенный сетевой интерфейс, то надо перейти в расширенные настройки и в поле «Connect using» указать нужный IP.

расширенная настройка подключения к iSCSI Target

 

Теперь переходим на вкладку Targets, где должны отобразиться все доступные для подключения iSCSI Target. Выбираем нужный таргет и жмем «Connect».

выбор iSCSI Target

 

Не забудьте отметить чекбокс «Add this connection to the list of Favorite Targets», который обеспечивает автоматическое подключение к таргету при выключении или перезагрузке машины.

подключение к iSCSI Target

 

Подключение состоялось, и если открыть оснастку управления дисками, то там появится новый диск. Дальше с этим диском поступаем так же, как с обычным жестким диском, подключенным локально — переводим в Online, инициализируем, создаем на нем разделы и форматируем.

оснастка Disk Management

 

То же самое можно выполнить с помощью PowerShell. Выводим список доступных таргетов:

Get-IscsiTarget | fl

И подключаемся к нужному:

Connect-IscsiTarget -NodeAddress ″iqn.1995-05.com.microsoft:srv2-iscsi-target-2-target″ -IsPersistent $true

Ключ -IsPersistent $true обеспечивает автоматическое подключение при выключении или перезагрузке.

подключение к iSCSI Target из PowerShell

 

Ну и для отключения можно воспользоваться командой Disconnect-IscsiTarge, вот так:

Disconnect-IscsiTarget -NodeAddress ″iqn.1995-05.com.microsoft:srv2-iscsi-target-2-target″ -Confirm:$false

отключение к iSCSI Target из PowerShell

Заключение

На этом настройка завершена. Как я говорил, это самый простой, базовый вариант настройки хранилища. В iSCSI имеется еще много интересных возможностей. Например, можно использовать службу имен iSCSI (iSNS) для простоты управления, многопутевой ввод-вывод (MPIO) для обеспечения отказоустойчивости, а для безопасности настроить аутентификацию по протоколу CHAP и шифрование трафика с помощью IPSec. О некоторых из этих фич я планирую написать в следующих статьях.

И в заключение важные моменты, которые надо учесть при организации системы хранения iSCSI:

• Развертывать iSCSI желательно в быстрой сети, не ниже Gigabit Ethernet;
• Сетевой трафик iSCSI рекомендуется отделить от остального трафика и вынести в отдельную сеть, например с помощью VLAN или физического разделения на подсети;
• Для обеспечения высокой доступности на сетевом уровне необходимо использовать технологию MPIO, либо сеансы с несколькими подключениями (MCS). Объединение сетевых адаптеров (NIC Teaming) для подключения к устройствам хранения iSCSI не поддерживается;
• При использовании технологии Storage Spaces можно хранить виртуальные диски iSCSI на Storage Spaces, но нельзя использовать LUN-ы iSCSI для создания Storage Spaces;
• Для хранения виртуальных дисков iSCSI нельзя использовать общие кластерные тома CSV (Cluster Shared Volume).

iscsi подключение к схд сервера под windows [Colobridge WIKI]

Применимость: Windows

Слова для поиска:


Задача:

Как настроить подключение к блочному устройству на системе хранения по протоколу iSCSI?

Решение:

Для работы с блочным устройством через протокол iSCSI необходимо выполнить следующие условия:

  1. Установить два отдельный сетевых адаптера (минимум — один выделенный адаптер) для подключения в сеть хранения.

  2. Настроить сетевое оборудование провайдера для доступа сервера в сеть хранения

  3. Настроить iSCSI инициатор и параметры аутентификации, сообщить эти параметры провайдеру

  4. Подключиться к таргету по всем доступным путям.

  5. Установить и настроить многопутевой доступ UltraPath

Терминология iSCSI

  • iSCSI (Internet Small Computer System Interface) — протокол, который базируется на TCP/IP и разработан для подключения к устройствам хранения данных в режиме блочного устройства. Протокол обеспечивает передачу по сети команд SCSI и эмулирует локальный жесткий диск из набора данных находящихся на СХД.

  • Инициатор (initiator) — iSCSI-клиент.

  • Таргет — iSCSI-сервер; предоставляет доступ к своим устройствам по iSCSI.

  • iSCSI Портал — группа таргетов, которые анонсируются вместе. Обычно один узел хранения — один портал.

  • LUN (Logical Unit Number) — уникальный номер объекта внутри таргета содержащий набор данных. Ближайшим аналогом LUN является жесткий диск, раздел диска или отдельный том.

  • Обнаружение (discovery) — процесс, в ходе которого инициатору становятся известны доступные ему таргеты.

Установка и подключение сетевой карты

В ходе заказа услуги следует сообщить параметры сетевых адаптеров которые вы предполагаете выделить для работы с СХД. Или заказать установку дополнительных адаптеров.

После установки адаптеров и настройки сетевого оборудования сетевой инженер сообщит вам адреса которые вам нужно будет настроить на ваших адаптерах.

Проверка доступности

Сервера клиента двумя отдельными сетевыми интерфейсами (минимум — один отдельный сетевой порт) должен быть подключен в сеть хранения:

Наличие второго интерфейса позволит агрегировать (объединить) производительность обоих портов и обеспечит живучесть при обрыве связи по одному из каналов.

Для подключения к таргету вам следует убедиться, что сеть хранения доступна для вашего сервера.

iSCSI — портал системы хранения должен быть доступен на следующих адресах:

C0.P0  10.30.1.1
C1.P0  10.30.1.2
C0.P1  10.30.2.1
C1.P1  10.30.2.2

Если у вас один сетевой порт, то вы должны видеть или первую или вторую пару адресов.

Проверьте доступность командой

ping <IP адрес>

Настройка Инициатора

Найдите в контрольной панели iSCSI Initiator

Control Panel>System and Security>Administrative Tools>iSCSI Initiator

Имя IQN текущего инициатора можно посмотреть на закладке:

Имя инициатора

IQN (iSCSI qualified name) – имя длиной до 255 символов в следующем формате: iqn.<year-mo>.<reversed_domain_name>:<unique_name>

  • year-mo — год (year) и месяц (mo), когда был зарегистрирован домен;

  • reversed_domain_name — официальное имя домена, записанное в обратном порядке;

  • unique_name — это произвольное имя, например, имя сервера (ad321).

Пример: iqn.2009-01.net.colobridge:ad321

Во избежание лишних недоразумений рекомендуем использовать имя сервера которое мы назначили вашему серверу, например, вы можете найти это имя в списке ваших услуг:

Портал > Панель клиента > Продукты/услуги > Dedicated Flex +, ad060.colobridge.net

Из всего этого используете ad060 и настраиваете на своем сервере имя инициатора iqn.2009-01.net.colobridge:ad060

При этом имя хоста в параметрах операционной системы может быть каким угодно.

И имя IQN может быть любым, просто нам удобнее вести учет выдачи ресурсов по нашим внутренним спискам.

Аутентификация

Вам потребуется настроить аутенификацию для discovery и аутенификацию для подключения.

Придумайте или сгенерируйте криптостойкий пароль 14-16 символов

Для создания учетной записи вашего сервера на системе хранения передайте следующую информацию:

Имя сервера:
Версию операционной системы:
Имя инициатора:
Пароль:

После получения этой информации администратор системы хранения создаст учетную запись для вашего сервера с соответствующими вашему заказу LUN и параметрами отображения.

В панели iSCSI Initiator Properties перейдите на закладку Discovery, нажмите Discover Portal, укажите IP-адрес, нажмите Advanced, поставьте птицу на чекбоксе Enable CHAP log on. В качестве имени используйте имя инициатора, пароль 14-16 символов.

Повторите эти действия для каждого из адресов iSCSI портала.

После этих действий на закладке Targets должны отображаться 4 тергета в окне Discovered targets. Если у вас только одна карта, то там должен быть список из двух таргетов.

Последовательно укажите на каждый из таргетов и нажмите кнопку Connect. Затем Advanced, поставьте птицу на чекбоксе Enable CHAP log on. В качестве имени используйте то же самое имя инициатора и пароль 14-16 символов.

В менеджере дисков вы должны увидеть новый диск или диски с размерами соответствующими заказанным. Если этого нет, обновите список устройств через менеджер дисков или менеджер устройств.

Так как ваш сервер видит СХД по нескольким путям, то вместо одного диска вы будете видеть 4.

Но не торопитесь ставить чекбокс для Enable multi-path в параметрах инициатора. Есть лучшее решение. .

UltraPath

Разумеется, вы можете использовать стандартный multipath из вашей операционной системы. Однако Huawei UltraPath скорее всего окажется надежнее.

Скачайте и установите пакет UltraPath for Windows. Ссылку для скачивания последней версии пакета вам передаст служба технической поддержки. Или вы найдете ссылку под этой статьей.

Преимущества Huawei UltraPath

После установки перезагрузите сервер.

Убедитесь, что драйвер UltraPath установлен и работает:

Теперь нужно запустить консоль Ultra-Path, зайти в меню System > Global Settings и установить параметры как на этом снимке:

Зайдите в менеджер дисков, активируйте диск, создайте раздел с файловой системой.

В консоли Ultra-Path выберите все пути (1), запустите Performance Monitor (2), выберите тип измерений / measurement (3), запустите мониторинг (4), дайте нагрузку на диск и убедитесь что данные передаются по всем путям.

Тестирование производительности

Для теста производительности рекомендуем использовать утилиту diskspd

Последовательность действий:

  1. Подключите таргет

  2. Через менеджер дисков переведите новый диск в online
  3. Инициализируйте диск и cоздайте файловую систему

    Для tier-2 и tier-3 это может длится довольно долго несмотря на то, что вы выбрали быстрое форматирование

  1. В консоли Power Shell перейдите на созданный вами диск

  2. Создайте на диске каталог для тестирования, например — mkdir D:\test

  3. Перейдите в этот каталог cd D:\test
  4. Скачайте и распакуйте утилиту diskspd в отдельный каталог

  5. Выполните рекомендуемые команды

Test-1

Это нагрузочный тест с имитацией работы OLTP позволяющий оценить нагрузочные характеристики диска.

C:\Diskspd\amd64fre\diskspd.exe  -r -w30 -d600 -W300 -b8K -t4 -o15 -h -L -Z1M -c100G test.bin > test-1.txt

Значение опций:

  • -r -w30 — Тестирует произвольные операции ввода-вывода (-r) с соотношением операций записи (-w30) и чтения 30/70 для эмуляции типичного режима рабочей нагрузки OLTP.

  • -d600 -W300 — Задает 10-минутную продолжительность теста (сбора данных) (-d600), выполняемого после 5-минутного прогрева (-W300). При тестировании прогрев необходим для того, чтобы до начала сбора данных управление внутренними устройствами достигло состояния, близкого к устойчивому. Это важно при тестировании как операций чтения, так и операций записи.

  • -b8K — Задает размер блока в 8 КБ (-b8k) — размер страницы, типичный для виртуальных машин Microsoft SQL Server и Hyper-V.

  • -t4 -o15 — Создает 4 потока на файл (-t4). Каждый поток включает 15 ожидающих операций ввода-вывода (-o15).

  • -h — Отключает программное кэширование и аппаратное кэширование записи — эквивалентно открытию файла с флагами FILE_FLAG_NO_BUFFERING и FILE_FLAG_WRITE_THROUGH.

  • -L — Собирает данные о задержке.

  • -Z1M Поддерживает исходные буферы произвольной записи размером 1 МБ (-Z), которые обеспечивают обычно несжимаемый поток данных на твердотельные накопители. Это важно для управления работой определенных классов устройств флэш-памяти и твердотельных накопителей.

  • -c100G test.bin > test-1.txt Создает указанный файл данных test.bin размером 100 ГБ (-c100G) и сохраняет результат теста в файле test-1.txt

Test-2, Test-3

Эти тесты служат для оценки ширины канала связи с СХД

test-2: последовательное чтение блоками по 512K

diskspd.exe -si -w0 -d180 -W60 -b512K -t4 -o15 -h -L -c100G test.bin

test-3: последовательная запись блоками по 512K

diskspd.exe -si -w100 -d180 -W60 -b512K -t4 -o15 -h -L -c100G test.bin

Пример результатов тестирования

Тестирование производилось ночное время при небольших конкурирующих нагрузках и без лимитирования SmartQoS

Использовался один порт 10GbE Intel X520 (MTU=9000) на стороне хоста и два порта на стороне СХД с Huawei UltraPath-8.06.063.

В некоторых тестах вы можете заметить малую разницу между различными Tier. Этот эффект объясняется особенностями работы кэша и контроллера СХД. При значительных конкурирующих нагрузках этот эффект делится между клиентами в соответствии с уровнем приоритета tier.

Смотрите также:


Актуальность: 2017/05/01 16:17

ISCSI — это… Что такое ISCSI?

iSCSI

Протокол iSCSI (Internet Small Computer System Interface) — это протокол, который базируется на TCP/IP и разработан для установления взаимодействия и управления системами хранения данных, серверами и клиентами.

iSCSI описывает:

  • Транспортный протокол для SCSI, который работает поверх TCP.
  • Новый механизм инкапсуляции SCSI команд в IP сети.
  • Протокол для нового поколения систем хранения данных, которые будут использовать «родной» TCP/IP.

Протокол iSCSI является стандартизованным по RFC 3720. Существует много коммерческих и некоммерческих реализаций этого протокола.

Системы на основе iSCSI могут быть построены на любой достаточно быстрой физической основе, поддерживающей протокол IP, например Gigabit Ethernet или 10G Ethernet. Использование стандартного протокола позволяет применять стандартные средства контроля и управления потоком, а также существенно уменьшает стоимость оборудования по сравнению с сетями Fibre Channel.

Архитектура

ISCSI — клиент-серверная архитектура. Сервер (принимающий запросы) называется iSCSI target, клиент — iSCSI initiator.

Сервер (target) может быть реализован как программно, так и аппаратно. Программная реализация принимает запросы по сети, обрабатывает их, читает (записывает) нужные данные на носитель, отдаёт информацию (результат) обратно по сети. Так как эти операции при высокой интенсивности запросов занимают существенное время процессора, были созданы аппаратные iSCSI HBA (адаптеры), которые совмещают в себе сетевую карту Ethernet и SCSI-контроллер.

iSCSI работает на блочном уровне. Объектом, к которому предоставляется доступ, является область данных, интерпретируемая инициатором как блочное устройство (диск). Доступ является монопольным (за исключением специально рассчитанных на это файловых систем и файловых систем в режиме «только для чтения»). Обязанность создавать и обслуживать файловую систему возлагается на инициатора; сервер (цель, target) лишь обслуживает низкоуровневые запросы, аналогичные запросам, которые обслуживает драйвер диска при работе с локальными дисками.

Для адресации по сети и клиент и сервер имеют свои адреса, которые должны быть уникальными.


Адрес может иметь один из двух видов: iqn и eui.

  • iqn-адрес (англ. iSCSI Qualified Name, квалифицированное iSCSI-имя) — …
  • eui (IEEE EUI-64 format)…

Для iqn используется (в теории, см ниже) следующий формат адреса имени:

iqn.2001-04.com.example:storage.tape1.sys1.xyz
 ~ ~~ ~
 1      2        3               4 
  1. iqn — указание на тип
  2. Дата регистрации доменного имени в формате год-месяц (ГГГГ-ММ)
  3. Доменное имя в реверсивной форме (org.wikimedia.commons для commons.wikimedia.org)
  4. Заданное (в пределах домена) имя ресурса в произвольной форме. Отделяется от первых трёх частей двоеточием.

Ben Rockwood в руководстве «A Quick Guide to iSCSI on Linux» пишет, что он не знает инициаторов, которые бы действительно использовали бы DNS для разрешения имени цели (target) из iqn; в большинстве случаев IP-адрес (доменное имя) сервера запрашивается отдельно, а весь iqn используется как единая строка идентификации ресурса[1].

Для обнаружения списка доступных устройств на iSCSI цели (сервере) используется технология обнаружения (discovery, auto-discovery). Это сервис, слушающий на порте tcp (обычно, 3260) запросы клиентов и отдающий им список доступных целей. Такой сервис называют порталом (англ. portal).

Помимо порталов, для поиска доступных целей может так же использоваться iSNS (Internet storage name service).

Дополнительно, iSCSI поддерживает multipath.

Примеры реализаций

Инициаторы (клиенты)

Присутствует в стандартной сборке Linux с версии 2.6.16.

Программный сервер (target)

Также существует монолитный проект на основе BSD — OpenNAS,

На основе FreeBSD 7.2 сделан FreeNAS (может выступать как в качестве target, так и initiator). Сайт проекта FreeNAS

Аналог FreeNAS, но на основе Linux — проект Openfiler (также может выступать как в качестве target, так и initiator)

Преимущества

  • Консолидация систем хранения данных
  • Резервирование данных
  • Кластеризация серверов
  • Репликация
  • Восстановление в аварийных ситуациях
  • Географическое распределение SAN
  • QoS
  • Безопасность

Недостатки

…основным препятствием для распространения Ethernet как базовой технологии построения сетей хранения данных является относительно большое время задержки (близкое к 75 микросекундам), которое возникает из-за особенностей стека TCP/ІР. В High-End системах при одновременном обращении к тысячам файлов это может стать серьёзной проблемой.

Ссылки

Источники

Linux iSCSI HOWTO


Ошибка цитирования Для существующего тега <ref> не найдено соответствующего тега <references/>

iSCSI 2.0 с FAS2xxx или путь масштабирования маленького ЦОДа / Habr

Сохранение инвестиций востребовано любой компанией. Важно иметь такой концепт инфраструктуры ЦОД, который бы позволил в случае необходимости легкого масштабироваться, при этом максимально утилизировать существующее оборудование для новых потребностей бизнеса. Переход от iSCSI к iSCSI 2.0 может стать базой для такого концепта. iSCSI over DCB часто называют iSCSI 2.0 благодаря дополнительным расширениям DCB для Ethernet.


В продолжение статьи «FC & Ethernet».

DCB, состоит из

  • PFC (802.1Qbb) — Обеспечивает работу Ethernet без потерь фреймов (Lossless Ethernet)
  • ETS (802.1Qaz) — Назначает пропускную способность фреймам, позволяет низкоприоритетному трафику использовать пропускную способность если она не задейстована
  • CN (802.1Qau) — Ставит источник «на паузу»
  • DCBX — Определяет домен DCB

Свичи поддерживающие DCB часто также поддерживают Shortest Path Bridging IEEE 802.1AQ и/или IETF TRILL позволяющие выбрать наиболее короткий путь для Ethernet трафика, что позитивно сказывается на работе iSCSI.

iSCSI успел эволюционировать научившись работать с Thin Provisioning (SCSI SBC-3) и Space Reclamation (T10 UNMAP), у него есть возможности балансировки нагрузки и обеспечения отказоустойчивости путей (при помощи MPIO и/или MCS).
Важно отметить что все хранилища NetApp FAS поддерживают протокол iSCSI на всех своих Ethernet дата-портах. Начиная с версии Data ONTAP 8.1.3 поддерживаются SCSI SBC-3 и UNMAP, начиная с версии DATA Ontap 8.2.1 системы хранения FAS поддерживают DCB.
Таким образом iSCSI может стать идеальным кандидатом для роста маленького ЦОД, если обеспечит:
  • Высокую производительность (можно достичь при помощи не большего тюнинга, а также благодаря DCB).
  • Единый концепт подключения СХД в случае роста от «маленького» до «большого ЦОД», для сохранения инвестиций.
  • Относительно простой переход от дизайна «маленького ЦОД» direct-attached или Switched (с дешевыми свичами) подключений СХД к дизайну «большого ЦОД», для будущего роста.

Для этого предлагаю рассмотреть преимущества и недостатки нескольких дизайнов соблюдая единый концепт — подключение СХД NetApp FAS по iSCSI. Эти дизайны должны быть относительно просты для преобразования маленького ЦОД в большой.

Схематическое обозначение предлагаемых путей перехода между конфигурациями при росте ЦОД, а-ля квадрат Гартнера:

iSCSI тюнинг

По-скольку iSCSI живет поверх Ethernet, необходимо настроить Flow Control (не путать «обычный» FlowControl с PFC IEEE 802.1Qbb для DCB Losless Ethernet) и настроить Jumbo Frames на сетевых адаптерах хостов, на СХД и на свичах (если они есть). Использование MPIO/MCS внутри одного линка может увеличить его суммарную пропускную способность по сравнению с использованием одного соединения в линке. Рекомендуется выделить отдельный VLAN для iSCSI трафика если свич используется для смешанного типа трафика.
Directly-Attached iSCSI

Дизайн такого «маленького ЦОД» состоит из одного-двух серверов напрямую подключённых в СХД каждый минимум двумя линками для отказоустойчивости: один к одному контроллеру СХД, другой к другому. На этом этапе вполне логично использовать бесплатный Software iSCSI Initiator. В случае увеличения хоcтов необходимо или добавить порты на хранилище или установить свичи. В зависимости от модели хранилища может быть разное количество Ethernet портов. Важно отметить что все Ethernet порты на хранилищах NetApp FAS (нет «выделенных» iSCSI портов) могут быть использованы для таких типов трафика: iSCSI, NFS, CIFS (SMB), в том числе и одновременно.
  • Положительной стороной является относительная дешевизна (не нужны специализированные адаптеры для хостов, не нужны свичи) и простота.
  • Отрицательной стороной такого решения будет низкая масштабируемость и дополнительная нагрузка на CPU хоста выполняющего функцию Software iSCSI Initiator.


Attribute Value
Fully redundant Yes
Type of network None, direct-attached
Different host operating systems Yes, with multiple-host configurations
Multipathing required Yes
Type of Storage configuration HA pair
Switched iSCSI

В такой схеме необходимо иметь как минимум два линка от каждого узла, каждый линк подключённый через разные коммутаторы. Это обеспечит полную отказоустойчивость при выходе контроллера, свича или пути. На этом этапе всё еще можно использовать Software iSCSI Initiator или комбинацию с выделенным iSCSI HBA (который офлоадил бы нагрузку с CPU хоста).
  • Обновление с Direct-Attached конфигурации относительно простое и может быть выполнено без отключения сервиса, возможно понадобится добавить пару дополнительных путей после подключения свичей. В случае необходимости установки iSCSI HBA адаптера, остановка хоста неизбежна.
  • К положительной стороне такого дизайна можно отнести относительно высокую масштабируемость, простоту настройки и дешевизну сети.
  • К отрицательной стороне такого решения можно отнести потерю фреймов в сети ведущую к увеличению отклика между хранилищем и хостом. Для небольших конфигураций обеспечит более чем приемлемый уровень отклика.


Attribute Value
Fully redundant Yes
Type of network Multi-network
Different host operating systems Yes, with multiple-host configurations
Multipathing required Yes
Type of Storage configuration HA pair
iSCSI 2.0

Так же как и Switched iSCSI, в случае iSCSI 2.0 используются свичи, но они должны поддерживать DCB. В этом дизайне также понадобятся сетевые адаптеры поддерживающие DCB как на хосте так и на хранилище. Таким образом DCB должен поддерживаться на всем пути следования iSCSI трафика. DCB известен также как Lossless Ethernet, он обеспечивает гарантированную доставку фреймов повышая надежность, производительность и скорость отклика до уровня FC. Важно отметить, что DCB поддерживают все конвергентные Ethernet порты на хранилищах NetApp FAS (нет «выделенных» iSCSI или FCoE портов) и могут быть использованы для всех типов трафика: iSCSI (2.0), FCoE, NFS, CIFS (SMB), в том числе и одновременно. На хосте поддерживаются CNA (HBA) адаптеры QLogic 8300 для работы с DCB, этот адаптер позволяет оффлоадить нагрузку с CPU хоста обеспечивая низкую скорость отклика хранилища. Некоторые дополнительные фичи свичей могут улучшить и без того низкий уровень отклика для iSCSI, к примеру CLEAR-Flow.
  • Таким образом для перехода от Switched iSCSI к iSCSI 2.0 необходимо заменить сетевые карты и свичи на DCB совместимые, полостью оставляя топологию сети и схему мультипасинга, как она была. DCB настраивается на сетевых картах и свичах. Оставшиеся после замены старые «обычные» свичи можно задействовать для подключения клиентов к серверам. Обновление с Switched iSCSI конфигурации без приостановки в обслуживании возможно при условии что iSCSI HBA адаптер уже установлен в хост. В случае необходимости установки iSCSI HBA адаптера, остановка хоста неизбежна.

К преимуществам iSCSI over DCB можно отнести:

  • Относительная простота настройки коммутаторов
  • Низкий отклик от хранилища до приложения
  • Возможность использования QoS в средах со смешанным трафиком
  • Предотвращает потерю фреймов и увеличивает жизнеспособность фреймов Ethernet
  • Увеличенная производительность IP протоколов включая iSCSI.

К недостатки iSCSI over DCB:

  • Архитектура предусматривает не большое число хопов от хоста к хранилищу, в идеале хоп должен быть один.
  • Необходимость расчёта уровня переподписки и соблюдения коэффициента Fan-In в случае увеличения чила хопов.
Attribute Value
Fully redundant Yes
Type of network DCB, Dual fabric
Different host operating systems Yes, with multiple-host configurations
Multipathing required Yes
Type of Storage configuration HA pair
  • Запасной вариант: Все конвергентные порты NetApp FAS лекго могут быть модифицированы простой заменой SFP+ модулей, вместо Ethernet свичей с DCB для iSCSI всегда можно купить FC свичи или задействовать те же Ethernet свичи с DCB для подключения по FCoE, а так как NetApp FAS поддерживает доступ к одному и тому же луну по всем этим протоколам, переключение между протоколами FC/FCoE/iSCSI происходит без потери данных или конвертаций. К отрицательной стороне FC и FCoE можно отнести относительно высокую сложность в настройке коммутаторов. Выбирая между FC и FCoE обратите внимание на статью «FCoE: Будущее Fibre Channel» и статью «Консолидация LAN и SAN сетей ЦОД на базе протоколов DCB и FCoE»
Масштабирование FAS

Есть несколько путей роста систем NetApp FAS:
  1. Добавить полки с дисками (без останова)
  2. Объединить систему в кластер с такой же или старшей маделью (без останова)
  3. Конвертировать контроллер FAS255x в полку, докупить новые контроллеры, переключить конвертированную и все остальные полки на новые контроллеры (простой не избежен)
  4. Объединить в кластер, мигрировать данные в онлайне, вывести старую систему из кластера, конвертировать FAS255x в полку и переключить старые полки в новую систему (без останова)
Выводы

Таким образом протокол iSCSI с хранилищем NetApp FAS может быть базой для начала роста от «маленького ЦОД» до «большого», поэтапно и просто обновляя дизайн сети, соблюдая единый концепт адресации и мультипасинга. При обновлении максимально утилизируется уже приобретённое оборудование. Каждый шаг обновления повышает масштабируемость инфраструктуры ЦОД, её скорость и уменьшает отклик для приложений, при этом выполняя затраты по мере необходимости. Благодаря универсальности СХД FAS, поддержке передовых тенденций развития ЦОД и возможности взаимно заменять протоколы (или использовать их все одновременно в том числе и по тем же портам), легкой масштабируемостью, она является хорошим инвестиционным вложением как для малых так и «больших ЦОД».
Лучшие практики

Подробнее о рекомендациях топологии сети и зонирования для NetApp в картинках.
Очень важно соблюдать лучшие практики при конфигурировании инфраструктуры и проверять матрицу совместимости для достижения максимальной производительности и отказоустойчивости:
TR-3441 Windows Multipathing Options with Data ONTAP: Fibre Channel and iSCSI
WP-7071: «How Do I Get to Ethernet from Here?»
TR-3519: «The Road to 10-Gigabit Ethernet»
WP-7046: «Ethernet Storage»
TR-3441: «iSCSI Multipathing Possibilities on Windows with Data ONTAP»
TR-3163: «Data Protection and Recovery for Network-Attached Storage over IP/Ethernet Networks»
WP-7052: «Converged Enhanced Ethernet—Good for iSCSI SANs»
TR-3519: «The Road to 10-Gigabit Ethernet»
iSCSI 10Gig Performance Tuning With Windows Server
iSCSI Configuration and Provisioning for Windows
TR-3802 Ethernet Storage Best Practices
TR-4182 Ethernet Storage Design Considerations and Best Practices
Best Practices for Network Configuration with NetApp Storage Systems
NetApp Verifying that DCB is configured correctly
Доступны для прохождения курсы «NetApp SAN Design» и «SAN Fundamentals on Data ONTAP» в академии NetApp.

Источники:
sniaesfblog.org/?p=210&cpage=1#comment-82839
blogs.cisco.com/datacenter/the-napkin-dialogues-lossless-iscsi
www.storage-switzerland.com/Articles/Entries/2012/1/17_iSCSI_2.0_-_Using_Data_Center_Bridging_To_Enhance_iSCSI.html
www.snia.org/sites/default/education/tutorials/2010/spring/networking/GaryGumanow-JasonBlosil_iSCSI_Lossless_Ethernet_DCB.pdf
www.slideshare.net/extreme-muk/i-scsi-extremeintelnetappclearflow

Замечания по ошибкам и предложения правок в тексте прошу направлять в ЛС.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *