Home Сетевое оборудование Настройка системы хранения данных MSA 2040/2050

Настройка системы хранения данных MSA 2040/2050

by admin
1,4K views
MSA 2050 335x220 1

Задача : Настроить систему хранения данных MSA 2050 , для работы с гипервизором Hyper-V под операционную систему Windows Server 2016. Подробный User Guide Basic configuration msa 2040/2050

Нам понадобится Ноутбук , кабель mini usb, свободные ip адреса в локальной сети и Официальная документация по MSA 2050 на свякий пожарный ее всегда нужно иметь.

Когда MSA 2050 только из коробки, она имеет настройки заданные с завода. На двух контроллерах A и B заданы статические ip адреса  10.0.0.2 (controller A), 10.0.0.3 (controller B), IP Subnet Mask: 255.255.255.0 , Gateway IP Address: 10.0.0.1.

Можно настроить либо руками на сетевой карте любой ip в сети 10.0.0 кроме 10.0.0.2 c маской 255.255.255.0 и попасть сразу на веб интерфейс

В адресной строке введем адрес контроллера https://10.0.0.2
Авторизуемся через Логин пароль он в середине статьи
После авторизации переходим в System Settings и там можно поменять ip, добавить пользователя, включить ssh, настроить уведомления на почту.

Как видно на скриншоте , в Network , можно задать статический ip адрес для двух контроллеров msa 2050

либо настроить руками ip адрес через cli , что я буду описывать ниже.

Качаем драйвер под mini usb для связи с MSA 2050 по официальной ссылке >Здесь<
После установки перевставляем usb шнур и видим как у нас настроилось оборудование

Подключатся в COM порт мы будем через программу Putty , скачать Putty x64 можно сдесь по ссылке
Запускаем Putty, во вкладке Serial выбираем номер порта который определился в системе и скорость, скорость при данном соединении будет 115200

и нажимаем Open
Нас должно встретить вот такое окно

Логин и пароль по умолчанию в системам хранения данных типа P2000 , msa 2040/2050
Login : manage
Password: !manage
Для прошивок Firmware versions VE270P003 and VL270P003 , возможно и в следующих будущих прошивках установлен другой пароль:
Login: manage
Password: !HPinvent00

На заметку : !!! Как восстановить пароль для MSA 2050 ? Ответ никак , создаем кейс через техподдержку hp , у нас забирают 2 контроллера , через время отдают уже со сброшенным manage. Будьте осторожны когда меняете пароль , постарайтесь не потерять его и своевременно запись в какой то файлик с паролями.

Назначаем ip адреса

# set network-parameters ip 10.130.50.12 netmask 255.255.254.0 gateway 10.130.50.2 controller a
 
Success: Command completed successfully. - Request to set network parameters has been initiated. Please allow up to two minutes for the operation to complete. In the case of failure, previous settings will be restored.
 
# set network-parameters ip 10.130.50.13 netmask 255.255.254.0 gateway 10.130.50.2 controller b
 
Success: Command completed successfully. - Request to set network parameters has been initiated. Please allow up to two minutes for the operation to complete. In the case of failure, previous settings will be restored.

После назначения идем в браузер и открывает тот ip который задали на контроллере по протолоку https

Пароль на вход у нас как на терминальный вход
Login : manage
Password: !manage
ЛИБО
Login: manage
Password: !HPinvent00

Переходим к настройке MSA 2050 через веб интерфейс

Удостоверимся что на данный момент у нас нет никаких деградаций и ошибок

Можно начинать собирать пул из дисков

Выбираем имя дисковой группы в поле Name , в поле Data Protection , выбираем тип Raid массива , мой выбор пал на raid 6.
Raid 5 — 1 диска чётности
Raid 6 — 2 диска чётности

На тему калькуляторов рейд , ссылки на Raid калькуляторы

Расчет свободного места от Synology
Расчет свободного места от Alstore
Почитать отличиния между 5 и 6 Raid

Так как в системе далее я буду настроивать 2 диска для Spare,  это когда вы назначаете диски для автоматической замены вышедшего из строя диска.
Я выберу 10 дисков! из них 2 будет под Spare
Выбираем диски через нажатую клавишу shift и нажимаем Add

Настраиваем Spares

Выделяем 2 диска через shift и нажимаем add Spares

Теперь ждем процесса иницилизации Пула дисков

Процесс инициализации показывается в % , от 0 до 100 % процесс зайдет от 5 до 10 часов.
На заметку : возможные задачи над пулом и их описания.

Current Job. Shows the following current system operations for the disk group, if any are occurring:
 DRSC: Disks in the disk group are being scrubbed.
 INIT: The disk group is being initialized.
 RCON: At least one disk in the disk group is being reconstructed.
 VDRAIN: The disk group is being removed and its data is being drained to another disk group.
 VPREP: The virtual disk group is being prepared for use in a virtual pool.
 VRECV: The virtual disk group is being recovered to restore its membership in the virtual pool.
Pool Information Virtual: Name, serial number, size, available, overcommit, pool overcommitted, low threshold, mid
threshold, high threshold, allocated pages, snapshot pages, available pages, sector format, health
Viewing pools 83
 VREMV: The virtual disk group and its data are being removed.
 VRFY: The disk group is being verified.
 VRSC: The disk group is being scrubbed.
• Status. Shows the status for the disk group:
 CRIT: Critical. The disk group is online but isn't fault tolerant because some of its disks are down.
 DMGD: Damaged. The disk group is online and fault tolerant, but some of its disks are damaged.
 FTDN: Fault tolerant with a down disk. The disk group is online and fault tolerant, but some of its disks are down.
 FTOL: Fault tolerant and online. The disk group is online and fault tolerant.
 MSNG: Missing. The disk group is online and fault tolerant, but some of its disks are missing.
 OFFL: Offline. Either the disk group is using offline initialization, or its disks are down and data may be lost.
 QTCR: Quarantined critical. The disk group is critical with at least one inaccessible disk. For example, two disks are
inaccessible in a RAID-6 disk group or one disk is inaccessible for other fault-tolerant RAID levels. If the
inaccessible disks come online or if after 60 seconds from being quarantined the disk group is QTCR or QTDN, the
disk group is automatically dequarantined.
 QTDN: Quarantined with a down disk. For example, the RAID-6 disk group has one inaccessible disk. The disk
group is fault tolerant but degraded. If the inaccessible disks come online or if after 60 seconds from being
quarantined the disk group is QTCR or QTDN, the disk group is automatically dequarantined.
 QTOF: Quarantined offline. The disk group is offline with multiple inaccessible disks causing user data to be
incomplete.
 QTUN: Quarantined unsupported. The disk group contains data in a format that is not supported by this system.
For example, this system does not support linear disk groups. For more information, see “About the handling of
linear storage” (page 17).
 STOP: The disk group is stopped.
 UNKN: Unknown.
 UP: Up. The disk group is online and does not have fault-tolerant attributes.

Прошло 7 часов , текущей задачи нету , можно переходить к созданию Volume

Создание Volume

Volume – Create Virtual Volume

Придумаываем название Volume Name и Size (Так как у меня схд для гипервизора я выбрал полный размер Volume) в поле Size помимо цифр нужно указать обьем буквами типа MB,GB,TB (Мегабайты, Гигабайты, Терабайты)

Volume создался , в отличии от пула , он создается моментально

Теперь нам нужно привязать Volume к SAS портам на выходе из msa 2050 .
Выбираем наш volume и через shift выбираем хосты , после нажимаем map

Появится выпадающее меню с портами , я выбрал все так как больше 2 портов я подключать не буду и Volume у меня один. И нажимаем OK

Переходим на Hyper-v, было

Нажмем Rescan Disks

и вот у нас появились наши заветные диски

Но возникла проблема, в msa 2050 после соединения видно 2 диска, место одного которого мы сделали.
Для решения нам нужно частично настроить MPIO , по иструкции с официального сайта microsoft docs
нам нужно пройти по двум шагам Установить MPIO , и поставить 1 галочку , какую описываю ниже

Настройка MPIO

To configure MPIO for StorSimple volumes

  1. Open the MPIO configuration. Click Server Manager > Dashboard > Tools > MPIO.
  2. In the MPIO Properties dialog box, select the Discover Multi-Paths tab.
  3. Select Add support for iSCSI devices, and then click Add.

4. Reboot the server when prompted.После перезагрузки сервера видим уже 1 диск как и хотели  , выбираем таблицу GPT и нажимаем ок

На этом настройка завершена.

Статьи из этой категории

Leave a Comment