• СХД HP MSA P2000 G3 Modular Smart Array и учётные данные по умолчанию

    HP MSA P2000 G3 Modular Smart Array and hidden admin with default passwordВ конфигурации по умолчанию у контроллеров управления системы хранения данных HP MSA P2000 G3 имеется несколько встроенных учётных записей. Пароли этих учётных записей любой вменяемый администратор сменит при первой же настройке контроллеров управления. Однако, даже много лет проработав с подобной железкой, и предполагая, что в этой области нет никаких "белых пятен", в один прекрасный день можно открыть для себя совершенно удивительные и неизвестные ранее подробности, от которых на голове могут зашевелиться волосы.

    Читать далее...

  • Перенос ОС Windows Server 2012 R2 с массива RAID-1 SAS HDD на массив RAID-1 SATA SSD на RAID-контроллере HPE Smart Array P440ar сервера HPE ProLiant Gen9 (без переустановки ОС)

    Migrate RAID Array with HPE Smart Array AdministratorПри создании RAID-массивов на контроллерах HPE Smart Array не допускается комбинированное использование дисков с разными интерфейсами (SAS и SATA) в рамках одного массива. Поэтому, в случае, если ранее операционная система сервера была установлена на RAID-массив, состоящий из дисков одного типа (например SAS HDD), то в случае необходимости переноса ОС на диски другого типа (например SATA SSD), нам потребуется создать отдельный RAID-массив из дисков такого типа. Здесь мы рассмотрим пример подобного переноса ОС Windows Server 2012 R2, развёрнутой на сервере HPE ProLiant Gen9, без необходимости переустановки ОС, то есть с минимальным временем простоя сервера.

    Читать далее...

  • Конвертируем NAS-сервер HP ProLiant DL320s G1 в дисковый массив DAS

    Convert HP ProLiant DL320s G1 NAS Server to DAS Disk ArrayПрактическая работа с серверами HP ProLiant DL320s G1 Storage Server (AG651A) каждый раз приводит меня к мысли в том, что одним из наиболее проблемных узлов этой модели является RAID-контроллер. При этом стоит отметить тот факт, что сам по себе RAID-контроллер этой модели, то есть HP Smart Array P400, никаких особых нареканий не вызывает при работе на других серверных платформах, например на HP ProLiant DL380 G5. Однако на серверах DL320s с этим контроллером не редко возникают какие-то странные проблемы. Бывало такое, что на контроллере отказывает модуль кеш-памяти. Меняем модуль и контроллер возобновляет свою штатную работу. Снятый и, якобы неисправный, модуль для проверки ставим на другой аналогичный контроллер в другом сервере, и этот модуль … работает. Иногда установка заведомо рабочего модуля не даёт желаемого результата и приходится менять сам RAID-контроллер. В некоторых случаях бывает даже так, что установка заведомо рабочего контроллера с новым модулем памяти не решает проблемы. На одном из таких "мутных" серверов в попытке выявить и ликвидировать причину возникновения подобных "глюков" в своё время даже поочерёдно менялись платы дисковой корзины Backplane Board, но это тоже не дало вменяемого результата. На фоне такого безрадостного опыта мне в руки снова попался очередной аналогичный сервер DL320s с отваливающимся кеш-модулем на RAID-контроллере и мне подумалось, что нужно попробовать найти какой-то кардинальный способ решения этой проблемы.

    Читать далее...

  • Организуем RAM-диск для кластера Windows Server с помощью Linux-IO FC Target

    RAMdisk in Windows failover cluster using LIO FC TargetИзучая разные методы повышения производительности работы СУБД SQL Server, добрался до такой интересной темы, как использование RAM-диска для размещения файлов нагруженной системной базы данных tempdb. Выяснил для себя то, что из работоспособных свободно-распространяемых инструментов для организации RAM-диска под ОС Windows Server на текущий момент многие выделяют утилиту imDisk Toolkit. Однако этот инструмент, как и прочие его аналоги, не получится использовать в кластерных конфигурациях SQL Server, где использование ресурсов оперативной памяти (далее ОЗУ) в любой момент времени может быть переключено с одного кластерного узла на другой. То есть, если и использовать в кластере RAM-диск, то он должен быть одинаково доступен всем узлам кластера, как и любой другой кластерный диск, участвующий в конфигурации кластеризованного экземпляра SQL Server. Читать далее...

  • Про “Российские” аккумуляторы ВОСТОК

    Russian battery VOSTOKПланируя замену аккумуляторных батарей (АКБ) на ИБП, решил немного прошуршать по интернет-сайтам в поисках предлагаемых коммерсантами альтернативных решений. Обнаружил неизвестную мне доселе марку аккумуляторов “ВОСТОК”. Сайты, предлагающие АКБ, презентуют нам этот бренд, как “Российскую марку аккумуляторов, спроектированную для промышленных ИБП и систем автономной энергетики как доступный аналог дорогих западных брендов….”. И цена таких аккумуляторов, по сравнению с другими брендами, действительно более умеренная. В общем решили мы из любопытства взять пару аккумуляторов модели ВОСТОК СК-1212 (12В 12Ач).

    Читать далее...

  • Исправляем проблему малого времени работы от батарей после смены аккумуляторов и калибровки на ИБП APC Smart-UPS 5000 (SU5000RMI5U)

    Многим администраторам, обслуживающим серверную инфраструктуру так или иначе приходилось сталкиваться в своей работе с широко распространённой линейкой источников бесперебойного питания (ИБП) Smart-UPS торговой марки APC by Schneider Electric. Многие из тех, кому самостоятельно приходилось заниматься заменой батарейных картриджей и/или (о боже!) заменой аккумуляторных батарей в батарейных картриджах в этих ИБП, хорошо знают о том, что после замены батарей нужно проводить калибровку ИБП (Runtime Calibration) для того, чтобы ИБП скорректировал расчётное время работы от батарей. Однако далеко не все знают о том, что после смены батарей на некоторых моделях "умных" ИБП APC требуются дополнительные манипуляции по сбросу внутренних регистров блока управления ИБП для того, чтобы время работы от батарей рассчитывалось действительно корректно. В этой заметке мы рассмотрим пример того, как отсутствие необходимых действий может привести к некорректной работе ИБП и то, как это можно исправить.

    Читать далее...

  • Серверы HPE ProLiant DL380 G9 и режим охлаждения в конфигурации по умолчанию

    Настраивая контроллеры iLO4 на партии серверов HPE ProLiant DL380 G9 обратил внимание на пару моментов, касающихся режима охлаждения. Серверы поколения G9 обладают широким набором температурных сенсоров и позволяют в реальном режиме времени наглядно получать картину распределения нагрева в разных зонах серверной платформы. В моём случае все серверы установлены в одном серверном помещении (в разных шкафах) и имеют на входе (в районе лицевой панели) примерно одинаковую температуру в пределах 16-17С. Однако посмотрев на 3D-модель температурного графика я заметил, что ситуация выглядит так, как будто вентиляторы не справляются со своей работой и в некоторых зонах сервера нагрев достигает 68-70С.

    Читать далее...

  • Удалённая эксплуатация службы Cisco Smart Install в коммутаторах Cisco Catalyst

    Буквально на днях была опубликована любопытная статья Embedi Blog - Cisco Smart Install Remote Code Execution, описывающая пример эксплуатации уязвимости службы Smart Install в коммутаторах Cisco CVE-2018-0171, которой сам вендор присвоил критический уровень опасности. Приведённый в статье пример содержит скрипт, с помощью которого можно удалённо вызвать отказ в обслуживании устройства Cisco (краш IOS с последующей перезагрузкой устройства), на котором выполняется служба Smart Install. Это очередное напоминание сетевым администраторам о том, что к данной службе нужно строго ограничивать доступ, либо вовсе отключать её в том случае, если её функционал не используется. Безотносительно упомянутой уязвимости, в этой заметке мы рассмотрим наглядный пример несанкционированного удалённого управления коммутатором Cisco, на котором не настроено ограничение доступа к службе Smart Install.

    Читать далее...

  • Пара приёмов работы с TUI через PuTTy

    При удалённом подключении клиентом PuTTy по протоколам Telnet или SSH к какой-либо Linux-системе, железке типа СХД или другому сетевому оборудованию, в некоторых случаях может возникать небольшое ощущение дискомфорта от явлений, относящихся к "вирвиглазной" тематике. Здесь я поделюсь парой простых приёмов, делающих работу с PuTTy немножко приятней.

    Читать далее...

  • Использование сервера с FC HBA QLogic на базе Debian GNU/Linux 9.3 и SCST в качестве СХД для томов CSV в кластере высоко-доступных виртуальных машин Hyper-V

    Имеем удалённую площадку с одним хостом виртуализации на базе гипервизора Hyper-V (Windows Server 2012 R2) и пачкой виртуальных машин, запущенных на этом хосте. Всё работает, но есть желание хоть как-то повысить доступность виртуальных машин, так как в периоды обслуживания хоста возникает необходимость выключения всех ВМ, что в некоторых ситуациях приводит к нежелательным последствиям. Логичным решением здесь выступает построение, как минимум, двух-узлового кластера высоко-доступных виртуальных машин Hyper-V на базе Windows Failover Cluster. В таком кластере виртуальные машины должны размещаться на общем дисковом томе Cluster Shared Volumes (CSV), который должен быть доступен обоим хостам виртуализации. То есть, предполагается, что для построения кластера нам потребуется какое-то внешнее дисковое хранилище (СХД), к которому могут быть подключены хосты виртуализации.

    Однако в нашем случае СХД на удалённой площадке нет, но есть свободные серверы. В этой заметке мы рассмотрим пример того, как с помощью Debian GNU/Linux 9.3 и свободно-распространяемого ПО Generic SCSI Target Subsystem for Linux (SCST) из обычного сервера сделать СХД. В результате у нас появится возможность создать двух-узловой кластер высоко-доступных виртуальных машин Hyper-V с подключением к третьему серверу, который будет использоваться в качестве СХД для организации общего тома CSV.

    Читать далее...