• Восстановление утерянного пароля root на сервере Avaya Aura Session Manager/Communication Manager 8.1 с ОС RHEL 7

    Recovering a lost root password on an Avaya Aura Session Manager and Communication Manager 8.1 server running RHEL 7Так случилось, что на этапе внедрения Avaya Aura несогласованные действия администраторов привели к утере пароля пользователя root на виртуальных серверах Avaya Aura Session Manager 8.1 (на базе ОС Red Hat Enterprise Linux 7.9) и Avaya Aura Communication Manager 8.1 (на базе ОС Red Hat Enterprise Linux 7.6). Рассмотрим вариант шагов, которые можно предпринять в такой ситуации, для восстановления пароля.

    Читать далее...

  • Конвертация формата загрузчика Legacy BIOS (таблица разделов MBR) в формат UEFI (таблица разделов GPT) на диске виртуальной машины Hyper-V для аплайнса Avaya Meetings (Equinox) с гостевой ОС RHEL 7.6

    Converting the Legacy BIOS bootloader format (MBR partition table) to UEFI format (GPT partition table) on the Hyper-V virtual machine disk for the Avaya Meetings (Equinox) virtual appliance with RHEL 7.6 guest OSЗапущенный ранее виртуальный аплайнс Avaya Meetings (Equinox) Management Server 9.1 может функционировать в формате Hyper-V Gen1, так как на его виртуальном диске используется таблица разделов MBR и загрузчик Legacy BIOS. Если мы хотим улучшить конфигурацию ВМ до уровня Hyper-V Gen2, то нам потребуется выполнить процедуры преобразования таблицы разделов на диске в формат GPT и подготовки гостевой ОС Red Hat Enterprise Linux (RHEL) к использованию UEFI загрузчика. В этой заметке мы рассмотрим данные процедуры на примере "родственного" аплайнса Avaya Meetings (Equinox) Media Server 9.1 на базе ОС RHEL 7.6.

    Читать далее...

  • Запуск аплайнса Avaya Meetings (Equinox) Management Server 9.1 в среде Hyper-V и исправление ошибки загрузки RHEL "Warning dracut-initqueue timeout - starting timeout scripts"

    Avaya Meetings (Equinox) Management Server 9.1 in Hyper-V environment and fixing RHEL boot error "Warning dracut-initqueue timeout - starting timeout scripts"Виртуальный аплайнс Avaya Meetings (Equinox) Management Server 9.1 из состава программно-аппаратного комплекса Avaya Aura, поставляется в виде образа OVA и в случае, если попытаться  запустить этот аплайнс на платформе виртуализации Hyper-V, можно столкнуться с проблемой невозможности загрузки гостевой ОС Red Hat Enterprise Linux (RHEL). Посмотрим как можно решить эту проблему.

    Читать далее...

  • Как изменить разрешение экрана консоли виртуальной машины Hyper-V при загрузке Red Hat Enterprise Linux

    How to change the console screen resolution of a Hyper-V virtual machine when booting into Red Hat Enterprise LinuxПри работе с Linux системами иногда возникают проблемы, разобраться с которыми можно только при прямом подключении к консоли Linux и привычные удобные инструменты удалённого доступа, типа любимого SSH-клиента, в такие моменты могут быть недоступны. В среде виртуализации можно столкнуться с ситуацией, когда Linux система загружается с низким разрешением экрана и это делает крайне неудобной работу с данными, выводимыми на консоль.

    Читать далее...

  • Миграция виртуальной машины c Linux CentOS 6 (Avaya IP Office Server) из среды oVirt в Hyper-V Gen2 с конвертацией диска из формата загрузчика Legacy BIOS (таблица разделов MBR) в формат UEFI (таблица разделов GPT)

    Linux CentOS 6 covert from MBR to EFI in Hyper-V VMВ прошлый раз мы пошагово рассмотрели пример миграции виртуальной машины с гостевой ОС Linux Debian 8 c платформы виртуализации oVirt на платформу Hyper-V. При этом мы провели MBR –> GPT конвертацию диска ВМ для возможности запуска в формате Hyper-V Gen2 с загрузчиком UEFI. В этой заметке мы в более сжатом виде рассмотрим пример аналогичной миграции, но уже для виртуальной машины с ПО Avaya IP Office Server на базе CentOS 6 с учётом нюансов, относящихся к данной ОС.

    Читать далее...

  • Дедупликация хранилища резервных копий виртуальных машин oVirt с помощью Virtual Data Optimizer (VDO) на CentOS Linux 7.5

    Deduplication of oVirt virtual machine backup storage using the VDO on CentOS Linux 7.5Когда-то мы уже рассматривали вариант организации дедуплицированного хранилища резервных копий виртуальных машин oVirt с помощью ПО QUADStor Storage Virtualization на CentOS Linux 7.2. Со временем описанная в той заметке конфигурация была переведена на ОС Debian GNU/Linux 9 и так работала до тех пор, пока нас не стало напрягать время остановки и запуска службы QUADStor тогда, когда требовалась перезагрузка хоста. Было решено попробовать возможности дедупликации Virtual Data Optimizer (VDO) в составе CentOS Linux 7 в качестве альтернативы дедупликации от QUADStor. В этой заметке мы и рассмотрим базовые теоретические моменты использования VDO с практическим примером применительно к нашей задаче резервного копирования виртуальных машин.

    Читать далее...

  • Миграция виртуальной машины oVirt 4.2 на Hyper-V (конвертация в VHDX)

    oVirt to Hyper-V VM migrationПоследний опыт общения с технической поддержкой HPE относительно проблемы работоспособности виртуальной машины c ПО 3PAR Virtual Service Processor (VSP) выявил интересный факт. В один прекрасный момент наш виртуальный сервер VSP перестал отправлять информацию о состоянии СХД 3PAR на серверы сбора логов на стороне HPE. При этом тесты на проверку подключения к серверам HPE из веб-интерфейса VSP (SPOCC) проходили успешно. Диагностика проблемы инженером поддержки 3PAR показала, что отсылка файлов ломается на этапе проверки информации о платформе виртуализации VSP. Наша виртуальная машина была развёрнута на oVirt, и, как я понял, сервер сбора HPE с какого-то момента времени стал считать это криминалом.

    Читать далее...

  • Развёртывание и настройка oVirt 4.0. Часть 8. Ускорение запуска веб-порталов oVirt в конфигурации Hosted Engine

    В ходе работ по настройке oVirt Engine 4.0.4 можно заметить то, что после перезапуска главной службы ovirt-engine, последующее первое обращение к веб-порталам oVirt приводит к длительному ожиданию открытия веб-страницы. При этом все последующие открытия веб-страниц работают быстро. Обратившись с соответствующим с вопросом в мэйл-группу oVirt я оперативно получил ответ на свой вопрос.

    Читать далее...

  • Настройка Network Bonding с LACP между CentOS Linux 7.2 и коммутатором Cisco 3560G

    imageНа серверах имеющих несколько сетевых интерфейсов каждый отдельно взятый интерфейс можно использовать под какую-то выделенную задачу, например отдельный интерфейс под трафик управления хостом и отдельный интерфейс под трафик периодического резервного копирования. Может возникнуть мысль о том, что такая конфигурация имеет свои плюсы, например, позволяет максимально жёстко разграничить утилизацию интерфейсов под особенности разных задач. Но на этом плюсы, пожалуй, и заканчиваются. Ибо при таком подходе может получиться так, что один интерфейс будет постоянно чем-то чрезмерно нагружен, а другой интерфейс будет периодически полностью простаивать. К тому же, в такой схеме каждый из физических интерфейсов будет выступать как конкретная сущность, при выходе из строя которой будет происходить остановка того или иного сетевого сервиса, жёстко связанного с этой сущностью. C точки зрения повышения доступности и балансировки нагрузки, более эффективными методом использования нескольких сетевых интерфейсов сервера является объединение этих интерфейсов в логические сущности с использованием технологий Network Bonding и Network Teaming.

    В этой заметке на конкретном примере мы рассмотрим то, как с помощью технологии Network Bonding в ОС CentOS Linux 7.2 можно организовать объединение физических сетевых интерфейсов сервера в логический сетевой интерфейс (bond), а уже поверх него создать виртуальные сетевые интерфейсы под разные задачи и сетевые службы с изоляцией по разным VLAN. Агрегирование каналов между коммутатором и сервером будет выполняться с помощью протокола Link Aggregation Control Protocol (LACP) регламентированного документом IEEE 802.3ad. Использование LACP, с одной стороны, обеспечит высокую доступность агрегированного канала, так как выход из строя любого из линков между сервером и коммутатором не приведёт к потери доступности сетевых сервисов сервера, и с другой стороны, обеспечит равномерную балансировку нагрузки между физическими сетевыми интерфейсами сервера. Настройка в нашем примере будет выполняться как на стороне коммутатора (на примере коммутатора Cisco Catalyst WS-C3560G), так и на стороне Linux-сервера с двумя сетевыми интерфейсами (на примере сервера HP ProLiant DL360 G5 с контроллерами Broadcom NetXtreme II BCM5708/HP NC373i)

    Читать далее...

  • Настраиваем Device Mapper Multipathing в CentOS Linux 7.2 для FC HBA при подключении к СХД HP 3PAR 7200 (3PAR OS v. 3.2.2)

    imageВ этой заметке будет рассмотрен пример того, как настроить многоканальное (Multipath) подключение оптических хост-контроллеров (FC HBA) Emulex/QLogic, установленных в сервере на базе ОС CentOS Linux 7.2, к системе хранения данных (СХД) HP 3PAR 7200 (версия firmware 3PAR OS - 3.2.2). Для настройки multipath в CentOS мы будем использовать возможности модуля ядра Linux - dm-multipath (Device Mapper Multipath, DM Multipath).

    Онлайн документация по DM Multipath, доступная на сайте CentOS.org по сути дублирует документацию с сайта RedHat и является уже устаревшей. Более актуальную версию (для 7 ветки RHEL) можно найти на сайте RedHat. Если с английским языком есть сложности, то для общего понимания первично можно заглянуть в переведённое на русский язык руководство для RHEL 6.

    Читать далее...