Развёртывание и настройка oVirt 4.0. Часть 3. Базовые операции в oVirt

imageВ этой заметке мы рассмотрим некоторые базовые приёмы работы с oVirt 4.0 в конфигурации Hosted Engine, то есть основные действия, которые может потребоваться выполнить администратору после развёртывания oVirt. Чтобы начать работу с oVirt, нужно хотя бы на базовом уровне понимать значение компонент инфраструктуры этого продукта. Довольно простым и доступным языком описал основные компоненты oVirt Александр Руденко в своём блоге: oVirt часть 4. Настройка инфраструктуры. Рекомендую к предварительному прочтению.

Инициализация Data Center

После того, как мы начнём ознакомление с веб-консолью портала администрирования oVirt на свежей инсталляции, мы можем обнаружить, что в консоли не отображается информация о присутствии виртуальной машины с oVirt Hosted Engine, а также о дисковом разделе из FC SAN на СХД, на который была установлена эта виртуальная машина. Как я понял, причина заключается в том, что наш Data Center (верхний уровень иерархии oVirt) не проинициализирован. Для того, чтобы выполнить его инициализацию, можно воспользоваться функцией подсказки Guide Me на панели кнопок вкладки Data Centers или в контекстном меню нашего дата-центра по умолчанию Default, который был автоматически создан в процессе развёртывания oVirt.

image_thumb15

Инициализация Дата-Центра невозможна без предоставления в распоряжение oVirt дискового хранилища, на котором будут располагаться создаваемые виртуальные машины. Поэтому, в первую очередь, в открывшемся окне выбираем пункт Configure Storage

image_thumb16[1]

Откроется форма добавления хранилища к oVirt. Так как мы намереваемся подключить дисковое хранилище для размещения виртуальных машин, выберем в поле Domain Function значение Data. Тип хранилища Storage Type выбираем тот, который у нас планируется использовать (в нашем случае это Fibre Channel). В поле Use Host выбираем хост, с которого будет произведена проверка доступа к хранилищу и зададим понятное нам имя хранилища в поле Name. Поле Description по моим наблюдениям в oVirt 4.0.1 при добавлении FC Data Domain не сохраняется, возможно этот недочёт исправят в будущих версиях. После выбора хоста в табличной части формы появится список доступных на этом хосте LUN-ов. Малый LUN размером 90GB в нашем случае уже используется под виртуальную машину Hosted Engine, поэтому здесь мы выбираем второй свободный LUN размером 2000GB.

image_thumb17[1]

Через несколько секунд после того, как я добавил в oVirt новый чистый FC LUN для хранения виртуальных машин, в веб-консоли появилась информация и о LUN-e под виртуальную машину oVirt Engine, а статус Дата-Центра изменился на Up

image_thumb18

Кстати, присваиваемое по умолчанию имя Data Domain "hosted_storage" можно при желании переименовать (в System > Data Centers > Default > Storage – выбрать имя нужного Data Domain и нажать Manage Domain)

image_thumb19

После инициализации Дата-Центра в веб-консоли должна появиться информация и о работающей виртуальной машине Hosted Engine.

Подключение ISO Domain

После первичной инициализации Дата-Центра и Кластера указанное в процессе развёртывания oVirt Engine хранилище NFS, предназначенное для хранения ISO-образов (ISO Domain), в веб-консоли может быть не видно. Если так, то в первую очередь на ВМ Engine стоит проверить содержимое файла /etc/exports.d/ovirt-engine-iso-domain.exports. При необходимости можно подправить этот файл, например так:

# cat /etc/exports.d/ovirt-engine-iso-domain.exports

# /var/nfs-ovirt-iso-share/files  10.1.0.0/24(rw,sync,no_root_squash,no_subtree_check)
/var/nfs-ovirt-iso-share/files KOM-AD01-VM3*.holding.com(rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)

После правки файла экспорта, заставим NFS сервер перечитать новые параметры:

# exportfs -rv

После этого проверим, какие шары может отдавать NFS-сервер:

# exportfs

/var/nfs-ovirt-iso-share/files
                KOM-AD01-VM3*.holding.com

Будем считать, что наш NFS сервер настроен так как надо, и теперь можно попробовать присоединить ISO Domain в oVirt. Для этого в веб-консоли переходим к System > Data Centers > Default > на закладке Storage жмём кнопку Attach ISO

image_thumb29

В открывшейся форме выбираем ранее описанный ISO Domain

image_thumb30

После этого в веб-консоли нам станет доступно это хранилище для размещения ISO-образов.

image_thumb31[1]

Опять же, при необходимости можно переименовать только что присоединённый ISO Domain. Сделать это можно в System > Data Centers > Default > Storage  - выбрать нужный ISO Domain и нажать Manage Domain. Для большей наглядности я переименую заданное в процессе развёртывания oVirt имя ISO_DOMAIN, например, в NFS-HEngine-ISO:

image_thumb32

Загрузка ISO образов в ISO Domain

Возможности прямой загрузки ISO образов в ISO Domain через веб-интерфейс oVirt нет. Загрузить ISO образы можно непосредственно на виртуальном сервере Hosted Engine. Для примера я добавлю загрузочный инсталляционный образ Ubuntu Server 16.04 LTS. Как я понял, для этого действия предполагается иметь на локальной файловой системе сервера заранее скачанный ISO-образ и использовать утилиту ovirt-iso-uploader для его копирования в ISO Domain.

# wget http://releases.ubuntu.com/16.04/ubuntu-16.04.1-server-amd64.iso -P /tmp/
# ovirt-iso-uploader --iso-domain=NFS-HEngine-ISO upload /tmp/ubuntu-16.04.1-server-amd64.iso --force

Please provide the REST API password for the admin@internal oVirt Engine user (CTRL+D to abort):
Uploading, please wait...
INFO: Start uploading /tmp/ubuntu-16.04.1-server-amd64.iso
Uploading: [########################################] 100%
INFO: /tmp/ubuntu-16.04.1-server-amd64.iso uploaded successfully


# rm /tmp/ubuntu-16.04.1-server-amd64.iso

Хотя, в нашем случае, можно воспользоваться более простым вариантом добавления образов - загружая их из Интернета прямо в каталог, где ISO Domain хранит образы. Это каталог вида:
/var/nfs-ovirt-iso-share/files/<идентификатор>/images/11111111-1111-1111-1111-111111111111/

# wget http://mirror.yandex.ru/centos/7/isos/x86_64/CentOS-7-x86_64-Minimal-1511.iso -P /var/nfs-ovirt-iso-share/files/b6773c29-5c80-4825-b345-9bf84ae48bdf/images/11111111-1111-1111-1111-111111111111/
# chmod 640 /var/nfs-ovirt-iso-share/files/b6773c29-5c80-4825-b345-9bf84ae48bdf/images/11111111-1111-1111-1111-111111111111/CentOS-7-x86_64-Minimal-1511.iso
# chown 36:36 /var/nfs-ovirt-iso-share/files/b6773c29-5c80-4825-b345-9bf84ae48bdf/images/11111111-1111-1111-1111-111111111111/CentOS-7-x86_64-Minimal-1511.iso

Обратите внимание на то, что после загрузки желательно выставить на файл разрешения по аналогии с тем, как их выставляет утилита ovirt-iso-uploader.

Теперь проверим состояние ISO Domain в веб-консоли oVirt (System > Data Centers > Default > Storage > выберем соответствующий ISO Domain и на закладке Images проверим доступность загруженных ранее ISO-образов)

image

Как видим, оба образа отображаются и могут быть использованы в дальнейшем для подключения к виртуальным машинам.

Настройка сетей

Создавать логические сети в oVirt имеет смысл в том случае, если, например, в вашей сети используется изоляция разнородного трафика с помощью VLAN. Например, если физические сетевые интерфейсы наших хостов виртуализации подключены к транковым портам коммутаторов, имеющих доступ к множеству VLAN-ов, то с помощью создания виртуальных сетей с определённым VLAN с последующей привязкой этих сетей к сетевым адаптерами виртуальных машин, мы сможем организовать необходимое разделение трафика. В следующем примере мы создадим логическую сеть с номером VLAN 1000. Перейдём в веб-консоли в System > Data Centers > Default > Networks. Здесь мы увидим список доступных сетей нашего Дата-Центра. В данный момент здесь присутствует только сеть ovirtmgmt, которая была автоматически создана в процессе развёртывания oVirt (к этой сети привязан vNIC виртуальной машины Hosted Engine). Чтобы создать новую сеть используем кнопку New

image

В открывшейся форме создания логической сети на вкладке General зададим понятное для нас имя с описанием, укажем номер VLAN-а и включим признак того, что эта сеть может использоваться для виртуальных машин – VM network

image

Так как создаваемые в oVirt логические сети - это объекты уровня Дата-Центра, а в Дата-Центре может быть не один Кластер, на вкладке Cluster мы можем при необходимости настроить привязку этих сетей к конкретным Кластерам. В данном случае мы не меняем предложенных по умолчанию настроек.

image

Профиль vNIC по умолчанию создаётся для сети с одноимённым названием и при желании можно изменить его имя.

image

Подробнее о том, для чего могут использоваться профили vNIC можно почитать здесь. Если кратко, то с помощью множества профилей vNIC в рамках одной логической сети можно реализовать разные возможности виртуальных сетевых адаптеров, например, выбрать различные политики QoS (сами политики QoS настраиваются на уровне Дата-Центра), настроить различные опции сетевой фильтрации, включить Port Mirroring и т.д. Полные настройки профилей доступны в System > Data Centers > Default > Networks на закладке vNIC Profiles при выборе той или иной логической сети.

image

После создания сети, для того чтобы виртуальные машины могли использовать подключение к этой сети, необходимо выполнить привязку этих сетей к физическим сетевым интерфейсам хостов. Перейдём в веб-консоли в System > Data Centers > Default, выберем вкладку Hosts, выберем какой-нибудь хост, к которому хотим выполнить привязку сети, и в нижней части экрана перейдём на закладку Network Interfaces. Здесь мы увидим информацию о сетевых интерфейсах хоста. Нажмём кнопку Setup Host Networks.

image

Откроется форма привязки логических сетей к хосту. В этой форме справа будут перечислены все имеющиеся в oVirt, но не привязанные к хосту сети, а слева текущая сетевая конфигурация хоста. С помощью манипулятора, типа "мышь", перетаскиваем интересующую нас сеть на интерфейс хоста…

image

В нашем случае используется привязка ранее созданной сети с VLAN 1000 к интерфейсу bond0:

image

После этого на хосте будет создан интерфейс с соответствующим номером VLAN и в веб-консоли эта информация будет отображена соответственно:

image

Аналогичным образом нужно выполнить привязку созданной нами логической сети ко всем хостам, где могут оказаться, например в процессе миграции, виртуальные машины, привязанные к данной сети.

Создание новой виртуальной машины

Создадим новую виртуальную машину и установим на неё OC Ubuntu Server 16.04 LTS с ранее загруженного в ISO Domain установочного образа. Переходим в System > Data Centers > Default > закладка Virtual Machines > кнопка New VM.

image

В открывшейся веб-форме создания виртуальной машины сразу нажимаем кнопку Show Advanced Options, чтобы включить расширенный режим настроек. Назначение полей нетрудно понять из их названий. Задаём тип гостевой ОС ВМ, имя ВМ, так как оно будет отображаться в oVirt, описание. Для виртуального интерфейса nic1 выбираем ранее созданный vNIC Profile, который в свою очередь привязан в ранее созданной логической сети. Чтобы создать новый диск для виртуальной машины используем кнопку Create

image

Поверх формы создания виртуальной машины откроется форма создания нового виртуального диска, где мы укажем его размер, понятное имя с описанием, выберем хранилище для размещения файла диска (Storage Domain) и тип распределения данных (Allocation Policy). Не забудем включить опцию Bootable, так планируем устанавливать на этот диск ОС.

image

Таким образом, для примера, я создал первый диск (под гостевую ОС) и дополнительный (под данные приложений).

image

Переходим на вкладку System и настраиваем параметры оперативной памяти, процессора, часовой пояс:

image

На вкладке Console выбираем параметры подключения к консоли виртуальной машины. В данном случае нам доступны два основных графических протокола VNC и SPICE (к особенностям их использования мы вернёмся чуть позже), так как в свойствах ОС выбран тип Linux.

image

На вкладке Host при необходимости можно настроить привязку виртуальной машины к какому-то конкретному хосту в кластере, а также изменить параметры миграции ВМ между хостами.

image

На вкладке High Availability можно настроить приоритет перезапуска виртуальной машины в контексте выполнения операций по автоматическому восстановлению доступности виртуальных машин в кластере.image

На вкладке Resource Allocation настраиваются дополнительные опции, которыми можно контролировать производительность той или иной виртуальной машины, путём определения порядка выделения физических ресурсов этой машине.

image

На вкладке Boot Options определяем порядок использования устройств для загрузки. Здесь мы можем присоединить к виртуальному CD-ROM ранее загруженный в ISO Domain установочный ISO-образ операционной системы Linux, которую мы планируем установить на диск ВМ.

image

Сохраняем настроенный свойства виртуальной машины и пробуем выполнить её запуск из консоли используя пункты меню или кнопки Run или Run Once.

image

Функция Run Once позволяет выполнять запуск виртуальной машины с изменением ряда её параметров, которые не сохраняются в конфигурации этой ВМ при следующем перезапуске, например, именно здесь можно указать единожды монтируемый ISO образ, который нужен для установки ОС и уже не потребуется при следующей перезагрузке ВМ.

image

Подключение к консоли виртуальных машин

После того, как виртуальная машина запущена, мы сможем подключиться к её консоли разными способами. Поддерживаемые варианты подключения к консоли виртуальной машины описаны в онлайн-документе Console Clients Resources. На данный момент поддерживаются 3 протокола SPICE, VNC и RDP. Протокол RDP можно использовать только для виртуальных машин с гостевой ОС Windows. Протокол VNC требует наличия VNC-клиента. Протокол SPICE может работать как через Native SPICE-клиент, так и как HTML5-апплет.

В качестве Native SPICE-клиента можно использовать, например, программу Virt-Viewer. Все доступные для загрузки версии можно найти здесь. Если установка Virt-Viewer планируется на Windows, то на данный момент здесь рекомендуют использовать версию 3 вместо 4-ой, так как в последней имеются какие-то проблемы. Скачиваем и устанавливаем Virt-Viewer, после чего в консоли oVirt, выбрав нужную нам виртуальную машину, нажимаем кнопку с зелёным монитором для подключения к консоли ВМ.

image

Будет скачан файл console.vv и запущен в ассоциированном приложении Virt-Viewer, после чего мы получим доступ к консоли ВМ:

image

При попадании курсора в консоль, управление курсором переходит в виртуальную машину. Для возврата курсора обратно используем сочетание клавиш Shift+F12.

Помимо Native SPICE-клиента можно использовать возможности HTML5 SPICE-клиент, то есть консоль виртуальной машины при этом будет открываться непосредственно в интернет-браузере. Тесты показали, что в Internet Explorer v11 HTML5 SPICE-клиент не работает. В Firefox и Chrome работает, но не всегда стабильно и при условии, что SSL сертификат, используемый в веб-консоли oVirt является доверенным (этого можно добиться либо добавив само-подписанный сертификат oVirt в хранилище доверенных сертификатов пользователя в системе, либо заменить сертификат на веб-сайте oVirt, так как мы сделали это ранее). Однако не смотря на то, что даже если требование доверия браузера сертификату соблюдено мы можем получить ошибку типа:

WebSocket error: Can't connect to websocket on URL: wss://kom-ad01-ovirt1.holding.com:6100

image

В прошлой заметке (в последнем абзаце) был описан способ решения этой проблемы, подсказанный в мейл-группе oVirt. Напомню, что смысл его в том, чтобы откорректировать конфигурационный файл /etc/ovirt-engine/ovirt-websocket-proxy.conf.d/10-setup.conf, изменив в нём значение переменных SSL_CERTIFICATE и SSL_KEY.

Для более комфортной работы при подключении по протоколу SPICE, в гостевую ОС виртуальной машины можно дополнительно установить такие  компоненты , как агент SPICE vdagent и видео драйвер SPICE QXL. Загрузить их можно по ссылке SPICE Download (секция "Guest"). В некоторых дистрибутивах GNU/Linux видеодрайвер SPICE QXL уже входит в базовый сосав ОС.

Установка компонент интеграции в виртуальные машины

Основную информацию о гостевых агентах oVirt можно найти в документе Understanding Guest Agents and Other Tools. В этом же документе можно найти таблицу совместимости компонент интеграции с разными типами гостевых систем Linux и Windows.

Компоненты интеграции гостевых ОС в среду виртуализации oVirt состоят из дополнительно устанавливаемых в гостевую ОС агентов oVirt Guest Agent, SPICE Agent и драйверов VirtIO Drivers.

oVirt Guest Agent

Информация о том, какие преимущества даёт установка oVirt Guest Agent доступна в документе Guest Agent. Примеры установки гостевого агента на разные дистрибутивы Linux есть в серии How to install the guest agent in .… Например, в нашей виртуальной машине с гостевой ОС Ubuntu 16.04 LTS агент установился из официальных репозиториев, однако после его установки потребовалась корректировка прав на каталог для логов службы ovirt-guest-agent, иначе служба отказывалась стартовать:

$ sudo apt-get install ovirt-guest-agent
$ sudo chown ovirtagent:ovirtagent -R /var/log/ovirt-guest-agent
$ sudo systemctl enable ovirt-guest-agent
$ sudo reboot
$ sudo service ovirt-guest-agent status

image

После того, как служба агента запущена в виртуальной машине, в веб-консоли oVirt нам станут доступны дополнительные сведения о текущем состоянии гостевой ОС. В частности, на закладке General появится информация о текущем состоянии утилизации оперативной памяти внутри ВМ.

image

Так же появится дополнительная информация на закладках Applications, Guest Info и других

image

На другую нашу виртуальную машину c Hosted Engine на базе CentOS 7.2 агент был установлен из ранее подключённого репозитория EPEL (yum install epel-release) следующей последовательностью команд:

# yum -y install ovirt-guest-agent
# systemctl enable ovirt-guest-agent
# systemctl start ovirt-guest-agent
# service ovirt-guest-agent status

По поводу установки агента в гостевые системы на базе ОС Windows мы останавливаться не будем, так как в нашем случае виртуализация oVirt разворачивается исключительно под Linux/Unix системы, а для для Windows систем есть более дружелюбная среда на базе гипервизора Hyper-V. Однако, для желающих эксплуатировать гостевые системы на базе Windows, в oVirt есть статья с примером установки гостевого агента в записи блога Open Source Community - How to Install oVirt's Windows Guest Tools.

SPICE Agent

Простая инструкция по установке агента SPICE vdagent, расширяющего возможности работы с консолью гостевых ОС Linux есть в документе How to install the spice guest agent. На разных дистрибутивах Linux в общем случае процедура сводится к установке пакета spice-vdagent. Например на нашей виртуальной машине с Ubuntu 16.04 LTS это делается так:

$ sudo apt-get install spice-vdagent

После установки служба автоматически запускается и настраивается на автозагрузку при старте системы:

image

После установки агента SPICE vdagent я заметил улучшение удобства работы с консолью ВМ в Virt-Viewer, в частности перестало дёргать курсор мыши и само перемещение курсора мыши между моей клиентской системой и окном консоли Virt-Viewer теперь стало работать прозрачно, без потери управления при попадании в окно консоли (Shift+F12 теперь стал не нужен для возврата управления курсором). А то, как работает функция общего буфера обмена, я так и не постиг.

На гостевых системах RHEL/CentOS/Fedora установка агента SPICE выполняется также просто:

$ sudo yum install spice-vdagent
VirtIO Drivers

Согласно вышеупомянутого документа драйверы VirtIO Drivers уже входят в состав всех гостевых ОС Linux, а для Windows систем потребуется их отдельная установка (можно воспользоваться руководствами How to create a Windows ... Virtual Machine).

Проверка живой миграции

Так как у нас в кластере уже есть 2 хоста, мы можем попробовать вызвать процедуру живой миграции виртуальной машины между хостами. Для примера выполним процедуру живой миграции виртуальной машины Hosted Engine. Для проверки постоянной доступности виртуальной машины в процессе живой миграции перед запуском процедуры миграции запустим ping до виртуального сервера Engine, затем в веб-консоли oVirt выберем эту виртуальную машину и нажмём кнопку Migrate

image_thumb22

Откроется окно, где мы можем выбрать хост, на который нужно мигрировать виртуальную машину. В нашем примере используется автоматическое определение хоста назначенияimage_thumb23 После нажатия ОК в консоли увидим изменение статуса виртуальной машины…

image_thumb25

А спустя несколько секунд виртуальная машина уже будет работать на другом хосте, при этом  доступной виртуальной машины останется на прежнем уровне. Проверяем статистику ping и видим, что потерь соединения с нашей виртуальной машиной в процессе миграции не было. И это хорошо.

image_thumb26

В ранних версиях oVirt миграция виртуальной машины Hosted Engine подразумевала предварительное включение Global HA Maintenance, но современная версия oVirt 4.0, как следует, в частности, из документа How to perform live migration of Hosted Engine VM уже этого не требует.

На этом пока всё. В следующей части мы рассмотрим механизмы Fencing в oVirt, как средство достижения High Availability.

Дополнительные источники информации:

Всего комментариев: 17 Комментировать

  1. Иван Гравин /

    Отличный слог. Есть возможность получить всю статью в pdf?

    1. Алексей Максимов / Автор записи

      Так вроде же есть плагины к разным браузерам, которые позволяют сохранять любые веб-страницы в PDF. К движку блога такие вещи не очень хочется прикручивать, так как из того, что я видел всё было либо какое-то корявое, либо древнее. В общем я попробую как-нибудь позже освежить в голове эту тему.

      1. Иван Гравин /

        Можно и с css поиграться прямо в хроме, но хочется "нативного" в один клик и с авторской типографикой. Мне приятнее читать отлученным от инета, качественнее идет погружение в материал.

        1. AlektroNik /

          Поддержива, уже давно пытаюсь найти себе подобную вещь. Пока пользуюсь webcliper-ами evermote(пока лучший, но не идеал.) и onenote.
          Основная проблема в свернутых текстах. С офоомлением, конечно, тоже, но последнее время. webcliper от evermote научился справляться с подсветкой, шрифтами, а главное выделением кода, но и появилось ограничение в evernot - только 2 устройства можно привязать к аккаунту.
          Все чаще начинаю задумываться может поднять вебсервер себе с wordpress, запаролить и пошифровать :) И в любой момент если решу открыть свои статьи можно открыть доступ ... основное чем привлекает меня. WordPress это CSS (в любой момент везде можно поменять оформление) и подсветка синтаксиса.

          Можно даже на эту тему статью написать, с удовольствием почитаю :)

  2. AlektroNik /

    1. А гиперконвергентность реализуема на oVirt аля Vsan (он конечно не совсем подходит в качестве примера, но направление именно то).
    2. Понятие vSwitch я так понимаю отсутствует у oVirt или я что-то упустил?

      1. AlektroNik /

        Спасибо, почитаю.

    1. dyasny /

      1. да, существует, скоро должны выпустить официальное описание процесса, но в принципе идея в том чтоб использовать glusterfs на хостах

      2. понятие vswitch отсутствует, так как есть logical networks, которые в принципе ближе к distributed vswitch, плюс, если очень нужен SDN то есть интеграция с neutron, который сам по себе уже SDN, и интегрируется практически со всем что есть на рынке

      1. AlektroNik /

        1. А Вы используете glusterfs? Как стабильность, часто ломается, трудно чинится, были случаи полной потери данных (бекап не в счет)?
        2. Т. е. сам OVS не может раскидывать свои настройки по хостам, нужен neutron? В принципе минус OVS, жаль что настройка я так понял только из консоли (наглядности нехватает), остальное терпимо.

        3. Алексей Максимлв, а вы вроде не используете в статье OVS, если не ошибаюсь. Почему?

        1. Алексей Максимов / Автор записи

          Открыл на форуме ветку oVirt. Думаю там будет удобней вести обсуждения. Дмитрий ответит на вопросы по мере возможности. Только просьба не валить все вопросы в одну кучу, а создавать отдельные темы по разным вопросам.

        2. dyasny /

          давайте на самом деле все в форум

      2. AlektroNik /

        И еще забыл.
        dyasny
        "если очень нужен SDN"
        Я правильно понимаю, это программно определяема сеть аля "distributed vswitch"? Вещь, на мой взгляд, очень нужная (одинокие сервера не в счет). Особенно если у вас сотня хостов :). Меня насторожило слово "очень" т. е. есть обходные пути. Само собой ручками прописывать настройки отметаем сразу.

        1. dyasny /

          нет, DVS это не SDN, а так, мелочь. SDN это намного больше, система управления целой сетью, с кучей свичей, тоннелей, load balancers и firewalls, и с использованием таких вещей как gre или vxlan, что снимает ограничение на 4000 vlan-ов. Koроче это довольно монструозная штука (потому и "очень") которая в ваших заявленных масштабах ни к чему

  3. Алексей Максимов / Автор записи

    Подправил пример с файлом exports.

  4. Александр /

    А подскажите, возможно ли создать виртуальную сеть без привязки к физическому интерфейсу, чтобы можно было построить внутреннюю сеть между VMs? В версии 3.6 была такая возможность создавая на гипервизоре dummy интерфейс, но на 4 такой трюк уже не работает.
    Печаль, тоска.

  5. Обратная ссылка: Развёртывание и настройка oVirt 4.0. Часть 7. Расширение кластера и балансировка нагрузки | Блог IT-KB /

  6. Айрат /

    Добрый вечер, вопрос может не в тему.
    Не подскажете, как перевыпустить сертификаты для хостов, а то начали хосты отваливаться и не подсоединяться oVirt-engine
    Версия oVirt 3.3
    Спасибо!

Добавить комментарий