Настройка ovirt centos 7

Обновлено: 07.07.2024

В данной статье рассматривается развертывание среды виртуализации Ovirt 4.1 с хранилищем, реализованным на базе NFS.

Содержание

  • ЦПУ, поддерживающий виртуализацию. Минимум 2 ядра.
  • ОЗУ минимум 8 Гб.
  • Свободное дисковое проcтранство на одном из разделов минимум 60 Гб.
  • Чистая установка ОС AlterOS 7.5
  • Подготовленные FQDN имена для хоста и виртуальной машины, выполняющей роль Engine. В нашем случае host.alter.os и engine.alter.os соответственно.
  • Записи в зонах прямого и обратного просмотра для этих имен на DNS сервере.

Все команды, приведенные ниже необходимо выполнять от имени учетной записи root или с использованием sudo (см. Утилита SUDO).

Проверяем наличие поддержки со стороны процессора:

Если команда ничего не вернет, на ПК отсутствует поддержка виртуализации или она отключена в настройках БИОС. Сам KVM поставить на такой ПК можно, но при попытке ввести команду управления гипервизором мы получим ошибку «WARNING KVM acceleration not available, using 'qemu'». В таком случае необходимо перезагрузить ПК, войти в БИОС, найти поддержку технологии виртуализации (Intel VT или AMD-V) и включить ее.

Устанавливаем в систему репозиторий Ovirt 4.1:

Проверяем доступность необходимых репозиториев:

Видим, что репозитории ovirt-4.1-centos-gluster38/x86_64 и ovirt-centos-ovirt41/x86_64 недоступны (у них в столбце Состояние указан 0):

Для продолжения установки необходимо в файле /etc/yum.repos.d/ovirt-4.1-dependencies.repo разделы для недоступных репозиториев привести к виду:

Жирным шрифтом выделены измененные символы. Еще раз проверяем доступность репозиториев. Теперь все репозитории долны быть доступны:

Устанавливаем пакет ovirt-hosted-engine-setup:

Устанавливаем пакет ovirt-engine-appliance (может занять продолжительное время):

Так как создаем виртуализацию на одном сервере, то нам нужно использовать так называемую, “вложенную виртуализацию”. По умолчанию может быть так, что вложенная виртуализация выключена, проверить это можно с помощью следующей команды:

Буква “N” или “0” означает, что вложенная виртуализация выключена. Чтобы ее включить нужно выгрузить модуль и загрузить его с параметром kvm_intel.nested=1. Выгружаем модуль и загружаем с нужным параметром:

Проверяем включение вложенной виртуализации:

При постоянном использовании следует данные параметры ввести в автозагрузку, для этого приводим файл /etc/rc.local к виду:

И т.к. в AlterOS-7.5 этот файл по умолчанию не является исполняемым, то нам необходимо его сделать таковым:

Приводим файл /etc/hosts к виду:

Здесь host.alter.os - имя ПК, на котором выполняются данные действия. engine.alter.os - имя будущей виртуальной машины, выполняющей роль engine. IP адреса и имена указаны в качестве примера. В вашем случае они, скорее всего, будут другими. Так же, эти данные должны четко соостветствовать записям в зонах прямого и обратного просмотра на DNS сервере.

Приводим файл /etc/sysconfig/network к виду:

Приводим файл сетевого интерфейса, к которому подключен сетевой кабель, /etc/sysconfig/network-scripts/ifcfg-enp1s0 (в вашем случае он может иметь другое имя)к виду:

В данном файле так же могут присутствовать и строки, задающие другие параметры. Для нас важно задать статическую адресацию с правильным IPv4 адресом и маской, а так же параметр NM_CONTROLLED.

Перезапускаем службу сети:

Добавляем группу kvm и в ней пользователя vdsm:

Устанавливаем службу NFS:

Создаем каталоги для NFS хранилища. Данные каталоги должны находиться на разделе, имеющем минимум 60 Гб свободного пространства. В данном случае это раздел /home:

Добавляем сведения об этих каталогах в файл /etc/exports. Вносим в него строки:

Перезагружаем службу NFS:

Задаем владельца и группу для созданных каталогов:

Задаем необходимые разрешения для созданных каталогов:

На все вопросы отвечаем значениями по умолчанию (жмем Enter), кроме следующих:

В конце процесса развертывания должны получить:

Если по какой-то причине процесс развертывания завершился с ошибкой, то возобновить его можно только после выполнения скрипта /usr/share/ovirt-hosted-engine-setup/scripts/ovirt-hosted-engine-cleanup и очистки каталога /home/vdsm/data.

Эта статья — следующая в цикле по oVirt, начало здесь.

Статьи

Содержание

Установка ovirt-engine

Для Engine минимальные требования 2 ядра/4 ГиБ ОЗУ/25 ГиБ хранилища. Рекомендованные — от 4 ядер/16 ГиБ ОЗУ/50 ГиБ хранения. Используем вариант Standalone Manager, когда engine работает на выделенной физической или виртуальной машине вне управляемого кластера. Для нашей установки возьмем виртуальную машину напр., на отдельно стоящем ESXi * . Удобно использовать средства автоматизации развертывания или клонирование из ранее подготовленного шаблона или установку kickstart.

* Примечание: для производственной системы это плохая идея, т.к. менеджер работает без резерва и становится узким местом. В этом случае лучше рассмотреть вариант Self-hosted Engine.

При необходимости, процедура конвертации Standalone в Self Hosted подробно описана в документации. В частности, хосту нужно дать команду reinstall с поддержкой Hosted Engine.

На ВМ устанавливаем CentOS 7 в минимальной конфигурации, далее обновляем и перезагружаем систему:


Для виртуальной машины полезно установить гостевого агента:


для хостов VMware ESXi, или для oVirt:


Подключаем репозиторий и устанавливаем менеджер:


В большинстве случаев выбранные по умолчанию настройки достаточны, для их автоматического использования можно запустить конфигурацию с ключом:

Установка ovirt-host

На физический хост устанавливаем CentOS 7 в минимальной конфигурации, далее подключаем репозиторий, обновляем и перезагружаем систему:


Примечание: для установки удобно использовать средства автоматизации развертывания или установку kickstart.

Внимание! Существующие разделы удаляются автоматически! Будьте осторожны!

Пароль пользователя root: monteV1DE0, пароль пользователя mgmt: metroP0!is.
Внимание! Существующие разделы удаляются автоматически! Будьте осторожны!


Повторяем (или выполняем параллельно) на всех хостах. От включения «пустого» сервера до готового состояния, с учетом 2-х длительных загрузок требуется порядка 20 минут.

Добавление узла в oVirt

Выполняется очень просто:

Compute → Hosts → New →…

Если на хосте не был подключен репозиторий oVirt, установка закончится неудачей, но ничего страшного — надо его добавить, затем нажать Install -> Reinstall.

Подключение хоста занимает не более 5-10 минут.

Настройка сетевого интерфейса

Посколько мы строим отказоустойчивую систему, сетевое подключение также должно обеспечивать резервированное подключение, что и выполняется на вкладке Compute → Hosts → HOST → Network Interfaces — Setup Host Networks.

В зависимости от возможностей вашего сетевого оборудования и подходов к архитектуре, возможны варианты. Оптимальнее всего подключаться к стеку top-of-rack коммтуаторов, чтобы при отказе одного сетевая доступность не прервалась. Рассмотрим на примере агрегированного канала LACP. Для настройки агрегированного канала «взять» мышкой 2-й незадействованный адаптер и «отвезти» к 1-му. Откроется окно Create New Bond, где LACP (Mode 4, Dynamic link aggregation, 802.3ad) выбран по умолчанию. На стороне коммутаторов выполняется обычная настройка LACP группы. Если нет возможности построить стек коммутаторов, можно задействовать режим Active-Backup (Mode 1). Настройки VLAN рассмотрим в следующей статье, а подробнее с рекомендациями по настройке сети в документе Planning and Prerequisites Guide.

Настройка FC


Fibre Channel (FC) поддерживается «из коробки», его использование сложностей не вызывает. Настройку сети хранения, включающую настройку систем хранения и зонирование fabric коммутаторов в рамках настройки oVirt мы не будем.

Настройка FCoE

FCoE на мой взгляд так и не получил широкого распространения в сетях хранения, но часто применяется на серверах в качестве «последней мили», напр., в HPE Virtual Connect.

Настройка FCoE требует дополнительных несложных шагов.

Setup FCoE Engine

Статья на сайте Red Hat B.3. How to Set Up Red Hat Virtualization Manager to Use FCoE
On the Manager, следующей командой добавляем ключ в менеджер и перезапускаем его:

Setup Node FCoE

На oVirt-Host'ах нужно установить

Убедиться, что установлены пакеты (уже идут в minimal):


Далее сама настройка (вместо ens3f2 и ens3f3 подставляем имена CNA, включенных в сеть хранения):


Важно: если сетевой интерфейс аппаратно поддерживает DCB/DCBX, параметр DCB_REQUIRED должен быть установлен в no.

Далее следует убедиться, что adminStatus выключен на всех интерфейсах, в т.ч. без включенного FCoE:


Если есть другие сетевые интерфейсы, можно включить LLDP:


Как говорилось ранее, если используется аппаратный DCB/DCBX, настройка DCB_REQUIRED должна быть включена в no и этот шаг может быть пропущен.


Для сетевых интерфейсов проверить включен ли автостарт:

Просмотр настроенных FCoE интерфейсов, вывод команды не должен быть пуст.


Последующая настройка FCoE выполняется как для обычного FC.

Далее следует настройка систем и сети хранения — зонирование, SAN-хостов, создание и презентация томов/LUN'ов, после чего хранилище можно подключить к ovirt-host'ам: Storage → Domains → New Domain.

Domain Function оставляем Data, Storage Type — Fibre Channel, Host — любой, имя — напр., storNN-volMM.

Наверняка ваша система хранения допускает подключение не просто резервирование путей, но и балансировку. Многие современные системы способны передавать данные по всем путям одинаково оптимально (ALUA active/active).

Для включения всех путей в активное состояние, надо настроить мультпасинг, об этом в следующих статьях.

Настройка NFS и iSCSI выполняется подобным образом.

Хранилище ISO образов

Для установки ОС понадобятся их установочные файлы, чаще всего доступные в виде ISO образов. Можно использовать встроенный путь, но для работы с образами в oVirt разработан специальный тип хранилища — ISO, который можно нацелить на NFS сервер. Добавляем его:

Для хранения образов менеджер создаст структуру
/exports/ovirt-iso/<some UUID>/images/11111111-1111-1111-1111-111111111111/

Если на нашем NFS сервере ISO образы уже есть, для экономии пространства удобно вместо копирования файлов прилинковать их в эту папку.

Первая ВМ

На этом этапе уже можно создать первую виртуальную машину, установить на нее ОС и прикладное ПО.

Compute → Virtual Machines → New

Для новой машины указать имя (Name), создать диск (Instance Images → Create) и подключить сетевой интерфейс (Instantiate VM network interfaces by picking a vNIC profile → выбрать из списка пока что единственный ovirtmgmt).

На стороне клиента нужен современный браузер и SPICE клиент для взаимодействия с консолью.

Первая машина успешно запущена. Однако для более полной работы системы требуется выполнить ряд дополнительных настроек, о чем продолжим в следующих статьях.

Подготовка сервера

Проверяем наличие поддержки со стороны процессора:

cat /proc/cpuinfo | egrep "(vmx|svm)"

Создадим каталоги, в которых будем хранить все, что касается виртуализации (предлагаемые по умолчанию не удобные):

* каталог /kvm/images для виртуальных дисков; /kvm/iso — для iso-образов.

Установка и запуск

Установка выполняется из репозитория следующей командой:

yum install qemu-kvm libvirt virt-install

* где qemu-kvm — сам гипервизор; libvirt — библиотека управления виртуализацией; virt-install — утилита для управления виртуальными машинами.

systemctl enable libvirtd

systemctl start libvirtd

Настройка сети

В данной инструкции рассмотрим использование сетевого моста.

Настраивая сетевой мост через удаленное подключение, внимательно проверяйте вводимые данные. В случае ошибки соединение будет прервано.

Устанавливаем пакет для работы с bridge:

yum install bridge-utils

Смотрим список сетевых интерфейсов и их настроек:

В моем примере были следующие данные:

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: enp4s0f0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:16:76:04:26:c6 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.24/24 brd 192.168.1.255 scope global enp4s0f0
valid_lft forever preferred_lft forever
inet6 fe80::216:76ff:fe04:26c6/64 scope link
valid_lft forever preferred_lft forever
3: enp5s5: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc pfifo_fast state DOWN qlen 1000
link/ether 00:16:76:04:26:c7 brd ff:ff:ff:ff:ff:ff
4: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN qlen 1000
link/ether 52:54:00:cd:86:98 brd ff:ff:ff:ff:ff:ff
inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0
valid_lft forever preferred_lft forever
5: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN qlen 1000
link/ether 52:54:00:cd:86:98 brd ff:ff:ff:ff:ff:ff

* из этого для нас важны enp4s0f0 — реальный сетевой интерфейс с настроенным IP-адресом 192.168.1.24, через который идет подключение сервера к локальной сети (из него мы будем делать мост); 00:16:76:04:26:c6 — mac-адрес реального ethernet адаптера; virbr0 — виртуальный сетевой адаптер.

Редактируем настройки реального адаптера:

Приводим его к виду:

ONBOOT=yes
BRIDGE=br0
TYPE=Ethernet
DEVICE=enp4s0f0
BOOTPROTO=none

Создаем интерфейс для сетевого моста:

DEVICE=br0
TYPE=Bridge
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.1.24
NETMASK=255.255.255.0
GATEWAY=192.168.1.1
DNS1=8.8.8.8
DNS2=77.88.8.8

Перезапускаем сетевую службу:

systemctl restart network

Сетевые настройки должны измениться — в моем случае:

2: enp4s0f0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master br0 state UP qlen 1000
link/ether 00:16:76:04:26:c6 brd ff:ff:ff:ff:ff:ff
3: enp5s5: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc pfifo_fast state DOWN qlen 1000
link/ether 00:16:76:04:26:c7 brd ff:ff:ff:ff:ff:ff
4: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN qlen 1000
link/ether 52:54:00:cd:86:98 brd ff:ff:ff:ff:ff:ff
inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0
valid_lft forever preferred_lft forever
5: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN qlen 1000
link/ether 52:54:00:cd:86:98 brd ff:ff:ff:ff:ff:ff
6: br0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP qlen 1000
link/ether 00:16:76:04:26:c6 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.24/24 brd 192.168.1.255 scope global br0
valid_lft forever preferred_lft forever
inet6 fe80::216:76ff:fe04:26c6/64 scope link
valid_lft forever preferred_lft forever


Тип хранилища является общим, а тип - локальным. В каждом центре обработки данных можно добавить только один хост. Этот метод не используется.


Если есть несколько центров обработки данных, выберите создание кластера под этим центром обработки данных при создании кластера, выберите архитектуру ЦП в соответствии с использованием, и другие значения по умолчанию подходят


При добавлении хоста обратите внимание на то, чтобы выключить опцию автоматической настройки брандмауэра. В расширенных настройках используйте учетную запись root и пароль. Вы можете просмотреть процесс добавления хоста и просмотреть процесс установки событий.




Добавить хранилище

  • Добавить домен хранения данных nfs для создания виртуальной машины


Отмеченные места необходимо изменить, обратите внимание, чтобы заполнить соответствующие в соответствии с вашей конфигурацией.

  • Добавить домен хранения iso для хранения файлов изображений


  • Добавить домен хранения данных glusterfs, высокодоступный для создания виртуальных машин



Создать виртуальную машину



При добавлении жесткого диска вы можете выбрать разные домены хранения данных

Здесь сервер, на котором автор устанавливает ovirt-engine, устанавливает среду рабочего стола, а затем удаленно устанавливает виртуальную машину через VNC.Когда системный рабочий стол не установлен, после того, как автор настраивает виртуальную машину для работы, ее нельзя подключить через консоль , и он загрузит файл в формате vv. Очень раздражает, установите конфигурацию рабочего стола VNC, я не буду здесь вдаваться в подробности





Выберите хост для миграции при миграции. Примечание. Виртуальные машины из разных центров обработки данных не могут быть перенесены.

ovirt резервное копирование

Проблемы, с которыми столкнулся автор при установке и настройке:

Читайте также: