Установка vmmanager 5 kvm

Обновлено: 03.07.2024

Руководство предназначено для администраторов и пользователей системы виртуализации. Содержит подробное описание структуры VMmanager 5 KVM, функций, которые он выполняет, и возможностей, которые предоставляет.

Документация состоит из разделов:

Введение — общие сведения о VMmanager и основных его компонентах.

Настройка панели управления — алгоритмы обновления VMmanager, первоначальной и тонкой настройки.

Настройка кластера — алгоритмы подготовки и настройки серверов, которые будут использоваться для создания виртуальных машин.

Настройка хранилища виртуальных дисков — информация о хранилищах, которые поддерживает VMmanager, алгоритмы их подключения и тонкости работы с ними.

Виртуальные машины — информация о возможностях VMmanager по работе с виртуальными машинами.

Шаблоны ОС и рецепты — подробности о механизмах, которые используются для установки операционных систем и программного обеспечения на виртуальные машины.

Сети — подробности организации сетевого взаимодействия виртуальных машин с серверами и друг с другом, получения доступа в интернет, а также рекомендации по настройке.

Резервное копирование — информация о возможностях VMmanager по созданию резервных копий данных виртуальных машин и их восстановлению.

Статистика — информация о сведениях, которые VMmanager хранит о пользователях, виртуальных машинах и серверах.

Интеграция — описание возможностей взаимодействия VMmanager с другими программными продуктами.

Разработчику — раздел о принципах работы с API панели управления.

Управление персональными данными — информация о возможностях создания документов, регламентирующих использование персональных данных клиентов.

Используемые подсистемы — подробности о функционировании систем и сервисов, которые задействует панель управления.

Проблемы и их решение — наиболее частые вопросы и их решение.

Полезные ссылки

FAQ — часто задаваемые вопросы по работе программных продуктов ISPsystem.


Запускать ноды можно легко и просто… А подробнее описано ниже.

Есть сервер и есть дополнительные IP к нему 54.36.135.43 и 94.23.76.198.



Раздел «Политики», там подтверждаем главный узел на каком панель:


Добавляем узел:


В разделе «База IP адресов» добавляем все IP для VPS:


Примерно так:

NAT можно удалить, чтобы глаза не мозолило.


Ставим ОС шаблоны:


Создаем тестового пользователя:

У файле /etc/sysctl.conf должно быть такое содержимое:


У файле /etc/resolv.conf должно быть такое содержимое:


Эти конфигурации позволят делать мост. Далее надо настроить сеть, для этого делаем следующие действия.

Например у нас есть IP:
54.36.135.43
94.23.76.198

Эти IP с разных сетей, значит надо создать два файла сети: vmbr0:1 и vmbr0:2
Заходим в папку: /etc/sysconfig/network-scripts/.

Создаем файл ifcfg-vmbr0:1 с содержимым:


Создаем второй файл ifcfg-vmbr0:2 с содержимым:


Чтобы запустить интерфейсы пишем команду:

Чем больше подсетей тем больше файлов и настроек надо. От vmbr0:1. vmbr0:n.

Чтобы не было ошибки при создании VPS:

internal error Process exited while reading console log output: qemu-kvm: -chardev pty,id=charserial0

Для этого ставим nano и правим файл:

Ищем строку у файле:


И вместо defaults пишем rw,gid=5,mode=0620


После перезагружаем сервер. И создаем VPS.



Ставится ОС на виртуальную машину:

Мы рады представить новый программный продукт для управления виртуальными машинами под названием VMmanager.

Он, как и все наши продукты пятой версии, основан на новом программном “ядре” COREmanager 5, что обеспечивает универсальный интерфейс как для разработчиков, так и для пользователей нашего программного обеспечения.

В качестве гипервизора используется QEMU/KVM, а все операции по управлению гипервизором выполняет библиотека Libvirt. Мы выбрали KVM, как наиболее динамично развивающееся и стабильное решение.

Особенности пользовательского интерфейса VMmanager 5

Теперь установка программного обеспечения осуществляется через удобный веб-интерфейс управления COREmanager, через который также можно будет установить другие наши программные продукты


Мы разработали новый веб-интерфейс (в пятой версии изменена тема оформления) под кодовым названием orion которая имеет больше возможностей в сравнении со старым интерфейсом, например, появилась возможность быстрого поиска в меню, поддержка вкладок.


На скриншотах панели управления отображена возможность поиска в главном меню по первым буквам названия модуля, все ссылки открываются во вкладках и всегда можно переключиться между ними.


Доступна разнообразная информация по статистике, такая как нагрузка и трафик основной системы, нагрузка виртуальных машин, можно выбрать любой произвольный интервал времени.

При щелчке мышью по точкам изгиба графика можно увидеть детальную информацию в местах её изменения.


Особенности VMmanager

Отличительными особенностями VMmanager от предыдущих версий наших программных продуктов для управления виртуальными машинами является расширенная масштабируемость — модуль управления может быть установлен на один из серверов, а остальные серверы, на которых запущены виртуальные машины, будут под ее управлением.

Обработка запросов к панели управления осуществляется в многопоточном режиме — одновременно могут быть обработаны запросы к нескольким виртуальным машинам.

Все данные о конфигурации виртуальных машин VMmanager сохраняет в базе данных MySQL, возможно как локальное, так и удаленное хранение данных.

Инсталляция виртуальных машин производится из шаблонов подключаемых с общего сетевого диска через NFS-протокол.

Поддерживается как уровень администратора виртуальных выделенных серверов, так и пользователя. Администраторы могут создавать, удалять, виртуальные выделенные сервера, управлять сетевыми настройками и параметрами сервера. Пользователи могут осуществлять перезагрузку, переустановку операционной системы, мониторинг состояния и характеристик виртуальной машины.

В VMmanager доступна разнообразная аналитическая информация по нагрузке виртуальных серверов и использованию ресурсов сервера в виде графиков и таблиц

В панель VMmanager добавлен HTML5 VNC-клиент, который можно использовать для подключения к “локальной” консоли виртуальной машины, используя обычный веб-браузер.

Поддерживаются как локальные, так и сетевые хранилища данных, живая миграция виртуальных машин без их остановки и весь остальной функционал поддерживаемый этой библиотекой.

Технические подробности работы VMmanager

Необходимо выделить сервер, который будет основной машиной кластера, на который будет установлена сама панель и шаблоны виртуальных серверов (NFS-хранилище), и серверы, на которых будут запускаться виртуальные машины.

На все серверы устанавливается одинаковая операционная система и одинаковая технология виртуализации, управление нодами кластера осуществляется по протоколу SSH с основной ноды, используя утилиты библиотеки управления системами виртуализации libvirt

После установки VMmanager указываются шаблоны используемых операционных систем, подключаются один или несколько узлов кластера, на которых будут создаваться виртуальные машины.


Все необходимое программное обеспечение (библиотека libvirt, qemu-kvm, lvm) устанавливается автоматически при создании узла кластера, также производятся необходимые сетевые настройки (создание bridge-интерфейса).

VMmanager автоматически отслеживает состояние узлов кластера и исключает проблемные узлы из списка доступных для создания виртуальных машин, проверяются такие состояния как невозможность подключиться к узлу по протоколу ssh или неработоспособность сервиса libvirt который используется для управления виртуализацией.

При создании новой виртуальной машины в панели управления VMmanager она создается на узле кластера и инсталлируется из шаблона, который расположен на сетевом хранилище.

Поддерживается работа через API, интеграция с другими нашими программными продуктами, такими как система биллинга (BILLmanager), системой распределения IP-адресов (IPmanager).

VMmanager задуман в двух версиях: VMmanager Basic и VMmanager Cloud (ожидается). Базовая версия отличается от Cloud отсутствием дополнительных возможностей, например, отсутствуют инструменты для автоматического распределения нагрузки по нодам, средств для автоматического запуска виртуальных машин при недоступности какого-либо из узлов на соседнем узле и других дополнительных средств для построения облачной архитектуры.

Дополнительная информация и документация по VMmanager доступна на нашем официальном сайте.


Есть 2 варианта установки:
— Из шаблонов OVH (Raid 5 вы не сможете организовать, так как корневой раздел, раздел boot и swap можно установить только в 1 рейде)
— Установка через бесплатный IP KVM – подробный процесс установки указан в статье

1.1) Согласно документации ISP System — Подготовка узла кластера, мы разобьем диск следующим образом:
жесткие диски разбиваются по следующему принципу: 60-80 GB под систему, остальное — под linux-lvm раздел.

1 раздел /boot, файловая система ext4 – 250мб, так как при обновлениях ядра linux Вам понадобится место;
2 раздел / (Корень), файловая система ext4 — 60-80 GB, место понадобится для ОС и шаблонов ОС для установки виртуалок;
3 раздел SWAP, файловая система ext4 – документации приводится 16GB, поскольку под нагрузкой не тестировал, ничего не могу сказать по этому поводу;
4 раздел /vm, файловая система ext4 все оставшееся место – предлагают сделать в 2 вариантах:
— LVM-раздел – очень хорош в своем деле, можно его расширять достаточно легко.
— Обычный раздел.

Важная пометка от ISP:
Настоятельно рекомендуем использовать на узле кластера ту же операционную систему, как и на основном сервере с установленным VMmanager. Желательно выбирать минимальную установку. Из дополнительных пакетов ставить только SSH сервер.
Структура разделов:


1.2) Устанавливаем операционную систему

2) Установка VMmanager KVM:

2.1) Скачиваем скрипт установки:


2.2) Запускаем скрипт


2.3) Отключаем SELinux


2.5) Опять запускаем установку


2.6) Выбираем Beta-версию


2.7) Выбираем VMmanager-KVM


2.8) После установки мы видим следующее:

3) Настройка

3.2) Соглашаемся с лицензионным соглашением.
3.3) Заходим под учеткой админа:


3.4) Добавляем ноду:




Указываете имя ноды, количество виртуалок на ней и примечание


Нажимате «ОК» и ждете применения настроек на ней.

До добавления ноды сеть на сервере выглядит таким образом


После таким:

3.5) Настраиваем шаблоны хранилищ, если надо


3.6) Устанавливаем шаблоны ОС


3.7) Настраиваем шаблоны виртуальных машин:


3.8) Добавляем подсети для виртуальных машин:
3.8.1) Заходим: Настройки-->База IP-адресов и нажимаем «Создать»


3.8.2) Вводим информацию о блоке IP-адресов, выданных от OVH:

Диапазон IP-адресов: 1.2.3.4/30 (IP/сетевой префикс)
Маска сети: 255.255.255.0(обязательно префикс /24 )
Адрес шлюза: 1.2.3.254 (согласно документации OVH)

но также я пробовал брать любой другой IP, не входящий в блок 1.2.3.4/30, главное, чтобы он был из той же подсети 1.2.3.0


Важно: Все IP-адреса, выдаваемые от OVH, отдаются под виртуальные машины.

3.8.3) Добавляем сетевой интерфейс, который в дальнейшем будет шлюзом для виртуальных машин:

Если главный IP-адрес сервера висит на интерфейсе vmbr0(после добавления ноды), то создаем интерфейс vmbr0:0 в /etc/sysconfig/network-scripts/ cо следующим содержанием:

DEVICE=vmbr0:0
IPADDR=1.2.3.254
NETMASK=255.255.255.0
ONBOOT=yes

Если будут добавляться новые блоки IP-адресов например из другой подсети: 1.2.5.0/29, то необходимо будет добавлять новые интерфейсы(алиасы), которые будут использоваться в качестве шлюза — vmbr0:1(IP-адрес в данном примере будет 1.2.5.254)… vmbr0:N

Запускаем новый алиас

3.8.4) В /etc/sysctl.conf добавляем:

net.ipv4.conf.all.proxy_arp = 1
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.proxy_arp = 1
net.ipv4.conf.default.send_redirects = 0


3.9) Если у Вас шаблон от OVH то делаем следующее:
Так как при запуске виртуалок мы видим ошибку:
Ошибка libvirt при выполнении операции «Start»: «internal error Process exited while reading console log output: qemu-kvm: -chardev pty,id=charserial0: Failed to create chardev»


Нужно поменять в /etc/fstab строчку:



На

если была чистая установка, то пропускаем этот и следующий пункт.

3.10) Перезагружаем сервер
3.11) DNS-сервер ом для виртуальных машин будет выступать 1 строка в /etc/resolv.conf, поэтому меняем nameserver 127.0.0.1 на nameserver 8.8.8.8 (сервер гугла)


3.12) Дальнейшие настройки по вкусу

UPDATE 2.0: Для снапшотов виртуалок используется директория по умолчанию /var/lib/libvirt/qemu/snapshot/ — учтите это, когда будете разбивку дисков делать.

UPDATE 2.1: Если все же по каким-то причинам у Вас не устанавливаются виртуалки и соответственно внешний IP они не подхватывают, то для проверки, надо на виртуалку поставить Debian, после чего зайти на нее через VNC и там нажать Alt+F2. Там вы провалитесь в консоль, где вы сможете произвести диагностику сети: ping, traceroute, route -n, ip addr.
На этом все, всем желаю успехов в настройке)

Читайте также: