Установка kvm centos 8

Обновлено: 04.07.2024

Подготовить систему к использованию в качестве гипервизора можно, как с помощью ansible-ролей, так и вручную — путем установки и настройки необходимых пакетов. Ниже будут рассмотрены оба способа.

Установка необходимых пакетов.

Прежде, чем ис п ользовать сервер в качестве гипервизора, проверим включена ли в BIOS аппаратная виртуализация. Для Intel следующий вывод должен содержать инструкции “vmx”, для AMD — “svm”:

Можно так же проверить командой:

Для установки пакетов и использования системы в качестве гипервизора подойдет как серверный, так и desktop-дистрибутив. Ниже будет рассмотрена установка на Centos 7.x, Debian Stretch, Ubuntu 16.x, но в других версиях этих дистрибутивов установка может быть абсолютно идентична.

Ubuntu.

Debian.

Centos.

Для Centos пакеты лучше устанавливать из EPEL репозитория:

или из oVirt, где они новей:

Непосредственно сама установка пакетов:

Настройка Bridged Network.

По умолчанию, все создаваемые виртуальные машины будут в дефолтной сети KVM, которая находится за NAT’ом. Её можно удалить:

Список всех сетей для KVM можно получить командой:

Для того, чтобы создаваемые виртуальные машины находились в одной сети необходимо настроить network bridge.

Убедимся, загружен ли модуль bridge:

Если нет, то загрузим:

Ubuntu/Debian.

Устанавливаем пакет bridge-utils и редактируем настройки сетевых интерфейсов:

Для статических адресов:

Переподнимаем интерфейс и перегружаем daemon:

Centos.

Для конфигурации можно использовать текстово-графический интерфейс network manager’а:

Непосредственно сам bridge:

Для статических адресов:

Если интерфейс не управляется network manager’ом следует добавить строчку:

Переподнимаем интерфейс и перегружаем daemon:

Подготовка хоста виртуализации с помощью Ansible.

Перед тем как управлять хостами с помощью Ansible для Debian/Ubuntu дополнительно может потребоваться установить python (или python-minimal):

Нам понадобятся три роли: epel-repo для установки репозитория Epel, network — для создания network bridge и kvm — непосредственно для самой подготовки хоста виртуализации. Устанавливаем Ansible. Для Ubuntu/Debian:

Установку для других дистрибутивов смотрите в официальной документации. Указываем в конфиге путь к скачанным ролям — например, /home/username/ansible/roles:

Приводим файл inventory приблизительно к следующему виду:

И далее задаем в playbook’е, вызывающем роли kvm и network необходимые параметры — настройки сети (IP-адресс хоста не меняется), имя bridge-интерфейса:

В некоторых дистрибутивах (Centos) создание bridged interface может завершиться с ошибкой (bug пока что не исправлен), поэтому лучше явно указать, к какому интерфейсу подключать bridge. Задаем его имя, исправляя перед запуском playbook’а:

Управление гипервизором проще всего осуществлять через virt-manager. Устанавливаем в локальной системе:

Предположим, что подключаться к гипервизору будем под пользователем user. Создаем пользователя:

Для того, чтобы пользователь имел возможность управлять libvirt’ом его нужно добавить в соответствующую группу: в Centos — это группа libvirt, в Ubuntu — libvirtd. Проверим:

Следовательно, добавляем пользователя user в группу libvirtd:

В некоторых дистрибутивах (Debian 9.x) пользователя так же необходимо будет добавить в группу “libvirt-qemu”. Просмотреть список групп можно:

Теперь необходимо сгенерировать ключ ssh и установить его на сервер, к которому будем подключаться через libvirt. Поскольку virt-manager по умолчанию запускается от обычного пользователя (не из под root), то и ключ генерируем не из под root’а. Обычно ключи лежат в папке /home/user/.ssh/id_rsa. Если их нет, то создаем:


и устанавливаем на сервер с libvirt:

Далее подключаемся в virt-manager к серверу виртуализации (рис. 1).

Помимо графического интерфейса virt-manager возможно так же подключение из консоли (virsh). Подробную инструкцию можно найти на сайте libvirt.

Создание и управление виртуальными машинами.

Создание виртуальных машин из virt-manager’а тривиально и в дополнительном описании не нуждается. Что касаемо CLI, то создание виртуальной машины с именем “ubuntu-vm” ОС Ubuntu с 1024 килобайтами RAM и 1 ядром CPU будет выглядеть:

После создания виртуальная машина сама запустится, в противном случае запустить можно командой:

Завершить работу ВМ можно командой:

Завершить работу принудительно (hard power-off):

Просмотреть список всех виртаульных машин можно командой:

а только запущенных (running):

“Заморозить” (suspend) и запустить далее (resume) виртуальную машину можно командами:

Сохранить состояние машины можно командой:

По умолчанию все конфигурации виртуальных машин находятся в xml-формате папке /etc/libvirt/qemu. Можно открыть их на редактирование любым привычным редактором, а можно выполнить команду (откроется в vi):

Просмотреть конфигурацию в более читаемом виде можно командой:

Отобразить потребляемые ресурсы (CPU и Memory) можно командой:

Если пакет не установлен в системе, то:

Клонирование виртуальных машин может быть осуществлено через графический интерфейс virt-manager’а, или через консольный virt-clone. Следующая команда создаст клон оригинальной <vm-name> и автоматически сгенерирует образ диска:

Принудительно задать имя клона:

Задать имена виртуальных дисков (например, если клонируемая ВМ имеет два диска):

Если в качестве носителей ВМ используется LVM:

Подключение к консоли.


Spice.

Для подключения через virt-manager достаточно, чтобы в качестве сервера был выбран Spice (см. настройки на рис. 2), а в качестве дисплей адаптеров виртуальной машины — QXL, или VGA. Подключение через virt-manager необходимо осуществлять по SSH-ключу (не по паролю). В большинстве случаев дефолтные конфиги libvirt уже пригодны для подключения к Spice, в противном случае стоит сверить следующие настройки:

Все остальные параметры Spice должны быть дефолтными (обычно закомментированы).


VNC.

Для подключения по VNC аналогично достаточно в virt-manager выбрать “VNC Server” (рис. 3), а в качестве display-адаптеров в гостевых системах использовать QXL, или VGA.

Можно так же отредактировать настройки видео через CLI:

Приведенный пример будет слушать подключения на всех IP-адресах KVM сервера и при подключении запрашивать пароль “yourpassword”. Если убрать параметр passwd, то можно будет подключиться без пароля. Для того, чтобы определить IP-адрес и порт для подкючения к виртуальной машины по VNC выполните команду:

К полученному значению порта нужно прибавить 5900. Таким образом, в приведенном примере, подключение возможно с любого IP-адреса по порту 5901.

tty.

Подключение к текстовой консоли так же возможно напрямую через CLI. Но для этого предварительно нужно указать некоторые параметры загрузки. Для Centos/RHEL:

Альтернативно можно дописать в /etc/grub следующие параметры:

Подключаемся к консоли:

Использование NUMA.

По умолчанию libvirt использует дефолтную политику гипервизора, которая в свою очередь подразумевает запуск виртуальной машины на любых свободных вычислительных ресурсах (процессорах и ядрах). Но бывают случаи, когда явное задание ресурсов процессора бывает рациональней, особенно для систем с архитектурой NUMA (Non-Uniform Memory Access). Рассмотрим пример конфига, когда нужно назначить виртуальной машины определенные ядра процессора. Но для начала просмотрим информацию о процессорных ресурсах:

Таким образом видим, что установлен два процессора с 4 ядрами и двумя потоками на каждом ядре. Из вывода так же видим, что имеется две NUMA-ноды. Дополнительные параметры CPU можно получить командой:

Но назначение ресурсов CPU конкретной ноде не даст никакой пользы, если у этой NUMA-ноды недостаточно памяти. libvrit хранит информацию о доступной памяти на каждой NUMA-ноде. Получить информацию можно:

Таким образом видим, что для запуска ВМ с 3Гб оперативной памяти лучше использовать первую NUMA-ноду (cell 1). Просмотреть информацию можно так же через numactl. Устанавливаем:

Для примера создадим виртуальную машину, которой назначено по 2 ядра от каждого процессора:

Просмотреть результат CPU affintiy можно командой:

Подробней об использовании NUMA можно узнать на сайте Fedora и RedHat.

Проброс устройств (Passthrough).

Рассмотрим проброс устройств на примере проброса Ethernet-порта с хоста гипервизора внутрь гостевой системы в режиме PCI Passthrough. Вообще, Network адаптеры создаваемые для виртуальных машин в KVM можно так же назначать (assign) к любому ethernet-интерфейсу, но тогда теряется часть функционала hardware, а трафик пойдет через ядро хостовой системы. Для работы PCI Passthrough нужно чтобы процессор и чипсет поддерживали технологию виртуализации (в Intel — это VT-d, в AMD — AMD-Vi) и была активирована опция intel_iommu/amd_iommu. В первую очередь необходимо проверить, активированы ли данные опции в BIOS. Далее проверяем доступна ли IOMMU в самой ОС. Для AMD:

Обновляем grub и перезагружаемся:

Ubuntu/Debian:

Centos:

Теперь необходимо добавить адрес PCI-устройства:

Соответственно, адрес устройства 01:00.0, или 01:00.1. Находим его в virt-manager’е в настройках ВМ:

или добавляем через CLI при создании машины, добавив следующую строчку:

Работа со snapshots.

Наиболее простой способ управления snapshots — это virt-manager, который в свою очередь использует команды qemu. “Замораживаем” виртуальную машину, создаем snapshot и по завершении “размораживаем” виртуальную машину:

QEMU также поддерживает временные снимки, в которых пользователю не нужно создавать отдельный img-файл: флаг “-snapshot” позволяет создавать временные файлы пока виртуальная машина включена и, как только она будет выключена, все изменения удалятся:


Но QEMU в отличие от virsh не может создавать snapshot виртуальных машин “на ходу”, но для того, чтобы воспользоваться этой возможностью необходимо в гостевой системе установить qemu-guest-agent и добавить для этой виртуальной машины устройство “QEMU channel device”. Заходим в свойства виртуальной машины в virt-manager (рис. 4) и добавляем устройство:

Или через консоль:

Устройство так же может быть добавлено и для запущенной виртуальной машины. Создаем xml:

Теперь на виртуальной машине <vm-name> (так же еще называют “dom name”) необходимо установить “гостевой агент”. Ubuntu/Debian:

Centos/RHEL:

Запускаем агент и добавляем в автозагрузку:

Для того, чтобы проверить доступность гостевого агента с хоста виртуализации можно выполнить команду:

Получим следующий вывод:

Но по факту, для создания snapshots нам потребуется поддержка “заморозки” гостевой файловой системы (fsreeze). Проверяем, выполнив команду с хоста гипервизора:

Если получим вывод вида:

Дампим настройки машины в xml:

Создаем snapshot непосредственно с самими данными:

В последствии подобные snapshots, содержащие только состояние дисков, удобно использовать для backup’ов (за счет использования опции blockcommit). Во всех остальных случаях удобней пользоваться полными снимками виртуальных машин. Создадим полный snapshot:

Как видно, можно так же задать имя (ключ “name”) и описание (ключ “description). За списком остальных ключей следует обратиться к документации на сайте RedHat.

Просмотреть список всех snapshots для виртуальной машины можно командой:

В результате получите список полных snapshots. Snapshot’ы содержащие только блочные устройства (ключи “--disk-only --quiesce --no-metadata”) можно получить командой:

Получить информацию о каком-либо конкретном snapshot’e:

Получим примерно следующий вывод:

Откатить состояние ВМ к определенному snapshot’у можно командой:

Иногда snapshot может быть случайно удален. Если виртуальная машина не остановлена, то snapshot можно восстановить: на Stackoverflow есть post, описывающий пошаговое восстановление образов/snapshots виртуальных машин.

Работа со Storage Pools.

Образы жестких дисков виртуальных машин располагаются в так называемых Storage Pools. libvirt поддерживает различные типы storage pool’ов — от обычной локальной папки (local storage, или filesystem pool), или LVM-based до NFS, iSCSI, CEPH и тд. По умолчанию libvirt хранит образы дисков в локальном filesystem pool, который располагается в /var/lib/libvirt/images. Как обычно, большую часть операций со storage pools можно производить из virt-manager:

Что касаемо, консоли, то получить список доступных для хоста pool’ов можно командой:

Если требуется вывести так же список неактивных pool’ов, то следует воспользоваться ключом “--all”:

Информацию о конкретном pool’е можно получить:

Обновить имеющиеся образы в storage pool’е:

К примеру, если требуется создать дополнительный storage pool, расположенный локально в папке /mnt/somefolder, то для начала требуется создать xml:

Создаем pool из этого xml, проверяем результат и запускаем:

Если по каким-то причинам Pool неактивен, можно активировать командой:

Или даже добавить в автозапуск:

Если требуется удалить Pool, то для того, чтобы избежать проблем с виртуальными машинами использующими этот Pool, требуется вначале выполнить:

При желании, если вы хотите удалить каталог, в котором находится пул хранилищ, используйте следующую команду:

Удалить предопределяющие Pool данные можно командой:

Операции с образами дисков.

Операции с образами виртуальных дисков обеспечивает пакет QEMU, который в свою очередь поддерживает множество различных форматов: qcow, qcow2, raw, vdi, vmdk, vhdx и тд (более полный список опубликован здесь). Проще всего управлять образами через virt-manager, однако функционал QEMU будет несколько ограничен (например, нельзя изменить размер образа, или сконвертировать образ из одного формата в другой). Через консоль создание образа диска в нативном для KVM формате qcow2:

с последующим attach’ем к виртуальной машине <vm-name> как устройство vdb будет выглядеть следующим образом:

В целом интерфейс virsh c функцией attach-disk используется в следующем формате:

В качестве driver’а в большинстве случаев указывается “qemu”, в качестве cache можно указать “writethrough”. Подробней о режимах дискового кэширования можно ознакомиться здесь. Если параметр кэширования не задан, то используются параметры “Hypervisor defaults”.

Альтернативным способом будет добавление уcтройства через его xml-конфиг:

Изменим размер образа (увеличим на 10Гб):

Но при этом в virt-manager’е не отображается ни одного снимка, а команда:

так же е выводит никаких результатов о созданных snapshots. Вероятней всего, snapshot был создан через qemu и получить информацию об образе можно командой:

которая, к примеру, выдает:

Как видим, перед расширением образа необходимо удалить snapshot по его ID:

Смотрим информацию об образе можно командой:

Зачастую бывает нужно сконвертировать образ из одного формата в другой (например, для того, чтобы native-формат qcow2 работал быстрей, чем vmdk от VMware). Для этого можно воспользоваться пакетом qemu-img:

Пакет qemu-img поддерживает vmdk, qcow2, vhd, vhdx, raw, vdi. По факту нужно указать исходный и конечный формат. Сконвертируем vdi в qcow2:

Возможно использовать следующие опции:

Многое (за исключением специфических для RedHat компонентов) можно так же почерпнуть по следующим ссылкам:

Информацию по распоространенным проблемам при работе с livbirt можно найти в отдельном разделе сайта RedHat:

KVM - средство виртуализации, интегрированное с ядром, которое превращает Linux в гипервизор типа один. Данная заметка на полях представляет из себя краткую инструкцию как установить KVM, быстро и просто создавать виртуальные машины и управлять ими в CentOS 8.

Установка KVM

Первым делом процессор должен поддерживать аппаратную виртуализацию, её необходимо включить в BIOS.

Вариант 1. Для установки сервера виртуализации в процессе установки операционной системы необходим полный дистрибутив CentOS. Весь процесс описывать нет смысла, единственное необходимо в Software Selection выбрать Virtualization Host .

software selection

virtualization host install

После установки необходимо установить средство просмотра virt-viewer , используемый для просмотра виртуальных машин.

Вариант 2. Для установки KVM на существующую систему необходимо установить модуль виртуализации и дополнительные пакеты. Выполняем:

Пакет virt-install . позволяет управлять установкой виртуальных машин из командной строки.

Проверка. На установленной системе убедиться, что аппаратная платформа поддерживает виртуализацию можно командой:

Для процессоров AMD:

Проверить, что модули KMV загружены в ядро можно выполнив команду:

Для систем на основе Intel будет следующий результат:

kvm support check

Проверяем возможность загрузки драйверов libvirt хост системой.

centos virt host validate

Управление с помощью WEB консоли

Управление виртуальными машинами будет производиться с помощью web консоли Cockpit . Устанавливаем необходимые компоненты и добавляем сервис в автозапуск.

Панель управления будет доступна через web браузер по адресу:

После запуска сервиса libvirtd по умолчанию создается сетевой интерфейс virbr0 типа мост, представляющий из себя виртуальный коммутатор с возможностью трансляции сетевых адресов посредствам NAT. Для возможности использования виртуальными машинами адресов той же сети, что и хост система необходимо создать новый интерфейс типа мост. В консоли Cockpit выбираем меню Networking , затем нажимаем кнопку Add Bridge .

cockpit add new bridge

В открывшемся окне вводим наименование нового моста и выбираем интерфейс, через который будет работать мост (обычно физический сетевой адаптер).

cockpit set new bridge settings

После применения настроек, в списке интерфейсов появится созданный интерфейс типа мост, а ethernet адаптер будет отключен.

cockpit new bridge created

Создание виртуальных машин

Для создания новой виртуальной машины в web консоли Cockpit необходимо выбрать пункт меню Virtual Machines , затем Create VM .

cockpit create new virtual machine

В открывшейся карточке настроек необходимо заполнить имя создаваемой виртуальной машины, выбрать тип установки, операционную систему, создать новый диск для системы с указанием размера или подключить существующий, указать количество выделяемой памяти. При указании типа установки Local Install Media необходимо предварительно позаботиться о носителе, с которого будет происходить установка (например, образ диска iso).

cockpit create new virtual machine settings

После выставления флажка Immediately Start VM и нажав кнопку Create будет создана новая виртуальная машина и после начнется установка системы с указанного носителя. Выбрав вкладку Consoles , вы получите доступ к установке и управлению виртуальной машиной.

cockpit install new vm

Изменить используемый сетевой интерфейс виртуальной машины на созданный ранее можно во вкладке Network Interfaces . Изменения необходимо делать, когда виртуальная машина выключена, если виртуальная машина включена, то изменения вступят в силу после выключения ВМ.

cockpit change network adaper in vm

После установки операционной системы на виртуальную машину установочный диск можно отключить во вкладке Disks . Отключение/подключение дисков производится только при выключенной виртуальной машине.

cockpit delete disk in vm

На вкладке Usage показана информация использования памяти и процессора виртуальной машиной.

cockpit usage statistic vm

На вкладке Overview можно задать количество выделяемой памяти и процессоров для виртуальной машины. В меню Boot Order выставляется порядок загрузки с дисков. Для запуска виртуальной машины вместе с хост системой отмечаем параметр Run when host boots . Все изменения кроме автостарта при запуске хост системы необходимо выполнять при выключенной виртуальной машине, иначе изменения вступают в силу после выключения ВМ.

cockpit change rosources vm

После установки и первоначальной настройки используйте средства удаленного доступа для управления виртуальной машиной.

Виртуальная машина на основе ядра (KVM Короче говоря) - это стандартное решение виртуализации с открытым исходным кодом, которое тесно интегрировано в Linux. Это загружаемый модуль ядра, который превр

Содержание:

Виртуальная машина на основе ядра (KVM Короче говоря) - это стандартное решение виртуализации с открытым исходным кодом, которое тесно интегрировано в Linux. Это загружаемый модуль ядра, который превращает Linux в гипервизор типа 1 (без операционной системы), который создает виртуальную операционную платформу, используемую для запуска виртуальных машин (ВМ).

Под KVM, каждый ВМ - это процесс Linux, который планируется и управляется ядром и имеет частное виртуализированное оборудование (например, ЦП, сетевая карта, диск и т. д.). Он также поддерживает вложенную виртуализацию, которая позволяет запускать виртуальную машину внутри другой виртуальной машины.

Некоторые из его ключевых функций включают поддержку широкого спектра аппаратных платформ, поддерживаемых Linux (оборудование x86 с расширениями виртуализации (Intel VT или AMD-V)), он обеспечивает повышенную безопасность и изоляцию виртуальных машин с использованием обоих SELinux и безопасной виртуализации (sVirt), он наследует функции управления памятью ядра и поддерживает миграцию как в автономном режиме, так и в реальном времени (миграция работающей виртуальной машины между физическими узлами).

В этой статье вы узнаете, как установить KVM виртуализация, создание и управление виртуальными машинами в CentOS 8 а также RHEL 8 Linux.

Предпосылки

Кроме того, убедитесь, что ваша аппаратная платформа поддерживает виртуализацию, выполнив следующую команду.

Также убедитесь, что модули KVM загружены в ядро ​​(они должны быть загружены по умолчанию).

В предыдущей серии руководств по KVM мы показали, как создавать виртуальные машины в Linux с помощью KVM (виртуальная машина на основе ядра), где мы продемонстрировали, как создавать виртуальные машины и управлять ими с помощью виртуальный менеджер Инструмент с графическим интерфейсом (который теперь устарел согласно документации RHEL 8). В этом руководстве мы воспользуемся другим подходом, мы будем использовать веб-консоль Cockpit.

Шаг 1. Настройте веб-консоль Cockpit на CentOS 8

1. В кабина это простой в использовании, интегрированный и расширяемый веб-интерфейс для администрирования сервера Linux в веб-браузере. Он позволяет выполнять системные задачи, такие как настройка сетей, администрирование хранилища, создание виртуальных машин и просмотр журналов с помощью мыши. Он использует логины и права обычного пользователя вашей системы, но поддерживаются и другие методы аутентификации.

Он предустановлен и включен на только что установленном CentOS 8 а также RHEL 8 system, если она у вас не установлена, установите ее с помощью следующей команды dnf. Необходимо установить расширение cockpit-machines для управления виртуальными машинами на основе Либвирт.

2. Когда установка пакета будет завершена, запустите сокет кабины, включите его автоматический запуск при загрузке системы и проверьте его состояние, чтобы убедиться, что он запущен и работает.

3. Затем добавьте кабина в системном брандмауэре, который включен по умолчанию, с помощью команды firewall-cmd и перезагрузите конфигурацию брандмауэра, чтобы применить новые изменения.

4. Чтобы получить доступ к веб-консоли кабины, откройте веб-браузер и используйте следующий URL-адрес для навигации.

Шаг 2: Установка виртуализации KVM CentOS 8

5. Затем установите виртуализация модуль и другие пакеты виртуализации следующим образом. В virt-install пакет предоставляет инструмент для установки виртуальных машин из интерфейса командной строки, а также виртуальный зритель используется для просмотра виртуальных машин.

6. Затем запустите виртуальный хост-проверка команда для проверки, настроен ли хост-компьютер для запуска libvirt драйверы гипервизора.

7. Затем запустите libvirtd демон (libvirtd) и включите его автоматический запуск при каждой загрузке. Затем проверьте его статус, чтобы убедиться, что он запущен и работает.

Шаг 3. Настройте сетевой мост (виртуальный сетевой коммутатор) через кокпит

8. Теперь создайте сетевой мост (виртуальный сетевой коммутатор) для интеграции виртуальных машин в ту же сеть, что и хост. По умолчанию один раз libvirtd демон запущен, он активирует сетевой интерфейс по умолчанию virbr0 который представляет собой виртуальный сетевой коммутатор, который работает в NAT Режим.

В этом руководстве мы создадим сетевой интерфейс в мостовом режиме под названием br0. Это сделает доступными виртуальные машины в хост-сетях.

В главном интерфейсе кабины нажмите Сети, затем щелкните Добавить мост как показано на следующем снимке экрана.

9. Во всплывающем окне введите имя моста и выберите подчиненные устройства моста или портовые устройства (например, enp2s0 представляющий интерфейс Ethernet), как показано на следующем снимке экрана. Затем нажмите Применять.

10. Теперь, когда вы посмотрите на список Интерфейсы, там должен появиться новый мост, и через несколько секунд интерфейс Ethernet должен быть отключен (снят).

Шаг 4: Создание виртуальных машин и управление ими через веб-консоль Cockpit

11. Из кабина главный интерфейс, нажмите на Виртуальные машины вариант, как показано на следующем снимке экрана. Из Виртуальные машины страницу, нажмите на Создать ВМ.

12. Окно с опциями для создания нового ВМ отобразится. Введите соединение, имя (e, g ubuntu18.04), Тип источника установки (в тестовой системе мы сохранили образы ISO в пуле хранения, т.е. / var / lib / libvirt / images /), Источник установки, хранилище, размер, память, как показано на следующем изображении. Поставщик ОС и операционная система должны выбираться автоматически после входа в Источник установки.

Также отметьте опцию немедленного запуска ВМ, затем щелкните Создайте.

13. После нажатия Создайте из предыдущего шага ВМ должен запускаться автоматически и загружаться с использованием предоставленного ISO-образа. Приступите к установке гостевой операционной системы (Ubuntu 18.04 в нашем случае).

Если вы нажмете на Сетевые интерфейсы из ВМ, сетевой источник должен указывать на вновь созданный сетевой интерфейс моста.

А во время установки, на этапе настройки сетевого интерфейса, вы должны заметить, что ВМ Ethernet интерфейс получает IP-адрес от DHCP сервер хост-сети.

Обратите внимание, что вам необходимо установить OpenSSH пакет для доступа к гостевой ОС через SSH с любого компьютера в хост-сети, как описано в последнем разделе.

14. Когда установка гостевой ОС будет завершена, перезагрузите ВМ, затем перейдите к Диски и отсоедините / удалите устройство cdrom под дисками виртуальных машин. Затем нажмите Пробег чтобы начать ВМ.

15. Сейчас под Консоли, вы можете войти в гостевую ОС, используя учетную запись пользователя, созданную во время установки ОС.

Шаг 5. Доступ к гостевой ОС виртуальной машины через SSH

16. Чтобы получить доступ к недавно установленной гостевой ОС из хост-сети через SSH, выполните следующую команду (замените 10.42.0.197 с IP-адресом вашего гостя).

$ ssh [адрес электронной почты защищен]

17. Чтобы выключить, перезапустить или удалить виртуальную машину, щелкните ее в списке Виртуальные машины, затем используйте кнопки, выделенные на следующем снимке экрана.

На этом пока все! В этом руководстве мы показали, как устанавливать пакеты виртуализации KVM, а также создавать виртуальные машины и управлять ими через веб-консоль кабины. Подробнее см. Начало работы с виртуализацией в RHEL 8.


KVM состоит из загружаемого модуля ядра, kvm.ko ,который обеспечивает базовую инфраструктуру виртуализации и модуль для конкретного процессора, kvm-intel.ko или kvm-amd.ko. Выполните следующие действия, чтобы установить KVM на свой сервер RHEL 8.

Установите KVM на RHEL 8 / CentOS 8 Linux

Шаг 1. Убедитесь, что центральный процессор имеет расширения виртуализации Intel VT или AMD-V.

Вы также можете сделать то же самое с lscpu командой

Шаг 2: Установите KVM / QEMU на RHEL / CentOS 8

Пакеты KVM распространяются на RHEL 8 через репозиторий AppStream. Установите KVM на свой сервер RHEL 8, выполнив следующие команды:

После установки убедитесь, что модули ядра загружены.

Также установите полезные инструменты для управления виртуальными машинами.

У нас есть руководство о том, как использовать libguestfs-tools :

Шаг 3. Запустите и включите демон KVM

По умолчанию демон KVM libvirtd не запускается, запустите службу с помощью команды:

Если у вас есть среда рабочего стола на вашем RHEL 8, вы можете установить virt-manager инструмент, который позволяет вам управлять виртуальными машинами из графического интерфейса.

Шаг 5. Создайте экземпляр виртуальной машины на KVM

Во-первых, начните с создания сетевого моста, который будет подключен к вашим экземплярам.

Вы также можете обратиться к нашим руководствам ниже.

Когда у вас будет готов интерфейс моста, создайте тестовый экземпляр с помощью интерфейса командной строки или Virtual Machine Manager. Пример ниже предназначен для создания виртуальной машины Fedora 29.

Установка выполняется в текстовом режиме, но процедура установки аналогична графическому интерфейсу. После завершения установки перезагрузите экземпляр и войдите в систему.

Читайте также: