3.2.1 Подготовка узлов

Для удаленного подключения к физическим нодам, выделенным на площадке, под виртуальный ЦОД (IaaS), обычно используется специальное ПО менеджмента, предоставленное производителем серверного оборудования.

Например, для оборудования SuperMicro доступны IPMIview и iKVM. Может потребоваться изменить параметры безопасности Java, позволяющие запуск апплетов [1]. Кроме того, существует множество стороннего ПО, в том числе – открытого и даже кроссплатформенного, предоставляющего возможность использования веб-апплетов (WebUI). Например:

Внимание.

В серверных системах на основе процессоров Intel интерфейс IPMI должен быть активирован из BIOS [2]:

Server Management > BMC LAN Configuration

Также, потребуется назначение IP-адреса для доступа к ПО менеджмента (BMC).

В некоторых случаях может потребоваться обновление прошивки BIOS. Обратитесь к эксплуатационной документации производителя выбранного серверного оборудования.

Примечание.

ПО менеджмента (BMC) использует Java-машину, установленную в ОС компьютера [3]. После скачивания Java-апплет инициализируется в среде веб-браузера, если имеются соответствующие разрешения на запуск апплетов.

Как только будет осуществлен введен URL узла (переход по IP-адресу), в окне веб-браузера должен открыться веб-интерфейс удаленного управления. Потребуется выполнение процедуры входа (анонимного или с авторизацией). Например:

../_images/Intel_BMC.png

Рис. 3.1 Интегрированная веб-консоль управления (Intel BMC)

Примечание.

Дальнейшие действия по подготовке узла (серверного устройства) лежит в области компетенции системного инженера, осуществляющего развертывание.

См. также обзор применения OpenBMC [4] и доклад с обзором технологий по данной тематике.

ВАЖНО.

На вычислительных узлах процессорных систем архитектуры x86_64 необходимо включить расширения аппаратной виртуализации [5].

3.2.1.1 Основные указания

После того, как аппаратное средство подготовлено к включению в инфраструктуру, необходимо выполнить следующие шаги:

  1. Установка ОС на серверную ноду (Раздел 3.2.1.2).

Процесс установки УУ не автоматизирован, поэтому установку следует выполнить самостоятельно (вручную). При разметке дискового пространства необходимо предусмотреть объем около 30ГБ, предназначенный для локальных репозиториев (раздел /var).

Имя хоста, назначаемое для УУ (контроллеров OpenStack), обычно начинается с префикса control, за которым следует номер узла (в кластере) и доменный суффикс, указывающий на принадлежность к определенной облачной инфраструктуры.

  1. Конфигурирование сетевых интерфейсов (Раздел 3.2.1.3).

Конфигурирование следует выполнить в соответствии со схемой/планом:

  • схема облачной платформы структурная;
  • план распределения IP-адресов.

ВАЖНО.

Определите в настройках сетевого окружения максимальный размер MTU, применимый к конкретной сети.

При необходимости – измените конфигурацию сетевых интерфейсов инфраструктурного сервера (Сobbler).

  1. Создание системного пользователя tionix (Раздел 3.2.1.4).

Во избежание путаницы, назначайте для системного пользователя на всех узлах одинаковый пароль.

Дополнительно, следует обеспечить созданному пользователю (tionix) возможность выполнение команд с помощью sudo, без ввода пароля.

  1. Установка Ansible и средств управления конфигурацией (Раздел 3.2.2.4.1).

Установите следующие пакеты:

  • ansible;
  • python3-openstackclient;
  • python3-shade;
  • python-openstacksdk >=0.50.0;
  • ipmitool.

Установка осуществляется из репозиториев (Раздел 3.2.3), содержащих все необходимые пакеты.

3.2.1.2 Установка ОС на хост

Образ ALMA Linux скачивается по ссылке из репозитория TIONIX:

Скачайте минимальный образ и проверьте его целостность при помощи утилиты md5sum или shasum [6]. Также может использоваться встроенный в программу установки ОС режим самопроверки (media check).

Внимание.

Выполнение проверки целостности образа необходимо, так как иногда необнаруживаемые сетевые коллизии (битые блоки данных в пакетах) могут отражаться приводить к ошибкам в работе инсталлятора или в процессе распаковки rpm-пакетов (во время установки ОС).

При помощи средств управления (BMC IPMI) примонтируйте электронный носитель, содержащий образ с дистрибутивом ОС Linux (средство хостинга), к узлу. Выполните загрузку по сети (Раздел 3.2.1.2.1) и, после появления интерфейса программы подготовки ОС к инсталляции, совершите необходимые подготовительные действия (Программа установки ОС).

Основные указания:

  1. Указывайте для всех узлов одинаковую локализацию (часовой пояс).
Если в инфраструктурной сети отсутствует сервер синхронизации времени (NTP), то используйте умолчание – („Network Time = OFF“). Если иное не указано в проектной документации или отсутствует особое указание от Заказчика, то также не следует включать режим синхронизации времени.
  1. Выберите минимальный сценарий установки – Minimal Install (базовая функциональность).
Выбор дополнительного ПО, кроме стандартной и сетевой групп (Standard, Network Servers), не рекомендуется, если нет особых указаний от Заказчика (в проектной документации).
  1. Придерживайтесь указанной схемы разбиения диска (Custom).

Схема разбиения должна обязательно содержать загрузочный и корневой разделы, форматируемые файловой системой ext4.

Для вычислительных узлов оставьте раздел подкачки (swap), предлагаемый по умолчанию. Для управляющих узлов раздел подкачки необходимо удалить.

  1. Для всех узлов, на которые устанавливается ОС, следует назначить одинаковый пароль для root.
  2. Отключите KDUMP для всех узлов, если иное не указано (в программе испытаний).

Начните процесс инсталляции ОС и, через некоторое время, проконтролируйте его завершение. Время ожидания завершения процесса зависит от производительности подсистем хоста, на который выполняется установка системы (из указанного источника).

3.2.1.2.1 Сетевая загрузка

Для сетевой загрузки используйте инструмент – ipmitool [7]. Утилита позволяет подключаться к физическому серверу по сети.

При помощи консольных команд потребуется добавить IPMI-устройство (сервер) и сконфигурировать консоль управления (BMC). После выполнения настроек станет возможной сетевая загрузка операционной системы (Рис. 3.2).

../_images/Boot-menu1.png

Рис. 3.2 Загрузочное меню (IPMI)

3.2.1.2.2 Программа установки ОС

После того как произведена загрузка сервера из образа (оптического носителя), появится стартовое меню программы установки – инсталлятора [8] (Рис. 3.3).

../_images/ALMA_start-Menu1.png

Рис. 3.3 Стартовое меню (запуск программы установки)

Нажмите клавишу <Enter> для загрузки программы установки ОС (Install ALMA Linux). После загрузки через некоторое время запустится графический интерфейс и откроется окно с приглашением в программу установки (Рис. 3.4).

../_images/ALMA_Welcome1.png

Рис. 3.4 Приглашение в программу установки (выбор языка)

По умолчанию установлен английский язык – en_EN. Нажмите кнопку [Continue] для продолжения или выберите настройку локализации языка интерфейса – Русский. Интерфейсные элементы переключатся на выбранный язык отображения и ввода (Рис. 3.5).

../_images/ALMA_language1.png

Рис. 3.5 Выбранный язык интерфейса

Нажмите кнопку [Продолжить].

Появится главное окно инсталлятора в выбранной локализации (Рис. 3.6 или Рис. 3.7).

../_images/ALMA_summary-EN1.png

Рис. 3.6 Общие сведения (AlmaLinux 8 INSTALLATION SUMMARY)

../_images/ALMA_summary-RU.png

Рис. 3.7 Обзор установки (AlmaLinux 8)

Графический интерфейс инсталлятора позволяет выполнить основные манипуляции по настройке параметров инсталляции, которые затем будут включены в основной сценарий развертывания ОС на хосте (УУ или ВУ).

Главное окно инсталлятора содержит следующие группы (столбцы) настроек:

  • LOCALIZATION (Keyboard, Language Support, Time & Date);
  • SOFTWARE (Installation Source, Software Selection);
  • SYSTEM (Installation Destination, KDUMP, Network & Host, Security Policy).
  • USER SETTINGS (Root Password).

Некоторые элементы групп обозначены значком восклицательного знака (в треугольнике), предупреждающем о необходимости обязательной настройки параметров. Например, сообщение в группе пользовательской настройки – Root account is disabled – говорит о том что учетная запись суперпользователя отключена.

ВАЖНО.

Предполагается выполнение процесса инсталляции без использования cети – Network not connected (не требуется настройка сетевого адаптера).

Выполните настройку параметров установки ОС на хост, как описано ниже:

  1. Выберите часовой пояс, локализацию средств ввода и языка отображения.

Группа LOCALIZATION – Дата и Время – содержит способы настройки средств ввода (Keyboard), языка отображения (Language Support) и часов (Time & Date).

Перейдите к странице настройки часов (Рис. 3.8) и укажите зону часового пояса (TimeZone):

Регион: Европа
Город:  Москва
../_images/ALMA_TimeZone1.png

Рис. 3.8 Выбор часового пояса (локализация)

Если инфраструктура NTP была заранее подготовлена к синхронизации времени, то переключите тумблер Сетевое время в положение ДА.

Вернитесь в основное меню, нажав на кнопку «Готово».

  1. Отключите параметр KDUMP.

Kdump (Kernel dump) – специализированный инструмент для диагностики и анализа сбоев ядра Linux.

Параметр Kdump необходимо отключить. Для этого кликните по [KDUMP], после перехода к странице настройки уберите галочку слева от поля Включить kdump (Рис. 3.9).

../_images/ALMA_Kdump1.png

Рис. 3.9 Отключение Kdump

Вернитесь в основное меню, нажав на кнопку [Готово].

  1. Установите источник загрузки (присоединенный «локально» ISO-образ).

Менять источник установки, настроенный по умолчанию (Local media), не следует, так как ISO-образ Minimal является рекомендованным к установке (Рис. 3.10).

../_images/ALMA_mini-Source1.png

Рис. 3.10 Выбор источника установки (по умолчанию)

Операционная система будет развернута путем установки программных пакетов с оптического носителя, присоединенного к СВТ (на основе выбранных сценариев).

Примечание.

Рекомендуется перед использованием оптического носителя проверить его целостность методом подсчета контрольной суммы (dd if=/dev/sr0 bs=1M | md5sum).

Нажмите [Готово] для возвращения в основное меню.

  1. Выберите минимальную установку (по стандартному сценарию).

Использование сценария установки Минимальная установка (Базовое окружение) гарантирует быструю установку ОС из одного источника (оптического носителя или образа DVD) и не потребует дополнительных (подготовительных) манипуляций.

Кликните Выбор программ для перехода к странице выбора сценария установки ПО (Рис. 3.11).

../_images/ALMA_mini-Standard1.png

Рис. 3.11 Выбор сценария установки ПО (Minimal Install)

Дополнительно, укажите установку ПО Сетевые серверы (Network Servers). Это упростит некоторые действия по первичной настройке сети.

Нажмите кнопку «Готово» для возвращения в основное меню.

  1. Произведите разбиение диска (ручное или объединение по схеме RAID).

Файловая система Linux хранится в разделах физического носителя. Необходимо разбить физический диск, установленный в СВТ, на (логические) разделы.

Рекомендуется подключение к серверной матертнской плате двух дисков, объединенных по схеме «зеркало». Может использоваться как апаратный RAID (настраиваестя через серверный firmware) так и программный RAID1 (условно: /dev/sda+/dev/sdb=/dev/mapper/cl-*) [9].

Примечание.

Дополнительная информация о способах подготовки дисковых накопителей приведена в следующем разделе.

Перейдите к странице Место установки для создания программного RAID. Будут отображены два накопителя, доступные для объединения в дисковый массив (Рис. 3.12). Кликните мышью на каждом из них, чтобы они стали обозначены как выбранные (отмечены галочками).

../_images/ALMA_harddisk1.png

Рис. 3.12 Выбор дискового массива

Нажмите «Готово» для возвращения в основное меню.

Примечание.

Если потребуется выполнить объединение выбранных носителей в (программный) RAID, то рядом с надписью «Конфигурация устройств хранения» необходимо переключить радио-кнопку – кликнуть «По-своему» (Custom).

После нажатия кнопки «Готово» откроется окно с интерфейсом ручного разбиения дисков на разделы (MANUAL PARTITIONING).

  1. Установите новую файловую систему.

Для новой установки (создания файловой системы) рекомендуется создать три точки монтирования:

  • /boot – загрузочный раздел, для размещения файлов загрузчика Linux (ext4);
  • / – корневой раздел, содержащий всю файловую систему (ext4);
  • swap – раздел подкачки (форматируемый особым образом).

В зависимости от объема оперативной памяти (ОЗУ), размещенной на материнской плате хоста, выберите размер swap-раздела, в диапазоне 1/8..1/16 RAM (следует руководствоваться рекомендациями для архитектора).

Внимание.

Для управляющих узлов (control-нод) не рекомендуется включение раздела подкачки, поэтому при разбиении файловой системы следует его убрать (удалить из списка схемы разбиения).

  1. Назначьте пароль для суперпользователя (root).

Перейдите к настройке учетной записи суперпользователя – нажмите «Root Password». Задайте пароль, чтобы включить учетную запись суперпользователя (Рис. 3.13).

../_images/ALMA_root-Passw1.png

Рис. 3.13 Назначение пароля для root

Примечание.

После назначения пароля суперпользователю становится доступным создание дополнительных учетных записей (User Creation).

  1. Начните процесс инсталляции – нажмите кнопку [Начать установку].

После подготовки транзакции (кикстарт-конфигурации, учитывающей сценарий) процесс инсталляции будет сопровождаться различными сообщениями (Рис. 3.14).

../_images/ALMA_install-Progress1.png

Рис. 3.14 Вывод сообщений о ходе инсталляции (INSTALLATION PROGRESS)

3.2.1.2.3 Способы подготовки дисковых накопителей

В ЦОД-ах применяются СВТ серверного типа, обеспечивающие обработку информации промышленным способом. При этом могут применяться шины данных SCSI, SAS и другие, более современные способы коммутации устройств хранения. От этого зависит название устройства, определяемое в процессе инициализации ядра Linux.

Алгоритм разбиения диска на разделы учитывает объем (свободного места) носителя данных. Для нормального функционирования УУ необходимо выделить максимум пространства для root-раздела и удалить домашний раздел (/home), чтобы максимально расширить использование пространства платформой OpenStack.

Стандартный раздел может содержать файловую систему или пространство подкачки (swap), а также предоставлять контейнер для программного RAID (локального хранилища с резервированием информации).

Ручное разбиение диска

Прежде всего, выберите из выпадающего списка, какой тип раздела будет использоваться в схеме разбиения дисков. Необходимо выбрать стандартный (Standard) вместо LVM.

Перед созданием программного RAID необходимо удалить все разделы (Unknown), используя кнопку [ – ].

Затем создайте первую точку монтирования, нажав кнопку [ + ] и указав параметры (MountPoint: /boot, Desired Capacity: 1024M).

По очереди создайте три точки монтирования, в следующем порядке:

  1. Загрузочный раздел (/boot).
  2. Раздел подкачки (swap).

Внимание.

Удалите этот раздел из схемы разбиения, если установка ОС выполняется для управляющего узла.

  1. Корневой раздел (/root).

Примечание.

Выбирайте тип ФС – ext4 – для всех разделов, кроме swap. Для раздела swap подходящая файловая система будет выбрана автоматически.

Объединение дисков в RAID

Использование программного RAID является предпочтительным, если набор резервных компонентов физической инфраструктуры ограничен; количество накопителей в комплекте ЗИП (НЖМД или SSD) обычно определено на уровне проектной спецификации и не может быть изменено без дополнительного согласования.

Для каждого из разделов заменяйте установленные по умолчанию параметры:

Device Type – на RAID;

RAID Level – на RAID1.

Нажмите «Готово» для возвращения в основное меню.

Примечания.

Использование RAID 1 (зеркала) совместно с программным RAID дает гибкую возможность переноса информации на холодный резерв (копирование безаварийного носителя на новый 1:1).

Дисковый массив, объединенный в программный RAID, обслуживается с помощью штатной утилиты mdadm. При установке ОС создание массива поддерживается инсталлятором и не требует дополнительных манипуляций после завершения процесса инсталляции.

3.2.1.2.4 Завершение процесса инсталляции и перезагрузка системы

После завершения процесса инсталляции ОС (распаковки пакетов) откроется окно с сообщением об успешном завершении процесса инсталляции

Примечание.

Выбор загрузочного раздела производится автоматически, на основе указанной точки монтирования – /boot.

Подвердите перезагрузку операционной системы нажатием на кнопку [Перезапуск системы] (Reboot System).

Будет произведен сброс и инициализация компьютера, после чего должна загрузиться ОС (ALMA Linux), установленная по-минимуму – с группой пакетов Стандартные (Standard) и Сетевой сервер (Network Servers).

3.2.1.3 Настройка ОС (пост-инсталляция)

Чтобы стало возможным обновление системы (dnf check-update), необходимо обеспечить сетевой доступ к настроенным репозиториям (по умолчанию). Это будет невозможно до тех пор, пока не будут настроены сетевые интерфейсы (см. ниже).

Внимание.

По умолчанию утилита dnf просматривает сетевой репозиторий https://mirrors.almalinux.org/.

3.2.1.3.1 Вход в систему

В ответ на предложение входа (Login:) в систему введите реквизиты: имя – root, а также пароль (ввод скрыт).

Будет произведена идентификация (учетной записи суперпользователя) и, после успешной сверки реквизитов, появится приглашение ко вводу команд (командная строка, оболочка bash).

3.2.1.3.2 Проверка поддержки аппаратной виртуализации

На вычислительном узле необходимо выполнить команду lscpu и убедиться, что аппаратные расширения виртуализации включены (Рис. 3.15).

../_images/lscpu_Virtualization1.png

Рис. 3.15 Поддержка аппаратной виртуализации (Intel VT)

Следует обратить внимание на поле „Virtualization“, а также на наличие флага vmx или svm. Дополнительно, выполните команду:

egrep -o '(vmx|svm)' /proc/cpuinfo | sort | uniq

Если в выводе нет ни одного флага (vmx или svm), необходимо подключиться к BIOS серверной системы (ВУ) и включить опцию (Virtualization: Enabled). После перезагрузки ОС уточните, появился ли соответствующий флаг:

grep vmx /proc/cpuinfo
grep svm /proc/cpuinfo

Примечание.

Флаг vmx означает, что на материнской плате обнаружена поддержка аппаратной виртуализации Intel, а флаг svm – поддержка AMD.

3.2.1.3.3 Проверка интерфейсных адаптеров

Подключитесь к УУ (ssh root@control1) и определите физические сетвые интерфейсы (Ethernet), доступные в ОС. Выполните команду:

ip link

Из приведенного листинга (Рис. 3.16) следует, что в системе имеется два физических интерфейса: enp0s3, enp0s8.

Внимание.

В реальной практике количество сетевых интерфейсов, установленных в серверную систему – гораздо больше. Так или иначе, исходные требования уточняются на этапе проектирования конкретной аппаратной конфигурации инфраструктуры, учитывая референсную архитектуру.

Для проверки физических параметров интерфейсов (1GbE/10GbE) выполните команды:

ethtool enp0s3
ethtool enp0s8

Убедитесь в том, что данные интерфейсы «подняты» (статусное сообщение ip link ... up) [10]. Если какой либо интерфейс не «поднят», то выполните одну из команд:

ip link set dev enp0s3 up

ip link set dev enp0s8 up

3.2.1.3.4 Пример настройки аггрегированного интерфейса

С помощью команды ip link создайте аггрегацию (тип – bond) и настройте параметры [11]:

ip link add bond0 type bond
ip link set bond0 type bond miimon 100 mode active-backup

Переведите интерфейсы в режим master:

ip link set em1 down
ip link set em1 master bond0

ip link set em2 down
ip link set em2 master bond0

Установите аггрегацию:

ip link set bond0 up

Для того, чтобы сетевой трафик тегировался, потребуется добавить VLAN:

ip link add link bond0 name bond0.2 type vlan id 2
ip link set bond0.2 up

Примечание.

vlan id 2 – цифра должна соответствовать реальному тэгу VLAN.

Снять назначенный тэг можно с помощью команды: ip link del bond0 name bond0.2, где цифра 2 – это тэг VLAN, назначенный ранее.

Для назначения IP-адреса выполните команду:

ip address add dev bond0.2 <IP-address>/<netmask>

Добавьте маршрут прохождения пакетов через сетевой шлюз:

ip route add default via <IP-адрес_шлюза> dev <сетевой_интерфейс>

3.2.1.3.5 Проверка маршрутизации

Чтобы проверка доставки IP пакетов работала по настроенным маршрутам, сетевые интерфейсы должны быть активны (bond0 или отдельные).

Для уточнения IP-адреса, назначенного сетевому интерфейсу, выполните команду:

# ifconfig <название_интерфейса> | grep inet

Примечание.

Более подробные сведения о настройке интерфейсов изложены ниже (Раздел 3.2.4). Можно воспользоваться и дополнительными источниками информации.

Для вывода настройки маршрутов и проверки отклика (TCP/IP) выполните команды:

ip route

ping ХХХ

где

XXX – адрес любого узла в сети, в котором работает служба ICMP.

3.2.1.3.6 Имя хоста

Чтобы уточнить имя хоста, назначенное в результате инсталляции ОС, а также его (сетевой) статус, выполните команды [12]:

hostname

hostnamectl status

Примечание.

Если обнаружится, что имя хоста не было указано на этапе подготовки ОС к инсталляции, то хосту будет присвоено произвольное имя, исходя из логики программы установки.

Для назначения нового имени следует использовать команду hostnamectl. Выполните команду с опциями:

hostnamectl set-hostname <новое_имя_хоста>

3.2.1.3.7 Сервис удаленных подключений (SSH)

Внимание.

Проверка удаленного подключения выполняется после настройки сетевых интерфейсов (см. ниже).

Проверьте, включен ли SSH-сервер. Выполните команду:

systemctl status sshd

Если сервис не работает, то выполните его (автоматический) запуск:

systemctl start sshd && systemctl enable sshd

Для проверки удаленного подключения используйте утилиту безопасной оболочки ssh (Linux) или ssh.exe (Windows PowerShell). Формат вызова:

ssh <имя_пользователя>@<имя_хоста>

3.2.1.3.8 Резолвинг IP-адресов с помощью внешнего DNS

Чтобы успешно устанавливались некоторые службы из внешних источников (например – Ansible), необходимо добавить запись в файл /etc/resolv.conf [13]:

nameserver <IP-адрес_службы_DNS>

Может быть указан любой внешний IP-адрес, с учетом использования зеркал репозиториев. Например: 77.88.8.8 (сервис Яндекса).

3.2.1.4 Системный пользователь

Используя IPMI или SSH, подключитесь к узлу с правами суперпользователя (root).

При помощи встроенных в ОС Linux команд – useradd и passwd – создайте системного пользователя tionix с произвольным паролем.

Внимание.

Рекомендуется в различных развертываниях применять различные пароли, большей сложности. Это позволит предотвратить случайное вмешательство в инфраструктуру, а также будет способствовать усилению мер безопасности от вторжения злоумышленников.

Обеспечьте узел беспарольным способом выполнения команд [14]. Выполните команду:

visudo
или
nano /etc/sudoers

Добавьте в конфигурационный файл (sudoers) строку:

tionix ALL=(ALL) NOPASSWD: ALL

3.2.1.5 Настройка хоста виртуализации

Для узла, несущего вычислительные функции (ВУ), необходимо проверить, что поддержка аппаратной виртуализации включена (модуль ядра kvm_intel должен быть активен). Выполните команду:

# lsmod | grep kvm

Примечание.

Поддержка аппаратного расширения виртуализации (Intel VT) как правило, включается из BIOS на самом начальном этапе конфигурирования компьютера (аппаратного вычислительного средства под гипервизор).

3.2.1.5.1 Режим работы SELinux

Для корректной работы облачной платформы все узлы инфраструктуры должны функционировать в режиме SELinuxPermissive. Плейбук развертывания вычислительных узлов автоматически переводит систему защиты ОС в этот режим.

Внимание.

Допускается также использование режима Disabled (система защиты ОТКЛ), но включение этого режима на вычислительных узлах может привести к проблемам с живой миграцией виртуальных машин.

Если по каким-либо причинам ВУ не переведен в режим Permissive, то следует выполнить действия:

  1. Для временной настройки выполните команду:

    # setenforce 0
    
  2. Для постоянного поддержания режима отредактируйте файл /etc/selinux/config.

Настройка режима работы должна выглядеть так:

SELINUX=permissive

Примечание.

Выполнить редактирование можно одной командой (с помощью строкового редактора sed):

# sed -i s/^SELINUX=.*$/SELINUX=permissive/ /etc/selinux/config
  1. Для вступления изменений в силу перезапустите компьютер командой:

    # reboot
    

После перезагрузки убедитесь, что система защиты SELinux функционирует в Permissive-режиме: getenforce. Должно быть выведено краткое сообщение с текущим режимом работы SELinux:

Permissive.

Сноски

[1]https://www.ittelo.ru/news/dve-tipichnye-problemy-s-nastrojkoj-ikvm/, https://openjdk.java.net/
[2]http://pyatilistnik.org/bmc-intel-management-port/
[3]https://access.redhat.com/documentation/en-us/openjdk/8/html-single/installing_and_using_openjdk_8_for_rhel/index
[4]https://habr.com/ru/company/yadro/blog/317140/
[5]https://www.intel.ru/content/www/ru/ru/virtualization/virtualization-technology/intel-virtualization-technology.html
[6]https://ru.wikipedia.org/wiki/Md5sum, https://ru.wikipedia.org/wiki/Sha1sum
[7]http://ipmiutil.sourceforge.net/
[8]https://anaconda.org/anaconda/anaconda-distribution-installer
[9]https://ru.wikipedia.org/wiki/RAID#RAID_1
[10]https://itisgood.ru/2019/04/15/kak-vkljuchit-up-i-otkljuchit-down-port-setevogo-interfejsa-nic-v-linux/
[11]https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/7/html/networking_guide/sec-vlan_on_bond_and_bridge_using_ip_commands
[12]https://www.dmosk.ru/miniinstruktions.php?mini=linux-change-name
[13]https://tokmakov.msk.ru/blog/item/522
[14]https://losst.ru/nastrojka-sudo-v-linux