XEN Update

Aus Neobikers Wiki
Zur Navigation springen Zur Suche springen

XENvelopemt

Einleitung

Seit Einführung der Virtualisierungslösung KVM direkt im Linux Kernel ist es in den letzten Jahren stiller um den älteren XEN-Hypervisor geworden. Als Typ 1 Hypervisor wurde ihm immer als Nachteil ausgelegt, nicht direkt im Linux Kernel angesiedelt zu sein. Bei genauer Betrachtung erscheint mir persönlich das eher als Vorteil denn als Nachteil. Seine Entwicklung und Unterstützung steht auf einer Basis, welche tatsächlich unabhängig von einem bestimmten Kernel bzw. Betriebsystem ist. Der XEN Hypervisor ist also KEINE Linux-Lösung, sondern kann ebenfalls auf alternativen BSD oder Unix Systemen [1] wie z.B. FreeBSD aufbauen.

Was zeichnet XEN als Hypervisor aus
  • alt = ausgereift (Erfahrung, hat sich bewährt)
  • klein = sicher (einfach, weniger Fehler) und stabil (weniger Code, weniger Fehler)
  • Modular = unabhängig (OS) und flexibel (Einsatzszenarien)
  • Typ 1 Hypervisor = performant
  • Breite Hardware Unterstützung (ARM, Embedded, Cloud/IoT usw.)
Konzept

Die Virtualisierungslösung XEN besteht aus einem Hostsystem, Dom0 genannt, welches einer ganz normalen Linux-, BSD oder Unix Installation entspricht. Einziger Unterschied ist, dass nicht der normale System-Kernel direkt gestartet wird, sondern der XEN Hypervisor (xen.gz) diesen Kernel (Debian: vmlinuz) startet. Die Management Domain Dom0 selbst ist damit ein Standard Linux System, bei mir seit mehr als 10 Jahren Debian, derzeit Buster.

Auf dem Management System Dom0 selbst wird natürlich keinerlei Software oder Funktionalität installiert, dafür verwendet man ja die VMs. Sie dient ausschliesslich dem Management der virtualisierten Hardware- und Infrastruktur (Software-) komponenten für die geplanten virtuellen Maschinen (VM), bei XEN als DomU bezeichnet.

Einige interessante aktuelle Entwicklungen im XEN Umfeld

  • Driver Domain [2]
  • Dom0 Disaggregation [3]
  • XAPI (XEN Management API)
  • XCPng [4](OpenSource Nachfolger des Citrix XEN Server)
  • Xen on Embedded and Automotive systems [5]
  • Unikernels [6][7]
  • Qubes OS [8] (OS auf XEN Basis mit maximaler Sicherheit)

Für XEN Endanwender wie mich sind hier die Punkte Driver Domain und Disaggregation interessant. Qubes OS treibt diese beiden Ansätze auf die Spitze und hat damit ein maximal sicheres und freies Betriebsystem auf XEN Basis erstellt (empfohlen und genutzt z.B. von Edward Snowden), indem sie nicht jeweils ein ganzes System virtualisieren, sondern einzelne Applikationen. So gibt es z.B. einen Browser in einer "privaten" Umgebung, einen Browser in einer "Arbeit" Umgebung und evtl. noch einen separaten in einer "Banking" Umgebung.

Die Entwicklungen im Bereich Embedded/Automotive im Zusammenspiel mit maximaler Sicherheit und auch die Implementierungen in Cloud/IoT Bereich zeigen, das XEN durchaus aktuelle und höchst interessante Weiterentwicklungen erfährt. Warum? Vermutlich gerade durch die oben genannten Punkte in Zusammenhang mit dem OpenSource Ansatz und der durch den kleinen, einfachen, performanten und sicherem Design des Hypervisors, der für alle Anwendungsbereiche Vorteile aufweisen kann.

XEN steht IMHO daher einzig aus Endanwendersicht hinter besser integrierten Lösungen wie KVM zurück, ob das derzeit tatsächlich noch gerechtfertigt ist oder nicht sei von jedem selbst zu bewerten. Eine XEN Installation ist inzwischen nicht komplizierter als eine KVM Installation, trotz der zusätzlichen XEN Schicht unter dem eigentlichem Hostsystem.

Praxis für Endanwender

Einfach gesagt: Performance und Sicherheit der XEN Virtualisierung steigen, indem das Hostsystem Dom0 möglichst wenig selbst machen muss bzw. kann. Man möchte also soviel wie möglich auslagern. Das Konzept wird bei XEN als Domain Disaggregation bezeichnet.

XEN Driver Domain

Eine Driver Domain ist ein erster Schritt der Dom0 Disaggragtion: Funktionen von Hardware Treibern werden aus der Dom0 in eine VM ausgelagert, eine ganz normale DomU (PV). Sie dient den anderen VMs als Driver-Backend für z.B. Netzwerk, Storage und USB.

XEN Network Driver Domain mit Debian (Buster, XEN 4.11 oder Bullseye, XEN 4.14)

Status: Implemented and running ;-)

Wir starten damit, der Dom0 die Netzwerkkarte wegzunehmen (LOL), und verfrachten diese in eine Network Driver Domain. Das Henne - Ei Problem Netzwerk lösen wir dadurch, das wir zuerst ganz normal die Dom0 installieren, und eine weitere DomU. Wenn beide installiert sind, können wir die Netzwerkkonfiguration so ändern, dass die Netzwerkkarte nach einem Neustart der DomU zugeordnet ist, und die Dom0 ein virtuelles Netzwerkinterface benutzt.

  • Hardware Adresse der Netzwerkarte(n) ermitteln und in einer Konfigurationsdatei /etc/xen/xen-pciback.conf speichern
# lspci | awk '/Ethernet/ {print "#"$1" #"$2" "$3" "$4}' > /etc/xen/xen-pciback.conf

# cat /etc/xen/xen-pciback.conf
00:19.0 #Ethernet controller: Intel
#02:00.0 #Ethernet controller: Intel
#03:00.0 #Ethernet controller: Intel
  • Der Dom0 die Netzwerkkarte wegnehmen

Folgendes Skript hilft dabei, PCI-Karten aus dem Konfigfile aus der Dom0 zu lösen:

NAME=xen-pciback
MODULE=xen_pciback
CONFIGNAME=/etc/xen/$NAME.conf

modprobe $MODULE

cat $CONFIGNAME | awk '{if ($1 !~ /#/) print $1}' | while read PCI ; do
    [ -n "$PCI" ] && xl pci-assignable-remove -r echo $PCI
done

Hier ist das entsprechende Debian Init-Script /etc/init.d/xen-pcibackend .

Network Driver Domain Konfiguration

Die Network Driver Domain erhält neben dem PCI Device noch ein virtuelles Netzwerkinterface für die Dom0.

/etc/xen/Domain-N.cfg

name        = 'Domain-N'
vcpus       = '1'
memory      = '256'
bootloader  = 'pygrub'
disk        = [ 'phy:/dev/ssd/Domain-N-disk,xvda2,w', 'phy:/dev/ssd/Domain-N-swap,xvda1,w' ]
vif         = [ 'ip=192.168.1.4, bridge=xenbr0' ]
pci         = [ '00:19.0' ]          # Ethernet controller: Intel

Die Dom0 verbindet sich mit der Network Driver Domain wie üblich über die virtuelle Bridge xenbr0 (vif=[bridge=xenbr0]).

XEN-Bridge Konfiguration der Dom0 in /etc/network/interfaces (Debian)

# ---------------------------------
# settings for all XEN bridges
# ---------------------------------
iface xenbridge inet manual
        pre-up brctl addbr $IFACE
        bridge_fd 0
        bridge_stp off
        bridge_hello 1
        bridge_maxwait 0
        bridge_waitport 0
        post-up ip link set $IFACE promisc off
        post-down brctl delbr $IFACE
# ----------------------------------------------------------
# xenbr0 -> Dom0 Network Interface connects to Driver Domain
# ----------------------------------------------------------
auto xenbr0
iface xenbr0 inet static inherits xenbridge
        address 192.168.1.5/24
        gateway 192.168.1.4

Die Network Driver Domain ist jetzt die einzige Verbindung der Dom0 zur Aussenwelt. In den meisten Fällen muss daher in dieser IP-Forwarding aktiviert werden, damit die Dom0 weiterhin Updates erhalten kann. Je nach Netzwerk-Design muss auch auf dem Internet-Router eine Route zur Dom0 mit Domain-N als Gateway eingerichtet werden. Eine 'Outgoing NAT' Regel für die Dom0 in Richtung Internet muss natürlich ebenfalls aktiv sein.

sysctl -w net.ipv4.ip_forward=1

Alternativ kann man die Dom0 natürlich von einem internem Update-Mirror mit Updates versorgen. Dann braucht die Dom0 keine Verbindung mehr zum Internet. Sofern Domain-N selbst als Mirror dient, braucht man auch kein IP-Forwarding, und die Dom0 ist NUR von der Domain-N aus erreichbar.

XEN Konfiguration innerhalb der XEN Driver Domain

Die Network Driver Domain erfüllt initial nur einen Zweck: Die Netzwerkkarte den anderen VMs zur Verfügung stellen. Dazu verbindet man die Netzwerkkarte mit einer Bridge, welche die virtuellen Interfaces aller VMs mit der Netzwerkkarte verbindet. Zusätzlich wird der Dom0 eine Netzwerkverbindung zur Verfügung gestellt.

Netzwerkkonfiguration der Domain-N in /etc/network/interfaces (Debian)

# ---------------------------------------
# The (routing) network interface to Dom0
# ---------------------------------------
auto eth0
iface eth0 inet static
        address         192.168.1.4/24
        gateway         192.168.1.5

# ---------------------------------
# settings for all XEN bridges
# ---------------------------------
iface xenbridge inet manual
        pre-up brctl addbr $IFACE
        bridge_fd 0
        bridge_stp off
        bridge_hello 1
        bridge_maxwait 0
        bridge_waitport 0
        post-up ip link set $IFACE promisc off
        post-down brctl delbr $IFACE

# -------------------------------------------
# br_lan -> Network Backend Interface vor VMs
# -------------------------------------------
auto br_lan
iface br_lan inet static inherits xenbridge
        bridge_ports none
        address         192.168.2.4/24
        gateway         192.168.2.12

# ---------------------------------
# The backend network device enp0s0
# ---------------------------------
auto enp0s0
iface enp0s0 inet manual
        pre-up  ifup br_lan
        up      brctl addif br_lan $IFACE
        down    brctl delif br_lan $IFACE

Nach dem Booten der Domain-N hat diese jetzt folgende Netzwerkknfiguration:

Domain-N:~# brctl show
bridge name     bridge id               STP enabled     interfaces
br_lan          8000.6805ca23181e       no              enp0s0


Domain-N:~# ip -br a
lo               UNKNOWN        127.0.0.1/8 ::1/128
eth0             UP             192.168.1.4/24 fe80::216:3eff:fe28:e73/64
enp0s0           UP             fe80::6a05:caff:fe23:181e/64
br_lan           UP             192.168.2.4/24 fe80::28c8:c4ff:feac:7489/64


Domain-N:~# ip -br r
default via 192.168.2.12 dev br_lan onlink
192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.4

XEN -Tools und -Utils Installation in Domain-N

Die Driver Domain muss Zugriff auf die XEN Konfigurationsdatenbank xenstore erhalten, damit die grundlegenden Konfigurationsdaten der laufenden XEN Instanzen zwischen der Dom0 von der Driver Domain ermittelt werden können. Hierzu werden die xen-utils Pakete installiert.

Domain-N:~# apt-get install --no-install-recommends xen-tools xen-utils

Jede virtuelle Maschine die unsere Domain-N als Network-Backend benutzt, erzeugt hier dynamisch ein neues virtuelles Netzwerkinterface vifx.y, wobei x die ID der XEN-VM entspricht, und y der Interface-ID. Den Namen kann man aber in der XEN Konfiguration der VM mit dem Parameter vifname frei definieren. Diese dynamisch erzeugten Interfaces müssen automatisch der Bridge br_lan hinzugefügt werden. Das kann auf zwei Arten erfolgen:

  1. man definiert die entsprechenden statischen Einträge in /etc/network/interfaces
  2. oder ein Daemon erledigt diese Arbeit automatisch

Lösung zu 1) statische Konfiguration in /etc/network/interfaces

auto vm1_vifname
allow-hotplug vm1_vifname
iface vm1_vifname inet manual
        pre-up  ifup br_lan
        up      brctl addif br_lan $IFACE
        down    brctl delif br_lan $IFACE

auto vm2_vifname
allow-hotplug vm2_vifname
iface vm2_vifname inet manual
        pre-up  ifup br_lan
        up      brctl addif br_lan $IFACE
        down    brctl delif br_lan $IFACE
...

Lösung zu 2) dynamische Konfiguration mittels xl devd Der Daemon der diese Aufgabe erledigt wird mitels xl devd gestartet. Daher müssen die XEN-Tools installiert sein, was wir schon vorhin erledigt haben.

xl devd 

Hier ist ein entsprechendes Init-Skript zum Start des Daemons

Nach dem Start einer neuen wurde das virtuelle Interface automatisch mit der Backend-Bridge verbunden:

Domain-N:~# brctl show
bridge name     bridge id               STP enabled     interfaces
br_lan          8000.6805ca23181e       no              enp0s0
                                                        vm2.0

Die entprechende Eintrag in der XEN Konfiguration für die VM lautet:

vif         = [ 'backend=Domain-N, bridge=br_lan, vifname=vm2.0' ]

XEN Start-/Stop- Reihenfolge von VMs

Nachdem zukünftig alle VMs von der Driver Domain abhängig sind, um Netzwerkverbindung zu erhalten, müssen wir uns noch um die Startreihenfolge kümmern. Beim Runterfahren des gesamten Systems sollte die Driver Domain auch erst nach allen anderen VMs runterfahren. Hierzu passen wir innerhalb der Dom0 das File xendomains an, welches alle VMs automatisch startet und auch stopped.

Die Idee ist, dass wir ein 2.tes Start-/Stop- File xendomains.local anlegen, welches alle VMs die nicht die Driver Domain Domain-N, eine Firewall (opnsense) oder ein File-Server sind zuerst stoppen, dann den File-Server und anschliessend die Firewall stoppen, bevor das normale xendomains Skript alle restlichen virtuellen Maschinen runterfährt, welches jetzt nur noch die Driver Domain Domain-N sein sollte.

Hier ist das zusätzliche Dom0 Init-Skript /etc/init.d/xendomains.local zum stoppen der VMs in vorgegebener Reihenfolge.

XEN StubDom

ToDo: Implement OpnSense HVM (FreeBSD) with StubDom

XAPI

ToDo: test it once ? Really ?

XCP-ng

ToDo: test it once - done - Use it ? Hhm, not really ... ;-)

Qubes OS

ToDo: test it once ;-)




Verweise

Grafik: XEN Disaggregation (Quelle: XEN.Org)