Direkt zum Hauptinhalt

Proxmox Basis Setup für ZFS und / oder Ceph im Cluster für Einsteiger (Stand Dezember 2024)

Der Verfasser des Artikels, Christian-Peter Zengel, hat zum Zeitpunkt des Artikels ca 15 Jahre Erfahrung mit ZFS und Proxmox. Er betreibt aktuell ca 150 Systeme mit Proxmox und ZFS

Das Einsatzgebiet geht von Standaloneinstallation bis zu ca 10 Hosts im Cluster. Es ist keine Ceph Expertise vorhanden!

Da Proxmox VE zwar ZFS an Bord hat, es aber nur für Migration und Replikation nutzt, haben wir eine riesige Fülle an Werkzeugen und Arbeitsweisen entwickelt um davon zu profitieren.

Diese Informationen erhalten sie auf dem YouTube Kanal von sysops.tv oder als strukturierte Kurse auf cloudistbösen.de

Dort erhalten Sie alle Informationen zum Betrieb und Migration zu Proxmox und alle Werkzeuge im Windows oder kommerzielle Firewalls abzulösen.

Der folgende Artikel eignet sich besonders für Einsteiger die mit mehr als einem Host im Cluster starten müssen.

Der Bezug auf Ceph soll lediglich zum Funktionsvergleich dienen. Wir empfehlen bis 10 Hosts immer ZFS!

Installation Proxmox

Ein System hat extra Platten für unseren Workshop, zwei wurden bereits installiert.

Es kommt der HPE Microserver Gen10 Plus V2, vorzugsweise mit ECC, zum Einsatz

Bildschirmfoto 2024-12-18 um 11.08.06.jpg

Wir installieren mindestens einen Raid1, 10 oder Z, niemals auf Basis eines Hardware Raid Controllers!

Für Cluster dringend alle IPs und Namen vorher klären, sonst kommt es zu späteren Zusatzarbeiten für den Cluster

Bildschirmfoto 2024-12-18 um 11.08.29.jpg

Cluster mit drei PVE erstellen

Cluster wird in Sekunden erzeugt, ein Node alleine läuft problemlos

Bildschirmfoto 2024-12-18 um 11.15.59.jpg

Bildschirmfoto 2024-12-18 um 11.17.18.jpg

Bildschirmfoto 2024-12-18 um 11.17.34.jpg

Cluster Nodes hinzufügen

Nodes mit den Join Information des ersten Clusternodes in der Zwischenlage auf neuen Node unter Join Cluster Einfügen und Rootpasswort und Clusternetz(e) bereitstellen

Bildschirmfoto 2024-12-18 um 11.17.55.jpg

Bildschirmfoto 2024-12-18 um 11.18.05.jpg

Bildschirmfoto 2024-12-18 um 11.18.42.jpg

Bildschirmfoto 2024-12-18 um 11.20.33.jpg

Der neue Node wird im Vorgang die Verbindung zum Browser verlieren, da er Schlüssel und Zertifikate des Clusters übernimmt. Der Browser muss neu geladen werden. Danach ist die Administration von jedem Clustermitglied aus möglich.

Lokale Storages benötigen lokalen Login zum Einrichten

Bildschirmfoto 2024-12-18 um 11.21.06.jpg

Postinstaller für erweiterte Funktionen

Unser Postinstaller vom #Bashclub funktioniert am besten mit Standalone.

Für unser Setup verzichten wir auf Autosnapshots für rpool/data, also dem local-zfs Store und auf das SSH-Hardening, aus Kompatibilitätsgründen

Diese Zusammfassung zeigt die für unser Setup günstigsten Settings, mehr Kontext im Kurs

Bildschirmfoto 2024-12-18 um 11.23.17.jpg

Demonstration ZFS Raid

Software Raid mit ZFS ist ultra schnell bei Problemen entstört. Der direkte Zugriff auf die Platten bringt via Monitoring Probleme vor Ausfall zum Vorschein. Im Beispiel packen wir eine Platte vor Reboot offline, bitte nicht nachmachen!

Bildschirmfoto 2024-12-18 um 11.23.54.jpg

Bildschirmfoto 2024-12-18 um 11.24.19.jpg

Trotz defektem Raid zeigt das Summarydashboard kein Problem. Hier muss mit Check_MK oder CV4PVE kontrolliert werden, oder...

Bildschirmfoto 2024-12-18 um 11.24.30.jpg

S.M.A.R.T Kontrolle via GUI aus Erfahrung oft noch ohne Fehler, während unser Check_MK Plugin schon Probleme erkennt!

Bildschirmfoto 2024-12-18 um 11.24.34.jpg

Bildschirmfoto 2024-12-18 um 11.24.50.jpg

Mühselige Kontrolle aller Systeme via GUI pro Host ist nicht praxistauglich!!!

Bildschirmfoto 2024-12-18 um 11.24.53.jpg

Musterinstallation Linux / Windows als VM

Der Postinstaller stellt die aktuelle Windows Treiber ISO in der Stabilen Version bereit, der Proxmox Installer das zweite Laufwerk dafür

Bildschirmfoto 2024-12-18 um 11.28.12.jpg

Bildschirmfoto 2024-12-18 um 11.28.19.jpg

i440FX als Maschinentyp und Bios sind inzwischen eher zu vermeiden, schliesslich soll der Kram lange laufen.

Funfact, i440FX war für die Pro Version des ersten Pentiums, dung ding da ding!


Bildschirmfoto 2024-12-18 um 11.28.43.jpg

Proxmox VE legt im ZFS oder Ceph ebenfalls einen Blockstorage für TPM und EFI Einstellungen an, diese werden Raw ohne Dateisystem geschrieben und haben nichts mit der EFI-Boot-Partition zu tun.

Die native Bildschirmauflösung des Systems wird in der VM beim Starten mit ESC eingestellt.

Der Virtio SCSI single Controller wird im Host als eigener Prozess und im Gast als eigener Controller pro Disk aktiviert

Der Qemu Agent sorgt für Shattenkopien, Freezing, Herunterfahren und mehr!

Bildschirmfoto 2024-12-18 um 11.29.33.jpg

Die Kombination von Discard, SSD Emulation, wie auch IO thread gibt bessere Auslastung und Entlastung von gelöschten Daten an den Host

Bildschirmfoto 2024-12-18 um 11.30.01.jpg

CPU Typ Host ist für identische Hardware in Clustern und Standalone zu bevorzugen, da hier alle Prozessorfunktionen genutzt werden

Bildschirmfoto 2024-12-18 um 11.30.41.jpg

Ballooning spart RAM beim einschalten und macht noch mehr. Treiber unter Windows sind notwendig

Bildschirmfoto 2024-12-18 um 11.31.00.jpg

Virtio Netzwerkkarten brauchen unter Windows eigene Treiber, performen aber bis 100Gbit

Bildschirmfoto 2024-12-18 um 11.31.21.jpg

Die eingebaute Replikation ist erst mal gut genug, auch wenn es mit Zsync besser geht. Dafür hat man, leider nur in der VM hier, Kontrolle über den Erfolg. Löscht man den Job, löscht sich das Replikat

Das Zeitfenster ist mit 15-60 Minuten optimal, mit einer Minute perfekt. Jedoch sollte man nicht jede VM auf eine Minute stellen. da hier das ZFS Auflisten zu Timeouts führt. 

Autosnapshotting ist nicht vorgesehen, leider!

Bildschirmfoto 2024-12-18 um 11.32.04.jpg

Bildschirmfoto 2024-12-18 um 11.32.23.jpg

Linux unterstützt alle Virtio Laufwerke und Netzwerkkarten nativ

Bildschirmfoto 2024-12-18 um 11.37.48.jpg

Installation Ceph

Der Assistent installiert die notwendigen Repositories. Wir empfehlen hier wenigstens die Community Subscription zu nehmen, da ein defekter Ceph-Cluster ein Single-Point-of-Failure ist

Bildschirmfoto 2024-12-18 um 11.44.26.jpg

Bildschirmfoto 2024-12-18 um 11.44.39.jpg

Bildschirmfoto 2024-12-18 um 11.46.22.jpg

Bildschirmfoto 2024-12-18 um 11.46.26.jpg

Die Auswahl der Netze für Cluster, Ceph, Rendundanz und weitere Segmentierungen sollten von einem Erfahrenen Fachmann vorgenommen werden. Wir empfehlen hier Inett aus Saarbrücken

Im aktuellen Setup können wir zum Testen nur das LAN nehmen, das wir ausdrücklich so nicht empfohlen!!!

Bildschirmfoto 2024-12-18 um 11.47.07.jpg

Bildschirmfoto 2024-12-18 um 11.47.37.jpg

Die Installation muss auf allen Clustermitgliedern wiederholt werden, wobei die Konfiguration via PVE Cluster übernommen wird

Jeder Host bekommt mindestens eine SSD als sog. OSD, ab drei Stück haben wir einen funktionierenden Ceph Cluster, ohne extra Sicherheit. Als Nettonutzplatz erhalten wir 1/3 der SSDs, in dem Fall knapp 1TB

Auf keinen Fall dafür in irgendeiner Weise Hardware Raid Controller nutzen!!!

Bildschirmfoto 2024-12-18 um 11.52.59.jpg

Ceph OSD Einrichtung

Bildschirmfoto 2024-12-18 um 11.53.32.jpg

Bildschirmfoto 2024-12-18 um 11.53.55.jpg

Ceph Pool anlegen

Der Pool verbindet die OSDs zum Verbund, die Rolle Monitor und Manager können auf mehrere Nodes verteilt werden, sonst wäre der Reboot des ersten Nodes nicht ohne Schaden möglich!

Bildschirmfoto 2024-12-18 um 11.54.36.jpg

Bildschirmfoto 2024-12-18 um 14.49.23.jpg

VM Migration Node zu Node

Die Übertragung einer laufenden VM oder eines LXC mit Shutdown ist bei ZFS und Ceph möglich.

Wärend bei CEPH der Speicher verteilt ist, muss bei ZFS RAM und Disk nocheinmalübertragen werden.

Bei vorheriger ZFS Replikation ist das meiste der VM schon auf dem Ziel und kann inkrementell ergänzr werden.

Gab es vorher keine Replikation muss die komplette VM übertragen werden.

Das Mittel der Übertragung ist je nach Zustand der VM via KVM oder ZFS möglich.

Ersteres würde zum Verlust von Snapshots führen!

Bildschirmfoto 2024-12-18 um 11.56.37.jpg

Bildschirmfoto 2024-12-18 um 11.56.53.jpg

Klonen zwischen ZFS und Ceph

Proxmox kann mit Bordmitteln die meisten Formate konvertieren.

Bildschirmfoto 2024-12-18 um 11.58.52.jpg

Qemu-Guest-Agent Installation

Dieses Paket für geordnetes Herunterfahren immer mitinstallieren und starten!

Bildschirmfoto 2024-12-18 um 12.02.01.jpg

IO Leistung der Systeme bei diesen Voraussetzungen

ZFS ist dreimal schneller und auf zwei Kisten verfügbar

Wir gehen von der sechsfachen benötigten Leistung aus um Leistungsmässig an ZFS Raid1 zu kommen

Bildschirmfoto 2024-12-18 um 12.11.17.jpg

Login für Root und PVE User mit zwei Faktor absichern!

Bildschirmfoto 2024-12-18 um 12.11.21.jpg

Bildschirmfoto 2024-12-18 um 12.11.35.jpg

Bildschirmfoto 2024-12-18 um 12.12.09.jpg

Weitere User benötigen entsprechende Rechte!

Bildschirmfoto 2024-12-18 um 12.12.28.jpg

Login Realm ist Linux User oder Proxmox Userbasis

Es können in der GUI keine weiteren Linux/PAM User angelegt werden, jedoch GUI aktiviert

Bildschirmfoto 2024-12-18 um 12.12.49.jpg

SSH Daemon gegen Passwort Login absichern

Bildschirmfoto 2024-12-18 um 12.13.29.jpg

Bildschirmfoto 2024-12-18 um 12.13.39.jpg

Eigene virtuelle Switche für VMs trennen das Verwaltungsnetz ab

Wenn die Resourcen vorhanden sind, dringend dafür sorgen daß Anwender und Gast VMs keinen Zugriff auf Proxmox VE, Switche und Firewalls haben

Bildschirmfoto 2024-12-18 um 12.14.57.jpg

Ein Blick auf ZFS klärt nicht welche VM auf welchem Host aktiv ist!

PVE1 und zwei sind auf den ersten Blick nicht zu unterscheiden, auch nicht mit Snapshotauflistung

Bildschirmfoto 2024-12-18 um 12.20.07.jpg

Bildschirmfoto 2024-12-18 um 12.20.50.jpg

Unser erweitertes Ablagekonzept macht die Funktion von abgelegten Daten viel deutlicher. Mehr auf cloudistboese.de

Bildschirmfoto 2024-12-18 um 12.21.29.jpg

Bildschirmfoto 2024-12-18 um 12.25.09.jpg

Prüfung der Replikationen muss mühselig pro VM vorgenommen werden

image.jpeg

Bildschirmfoto 2024-12-18 um 12.25.56.jpg

Leider zeigt das PVE Dashboard weder defekte Platten, noch Raids oder Replikationen in der Übersicht an. Hier wird später Check_MK oder CV4PVE für Übersicht sorgen müssen!

Bildschirmfoto 2024-12-18 um 12.26.11.jpg

Bildschirmfoto 2024-12-18 um 12.26.55.jpg

Postinstaller sichert komplette Konfiguration und dessen Historie mit Rsync und ZFS-Auto-Snapshot

Üblicherweise nutzen wir zfs-auto-snapshot gnadenlos auf alle Datasets und Volumes

Die Proxmox Konfiguration liegt jedoch in einer Datenbank und wird nach /etc/pve gemountet

Diesen Ordner sichern wir regelmässig nach /rpool/pveconf und bauen mit Autosnapshots eine Historie

Bildschirmfoto 2024-12-18 um 12.28.52.jpg

Hochverfügbarkeit einer VM / HA

Die HA Engine sorgt dafür daß VMs / LXC bei Ausfall eines Hosts auf einem anderen Host gestartet werden.

Der Übergang dauert mindestens zwei Minuten, wobei nur bei SAN oder CEPH kein Datenverlust entsteht

Bei ZFS verliert man dier die Replikationslücke!

Daher eignet sie  sich  am besten für Firewalls und Telefonanlagen


Die HA Gruppe definiert die gewünschte Ausführungspriorität, wobei höher mehr Prio hat

Prio 1 ist am niedrigsten

Bildschirmfoto 2024-12-18 um 13.20.48.jpg

Die VMs werden den Gruppen zugewiesen und definieren unseren Wunschort und Zustand

Bildschirmfoto 2024-12-18 um 13.21.03.jpg

Da PVE1 die höchste Priorität hatte wird VM 100 sofort dort hin migriert, die Replikation umgedreht

Bildschirmfoto 2024-12-18 um 13.21.24.jpg

Bildschirmfoto 2024-12-18 um 13.21.43.jpg

Wird ein Node neu gestartet, werden die VMs nicht automatisch umgezogen, sondern heruntergefahren.

Die Weboberfläche eines anderen Nodes muss dann geöffnet werden, die VMs vorher umgezogen werden!

Bildschirmfoto 2024-12-18 um 13.24.15.jpg

Bei Ceph sollte es kein Problem sein einen Node neuzustarten, jedoch muss dafür der Cluster redundant gebaut sein. Sonst besser alle VMs stoppen

Bildschirmfoto 2024-12-18 um 13.30.54.jpg

Bildschirmfoto 2024-12-18 um 13.33.21.jpg

Manuelle und automatische Snapshots

Manuelle Snapshots via GUI oder API werden mit dem passenden Datastoresnapshot ausgeführt, also ZFS, Ceph oder KVM

Bildschirmfoto 2024-12-18 um 13.36.44.jpg

Bei ZFS werden diese Zustände mitrepliziert und die Konfigurationsdatei um diesen Zustand erweitert

Bildschirmfoto 2024-12-18 um 13.37.17.jpg

Bildschirmfoto 2024-12-18 um 13.37.27.jpg

Bildschirmfoto 2024-12-18 um 13.37.32.jpg

Automatische Snapshots Monitoring und Management mit CV4PVE-Admin

kann eine sinnvolle Alternative zu zfs-auto-snapshot sein und ergänzt wichtige, fehlende Einblicke der PVE GUI

Bildschirmfoto 2024-12-18 um 13.38.57.jpg

Bildschirmfoto 2024-12-18 um 13.39.11.jpg

Bildschirmfoto 2024-12-18 um 13.40.57.jpg

Diese Anleitung scheint die sinnvollste, bitte auf eigene Maschine

Bildschirmfoto 2024-12-18 um 13.42.06.jpg

Bildschirmfoto 2024-12-18 um 13.45.00.jpg

Eigener PVE User plus gewünschte Rechte sind hier erklärt

Bildschirmfoto 2024-12-18 um 13.45.15.jpg

Bildschirmfoto 2024-12-18 um 13.45.28.jpg

Bildschirmfoto 2024-12-18 um 13.45.40.jpg

Bildschirmfoto 2024-12-18 um 13.45.52.jpg

Bildschirmfoto 2024-12-18 um 13.45.54.jpg

Bildschirmfoto 2024-12-18 um 13.46.13.jpg

Bildschirmfoto 2024-12-18 um 13.46.25.jpg

Bildschirmfoto 2024-12-18 um 13.47.36.jpg

Alle Replikationen mit Bordmitteln im Blick, nicht mehr jede VM muss aufgeklappt werden

Bildschirmfoto 2024-12-18 um 13.48.50.jpg

Automatische Snapshots können hier definiert werden, jedoch muss das Teil auf laufen

Bildschirmfoto 2024-12-18 um 13.51.18.jpg

Bildschirmfoto 2024-12-18 um 13.52.50.jpg

Bildschirmfoto 2024-12-18 um 13.53.32.jpg

Bildschirmfoto 2024-12-18 um 13.53.32.png

Bildschirmfoto 2024-12-18 um 13.53.50.jpg

ZFS Snapshots können via GUI nur einzeln zurückgerollt werden, hier ist Ceph im Vorteil

Bildschirmfoto 2024-12-18 um 13.53.50.png

Bildschirmfoto 2024-12-18 um 13.54.03.jpg

Bildschirmfoto 2024-12-18 um 13.54.03.png

Bildschirmfoto 2024-12-18 um 13.56.34.png

Replikation bricht nicht bei Rollback

Bildschirmfoto 2024-12-18 um 13.56.57.png

Proxmox kann von HW Raid, ZFS, BTRFS, jedoch nicht von Ceph booten

Den Ceph Zustand kann man nicht mit Check_MK Bordmitteln prüfen

Bildschirmfoto 2024-12-18 um 13.57.50.jpg

Datensicherung mit Proxmox Backup Server

Proxmox kann nativ erst mal nur eine Vollsicherung

Erst der Proxmox Backup Server bringt inkrementelle Backups und Management

Er kann auf einen bestehenden PVE installiert werden, alternativ auch als LXC

Bildschirmfoto 2024-12-18 um 14.03.19.jpg

Die Repos fehlen jedoch hier

Bildschirmfoto 2024-12-18 um 14.05.51.jpg

Bildschirmfoto 2024-12-18 um 14.06.08.png

Hier wäre aktuell Bookworm

Bildschirmfoto 2024-12-18 um 14.08.51.png

Bildschirmfoto 2024-12-18 um 14.09.02.png

Bildschirmfoto 2024-12-18 um 14.09.20.png

Zugriff in diesem Fall via PVE3 auf Port 8007 mit SSL

Bildschirmfoto 2024-12-18 um 14.09.48.jpg

Das Dateisystem könnte mit BTRFS, ZFS oder Ext4 bereitgestellt werden, wobei Ext4 keine Snapshots zum Absichern von Backups beherrscht, dafür 100% Platzausnutzung

Bildschirmfoto 2024-12-18 um 14.18.43.png

Bildschirmfoto 2024-12-18 um 14.19.30.jpg

Der Backupstore wird als Mountpoint bereitgestellt. SMB performt hier sehr schlecht

Root User plus Backupuser werden mit 2fa abgesichert!

Bildschirmfoto 2024-12-18 um 14.24.09.jpg

Bildschirmfoto 2024-12-18 um 14.24.13.jpg

Bildschirmfoto 2024-12-18 um 14.24.25.jpg

Bildschirmfoto 2024-12-18 um 14.24.32.jpg

Für die Sicherung benötigen wir einen Token auf den Backupuser

Bildschirmfoto 2024-12-18 um 14.24.45.jpg

Backup Benutzer und -Token benötigen die Berechtigung Datastore Backup

Bildschirmfoto 2024-12-18 um 14.25.28.jpg

Bildschirmfoto 2024-12-18 um 14.25.34.jpg

Bildschirmfoto 2024-12-18 um 14.25.44.jpg

Für den Datastore in PVE benötigen wir mehrere Parameter

Bildschirmfoto 2024-12-18 um 14.26.11.jpg

Oben den Datastorenamens seitens PVE, den Tokennamen wie sein Passwort.

Auf der Rechten Seite der Datastorename aus dem PBS und unten dessen Fingerabdruck, den wir auf der Startseite des PBS finden

Bildschirmfoto 2024-12-18 um 14.27.28.jpg

Danach taucht der Backupstore in jedem PVE auf, wenn gewünscht

Bildschirmfoto 2024-12-18 um 14.27.49.jpg

Achtung, das Bootvolume von PVE ist per Default auch als Backupstore definiert, weg damit!

Bildschirmfoto 2024-12-18 um 14.28.24.jpg

Bildschirmfoto 2024-12-18 um 14.28.30.jpg

Bildschirmfoto 2024-12-18 um 14.28.31.jpg

Erstes manuelles Backup zeigt den Dirty-Bitmap Status: created-new, was eine Vollsicherung bedeutet

Bildschirmfoto 2024-12-18 um 14.29.02.jpg

Bildschirmfoto 2024-12-18 um 14.29.19.jpg

Bildschirmfoto 2024-12-18 um 14.30.15.jpg

Die zweite Sicherung wird dann inkrementell durchgeführt, bis die VM gestoppt wird!!!

Bildschirmfoto 2024-12-18 um 14.30.40.jpg

Bildschirmfoto 2024-12-18 um 14.31.05.jpg

Löschen einer Sicherung ist gewollt nicht über PVE möglich, in PBS kann man das manuell durchführen oder automatisch.

Der Platz wird erst nach einem Prune lauf freigegeben!

Bildschirmfoto 2024-12-18 um 14.31.11.jpg

Bildschirmfoto 2024-12-18 um 14.31.34.jpg

Nach einem Reboot des Hosts oder Stoppen des Gasts wird wieder eine Vollsicherung durchgeführt, jedoch nur neue Chunks auf das Ziel geschrieben. Dadurch geht das auch noch relativ flott. Siehe die MB angaben unten bei der Sicherung

Bildschirmfoto 2024-12-18 um 14.32.32.jpg

Bildschirmfoto 2024-12-18 um 14.33.02.jpg

Für den automatischen Lauf immer VMs ausschliessen oder alles mitnehmen. Eine Auswahl der VMs führt zu Fehlern über die Zeit durch Unterlassung

Bildschirmfoto 2024-12-18 um 14.35.48.jpg

Die Retention, also das Aufräumen hier ist nicht sinnvoll, noch möglich

Bildschirmfoto 2024-12-18 um 14.36.48.jpg

In Prunejobs regelst Du die Aufhebezeiten und die Ausführung der Regel, was aber nur für die Auswahl relevant ist. Der Vorgang geht relativ schnell

Der Simulator von Proxmox hilft dabei

Bildschirmfoto 2024-12-18 um 14.37.41.jpg

Bildschirmfoto 2024-12-18 um 14.38.41.jpg

Bildschirmfoto 2024-12-18 um 14.38.50.jpg

Die Garbage Collection räumt dann alle Junks auf die in keinem Backup mehr benötigt werden.

Der Vorgang hat hohe Last und dauert, also bei Stilstand ausführen

Bildschirmfoto 2024-12-18 um 14.39.20.jpg

dBildschirmfoto 2024-12-18 um 14.40.54.jpg

Der Verify Job überprüft regelmässig die Vollständigkeit der Junks und die Integrität der Backups.  Der Erfolg wird in der Rechten Spalte in PVE und PBS angezeigt

Bildschirmfoto 2024-12-18 um 14.41.35.jpg

Bildschirmfoto 2024-12-18 um 14.41.55.jpg

Bildschirmfoto 2024-12-18 um 14.42.01.jpg

Optional Replikationskontrolle mit checkzfs von #Bashclub

Da unklar ist welcher Host gerade welche ZFS Maschine aktiv betreibt, bleibt uns nur den Vergleich aller Datastores gegeneinander.

Der Vorgang sollte nur ausgeführt werden wenn gerade keine Replikation läuf, sonst spuckt er Fehler

Bildschirmfoto 2024-12-18 um 14.59.16.jpg

Bildschirmfoto 2024-12-18 um 15.01.43 1.jpg

Bildschirmfoto 2024-12-18 um 15.01.43.jpg

Bildschirmfoto 2024-12-18 um 15.01.45.jpg

Für diesen Anwendungsfall ist eventuell CV4PVE einfacher, da es auch viele Teile vom Monitoring übernimmt

Bildschirmfoto 2024-12-18 um 15.17.28.jpg

Vielen Dank für Ihre Aufmerksamkeit

Christian-Peter Zengel (sysops.tv)

Resourcen

https://aow.de/books/ubersicht-des-projekts/page/prospekt - Unser aktueller Prospekt

https://aow.de - Linkliste zu allen Projekten

https://cloudistboese.de - Schulungsportal, alle Kurse können kostenfrei wiederholt werden. Kurse meist online, auch vor Ort

http://youtube.com/sysopstv - Livesendung Montags und Donnerstags gegen 17:15h, Donnerstags Stammtisch online