Direkt zum Hauptinhalt

ProxMox

Inhaltsverzeichnis

Proxmox Workshop 20230926 und 20230928

26.09.2023

28.09.2023

Proxmox Workshop 20230926 und 20230928

Kostenpflichtiger Link für Videos

26.09.2023

  • Kein RAID Controller 
  • Platten direkt an Proxmox geben 
  • ISO Installation mit Version 7.x
    ◦Install Proxmox
    ◦Target Harddisk sda / sda —> ext4 mit LVM - daher auf options (ALT o) 
    • ‣  ZFS RAID 1 oder ZFS RAID 10 
    • ‣  Festplatten müssen gelesen werden 
    • ‣  Advanced Option - ZFS Optionen 
    • ‣  Passwort muss sich in der HTML Console tippen lassen - Thomas Krenn Server sind da
      zickick 
  • Proxmox Boot-Tool kann hilfreich sein 
  • https://<ip>:8006
    ◦Single PAM - ssh login in
    ◦Proxmox VE - Weboberfläche Cluster 
  • /etc/ssh/sshd_config ◦PermitRootLogin without-password 
  • TOTP (... one Time Password) 
  • Postinstall aus bashclub - github
    ◦No Subscription auswählen
    ◦96 hours wegen Weihnachten und Ostern
    ◦Backup /etc zfs dataset rpool/pveconf - Configuration liegt in einer Datenbank ◦... 

• Update nach Proxmox 8.x

◦pve7to8

◦pve7to8 -- full ◦...

  • Proxmox Update nach Anleitung von ProxMox - Subscription bzw. Nosubsription beachten 
  • Nach Kernel Update - reboot einplanen 
  • dmesg -w # oder 
    dmesg -Tw # - Hardware Tausch 
    ProxMox-boot-tool 
    proxmox-boot-tool status 
    zpool upgrade 
    zpool upgrade -a # führt das Upgrade durch 
    # ZFS trim einschalten 
    zpool set autotrim=on rpool # Freigabe leerer Blöcke ◦zpool trim rpool
    zpool status 1 

  • Template Ordner /var/lib/vz 
  • ISO Ablage Ordner /var/lib/vz/template/iso
    ◦z.B. virtio-win.iso 
  • Cache /var/lib/vz/cache/ z.B. *.tar.gz Proxmox Mailgateway 
  • PVE boot nicht mehr 

◦CD bzw. ISO booten - ...Debug ...

  • ‣  
    exit - damit nicht der Installer bootet 
      zpool status 
      zpool import 
      zpool import rpool 
      zpool import -fa # a für all 
      zpool import -f rpool 
      zpool status 
      zpool list 
      zfs list -t snapshot 
      zfs list -t snapshot | grep pve-1 
      zfs rollback -r rpool/ROOT/pve-1@zfs-auto-snap.hourly_2023-09-26-1251 \
      # entsprechender snapshot - boot und Proxmox geht wieder 
  • ‣  data zurück rollen 

• 

zfs rollback -r rpool/data@... (?) #  data/vm... zurück rollen

  • Verschlüsseltes ZFS ◦zfs-load-key
    ◦Replication raw - Chriz Software unterstützt das ... 
  • PVE Grafik
    ◦local
    ◦local-ZFS 
  • VM auf RAID-Z 8k versus 16k
    ZFS create rz_repel/vmtest
    ZFS create V 10G rz_repl/vmtest/disk8k # Keine RAID5 für VM‘s - \
      langsam wegen 8k ◦RAID5 min. 16K einstellen

    ◦Local-ZFS Einstellung auf min. 16K einstellen ◦Proxmox Standard volblocksize=8k
    ◦Siehe awo.de Tabelle - Artikel ZFS RAID 
  • VirtIO Treiber im Internet finden ... - proxmox windows driver im Browser suchen ◦Auf ProxMox Seite nach stable suchen
    ◦Link kopieren
    ◦In ProxMox GUI - Download URL eintragen 

‣ Filename: VirtIO-win.iso
◦ISO Ablage Ordner /var/lib/vz/template/iso

• ProxMox Virtual Treiber - für Windows iso

◦Create VM
‣ System

  • Maschine q35 
  • BIOS: OVMF (UEFI) 
  • Emu Agent 
  • EFI Storage: local-zfs
    ‣ Disks 
  • Bus/Device: SCSI # VirtIO Block ist obsolet !!! 
  • SCSI - VirtIO SCSI Single - SCSI steht für SCSI Controller auf der vorseite - kann ein
    Prozessorkern pro Festplatte 
  • Discard 
  • SSD emulation 
  • Cache: - Default (no cache) - keine Cache einschalten !!!
    ‣ CPU 

• Type: Host

‣ Network

  • Bridge: vmbr0 
  • Model VirtIO (paravirtualized) ◦GUI - vm - Hardware - CD/DVD
    ‣ Zweites CD Laufwerk VirtIO Treiber iso ◦GUI - vm - Hardware - Maschine 

‣ q35 Version 5.2 - weniger Probleme als mit 8.0 wegen deutschen Treibern - ist für US optimiert ... - Probleme mit Netzwerkkarten

◦EFI hat feste Bildschirmauflösung - kann nur in der EFI der VM eingestellt werden (EFI BIOS) - Im BIOS ESC drücken

◦Windows Installer
‣ Treiber - Virtualio SCSI laden - vioscsi - win10 - amd64

• vm-<id vm>-disk-0 EFI BIOS - speichert z.B. Bildschirmauflösung - z.B. zd0

  • vm<id-vm>-disk-1 Windows 10 - z.B. zd16
    ◦Windows partitioniert die „disk-1“ in 3 Partitionen - während der Installation 
    • ‣  p1: EFI 
    • ‣  p2: Microsoft reserved 
    • ‣  p3: Microsoft basic data 
  • Windows ohne Netzwerk = keine dummen Tools 
  • Windows ohne Passwort = keine Fragen 

• Wichtig für den Start der VM

◦Pool muss online
◦Pool unter 80 %
◦Definition der Datenstorages unter cat /etc/pve/storage.cfg ◦PVE Server 101.conf - unter cat /etc/pve/qemu-server/101.conf ◦Virtual CD - fehlende Treiber - 1 Controller pro Festplatte

  •  Virtio-win-guest-tools - evtl. Erweiterung exe sichtbar - installierten - installiert alles - liegt im Hauptverzeichnis der CD/DVD - am Ende auch die Guest-Tools 
  • Reale Memory Anzeige, CPU Usage und IP Adressen ◦Deinstallation der Apps 
    Powershell 

• 

Get-appxPackage | Remove-appxPackage # man verliert Taschenrechner - alle App

werden entfernt - auch der Storage wird entfernt ‣ Nach Feature Update wieder alles da

◦Festplatte vergrößern
‣ Resize 16 GB - bedeutetet +16 GB

• Auf PVE

cd /dev/zvol/rpool/data 
ls -alter

Wiederherstellungspartiions an das Ende verschieben oder löschen • /dev/zvol/...

  • cfdisk # - Partition löschen 

  • Partition in Windows Erweitern
    ◦Unter Linux VM ausschalten, resize geht nicht immer Fehlerfrei 
    • ‣  Datenträger neue Größe 
    • ‣  Explorer noch alte Größe 
  • zfs history 
    cd /dev/zvol/rpool/data 
    ls -althr 

‣ SSD Emulation / Discard • Defragemtieren

◦Unter Einstellungen ändern: Auf einmal täglich einstellen ‣ Windows Swap optimieren - powershell

  • attrib 
    powercfg -h off # evtl. Darf es der User nicht - powershell als administrator starten 
    zfscreate-o com.sun:auto-snapshot=false rpool/swap # keine  autosnapshots!!! 

  • ◦PVE rpool/swap in der GUI - Add ZFS 
    • ‣  ID: rpool-swap 
    • ‣  ZFS Pool: rpool/swap 
    • ‣  Content: Disk Image 
    • ‣  Thin provision Harken setzen ! 
    • ‣  Block Size: 16K 
  • Add Hard Disk: ◦Disk Size: 8 G
    ◦Storage: rpool-swap
    ◦SSD emulation
    ◦Discard
    ◦Backup harken ? Herausnehmen ? - Backup: ja - Replication: nein 

• Im PVE add ZFS

◦ID: rpool-swap
◦ZFS Pool: rpool/swap ◦Content: Disk Image ◦Thin provision: Harken ◦Block Size: 16K

  • PVE Add Hard Disk
    ◦Bus/Device: SCSI
    ◦Storage: rpool-swap
    ◦Disk size (GiB): 8
    ◦SSD emulation: Harken
    ◦Discard: Harken
    ◦Backup: Harken - auf jedenfall bei Linux - Windows braucht die Partition nicht, bei
    Replication: nein, Backup: ja 
  • Nach neuer Hardware suchen - Evtl. Bug - Hotswap - bei SCSI Controller VirtIO SCSI
    würde er ihn direkt erkennen
    ◦Neuer Speichercontroller gefunden 
  • Neues Laufwerk a: oder b: # Niemand braucht a: oder b: mehr 
  • Auslagerungsdatei auf a: ändern und c: herausnehmen ◦Checkliste Platz
     

• Linux in crontab /sbin/fstrim -av - für Linux VM

◦crontab -e
0 0 * * * /sbin/fstrim -a

◦fstrim -av # muss eine Ausgabe bringen - sonst vm falsch konfiguriert \
  • VM Platten auf SSD und Discard umstellen


◦Wenn 8k und RAID 5 —> neuer datastore 16k und move disk
◦Wenn die in vm —> Treiber rein, runter fahren deatach, attach mit ssd / discard >

Optimierungen

◦Page file wie oben erklärt
◦Dann daily optimieren, Platz wird nach spätestens nach 3 Monaten frei, optional snapshot

löschen
◦Optional vacuum auf Datenbanken

28.09.2023

Workshop 2023-09-28 • Platten replacement

◦Artikel von ProMox - ist nicht ganz korrekt: https://pve.proxmox.com/wiki/ZFS_on_Linux

zpool set autoexpand=on rpool # Erweiterung des Pools, wenn alle Platten getauscht ◦sgdisk /dev/sdb -R /dev/sda #

Partitionstabelle kopieren

cfdisk /dev/sda # Partition vergrößern

sgdisk -G /dev/sda # EFI: neuer Fingerabdruck, damit EFI zu recht kommt 
proxmox-boot-tool format /dev/sda2 # format die Bootpartition (Partition 2) - Windows

Dateisystem (vat)

proxmox-boot-tool init /dev/sda2
proxmox-bool-tool status
◦proxmox-boot-tool clean # wirft Platten heraus, \
  die er nicht mehr kennt
update-initramfs -u # alte Variante - wegen aktuellen \
  Bug - nur eine Platte bootet über status ◦apt install systems-boot # systemd-boot fehlt nach Update von 7.x auf 8.x
zpool replace rpool ata-INTEL-...-part3 ata-ST2000...-part3 \
  # „alte Platte“ „neue Platte“ ◦zpool status
zpool status 1


◦Im Einspielvorgang resilver Vorgang

  • ‣  ZFS interessiert das nicht - Hardware RAID böse !!! 
  • ‣  Nach dem Reboot geht das Einspiegeln weiter ... ◦Zweite HDD in freien Slot stecken 

‣ Nach dem Booten können die Festplatten einen anderen Buchstaben bekommen haben, so

wie er sie erkannt hat

sgdisk /dev/sdb -R /dev/sdd
sgdisk -G /dev/sdd
zpool status
proxmox-boot-tool format /dev/sdd2
proxmox-boot-tool init /dev/sdd2
proxmox-boot-tool status
zpool status


Cockpit ZFS nur zum schauen - kein two Factor !! - aus Postinstall Proxmox - Achtung neuer

  • ‣  
    wget \
    https://raw.githubusercontent.com/bashclub/proxmox-zfs-postinstall/main/install-cockpit-zfs-manager 
    bash install-cockpit-zfs-manager
     ‣ https://<ip>:9090 
    • root user kann sich nicht per Passwort einloggen
      ◦Temporär in der /etc/ssh/ssd_conf ändern # keine Empfehlung Key muss irgendwo hinterlegt werden # nur zum lernen !!! 
    • z.B. für das zum Zurückspielen einer VM - VM muss vorher im Proxmox gestoppt werden
      zpool replace ... # löscht Platte !!!
      zpool attach rpool ata-... # neue Platte erst hinzufügen
      zpool detach ... # Schublade - Backup
      zpool attach rpool ata-INTEL-SSD..-part3 ata-ST2000...-part3 # hängt die HDD hinter die SSD ◦zpool status # 3 Platten im mirror-0 !!!

      SSD HDD Hard herausziehen und anschließend detach der Platte
zpool status
zpool detach rpool ata-INTEL-SDD...-part3
proxmox-boot-tool status 
proxmox-boot-tool clean
proxmox-boot-tool status
zpool status # rpool hat jetzt 1.82 TB - Pool vergrößert
arcstat
vi /etc/modprobe.d/zfs.conf
proxmox-boot-tool refresh # in den Images wird der Cache auf den neuen Wert gesetzt, ZFS

muss das vor wissen bevor es boot, zfs.conf liegt auf ZFS • Windows kaputt machen - Trojaner

◦Netwerkkarte disablen durch Trojaner
◦VM herunterfahren
◦Entwicklung der Größe der snapshot‘s - als Indikator ◦Rollback snapshot über Cockpit oder über command Line

• Cache

zpool add -n rpool cache ata-intense..
zpool add -nf rpool cache ata-intense.. # wenn schon Daten auf der Platte ◦zpool add -f rpool cache ata-intense..
zpool iostat -v 3
zpool iostat -v 1 # 1 sec

• Proxmox Cluster
◦GUI - Cluster - create cluster ◦pvecm create „clustername“ ◦GUI - Cluster - „add Cluster“ ◦pvecm add clusterserver1 ◦Kein Cluster mehr

https://pve.proxmox.com/wiki/Cluster_Manager#_remove_a_cluster_node

• Goto: First, stop the corosync and pve-cluster services on the node:◦

cd /etc/pve


‣ storage.cfg

  • ‣  qemu-server/*.conf 
  • ‣  lxc/*.conf 
  • ‣  nodes/... # Ordner mit den Cluster Member 
    top 
    ps aux 
    ps aux | grep qm # Herstellung aller Maschinen anhand dieser Ausgabe 
  • ‣  Login in Cluster funktioniert nach Fehlschlag nicht mehr 

• 

service pveproxy restart


◦Neue Zertifikat - zwei Faktor Authenfication der lokal User liegt heraus

cd /rpool/pveconf 
zfs list -t snapshot rpool/ROOT/pve-1 


zfs rollback -r rpool/ROOT/pve-1@zfs-auto-snap_hourly-2023-09-28-1017 # panic Variante und Stromkabel nach 2 s

  • 2. besser von cd booten, rollback wie oben 
  • 3. Ordner .zfs unter /rpool/pveconf 
    • cd snapshot # dieser Ordner nur in dataset roots 
      # Snapshot order auswählen 
      ◦ cd zfs-auto-snap_hourly-2023-09-28-0717
      ◦ cd etc/pve/nodes/pvews
      ◦ cd lxc
      ◦ ls 
      ◦ cp 100.conf /etc/pve/lxc
      ◦ cd ..
      ◦ cd qemu-server
      ◦ cp 101.conf /etc/pve/qemu-server
      ◦ # evtl. Alternativ cp 101.conf /etc/pve/nodes/pvews/qemu-server
      ◦ vi /etc/pve/nodes/pvews/qemu-server/101.conf # Anpassung von Namen 

• Boot Partitionen löschen

◦Über dd

dd if=/dev/zero of=/dev/sda2 bs=1M count=511 
dd if=/dev/zero of=/dev/sdd2 bs=1M count=511 
proxmox-boot-tool status 
  • Boot über CD/DVD - Advanced - debug mode console 

‣ Type exit - damit Installer nicht startet
https://pve.proxmox.com/wiki/ZFS:_Switch_Legacy-Boot_to_Proxmox_Boot_Tool 

• Repairing a System Stuck in the GRUB Rescue Shell
◦Repairing a System Stuck in the GRUB Rescue Shell
◦If you end up with a system stuck in the grub rescue> shell, the following steps

should make it bootable again:
◦Boot using a Proxmox VE version 6.4 or newer ISO
◦Select Install Proxmox VE (Debug Mode)
◦Exit the first debug shell by typing Ctrl + D or exit
◦The second debug shell contains all the necessary binaries for the following steps ◦Import the root pool (usually named rpool) with an alternative mountpoint of /mnt: 

zpool import -f -R /mnt rpool
zfs list # Chris im Video

◦Find the partition to use for proxmox-boot-tool, following the instructions from

Finding potential ESPs
◦Bind-mount all virtual filesystems needed for running proxmox-boot-tool: ◦

mount -o rbind /proc /mnt/proc
mount -o rbind /sys /mnt/sys
mount -o rbind /dev /mnt/dev
mount -o rbind /run /mnt/run
◦ls /mnt # Video Chriz
◦change root into /mnt
chroot /mnt /bin/bash

  • ‣  cat /etc/network/interfaces # Video Chriz 
  • ‣  proxmox-boot-tool status 
    ‣  lsblk 
    ‣  proxmox-boot-tool format /dev/sdb2 
    ‣  proxmox-boot-tool format /dev/sdc2 
    ‣  proxmox-boot-tool init /dev/sdb2 
    ‣  proxmox-boot-tool init /dev/sdc2 
    ‣  proxmox-boot-tool status 
    ‣  proxmox-boot-tool clean 
    ‣  zpool export rpool # hat im Video gefehlt, daher nach reboot zpool import -f rpool 

  • ‣  <CTRL> <ALT> <ENF> # reboot auslösen 
  • ‣ 
    ‣  zpool import -f rpool # letzter Besitzer war CD 
    ‣  exit # erneuter reboot 
    ‣  zpool status 
  • ‣  Wichtige Dateien:
    • /etc/network/interfaces • storage.cfg
    • qemu-server/*.conf
    • lxc/*.conf 

• Boot Partitionen löschen ◦cfdisk /dev/sdb

‣ Partition 1 in dPartition 2 löschen ◦cfdisk /dev/sdc

‣ Partition 1 in dPartition 2 löschen ◦reboot

◦Proxmox neu installieren auf cache SSD ohne zfs ‣ Boot von CD

‣ Install Proxmox ohne ZFS auf SSD

  • Würde mit ZFS installiert, hätten wir wieder ein rpool und müssten den original Pool rpool in z.B. rpool1 umbenennen und local-zfs anpassen !!!! 
  • Profi Tipp: Alle anderen Platten ziehen, damit auf keiner falschen Installiert wird 
  • Installation mit ext4 mit lvm 
  • Neues Zertifikat und Passwort neu 
  • ssh meckert wegen known_hosts # Neu Installation 
  • zfs list # zeigt leere Liste 
  • zpool import -fa # alle importieren 
    zfs list # rpool ist wieder da 
    cd /rpool/pveconf 
    cd etc 
    cd pve 
    ls 
    cp storage.cfg /etc/pve 
    cd qemu-server 
    cp 101.conf /etc/pve/qemu-server # Produktiv System cp *.conf /etc/pve/qemu- 
    server 
    cd .. 
    cd lxc 
    cp 100.conf /etc/pve/lxc # Produktiv System cp *.conf /etc/pve/lxc 

  • ISO‘s als DVD heraus werfen, da vermutlich nicht gesichert 
  • ‣  zpool remove rpool add # cache ssd entfernen # atach und detach nur mirror - alles andere wird removed 
  • ‣  Am Abend wieder heile machen 
    • Booten von CD/DVD 
    • Advanced Mode - Debug mode
      ◦Partitionstabelle wiederherstellen 

‣ Anderen Proxmox schauen

• https://pve.proxmox.com/wiki/ZFS:_Switch_Legacy- Boot_to_Proxmox_Boot_Tool  

◦Repairing a System Stuck in the GRUB Rescue Shel ◦

zpool import -f -R /mnt rpool
◦zfs list # Chris im Video


◦Find the partition to use for proxmox-boot-tool, following the

instructions from Finding potential ESPs
◦Bind-mount all virtual filesystems needed for running proxmox-

boot-tool:

mount -o rbind /proc /mnt/proc
mount -o rbind /sys /mnt/sys
mount -o rbind /dev /mnt/dev
mount -o rbind /run /mnt/run
chroot /mnt /bin/bash
# Partitionstabelle eines anderen ProxMox Systems anschauen 
sgdisk /dev/sdd -R /dev/sdb # muss resized werden
cfdisk /dev/sdb

◦ Partition 3 wieder vergrößern # Werte überprüfen mit Foto falls vorhanden

sgdisk /dev/sdb -R /dev/sdc
sgdisk -G /dev/sdb
sgdisk -G /dev/sdc


◦Änderungen haben nicht gegriffen - reboot erforderlich # alternativ

parted - partedprobe bekommt das im laufenden Betrieb

◦Reboot
◦Evtl. mit proxmox-boot-tool Partitionen wieder herstellen, zuvor

muss die ProxMox Umgebung über die chroot Umgebung gebaut werden ...

Reboot
zpool import -fa
exit # reboot vom ProxMox 
zpool status ◦proxmox-boot-tool status

◦3. Variante für Arbeiten
‣ Externe SSD - True NAS installieren - geht aber nur für VM‘s - VM‘s per SCSI freigeben

• Backup ProxMox Datenbank
cat /etc/cron.d > /pve-conf-backup

rsync. ... /etc /rpool/pveconf # alle 15 min - ab 3 Minute • Import Daten

◦vmdk vhdx raw qcow2 > mounten vom original (vm aus!)

  • /mnt/pve/nfsstore oder smbshare
  • ◦zvol / lvm / usb / hdd /ssd
    ◦qm importdisk 100 /mnt/hypervfreigabe/dc.vhdx local-zfs (via samba)
    ◦qm importdisk 100 /mnt/pve/nfsstore/vmfs/id/dc/dc.vmdk local-zfs # (via NFS oder SSHFS) 
  • ◦Echte Systeme

◦Clonezilla
https://pve.proxmox.com/wiki/Migration_of_servers_to_Proxmox_VE 

• Clonezilla Live CDs
◦Disks erscheinen erst mal unused - mit Doppelclick hinzufügen und booten

• Backup und Monitoring

zfs list # Ziel Backup Disk - Pool Backup
zfs create backup/repl -o com.sun:auto-snapshot=false 
zfs set com.sun:auto-snapshot=false backup 
Bash-club-zfs-push-pull # auf Ziel

  • ‣  
    git clone https://github.com/bashclub/bashclub-zfs-push-pull.git 
    cd bashclub-zfs-push-pull 
    chmod +x 02pull bashclub-zfs 
    cp bashclub-zfs /usr/bin 
    vi 02pull # Anpassen - In for Schleife ein echo zum Testen 
    bashclub-zfs # Parameter I und R - alte Snapshot und Zwischen snapshots mitnehmen 
      # Prinzipiell pull !!! - Quelle kommt nicht auf das Ziel, sondern nur Ziel kommt auf Quelle 
    cp 02pull /etc/cron.hourly
     
  • ‣  Monitoring 
wget -O /usr/local/bin/checkzfs https://raw.githubusercontent.com/bashclub/check-zfs-replication/main/checkzfs.py  
chmod +x /usr/local/bin/checkzfs 
checkzfs --sourceonly 
checkzfs --filter rpool/data/ --replicafilter backup/repl --threshold 75,90 
checkzfs --filter rpool/data/ --replicafilter backup/repl --threshold 75,90 --columns 
+message 
  • wget -O /usr/local/bin/checkzfs https://raw.githubusercontent.com/bashclub/check-zfs-replication/main/checkzfs.py   
    • Keep: Hours 96, dayli 14 
    • ProxMox GUI
      ◦Storage - Add ZFS 
    • cd /etc/pve/qemu-server 
      cp 101.conf 9101.conf 
      vi 9101.conf 

    • ◦:%s/local-zfs/backup-repl/g ◦Swap entfernen
      ◦DVD Laufwerke entfernen ◦Name am Anfang repl- anfügen 
  • GUI der VM 9101
    ◦Netzwerkkarte deaktivieren # Befehl kann man nachher in der conf nachschauen ◦Autostart disablen 
  • VM 9101 starten # aber Replikationszeit beachten - cron.hourly, ... beachten 
  • LXC Container kann mittlerweile die Netzwerkkarte deaktivieren - alternativ in anderen
    vswitch 
  • checkzfs --filter rpool/data/ --replicafilter backup/repl --threshold 75,90 --columns 
    +message --output checkmk
      # Datei generieren und auf anderen Server kopieren - über scp 
    zfs mount -a 
    ls /backup/repl/subvol-100-disk-0/etc/pmg 
    mkdir /mnt/restore 
    mount /dev/zvol/backup/repl/vm-101-disk-1-part3 /mnt/restore 
    ls /mnt/restore # Damit kann man Daten aus dem Windows zurückspielen 
    umount /mnt/restore 
    zfs create backup/klon -o com.sun:auto-snapshot=false 
    zfs list -t snapshot backup/repl/vm-101-disk-1 
    zfs clone backup/repl/vm-101-disk1@bashclub-zfs_2023-09-28_16:21:30 backup/klon/vm-101-disk-1 
    mount /dev/zvol/backup/klon/vm-101-disk-1-part3 /mnt/restore 
    ls /mnt/restore 
    vi /etc/pve/qemu-server/9101.conf # Anpassung vom Klon 

  • VM aus Klon booten und sich anschauen ... 
  • umount /mnt/restore 
    zfs get guid 
    zfs get guid | grep bashclub-zfs_2023-09-28_16:46:50 
    zfs get creation rpool/data/subvol-100-disk-0@bashclub-zfs_2023-09-28_16:46:50 

  • zfs replication für arme 


zfs snapshot rpool/data/vm-100-disk-0@snap1 # snapshot auslösen - evtl. nicht komplettes Command


zfs send rpool/data/vm-100-disk-0@snap1 | zfs recovery -dvF backup/repl # local 
zfs send rpool/data/vm-100-disk-0@snap1 | ssh rot@zielip zfs recovery -dvF

backup/repl # push


ssh root@sourceip zfs send rpool/data/vm-100-disk-0@snap1 | zfs recovery -dvF backup/repl # pull

• checkzfs mit Mail - dafür muss Mail konfiguriert sein

checkzfs --filter rpool/data/ --replicafilter backup/repl \
--threshold 75,90 --columns+message --output mail