Zugegeben, es fällt mir nicht leicht, das einzugestehen, aber lange Zeit habe ich ausschließlich Open-Source-Software verwendet. Proxmox war der Hypervisor meiner Wahl, und praktisch jede genutzte Anwendung fand ich auf GitHub. Natürlich ist an diesem Vorgehen nichts falsch. Nicht zuletzt, da man gute Open-Source-Projekte einfach unterstützen muss.
Allerdings setzen die meisten Unternehmen eher nicht auf diesen Technologie-Stack. In der Praxis wird man eher VMware vSphere als Virtualisierungslösung antreffen. Den Proxmox Backup Server kennt dort ebenfalls so gut wie niemand. Veeam ist hingegen aber fast jedem geläufig. Daher sollte das eigene Homelab eher einer traditionellen Enterprise-Umgebung ähneln.
Dies bietet den Vorteil, dass man Synergieeffekte schafft. Update-Prozesse sind aus dem eigenen Lab bereits bekannt, und man kann dort in aller Ruhe die unterschiedlichsten Konfigurationen testen. Du könntest nun argumentieren, dass die gesamte Software extrem teuer ist und man sich das einfach nicht leisten kann. Dem ist jedoch nicht so:
Wer sich für klassische Linux-Administration oder das zunehmend gefragte DevOps-Engineering interessiert, ist natürlich der Open-Source-Bereich die richtige Anlaufstelle. Hier kann die Vielfalt an Software schnell überwältigend werden, und die Entscheidungsfindung gestaltet sich mitunter schwierig. Oftmals trifft vielversprechende Projekte dann noch ein schnelles Ende.
Wer sich nicht ausreichend Gedanken macht, wird möglicherweise häufiger zusätzliche Hardware anschaffen müssen. Wenn ich an die Anfänge meines Homelabs zurückdenke, war der 8-Port-Switch nach nur 3 Monaten zu klein, der Raspberry Pi 4 nach wenigen Tagen zu leistungsschwach und die preiswerte Firewall konnte nicht mehr als 500 Mbit/s an Traffic routen.
Dann kam das erste Proxmox-Cluster mit 2 Nodes und einer NAS als Shared Storage. Letzteres war nur mit 1 Gbit/s angebunden, was zu einer wahnsinnig schlechten Performance meiner VMs führte, und ersteres landete beim Neustart eines Nodes sofort im Read-only-Modus. Als ich ein weiteres QDevice hinzufügte, musste ich erst einmal die günstige Dreifach-Steckdosenleiste wechseln.
Bis ich zu meinem heutigen Homelab gekommen bin, sind viel Zeit, Mühe und eine Menge Geld verloren gegangen. Es ist nicht notwendig, groß anzufangen, aber eine genaue Einschätzung des eigenen Bedarfs ist entscheidend. Einfach loszulegen, ist keine gute Idee. Setze dich einmal in Ruhe hin und überlege dir, was du nach den kleineren Projekten umsetzen möchtest.
Denn günstige Server-Hardware erreicht rasch ihre Leistungsgrenzen, der Backup-Pool füllt sich schneller als gedacht, und günstige SSDs in den Servern neigen dazu, bei mehreren gleichzeitigen Random-Writes fast zusammenzubrechen. Infolgedessen muss man alles ersetzen und das Setup von vorne aufbauen. Das verschlingt nicht nur kostbare Zeit, sondern verursacht auch unnötige Ausgaben.
Ein Homelab dient dazu, neue Fähigkeiten zu erlernen, und wird deshalb nicht selten regelmäßig umgebaut. In diesem Prozess werden Sicherungen oft als nicht so wichtig erachtet und für entbehrlich gehalten. Allerdings vergessen viele dabei den Backbone ihres Netzwerks, sprich Firewall, Switch, Wireless-Access-Point sowie die Smart Home Zentrale.
Ein fehlendes Backup in diesen Bereichen kann sich im Ernstfall verheerend auswirken. Selbst ein ausgefallener DNS-Adblocker wie der beliebte Pihole oder der modernere AdGuardHome können das gesamte Heimnetzwerk lahmlegen. Daher ist es ratsam, Backups anzufertigen. Und hier genügen schon die Bordmittel der Services. Ein Konfigurations-Export ist fast überall möglich.
Je nach verfügbarem Speicherplatz können regelmäßige Vollsicherungen, platzsparende Konfigurationssicherungen oder inkrementelle Backups durchgeführt werden. Für Nutzer mit begrenztem Speicherplatz, die lediglich Konfigurationsdateien oder die Bind-Mount von Containern sichern möchten, bietet sich BackupPC als zuverlässige Lösung an.
Wer über ordentlich Speicherplatz verfügt und Proxmox einsetzt, kann die integrierte Sicherungsfunktion nutzen. Allerdings erstellt diese kontinuierlich Vollsicherungen, was bei häufigen Backups den verfügbaren Speicherplatz schnell aufbraucht. Eine effizientere Lösung bietet der Proxmox Backup Server, der inkrementelle Sicherungen ermöglicht.
Außerdem verfügt der PBS über ein sehr praktisches Feature. Man kann nämlich in der grafischen Benutzeroberfläche wie in einem Dateibrowser Files ansehen und diese sogar herunterladen. Zusätzlich gibt es das Tool Proxmox Backup Server Client, womit auch physische Server gesichert werden können, was besonders nützlich für den Hypervisor PVE selbst ist.
Veeam, insbesondere in der Free-Edition, erweist sich ebenfalls als leistungsstarke Backup-Lösung und ist definitiv einen Blick wert. Hier ist die Anzahl der Backup-Clients allerdings limitiert. Des Weiteren haben Synology NAS-Systeme mit Active Backup for Business eine tolle Onboard-Lösung parat. Wer will, kann auch Cloud-Angebote wie die Hetzner Storage Box in Betracht ziehen.
Da es sich hier aber nur um einen Cloud-Speicher handelt, benötigt man immer noch eine Software für die Durchführung der Backups. Letztendlich bleibt aber die Frage, was überhaupt gesichert werden muss. In der Praxis hört man dann häufig die Begrifflichkeit kritische Infrastruktur. Hierzu gehören meiner Meinung nach im Homelab folgende Systeme:
Außerdem solltest du über Folgendes nachdenken:
Die Zusammenfassung aller Smart-Home-Geräte, Netzwerkspeicher und Server in einem einzigen Netzwerk bringt zahlreiche Probleme mit sich. Denn die Netzwerkleistung leidet erheblich, insbesondere wenn VOIP, Video-Streaming und Storage-Replikation parallel im gleichen Netzwerk betrieben werden. Außerdem schafft die Konfiguration von Quality of Service auch keine Abhilfe mehr.
Sehr negativ wirkt sich so ein Netzwerk-Design auf zeitkritische Anwendungen wie VOIP oder Online-Gaming aus. Deshalb empfehle ich die Verwendung von VLANs. Nicht zuletzt, da diese die Verwaltung erleichtern und die Sicherheit verbessern. Gäste können nämlich in einem separaten VLAN isoliert werden, während das Management-VLAN nur von bestimmten Geräten erreichbar ist.
Des Weiten bin ich ein großer Fan davon, Smart-Home-Geräte aus Fernost in einem dedizierten IoT-Netzwerk zu betreiben. So lässt sich deren Traffic besser überwachen und bei Datenschutzbedenken kann man rasch reagieren. Darüber hinaus sind IoT-Geräte ein häufiges Angriffsziel, daher dürfen sie keine Verbindung zu sensiblen Bereichen meines Netzwerks herstellen.
Bei mir hat Sicherheit höchste Priorität. Weiterhin betrachte ich den Einsatz von VLANs als hervorragende Gelegenheit für Systemadministratoren, ihre Fähigkeiten im Bereich Firewalling und Switching zu vertiefen. Ein fundiertes Verständnis für den Netzwerkverkehr wird früher oder später wichtig sein, selbst wenn es sich nur um die Verbindung von Load Balancer zum Backend handelt.
Als allgemeine Richtlinie empfiehlt sich folgender Aufbau:
Ein positiver Nebeneffekt der Netzwerksegmentierung war für mich die Gelegenheit, mich intensiver mit IPv6 auseinanderzusetzen. Insbesondere die Einrichtung der Stateless Address Autoconfiguration (SLAAC) für die verschiedenen Subnetze war interessant und hat mein Verständnis für IPv6 erheblich verbessert. Wobei ich in diesem Bereich wahrlich kein Profi bin.
Ein häufiger Fehler beim Homelabbing ist das Unterschätzen der benötigten Ressourcen. Anfangs mag Linux wie eine große Hürde erscheinen, die erst mal überwunden werden muss, aber nach ein paar Wochen ändert sich das Bild. Wenn man dann sein erstes Projekt starten möchte, zum Beispiel eine Nextcloud-Instanz, könnte es zu einem herben Dämpfer kommen.
Der preiswerte Thin Client hat möglicherweise nur einen Festplattenanschluss, und das Einbinden eines Netzwerkspeichers macht bei einer 1-Gbit-Anbindung auch nicht viel Sinn. Daher ist der Kauf leistungsstärkerer Hardware mit mehr Festplattenanschlüssen erforderlich. Einige Monate später, beim Versuch, ein Kubernetes-Cluster zu erstellen, treten erneut Engpässe auf.
Die 2 verbauten Consumer-SSDs halten den Schreib- und Leseversuchen von mehreren VMs nicht stand. Noch dazu häufen sich die Ausfälle, da das ZFS-Dateisystem die Consumer-Platten vollends überlastet. Dann beginnt das Spiel von vorne und gebrauchte Intel SSDs werden angeschafft oder NVME Drives sollen die Lösung allen Übels sein.
Die Vermeidung all dieser Probleme wäre durch eine sorgfältigere Planung und eine präzisere Ressourcenabschätzung möglich gewesen. Daher ist es wichtig, sich zu überlegen, wohin die langfristige Reise gehen soll. Möchtest du lediglich einzelne VMs oder sogar nur einige Docker-Container betreiben? Oder strebst du den Betrieb von Failover-Clustern an?
Für diejenigen, die sich für einen Einstieg in den Datacenter-Bereich interessieren, könnte es sinnvoll sein, von Anfang an mehr Hardware anzuschaffen. In der beruflichen Praxis wird man oft mit komplexen Setups konfrontiert, die bis ins kleinste Detail verstanden werden müssen. Insbesondere das Clustering von Ressourcen ist hier allgegenwärtig und erfordert ein umfassendes Fachwissen.
Möchte man sich beispielsweise mit Kubernetes und Suse Rancher vertraut machen, benötigt man ausreichend Hardware, um ein Upstream- sowie Downstream-Cluster abbilden zu können. Zudem erfordern die containerisierten Workloads ausreichend Rechenleistung. Und es ist natürlich noch notwendig, den Bedarf für ein paar weitere VMs einzuplanen.
Denk nur mal an GitOps in Form eines Gitea-Servers oder eines S3-kompatiblen Storages wie MinIO. Oft brauchst du auch noch einen Host zum Ausführen von Ansible-, Puppet- oder Terraform-Code. Wie du siehst, kann die Ressourcenplanung höchst individuell ausfallen. Als groben Anhaltspunkt kann ich dir folgende Standalone-Hypervisor-Empfehlungen geben:
Zum Abschluss noch ein gut gemeinter Rat in Richtung Datenspeicher: Obwohl Storage heutzutage ausgesprochen günstig ist, greifen viele immer noch zu langsamen SMR-HDDs. Diese erreichen jedoch keine hohen Transferraten, weder beim Lesen noch beim Schreiben. Zudem halten sie häufig nicht besonders lange und sind kaum noch günstiger als Enterprise-SATA-Festplatten.
Einer der größten und häufigsten Fehler im Homelab ist das Versäumnis der Dokumentation. Wie oft hast du dir selbst gesagt: Oh, ich werde mich daran erinnern, wo das ist, oder mit welchem Netzwerk das verbunden ist oder wie der Upgrade-Prozess im Detail abläuft? Immer wieder habe ich mich darüber geärgert, dass ich bestimmte Dinge nicht aufgeschrieben habe.
Fangen wir im Netzwerkbereich an. Du solltest alle vergebenen IP-Adressen zusammenschreiben. Auch ist es sinnvoll, die physische Verkabelung im Rack ordentlich zu dokumentieren. Wie schnell ist es passiert, dass sich bei Umbauarbeiten ein Kabel löst. In diesem Zusammenhang hat mir das Anbringen von Labels an den Kabeln schon eine ganze Menge Zeit und Nerven gespart.
Ein paar Monate oder Jahre später, wenn du plötzlich wissen musst, wie die Dinge konfiguriert sind, ist es großartig, deine Dokumentation herauszuziehen und zu wissen, wie alle Verbindungen zustande kommen. Je nachdem, was du dokumentieren möchtest, gibt es verschiedene spannende Lösungen. Im Bereich IP-Management kann ich GestioIP oder den Klassiker phpIPAM empfehlen.
Wenn du dein Setup bis ins letzte Detail dokumentieren möchtest, kann ich dir Netbox wärmstens ans Herz legen. Hier kannst du alles von physischer Hardware bis hin zu VMs erfassen, inklusive IP-Adressen und Netzwerke. Wenn du dich jedoch auf Linux-Wissen konzentrieren möchtest, reicht oft auch die Wiki-Software BookStack, die als Docker-Container im Handumdrehen deployt ist.
Lange Zeit habe ich gezögert, eine USV für mein kleines Rack anzuschaffen. Die Kosten schienen mir viel zu hoch und der Nutzen sowieso zweifelhaft. Aber trotz Copy-on-Write-Systemen wie ZFS auf meinen Servern, können die Dateisysteme meiner Switches, Firewall und Wireless Access Points bei einem Stromausfall korrupt werden. Das gilt es auf jeden Fall zu verhindern.
Ich möchte nicht offline sein, besonders nicht wegen solcher Probleme. Meine USV kümmert sich zudem um Stromschwankungen im Netz, die oft unbemerkt Schäden an den Systemen verursachen können. Mit Überspannungen, Unterspannungen und Spannungsspitzen ist nicht zu spaßen. Dank der integrierten Managementkarte fährt meine USV meine Systeme automatisch herunter.
Ebenfalls sehr praktisch ist die integrierte Management-Oberfläche, die umfassende Statistiken zum Stromverbrauch und der Netzqualität bereitstellt. Wenn du nach einer rackmontiertbaren USV suchst, könnten die Preise abschreckend wirken. Ich empfehle dir daher, ein Gerät mit defekten Batterien zu erwerben und diese selbst auszutauschen.
Auf diese Weise erhältst du eine neuwertige USV zu einem unschlagbar günstigen Preis. Der Batterietausch selbst erfordert nicht viel Know-how. Falls dich das dennoch abschreckt, kannst du auch ein Batterie-Kit im Fachhandel erwerben. Der Tausch ist dann sehr einfach, und viele Modelle ermöglichen sogar das Wechseln im laufenden Betrieb.
Zu Beginn meiner Homelab-Reise nutzte ich richtige Rackserver von Dell. Deren Lüfter waren so laut wie Flugzeugturbinen, die verbauten SAS-Festplatten klapperten vor sich hin, und meine Stromrechnung schoss in ungeahnte Höhen. Daher schaltete ich die Geräte nach einiger Zeit nur noch punktuell zum Erforschen neuer Technologien ein.
Dennoch blieb der Stromverbrauch ziemlich hoch und ich durfte einiges nachzahlen. Was ich nicht auf dem Schirm hatte, war der immense Stand-by-Verbrauch der 3 Dell PowerEdge Server. Ganze 30 Watt gingen pro Gerät flöten, damit die iDrac auch brav die neusten Systemstatistiken anzeigte. Mein aktuelles Homelab hingegen bietet mehr Leistung und genehmigt sich weniger Strom.
Ich empfehle jedem, günstige Mini-PCs aus Fernost im Homelab zu verwenden, anstatt auf dem Gebrauchtmarkt alte Enterprise-Hardware zu kaufen. Diese Geräte sind nämlich extrem laut, neigen dazu, viel Staub anzuziehen, benötigen jede Menge Platz und haben einen nicht zu vernachlässigenden Stromverbrauch. Ihr einziger Pluspunkt ist die Fernwartungsschnittstelle.
Stattdessen besteht auch die Möglichkeit, einen PiKVM selbst zu bauen und diesen über einen KVM-Switch mit verschiedenen Servern zu verbinden. Wer das als zu aufwendig empfindet, kann sich auch eine Lantronix Spider KVM auf dem Gebrauchtmarkt besorgen. Eine weitere Alternative ist die Nutzung eines alten Monitors in Kombination mit einem günstigen KVM-Switch. Für mich tut es das.
Verzweifle nicht tagelang an einem Problem. Wenn du bei etwas feststeckst, hat höchstwahrscheinlich schon einmal jemand dasselbe oder ein ähnliches Problem gehabt und kann dir bei der Lösung helfen. Eine großartige Möglichkeit, etwas zurückzugeben, ist die aktive Teilnahme in Foren, sozialen Medien oder anderen Community-Plattformen.
Wenn du eine Frage hast, poste sie und die Chancen stehen gut, dass erfahrene ITler bereit sind, ihr Wissen mit dir zu teilen. Auch ich versuche durch meine Website etwas zurückzugeben. Wenn du eine Frage hast, dann ab in den Kommentarbereich damit. Und wenn ich dir dort nicht helfen kann, dann ist es vielleicht jemand anders und das Problem ist gelöst.
Viele Open-Source-Projekte schätzen tatkräftige Unterstützung. Keine Sorge, wenn Programmieren nicht dein Ding ist – in den PR-Teams bist du dennoch gut aufgehoben. Zudem fällt vielen Entwicklern das Schreiben hilfreicher Anleitungen schwer. Die Verbesserung von Dokumentationen wird daher immer gerne gesehen. In diesem Sinne engagiere dich in der Community.
2 Antworten auf „Homelabbing: Vermeide diese 10 fiesen Stolperfallen!“
Schöner Artikel!
Faszinierend zu sehen, was sich in dem Umfeld aktuell alles tut. Stromverbrauch ist mittlerweile wirklich ein nicht zu vernachlässigender Faktor geworden, zumindest wenn man das Homelab wirklich nur zu privaten Zwecken benötigt. So ein Mini-PC mit Ubuntu reicht als Proxmox dann eventuell doch schon aus, wenn genug RAM rein geht 🙂
Hallo Andy,
vielen Dank für deine lobenden Worte!
Ich bin der Ansicht, dass für die meisten Heimnutzer und auch erfahrene Homelabber ein Mini-PC völlig ausreichend ist.
Natürlich gibt es diejenigen, die es – wie ich – doch etwas übertreiben müssen und am Ende ein ganzes Rack mit 15 Höheneinheiten füllen. Allerdings liegt mein jährlicher Stromverbrauch nur für die private Spielerei bei über 1200 Kilowattstunden.