OMV – Open Media Vault

Wer ein Netzwerk hat, der braucht früher oder später auch einen Server.

In meinen bald 40 IT-Jahren habe ich schon viele Serversysteme gesehen, installiert und damit gearbeitet. Welches das erste System war, weiß ich nicht mehr.
Novell-Server? Danach kamen Windows Server, von NT-Server über 2000 bis zu den aktuellsten Windows Server-Versionen. Natürlich auch Unix-Systeme. Auch Homeserver oder NAS gingen schon viele durch meine Hände. Aktuell verwende ich für unser Haus-Netz eine Synology Diskstation.

Als Backupserver verwende ich neben einer weiteren Diskstation seit einiger Zeit Open Media Vault.
Das ist eine freie Software, mit der man in Null-Komma-Nix und zu Null-Komma-Nix Kosten einen Server installieren kann (die Kosten für Hardware kommen natürlich dazu, aber die Software ist extrem genügsam).

Für die meisten kleineren Netze kann man OMV bedenkenlos als zentralen Fileserver einsetzen. Basierend auf der Linux-Distribution DEBIAN ist das System extrem stabil.
Ich hab das Backup-System wohl vor 106 Tagen installiert. Jedenfalls läuft es laut Screenshot seit 106 Tagen ohne irgendwelche Probleme (wenn Du das hier liest, sind es wohl noch ein paar Tage mehr). Probier das mal mit Windows!

Server-Hardware

Als Server-Hardware verwende ich einen Raspberry Pi 4 mit 4GB RAM

Für OpenMediaVault würden auch die älteren Modelle vollkommen ausreichen, allerdings hat erst das neueste Modell einen anständigen LAN-Anschluss und USB 3.0, vorher wurden LAN und USB über einen gemeinsamen Anschluss verwirklicht, was den Durchsatz gebremst hat.

Theoretisch könnte man auch ein kleines Board mit Intel- oder AMD-Prozessor verwenden, anstatt dem Raspberry Pi. Das wäre dann zwar deutlich weniger kompakt, aber man könnte dann ein kleines Gehäuse mit internen Festplatten verwenden und bei Bedarf auch eine 10GbE-Netzwerkkarte einbauen.
Für meinen Backup-Server reicht der Raspberry Pi 4 aber vollkommen.
Backup-Jobs werden mit bis zu 100MB/s übertragen, der Raspberry 4 reicht also, um 1GbE auszulasten, das 3er-Modell hatte hier deutlich weniger Durchsatz erreicht.

Für die Daten verwende ich externe 2,5″ USB 3.0-Festplatten, die hatte ich sowieso noch herumliegen und immer zur manuellen Sicherung eingesetzt.

Für Raspberry gibt es fertige Images, die man nur herunterladen und auf eine SD-Karte kopieren muss, so ein System ist in kürzester Zeit eingerichtet. Nicht mal einen Monitor benötigt man dafür – nur etwas Geduld, es dauert ein Weilchen, bis der Raspberry nach dem ersten Start im Netzwerk auftaucht. Karte in den Raspberry Pi, Stromversorgung und Netzwerk einstecken, warten. irgendwann kann man dann in der Netzwerkumgebung (z.B. im Router) ein neues Gerät erkennen und direkt mit dem Web-Browser darauf zugreifen und die Einrichtung starten. Mit vielen Anleitungen im Internet ist das ein Kinderspiel.
Das erste Mal dauert vielleicht 30 Minuten, der 2. Server benötigt dann sicher keine 10 Minuten mehr.

Stromversorgung

Der Raspberry Pi ist recht anspruchsvoll in Sachen USB-Netzteil. Ausserdem müssen die USB-Festplatten noch mit versorgt werden. Für mehr als eine Platte sollte man auf jeden Fall einen USB-Hub mit aktiver Stromversorgung einsetzen, um den Raspberry nicht zu überlasten.

Das brachte mich eine einfache aber funktionale Lösung:

Für die Stromversorgung meines Servers verwende ich einen aktiven USB-Hub mit 7x USB3.0 (blau) und 4x USB für die Stromversorgung(rot), sowie einem 60W-Netzteil.

Der Raspberry Pi 4 ist einfach an einem der rot leuchtenden Anschlüsse angesteckt, diese dienen rein der Stromversorgung und haben keine Verbindung zum eigentlichen USB-HUB.
Den USB-Hub habe ich dann an einen der USB-Anschlüsse des Raspberry angeschlossen und -tada- es stehen 7 USB3.0 mit ausreichend Stromversorgung für externe Geräte zur Verfügung.
Eine einfache und elegante Lösung. Das funktioniert hervorragend.
Diese USB-Hubs bekommt man im Internet in allen möglichen Ausprägungen, da sollte für jeden etwas dabei sein.

Netzwerk-Freigaben

Im OpenMediaVault habe ich einen Backup-Benutzer eingerichtet, den es sonst im Netzwerk nicht gibt. Das ist wichtig, damit bei einem Befall mit einem Verschlüsselungstrojaner nicht auch die Backups verschlüsselt werden. Wären die Freigaben für jeden Benutzer im Netz zugänglich, dann hätte ein Trojaner natürlich auch Zugriff darauf.

Wie man die Festplatten aufteilt und einrichtet, muss natürlich jeder für sich selbst entscheiden. Bei mir sieht das beispielsweise so aus:

1. Platte – Rsync
Backup meiner Synology Diskstation mit der integrierten Backupfunktion auf die OMV-Backupkiste.

2. Platte – IMAGES
meine virtuellen Maschinen werden in regelmäßigen Abständen auf diese Platte kopiert

3. Platte – Veeam
Veeam ist eine Sicherungssoftware, die ich für Windows einsetze (geht auch für Linux), damit werden die Windows-Maschinen nochmal extra täglich gesichert)

4. Platte – Archiv
Altes Zeug, das ich nicht mehr benötige, wird hier zwischengelagert und dann irgendwann gelöscht.

Das ist natürlich nur ein Teil meines Sicherungskonzepts.
Die Diskstation wird auf eine andere Diskstation synchronisiert und es existieren noch weitere Sicherungen.
Zusätzlich werden natürlich noch Offline-Sicherungen erstellt, die nicht mit einem Rechner verbunden sind. Vielleicht ist das auch schon Paranoia, aber meine privaten Daten reichen – bisher ohne Datenverlust! – bis 1995 zurück.
Festplatten sind so billig, daran sollte man nicht sparen.
Eine 5TB 2,5″-Festplatte bekommt man schon für 100,- Euro.
Wenn einem das seine Daten nicht wert sind, dann haben die Daten keinen Wert.

Fazit

OpenMediaVault kann ich jedem nur ans Herz legen, der für zuhause einen kleinen Server einrichten will. Ob zentralen Fileserver oder Backupserver, OMV ist dafür bestens geeignet.
Es ist kostenlos, sehr genügsam in Sachen Hardware und die Einrichtung geht problemlos auch für Laien.
Kleiner Tipp:
Wenn man den OMV als zentralen Fileserver einsetzt, dann benötigt man natürlich auch eine Backup-Lösung. Dafür gibt es direkt im System viele verschiedene Möglichkeiten, oder man installiert einfach noch so ein System für das Backup. Es gibt viele Möglichkeiten. Je nach Wichtigkeit der eigenen Daten sollte man diese nutzen. Besser mehrere, aber zumindest eine.
RAID kann OpenMediaVault natürlich auch, aber RAID ist zwar was Feines, aber kein Backup.

Update: Ryzen 9 3900x + 10GBit

Im Februar 2020 habe ich fleissig meine Rechner durchgetauscht und aufgerüstet. Eine spannende Arbeit. Ein kleiner Bericht.

AMD Ryzen 9 3900x

Eigentlich sollte der Server im Keller ausgewechselt werden. Ein alter HP-Rechner mit Intel i7-Prozessor, 4 Kerne/ 8 Threads und 32GB RAM unter Ubuntu Linux.
Das System war leider etwas zu schwach. Die Rechenleistung des i7 würde zwar reichen, aber für die vielen virtuellen Maschinen wären mehr Kerne von Vorteil. Die nötige Speicheraufrüstung wäre aber nur durch einen Austausch aller Module möglich.
Daher entschied ich mich dafür, den Server-PC als Ganzes auszumustern, alternative Einsatzzwecke dafür habe ich genug.
Neuer Server wird mein bisheriger Büro-PC mit AMD Ryzen 5 2600 und 64GB RAM. Der Prozessor ist zwar Tests aus dem Internet nach nur ca. 20% schneller als der i7, dafür hat er 6 Kerne / 12 Threads, also 50% mehr. Das wiegt bei virtuellen Maschinen schwer. Ausserdem sind bereits 64GB RAM verbaut.

Büro-PC

Den Büro-PC habe ich komplett neu zusammengebaut.
AMD Ryzen 9 3900x mit 12 Kernen / 24 Threads, eine heftige Power-Maschine. Das ganze aufgebaut auf einem MS X570-A4 Pro Board und dazu 64GB RAM. Für die Daten habe ich eine Samsung 970EVO Plus M.2-SSD spendiert, als Grafikkarte habe ich eine alte Geforce 1070TI recycled. Da ich nur Büroarbeit erledige und nicht spiele, reicht die noch vollkommen.
Zuerst hatte ich versehentlich die langsamere Geforce 1060 eingebaut, die man auf dem Foto sieht. Bei 2 herumliegenden Karten besteht leider die 50% Wahrscheinlichkeit, dass man die falsche einbaut.
Das war aber schnell behoben.
Der Zusammenbau ging flott von der Hand und Linux Ubuntu 19.3 war von USB-Stick bereits 5 Minuten nach dem ersten Booten komplett installiert. Das sollte man mal mit Windows 10 ausprobieren.

Die Kiste geht ab wie Schmidts Katze. Eine Hammer-Maschine, in der Systemüberwachung ist bald kein Platz mehr für die Prozessorkerne.

Thunderbird, Virtualbox und die übrigen Linux-Programme waren in kürzester Zeit installiert. Meine virtuelle Windows10-Maschine habe ich einfach vom alten Rechner auf den neuen kopiert. Wider Erwarten wollte Windows KEINE Neuregistrierung, sondern lief sofort in Virtualbox an, als hätte sich nichts geändert – nur war eben alles schneller, als auf dem Ryzen 5.

Für die Installation des Büro-PCs habe ich inklusive Zusammenbau und Einspielung aller Programme nur knapp eine Stunde benötigt. Da zahlt es sich aus, dass die Daten auf dem Server und nicht auf dem PC liegen und Windows in einer virtuellen Maschine liegt, die man einfach kopieren kann.

VM-Server

Weiter ging es mit dem VM-Server. (Server für die Virtuellen Maschinen (VM))
Auch hier ging die Installation recht flott. 2 neue M.2 SSD-Laufwerke Samsung SSD 970EVO+ mit je 1 TB habe ich eingebaut, das reicht aktuell für 6 virtuelle Maschinen.

Nachdem das Grundsystem lief, habe ich die virtuellen Maschinen auf dem alten PC nacheinander abgeschalten und auf den neuen Server überspielt. Zuerst die 2 virtuellen Windows 10 – Maschinen für meine Drucksysteme. Virtuelle Systeme sind einfach was Feines. Einfach auf einen anderen PC kopieren und neu starten. Fertig.
Trotz Wechsel von i7 auf AMD Ryzen 5 gab es keine Probleme.

Gute Belüftung ist wichtig!

Nach den Windows-Maschinen wollte ich die Linux-VM für meine Webseite (www.bastel-bastel.de) auf den neuen PC kopieren und kam auf die dumme Idee, das Ding im laufenden Betrieb zu kopieren.
Eigentlich sollte ich es besser wissen, offene Datenbanken kann und darf man nicht einfach kopieren, das macht Probleme.
Manchmal denkt man aber nicht richtig nach.
Die Virtuelle Maschine (VM) war schnell kopiert und ich konnte ohne Unterbrechung die Webseite auf dem neuen PC weiterbetreiben.
Na ja, kurz darauf stürzte die Webseite ab. In den nächsten 2 Stunden gab es 4 Abstürze, irgendwann war dann keine Verbindung zwischen WordPress (der Webseiten-Software) und der Datenbank mehr möglich.
Und da ist mir wieder eingefallen, was ich eigentlich vorher schon hätte wissen müssen: Kopiere keine geöffneten Datenbanken, das führt zu Inkonsistenzen.
Nachdem ich meine eigene Dummheit erkannt und die geschlossene VM nochmal kopiert hatte, lief dann auch die Webseite wieder stabil. Seither gab es auch keine weiteren Probleme.

Damit liefen auf dem neuen Server 4 virtuelle Maschinen:
2x Windows 10 für meine Drucksysteme, 1x Windows 7 für diverse Zwecke und 1x Linux Ubuntu für meine Webseite.
Alles war deutlich schneller, als auf meinem alten Server. Ich war zufrieden.

Kleinzeug

2 Dinge liefen aber noch nicht, der Radioaktivitätssensor und meine Solaranlage. Für beide war die zugehörige Software in der virtuellen Windows 7-Maschine installiert. Die Sensoren waren via USB angeschlossen und wurden von Linux an Windows durchgereicht, allerdings im Keller.
Ich kam aber auf die Idee, das Netzwerk auf 10GBit hochzurüsten und daher sollte der Server zukünftig im Büro stehen. Sonst hätte ich 3 Switches austauschen müssen, so reichte einer.
Die Lösung war ein Silex DS-510 USB-Device-Server.
Das Teil hat 2 USB-Ports und einen LAN-Anschluss. Mit den passenden Treibern kann man die an USB angeschlossenen Geräte im Netzwerk verteilen.
Kurz bestellt und eingebaut und alles lief auf Anhieb. Dabei liegen da durchaus Fallstricke, die Verbindungsstrecke ist nicht trivial:
Radioaktivitätssensor bzw. SMA 5000TL Wechselrichter mit uralter Seriell-Schnittstelle (RS-232!), eingesteckt an einen Seriell-USB-Adapter. Die beiden USB-Adapter in den Silex DS-5100 USB-Device-Server und ab ins LAN. Auf dem Linux-Server in der virtuellen Maschine ein Windows 7 mit Treibern für den USB-Server, dort werden mit der Software für den USB-Seriell-Adapter 2 virtuelle serielle Schnittstellen zur Verfügung gestellt und darauf greifen 2 uralte Programme zu.
Aber alles läuft soweit problemlos.

10GbE – 10GBit LAN – Netzwerk in einer neuen Dimension!

100MBit gibt es schon seit Jahrzehnten, 1GBit gefühlt auch schon ewig. Seit mindestens 15 Jahren setze ich hier schon 1GBit-Netzwerk ein. Seither haben sich die Computer rapide weiterentwickelt. Nur das Netzwerk ist bei 1GBit stehengeblieben. Damit sind im Idealfall um die 120 MByte pro Sekunde übertragbar, in der Regel liegen die Übertragungswerte bei 100MByte bis hinab zu 30MByte pro Sekunde, je nachdem was sonst noch im Netzwerk läuft.
Zum Vergleich: Das Umkopieren der virtuellen Maschinen von M.2-SSD auf M.2-SSD lief mit 1.600MByte/s.
Einzelne Festplatten bringen zwar kaum mehr, als ein 1-Gigabit-LAN verarbeiten kann, aber schon ein kleines RAID im Server oder gar SSD werden durch 1GBit/s-LAN ausgebremst. Neue WLAN-Standards liegen in der Theorie auch schon über 1GBit/s. Es wird also Zeit für 10GBit-LAN.
Leidersind die benötigten Komponenten noch sauteuer und nicht besonders weit verbreitet. Zudem sind die benötigten Switches auf den gewerblichen Einsatz in Serverschränken ausgerichet und erzeugen eine heftige Geräuschkulisse.

Netgear MS510TX 10-Port Multi-Gigabit/10G Switch

Nach langer Suche und viel Überlegung, habe ich mich für den Netgear MS510TX entschieden. Der hat zwar auch einen Lüfter, der ist aber in meinem Büro kaum zu hören.
Der Switch hat 2x 10G-Anschluss, davon 1x direkt für Kupferkabel und einmal für SFP+. Dazu noch 2x Ports mit 1G/2,5G/5G und 2 Ports 1G/2,5G, also Zwischenstufen zu 10G.
Der Switch soll erst mal Erfahrungswerte erzeugen. Es muss ja nicht alles mit 10GBit angeschlossen werden,

SFP+ ist ein Steckplatz, an dem man Adapter anschliesst. Da gibt es Glasfaser oder Kupfer-Adapter.

Ich habe mich direkt für ein passendes 3m-Kabel 10Gtek SFP+ mit festen Adaptern auf beiden Seiten entschieden, da der VM-Server direkt neben dem Switch steht, passt das.

Der Switch arbeitet unauffällig und recht leise. Für den Anfang sollte der reichen. Der Rest des Netzwerks läuft weiterhin mit 1G.

Netzwerk-Karten-Spiel

Die verfügbaren bezahlbaren Netzwerkkarten kann man an 3 Fingern abzählen. Ich habe 3 Stück Asus XG-C100 mit Aquantia AQtion AQC107-Chipsatz (noch nie gehört) bestellt, 2x mit Kupfer für die normalen, “alten” Anschlüsse und einmal mit SFP+ für dieses spezielle Kabel. Da kamen natürlich zuerst mal 3 Stück mit RJ45-Anschluss, das hat die Sache um 2 Tage verzögert, die Ersatzlieferung hat dann aber gepasst. Die Karten wurden eingebaut und auch direkt von Linux erkannt. Alles lief schön, bis ich die virtuellen Windows-Maschinen getestet habe. Die sind laufend abgestürzt und haben teilweise den Netzwerkanschluss der Linux-Maschine so weit gestört, dass ich neu Booten musste. Das war ziemlich frustig. Wenn es mal lief, dann lag die Übertragung bei lächerlichen 20-300Kilobyte/s.

Darauf habe ich mir die 10Gtek 10GBe-Karte mit Intel Chipsatz bestellt. Der Chipsatz ist schon etwas älter, aber leider wird er von Linux nicht direkt unterstützt. Der Treiber musste erst kompiliert werden, das hat leider nicht funktioniert. Laut Datenblatt werden Linux Kernel 2 und 3 unterstützt, das ist uraltes Zeug. Im Web habe ich einige Beiträge gefunden, die dieselben Probleme hatten, nur gab es keine Lösungen. Anscheinend benötigt man einen speziellen Kernel, der stand bei meinem Linux Mint 19.3 aber nicht zur Verfügung. Ausserdem wollte ich nicht das ganze System nur wegen der Netzwerkkarte verbieten. Also weg mit der Karte. Unter Windows wäre es vielleicht einfacher gewesen. Aber wer will das schon.

Zurück zu den Asus-Karten. Virtualbox hat leider nur wenig virtuelle Netzwerkkarten zur Auswahl und nur die Intel-Karte funktioniert überhaupt. Also habe ich alle Einstellungen Stück für Stück durchprobiert. Trial and Error. Tatsächlich – nachdem ich die Verbindungsgeschwindigkeit fix auf 1000MBit Duplex gestellt und die Puffer für Senden und Empfangen auf 512 verdoppelt hatte, liefen die virtuellen Maschinen absturzfrei. Die angezeigte 1000Mbit sind dabei egal, es ist ja nur eine virtuelle Schnittstelle.

Seither läuft alles mit vollen 10GBit, das macht richtig Spass!

Naja, alles ist übertrieben – der Büro-PC und der Server für die virtuellen Maschinen. Immerhin ist das Netzwerk hier spürbar schneller.

Als Datenserver verwende ich eine Synology DS918+, die kann leider nur 1GbE, da warte ich dringend auf ein Nachfolgegerät. Alternativen wie Eigenbau oder andere Anbieter wären mit sehr viel Arbeit verbunden, das will ich mir nicht antun. Größere Synology-Geräte sind zu groß und zu teuer. Bis dahin sind die Arbeitsdateien auf den VM-Server ausgelagert. Umständlich aber schnell. Als Zwischenlösung OK.
Das Überwiegende Netz läuft natürlich noch auf 1GbE, das ist für die meisten Anwendungen schnell genug, es soll ja auch nur zur Übung sein. Nach und Nach kommen dann weitere schnelle Geräte dazu.

Noch mehr Virtualisierung

Alter Wetter-PC

Der neue VM-Server stand also im Büro und daneben mein (uralter) Wetter-PC mit AMD E-350. Das Ding läuft seit Jahren problemlos für meine Wetterstation. Sollte man an einem funktionierenden System etwas ändern? Eigentlich nicht. Andererseits: 35W im Dauerbetrieb läppern sich.
Also auf zur Virtualisierung: Veeam-Backup angeworfen, Sicherung auf meine Raspberry-Backupkiste mit Open-Media-Vault, dann eine virtuelle Maschine erzeugt und das Backup zurückgespielt – naja, versucht.
Für das Restore wird ein rudimentäres Windows gestartet und damit haben wir das Treiberproblem mit den zu kleinen Puffern. Das lässt sich hier aber nicht ändern. Abhilfe: Bastel-PC mit 1GbE, Virtualbox gestartet, Virtuelle Maschine erzeugt und dann diese Maschine auf den VM-Server kopiert. Umständlich über 3 Ecken, aber es ging.
Maschine gestartet und “Windows ist nicht aktiviert, vielleicht sind Sie einer Softwarefälschung zum Opfer gefallen…” – Hilfe, ich bin ein Opfer! Naja, nur ein Opfer von Microsoft. Den Wechsel vom PC in die virtuelle Maschine mag Windows einfach nicht. Einfach neu aktivieren? Geht nicht, anscheinend sind die Aktivierungsserver abgeschalten, Win7 wird ja nicht mehr unterstützt. Also die Aktivierungshotline angerufen und den gefühlt Tausendstelligen Code eingetippt. Schlappe 10 Minuten dauert sowas, der Telefoncomputer spricht gefühlt deutlich langsamer als früher. Bin ich froh, dass Windows hier nur noch für Nischenanwendungen läuft.

Die Aktivierung lief problemlos, dann die Wetterstation an USB angesteckt und zum Einstellungsmenü zur Portweitergabe an das virtuelle Windows, wie ich es früher schon gemacht hatte: Kein Gerät gefunden – Ooops?!

Nach kurzem Pulsrasen und etwas längerer Prüfung hat sich dann die Lösung gefunden. Linux hat für den USB-Adapter bereits einen Treiber im Lieferumfang. Es handelt sich auch hier eigentlich um einen Seriell-Anschluss mit Seriell-USB-Adapter. Statt USB steht hier also eine Serielle Schnittstelle zur Verfügung.
Das ist natürlich fein, spart es doch einen Windows-Treiber.
Also Seriell der Wetterstation durch USB-Seriell-Adapter an den USB-Port des PC, von Linux wieder von USB auf Seriell umgewandelt ergibt einen Port auf /tty/USB0
Den kann man dann an das virtuelle Windows weiterleiten und dort wurde es als COM4 wie gewohnt von meiner Wetter-Software erkannt.
Perfekt.
Seither läuft die Wetterstation für www.ingersheimwetter.de in einer virtuellen Maschine und spart die 35W, die bisher für den extra PC benötigt wurden.

Damit laufen auf dem VM-Server jetzt 5 virtuelle Maschinen.
Die erste Woche ohne Absturz ist vorbei, ich hoffe, das bleibt so.


Die perfekte Tastatur

So etwas, wie die perfekte Tastatur gibt es natürlich nicht, denn jeder hat andere Vorstellungen und Ansprüche. Daher muss ich den Titel vielleicht erweitern auf “die für mich perfekte Tastatur”.

Es gibt viele verschiedene Tastatur-Arten. Insbesondere kann man unterscheiden zwischen Membrantastaturen und Mechanischen Tastaturen, sogenannten “Mechas”.
Membrantastaturen sind die billigste Ausführung und am weitesten verbreitet. Leider haben solche Tastaturen kaum einen fühlbaren Druckpunkt und die Haltbarkeit liegt in der Regel auch deutlich unter der von mechanischen Tastaturen.

Corsair K70 Lux, Microsoft-Keyboard, IBM Model M

Hier im Foto sieht man 3 unterschiedliche Tastaturen:
Oben eine mechanische Tastatur mit Cherry-Schaltern, den bekanntesten Schaltern für mechanische Tastaturen. In der Mitte eine einfache Membrantastatur (Rubberdome) und unten die beste je hergestellte Tastatur: IBM Model M mit Knickfeder-Schaltern (Buckling-Spring). Leider wird diese Tastatur nicht mehr produziert. Unicomp produziert zwar noch Buckling-Spring-Tastaturen und verwendet angeblich die Original-Maschinen von IBM, aber die Qualität der neuen Tastaturen liegt Welten von den Original IBM-Modellen entfernt. Die Tastenkappen sind viel billiger produziert, das Gehäuse ist nur noch aus Kunststoff, der Gesamteindruck überzeugt leider nicht.

Warum mechanische Tastaturen ?

In diesem Beitrag geht es hauptsächlich um mechanische Tastaturen
Marktführer bei den Schaltern für “Mechas” ist die deutsche Firma Cherry. Daneben gibt es aber auch noch andere Anbieter wie z.B. Kailh (Kaihua Elekctronics) oder Alps.

Natürlich kann man auch auf einer Tastatur mit Knackfrosch-Haptik (Membrantastatur) ganze Bücher schreiben. Aber man täglich 10 Stunden oder mehr an der Tastatur sitzt, dann lernt man schnell das bessere Tippgefühl der mechanischen Tastaturen zu schätzen.

Außerdem sind mechanische Tastaturen in der Regel deutlich haltbarer und besser verarbeitet.
Ob man so etwas benötigt, ist Geschmackssache. Man kann mit Bleistift oder Kuli genauso schreiben, wie mit einem Füller. Das Schreibgefühl ist aber bei einem Füller einfach anders. Genauso verhält es sich mit Tastaturen. Mechanische Keyboards haben einfach eine höhere Wertigkeit.
Membrantastaturen wurden entwickelt, um die Eingabegeräte billiger produzieren zu können, das merkt man auch deutlich. Spätestens nach ein paar Monaten lässt die Qualität deutlich nach.

Suche nach der besten Mecha…

Meine IBM Model M ist leider defekt, manche Tasten funktionieren nicht mehr, bzw. erst, nachdem man einige Male darauf gedrückt hat. Ich vermute einen Haarriss in der Platine oder alterungsbedinge Elektronikprobleme. Das Teil wird natürlich einem Reparaturversuch unterzogen, aber bis dahin brauche ich etwas anderes.

Es gibt mittlerweile sehr viele Hersteller und ich hatte auch schon hunderte Tastaturen in der Hand. Nur leider hatte ich bisher nie einen Test durchgeführt oder Fotos gemacht. Ich hatte einfach nur geschrieben. Von einem alten CPM-Rechner mit integrierter Tastatur über die Folientastatur des Spectrum ZX-81, C64, Amiga, Atari, alle möglichen Cherry-Tastaturen, Olivetti, IBM und NoName-Keyboards sowie Marken, die mir gerade nicht mehr einfallen. Da war schon alles dabei. Auf dieser Seite werde ich daher einfach zukünftig alle Tastaturen aufführen, die mir in die Finger kommen, egal ob Mecha oder Knackfrosch.

Schnelltipper

Als Schüler und auch noch als Student durfte ich nebenher Umfragen eintippen. Damals gab es noch keine Tablets oder automatische Erfassung, da wurde alles noch von Hand in Fragebogen eingetragen und später durfte das jemand abtippen. In diesem Fall war ich das.
In einem Jahr standen in den Sommerferien 10 laufende Meter Aktenordner neben meinem Schreibtisch, die mussten alle abgetippt werden. Da hatte ich dann nachts sogar vom Tippen geträumt.
Bis zum i386 sind mir regelmäßig die Tastaturpuffer übergelaufen, weil der PC die Eingabe nicht schnell genug verarbeiten konnte. Erst ab i486 war der PC schnell genug für meine Tipperei.
In der Zeit hatte ich einige Tastaturen “verheizt”.

Schalterdingens

Original Cherry MX-Blue Schalter mit LED-Beleuchtung

Insgesamt unterscheiden sich die Tastaturen hauptsächlich im Design und in der Verwendung der Materialien. Dabei bevorzuge ich Metallgehäuse gegenüber Kunststoff. Schwere Metallkonstruktionen sind natürlich gleich deutlich teurer. Eine satt aufliegende Tastatur vermittelt in der Regel aber ein besseres Schreibgefühl und Metall sieht auch einfach besser aus.

Die Schalter kommen meistens von Cherry oder Kailh und lassen sich durch die Farbe unterscheiden. Dabei handelt es sich nicht um eine sichtbare Farbe, denn die Schalter sind unter den Tastenkappen verbaut. Vielmehr geht es um die Codierung der Schaltereigenschaften.
MX-Blue sind meine Lieblingsschalter, leichtgängig und präzise, taktil mit hörbarem Klick. Allerdings ist dieses Klickgeräusch nicht unbedingt ideal, wenn man in einem Büro noch Kollegen hat. Diese könnten durch das Klappern genervt sein.
Die wohl am weitesten Verbreiteten Schalter sind die Cherry MX Red, Leichtgängig und schnell, aber ohne hörbaren Klick.
Daneben gibt es noch MX Black, MX Brown, MX Silent Red, MX Silent Black, MX Speed Silver, MX Green, MX Grey, MX Clear und MX Low Profile.

Mit Cherry-Tastaturen arbeite ich seit mittlerweile bald 40 Jahren, die Schalter gefallen mir immer noch am besten. Alle anderen “kompatiblen” Schalter sind einfach nur Nachbau.
Wobei manche kompatible Schalter mittlerweile durchaus vergleichbar sind.

Corsair K70 Lux

Meine alte Corsair K70 Lux wurde wieder zur Haupttastatur, nachdem sie zuvor an einem Zweitgerät im Einsatz war.

Corsair K70 Lux

Wenn man die IBM Model M aussen vor lässt, dann ist die Corsair K70 Lux eigentlich die perfekte Tastatur. Tolles Tippgefühl, ein optischer Hingucker mit einer gebürsteten schwarz eloxierten Alu-Platte.
Von 2016 bis 2020 war die Tastatur oft im Einsatz und wird es am Zweitrechner auch weiter sein. Vom Hauptrechner wird die Tastatur aber verbannt. Das hat folgenden Grund:
Die Tastenkappen sind aus ABS-Kunststoff. Der hat die Eigenschaft, dass er sich mit der Zeit abnutzt.

Durch Abnutzung speckig aussehende Tasten und abgeschabte Leertaste

Die Tastatur sieht dann irgendwann speckig aus. Da man die verschiedenen Tasten unterschiedlich oft drückt, geschieht das unterschiedlich schnell, die Tastatur sieht dann irgendwann aus, als hätte man gerade darauf gefrühstückt. Außerdem habe ich wohl ein besonderes 10-Finger-Schreibsystem, bei mir bekommen die Leertasten mit der Zeit immer auf der rechten Seite eine Kerbe (durch den Fingernagel des Daumens?)
Die Tastatur auf dem Bild oben ist frisch gereinigt, aber den speckigen Glanz bekommt man nicht mehr weg, obendrauf sind die Tasten glänzend, am Rand noch matt wie am Anfang.
(die Fussel sieht man nur in der Makro-Aufnahme, live sieht die Tastatur sauber aus. Aber speckig).
Funktional stört das nicht, optisch aber schon.
Das wäre eigentlich kein Problem, denn die Tastaturlayouts sollten genormt sein. Die Tastenkappen sind bei allen Tastaturen mit Cherry MX-Schaltern nur aufgesteckt und können theoretisch problemlos gewechselt werden.
Leider weicht die K70 aber vom Standard ab, die Leertaste ist breiter, daher passt kein Ersatz-Tastenkappen-Set und vom Hersteller selbst gibt es keinen Ersatz.
Damit ist die Tastatur optisch leider nicht mehr für meinen Schreibtisch geeignet. Die Tastatur hat mechanisch eine sehr lange Haltbarkeit. Aber wenn man die abgenutzten Tastenkappen nicht auswechseln kann, dann bringt das leider nichts. Schade.

HyperX HX-KB2BL2-DE Alloy Elite RGB

Das ist mal ein komplizierter Name für eine Tastatur. Aber immerhin ist der kryptische Name der einzige Kritikpunkt, der mir zu dieser Tastatur einfällt.
Nach langer Suche habe ich mich für diese Tastatur entschieden.
Optisch Top, Metallgehäuse, Cherry MX-Blue Schalter und ein angenehmes Standard-Tastaturlayout mit großer Enter-Taste.

Das Schreibgefühl entspricht der Corsair K70 Lux und gefällt mir ausgesprochen gut. Das Layout entspricht aber dem Standard, somit sollten sich alternative Tastenkappen aufstecken lassen. Das werde ich noch überprüfen und das Ergebnis nachreichen. Hier sollten sich dann auch PBT-Tastenkappen verwenden lassen.

Das Gehäuse ist aus Kunststoff, die obere Platte besteht aber aus massivem, lackiertem Metall. Damit bringt die Tastatur fast 1,4kg auf die Waage und fühlt sich recht massiv an.
Die Tasten klackern wie bei Cherry-MX-Blue üblich, das Schreibgefühl ist sehr präzise. Da wackelt nichts. Massive Wertarbeit. Sehr schön.

Für die Tastatur gibt es eine Software, um die RGB-Beleuchtung einzurichten. Da ich mit Linux arbeite, läuft diese Software bei mir natürlich nicht. Aber über die Sondertasten oben links an der Tastatur kann man die Farbe und Helligkeit der Tastatur auch ohne Software einstellen. Blaues Licht und niedrigste Stufe, das passt. Leider leuchten die WASD-Tasten dann allerdings weiß. Das ist aber kein Systemfehler, sondern vermutlich Absicht. Spieler benötigen diese 4 Tasten besonders häufig und die Tastatur wird als Gaming-Keyboard verkauft. Dafür braucht man dann wohl doch die Software. Stört aber nicht weiter.
Die Handgelenkauflage ist aus Kunststoff und abnehmbar. Fühlt sich recht angenehm an, aber hier muss die Zeit zeigen, wie schnell sich das Material abnutzt.

Wenn ich mich zwischen der HyperX und der K70 entscheiden müsste:

Von den technischen Daten, dem haptischen Eindruck und dem Schreibgefühl her, sind die Tastaturen gleichwertig. Welches Design besser gefällt, ist Ansichtssache, für mein Empfinden sind die Tastaturen gleich “schön”. Allerdings ist die fehlende Verfügbarkeit von Ersatz-Tastenkappen bei der K70 ein dickes Minus. Daher ist die HyperX derzeit mein klarer Favorit.

Microsoft Wired Keyboard 400

Eine etwas ältere Tastatur (laut Aufdruck aus 2012) und nicht mehr im Verkauf.
Die Tastatur ist ein typischer Vertreter der Membrantastaturen.
Einfaches, funktionales Gehäuse, nicht entgratete Kanten(!), flache Tasten und in der Art in vielen Büros zu finden. Wer sich nicht damit auskennt, der kann mit dieser Tastatur problemlos arbeiten und zufrieden sein. Die Tastatur erfüllt ihren Zweck vollkommen und vor allem ist sie sehr billig. Der Preis für diese Tastatur lag damals zwischen 10,- und 15,- Euro. Aktuelle Modelle liegen in vergleichbarem Preisrahmen.
Solche Tastaturen sind auch gerne als Beigabe bei Komplettrechnern dabei.
Zum Vergleich: Gute mechanische Keyboards fangen bei 120-150,- Euro an und können auch schon mal über 200,- Euro kosten (Sonderaktionen ausgenommen).
Wie gesagt – die Tastatur erfüllt ihren Zweck. Man kann damit schreiben.
Menschen, die einfach nur ins Büro gehen und dort eine Tastatur vorgesetzt bekommen, können damit zufrieden sein, wenn sie nichts anderes kennen.
Aber wehe, man stellt eine mechanische Tastatur daneben und vergleicht direkt.
Die Tasten haben keinerlei Druckpunkt. Mit geschlossenen Augen kann man nicht unterscheiden, ob man auf eine Taste drückt oder auf einen Kaugummi. Der Tastenhub ist minimal, das Tippen fühlt sich seltsam an, als würde man ein totes Tier antippen.
Außer für einen Server, oder eine Anwendung, bei der ich weniger als eine halbe Stunde pro Monat an die Tastatur müsste, würde ich mich weigern, so eine Tastatur zu verwenden.

Microsoft Wireless Entertainment Keyboard 7000

Wie bereits geschrieben, möchte ich hier zukünftig alle Tastaturen aufführen, die ich in die Finger bekomme. Ein weiteres Exemplar der Knackfrosch-Tastaturen (Membrantastatur) aus meiner Sammlung ist das Wireless Entertainment Keyboard 7000. Das Teil hat natürlich nichts mit der Suche nach der perfekten Tastatur zu tun, ist aber für Spezialanwendungen ganz nützlich.
Es ist eine Bluetooth-Funktastatur mit eingebauter Mausfunktion, ideal für ein Mediacenter und von mir lange am Heimkino-PC verwendet. Die Tasten sind vergleichbar mit obiger Microsoft Wired 4000 Tastatur, allerdings ist die Anordnung gebogen. Dadurch kann man das Keyboard näher an den Körper ziehen und z.B. auf dem Sofa auf dem Schoß verwenden. Für die Mediensteuerung ist das Gerät perfekt, für die tägliche Arbeit ist es eher nicht zu empfehlen.

Titanwolf Invader

Ein martialischer Name:
Eindringling, Angreifer, Invasor. Vermutlich soll der Invader die etablierten Hersteller mechanischer Tastaturen “angreifen”. Die Tastatur ist für eine Mecha recht günstig zu haben.
Es ist auf der Verpackung auch kein Hersteller aufgeführt, sondern eine Importfirma.
Schlappe 60,- Euro muss man dafür auf den Tisch legen. Das ist gerade mal die Hälfte der K70 oder HyperX.
Dafür bekommt man eine Tastatur mit durchaus ansprechendem Design, solange man von vorne oder oben draufschaut. Die Tasten sind von Kailh, einem großen Konkurrenten von Cherry. Die Ausführung ist “blue”, dabei wurden die mechanischen Eigenschaften der MX-Blue kopiert. Die Tasten klicken auch angenehm und ich würde vermutlich auf identischen Tastaturen den Unterschied zwischen Cherry MX-Blue und Kailh-Blue nicht erkennen.
Die hier aufgeführten Tastaturen sind aber bei Weitem nicht identisch und das macht den Unterschied. Während die K70 und die Hyper X sehr schwer sind und dadurch auch ein sattes Tippgefühl erzeugen, fühlt sich die Titanwolf Invader direkt klapprig an. Unter dem Aludeckel ist ein einfaches Kunststoffgehäuse, dadurch wirkt alles etwas klapprig. Der Tastendruck ist vergleichbar mit den obigen Mechas, aber der Nachhall beim Drücken der Taste erzeugt einen hohlen, schepprigen Klang.
Aus meiner früheren Zeit, in der ich mich viel mit Sound beschäftigte, ist mir ein guter Klang sehr wichtig. Sattes Klackern einer mechanischen Tastatur zähle ich zum guten Sound. Hohles Plastik-Geklapper gehört eher nicht dazu.
Das Design, na ja. Eine Alu-Deckelplatte mit vielen Biegungen. Wenn es gefällt. Mein Ding ist es nicht.
Für den aufgerufenen Preis ist diese Tastatur aber durchaus eine Überlegung wert. Wenn man eine Membrantastatur durch eine mechanische Tastatur ersetzen und dabei nicht viel Geld ausgeben will, dann kann ich die Titanwolf Invader empfehlen.
Allerdings sollte man auch einen Blick auf die Sharkoon Skiller SGK3 werfen, die ungefähr dasselbe kostet. Das Bessere ist bekanntlich des Guten Feind!

Leider hat mein Exemplar der Titanwolf Invader einen schweren Mangel. Die Tastatur hat von Anfang an geprellt. Und das geht leider gar nicht, weder bei einer Mecha, noch bei einer Membrantastatur. Natürlich ist das nur ein bedauerlicher Einzelfall. Normalerweise sollte die Tastatur sicher problemlos funktionieren.
Wenn ich eine Taste drücke, dann will ich ein Zeichen und nicht mehrere.
Immerhin wurde der Kaufpreis der Tastatur problemlos erstattet. Ich musste das Teil nicht einmal zurücksenden, damit habe ich einen gratis Satz Tastenkappen und Kailh-Blue-Schalter, mit denen ich experimentieren kann.
Die im Internet zu findenden Bewertungen zu dieser Tastatur sind sehr gut.
Für Einsteiger in das Thema “mechanische Tastatur” kann ich die Titanwolf Invader daher guten Gewissens empfehlen. Das ist anständige, wertige Mittelklasse.

Sharkoon Skiller SGK3

Da liegt die Stahlplatte auf meinem Tisch. Satte 1300g, fast so schwer wie die HyperX, aber zum halben Preis (um die 65,- Euro).
Die Schalter sind nicht von Cherry, sondern Kailh Blue (auch hier bevorzuge ich wieder das Klackern, Blau = hörbarer Klick).
Es scheint Stahl anstatt Alu verbaut zu sein. Das Eingabegerät hinterlässt einem mächtig massiven Eindruck. Die leicht strukturierte Oberfläche erinnert aber an Lackierungen, wie sie vor 40 Jahren üblich war. Die Struktur ähnelt alten IBM-Gehäusen aus PC-XT-Zeiten, nur waren die damals Beige und nicht Schwarz. Altbacken aber durchaus hochwertig. Falls man am Schreibtisch überfallen wird, mit diesem Teil hat man eine gute Verteidigungswaffe. Das USB-Kabel ist allerdings fest angeschlossen und könnte beim Kampfeinsatz stören.
Die Tasten stehen offen über der Tastatur, damit kann man alles gut reinigen.
Die Bodenplatte der Tastatur ist auch hier aus Kunststoff, durch die massive und schwere obere Platte fällt einem das aber nicht besonders auf. Die haptische Wertigkeit der Sharkoon Skiller SGK3 ist deutlich höher als bei der Titanwolf Invader. Die verbauten Kailh-Blue-Schalter sind allerdings identisch.
Beim Tippen ist er dann aber wieder da, dieser unangenehme Nachklang nach dünnem Plastik. Während das Drücken bis zum “Klick” fast identisch ist zu den Tastaturen mit Cherry-MX-Blue, ist danach auch hier ein unangenehmer Ton zu hören. Die HyperX und K70 erzeugen ein KLACK-KLACK, die Skiller SGK3 und die Titanwolf Invader eher ein KLAPPER-KLAPPER.
Ob das an den Tastaturgehäusen, den verbauten Platinen oder an den Schaltern liegt, kann ich derzeit nicht sagen. Ob einen das überhaupt stört, muss jeder für sich selbst ausprobieren. Manche mögen die Tastengeräusche insgesamt nicht und wählen lieber leisere Tastenschalter, wie die Red, Brown, usw.

Insgesamt ist die SGK3 eine sehr gute Tastatur. Für den fast identischen Preis würde ich sie der Titanwolf auf jeden Fall vorziehen. Der Tippeindruck und die Haptik sind sehr hochwertig. Das Design ist ein bisschen langweilig aber massiv.
Ich werde diese Tastatur meinen Eltern an ihrem neuen PC installieren. Beide sind als Beamter, bzw. Sekretärin lange Jahre mit Schreibmaschinen unterwegs gewesen, da muss es mechanisch sein. Aber eine Gaming-Tastatur wie die Hyper-X wäre hier übertrieben.
Die SGK3 passt perfekt.

Tastatur-Fazit

Abgesehen vom IBM Model-M, das außer Konkurrenz läuft, ist mein derzeitiger Tastatur-Sieger die Hyper-X HX-KB2BL2-DE Alloy Elite RGB (wer denkt sich solche Namen aus?)
Die Corsair K70 wäre gleichwertig, fällt aber durch die fehlenden Ersatz-Tastenkappen vom Podest.

Preis-Leistungs-Sieger für die Mittelklasse ist die Sharkoon Skiller SGK3

Gerne bin ich für Hinweise zu anderen Tastaturen dankbar. Es gibt zu viele, um die alle zu kaufen und zu testen (geschenkte nehme ich aber gerne in den Test auf)

Tastenkappen

Mechanische Tastaturen werden oft für Anwendungen angeschafft, bei denen sie hoch beansprucht werden. Da ist die Verfügbarkeit von Ersatz-Tastenkappen ein Muss.
Die Tastaturen haben zwar unterschiedliche Zusatztasten, das eigentliche Tastenfeld ist aber genormt. Damit lassen sich die Tastenkappen zwischen allen Tastaturen (mit Ausnahme der K70) problemlos austauschen. Die Kappen sind nur gesteckt und können auch zwischen Cherry und Kaihl getauscht werden. Die meisten Tastenkappen sind aus ABS, das wird leider bei längerem Gebrauch speckig und sieht dann nicht mehr besonders schön aus. Besser sind PBT Tastenkappen. Die sind aber extrem schwer zu bekommen. Die wenigen Anbieter haben in der Regel nur PBT-Tastenkappen im US-Layout im Angebot, der Markt für Deutsche Tastaturkappen in PBT ist vermutlich einfach zu klein.
Der einzige Anbieter, von dem auch was lieferbar ist, ist die Firma Ducky.
Dort gibt es mechanische Tastaturen direkt mit PBT-Tastenkappen, aber auch PBT-Tastenkappen zum Nachrüsten für kompatible Tastaturen. Das werde ich noch ausprobieren.
Aber das ist eine andere Geschichte. 🙂