Skip to main content
Die Server der Wikimedia Foundation - By Victorgrigas (Own work) [CC BY-SA 3.0 (http://creativecommons.org/licenses/by-sa/3.0)], via Wikimedia Commons Die Server der Wikimedia Foundation - By Victorgrigas (Own work) [CC BY-SA 3.0 (http://creativecommons.org/licenses/by-sa/3.0)], via Wikimedia Commons

Hardware nach Industrie-Standard?

Mancher denkt sich, dass man sich einen Server nach Hause holt. So einen nach Industrie-Standard. Nein, die sind für etwas anderes gedacht. Server braucht doch kein Mensch daheim. Wozu denn? Aber Firmen setzen darauf. Die sind auf sicher funktionierende Hardware definitiv angewiesen. Durch meine Arbeit lerne ich da auch verschiedene Hersteller kennen. Klar, namhafte sind Dell, HP oder Fujitsu. Aber es gibt eben auch andere.

Ich habe ja in meiner Zeit in der IT einiges kennengelernt. Ein höchst interessantes Aufgabengebiet ist die Virtualisierung. Da hat Microsoft gegenüber VMWare gewaltig aufgeholt. Und so kommt es, dass ich als einer, der mit Microsoft-Systemen umgeht, auch mit Hyper-V in Berührung komme. Das kann man ja ausweiten, wie man will. Ich hätte nicht gedacht, dass das so geht.

So kann man mittlerweile komplette Arbeitsumgebungen virtualisieren. „Virtual Desktop Infrastructure“ nennt sich das. Man kann das dann soweit treiben, dass man mit Industrie und Embedded PCs arbeitet. Die einen baut man in 19″ Serverschränke ein, die anderen irgendwo im Büro, wo es passt. Der Anwender erhält dann seinen Desktop projiziert und kann arbeiten, wie sonst auch.

Der große Vorteil bei Virtualisierung ist ja, dass man sich den Administrationsaufwand reduziert. Und vor allem bei solchen Dingen wie der „Virtual Desktop Infrastructure“ geht das fantastisch. Denn wie war das denn immer? Der Anwender hat festgestellt, dass eine Anwendung nicht funktionierte, und im schlimmsten Fall ist der Admin zum Anwender gegangen. Mit „VDI“, wie das abgekürzt bezeichnet wird, holt man sich einfach die Sitzung in die Konsole und kann überprüfen, was eigentlich falsch läuft. Das spart Zeit und Nerven, denke ich.

Klar, da sind erstmal gewaltige Server-Investitionen notwendig, und die Technologie muss auch erst einmal verbaut werden und die Administratoren entsprechend ausgebildet werden. Aber soweit ich das einschätzen kann, reduziert man auf lange Sicht den Aufwand, den ganzen Kram zu administrieren. Das hat ja unterm Strich auch was für sich.

Ich meine, man kann auf diese Art und Weise eine Standardisierung der kompletten IT-Infrastruktur erreichen. Und nirgendwo muss mehr ein fett ausgestatteter PC herumstehen. Und was die Verwaltung betrifft, so kann man sagen, dass viel weniger Aufwand betrieben werden muss. Aber wie gesagt, das ist alles nichts für daheim. Ich glaube, das ist jedem klar. Oder?

Bildquelle: Die Server der Wikimedia Foundation – By Victorgrigas (Own work) [CC BY-SA 3.0 (http://creativecommons.org/licenses/by-sa/3.0)], via Wikimedia Commons

Verteilen Sie diese Erkenntnis doch einfach wie 0 andere auch

Henning Uhle

Henning Uhle ist gelernter Fachinformatiker für System Integration und zertifizierter System Engineer. Meine Sachgebiete sind Messaging & Collaboration sowie High Availability und Domain-Verwaltung. Ich schreibe über verschiedenste Dinge, die mich bewegen. Und es handelt sich immer um meine Sicht.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.