HellBa Success Story

Die HellBa Kunststoffe GmbH hat sich seit ihrer Gründung im Jahr 2009 von einem reinen Händler zu einem etablierten Verarbeiter technischer Kunststoffe entwickelt. Das Unternehmen, spezialisiert auf den Handel und die Verarbeitung von technischen Kunststoffen für industrielle Anwendungen, stand vor der Herausforderung, seine IT-Landschaft zu modernisieren und den Anforderungen des Marktes gerecht zu werden. Mit Unterstützung des IT-Dienstleisters KNS-IT hat HellBa eine eindrucksvolle digitale Transformation durchlaufen, die das Unternehmen sowohl technologisch als auch operativ revolutioniert hat.

„Unsere IT-Landschaft war früher sehr rudimentär. Die Verbesserungen durch die Umstrukturierung unserer IT sind vergleichbar mit einem Sprung von der Kreisliga in die Champions League,“ erklärt der Geschäftsführer. „Unsere Arbeit war stark papierlastig und unsere IT-Ausstattung bestand nur aus den grundlegendsten Elementen.“ Die Defizite in der IT-Infrastruktur verlangten nach einer umfassenden Neugestaltung."
Bashkim Bajrami
Geschäftsführer

Phase 1: Die Grundlagen schaffen

In Phase 1 konzentrierte sich HellBa darauf, die Grundlagen zu schaffen. In Zusammenarbeit mit KNS-IT wurde eine umfassende Domänenstruktur aufgebaut, die eine solide Basis für die zukünftige Entwicklung legte. Eine sichere Vernetzung der Standorte, die Migration der Server auf eine virtuelle Umgebung und die Einführung eines Backup-Systems gewährleisteten eine zuverlässige IT-Infrastruktur.

Zentrale Benutzerverwaltung

Als die Partnerschaft mit KNS-IT 2018 begann, verfügte HellBa über keine kohärente IT-Infrastruktur. Das Unternehmen arbeitete ohne Domänenstruktur und nutzte lediglich einen kleinen Server für die Sage-Anwendung sowie TeamViewer für die tägliche Remotearbeit auf den Anwendungsservern. Als erster Schritt wurde eine umfassende Domänenstruktur aufgebaut, die eine solide Grundlage für die zukünftige Entwicklung legte.

Vernetzung

Die Standorte wurden mittels einer sicheren Wireguard-Verbindung miteinander vernetzt, was eine reibungslose Kommunikation ermöglicht. Über VPN-Lösungen erhielten die Mitarbeiter die Möglichkeit, auch von zu Hause aus produktiv zu arbeiten. Die Einführung von Sicherheitsrichtlinien stellte sicher, dass die Systeme stabil, zuverlässig und auf aktuellem Stand der Technik sind.

Virtuelle Umgebung

Ein umfassendes Hardware-Upgrade ermöglichte die Migration der Server auf eine virtuelle Umgebung mit ESX und die Implementierung von virtuellen Maschinen.

Zugriffsschutz: Ein Fileserver mit einer detaillierten Berechtigungsstruktur gewährleistet eine sichere Datenverwaltung.

Datensicherheit: Zusätzlich wurde ein Backup-System implementiert, um die Datensicherheit zu gewährleisten.

"Es gab separate Zuständigkeiten für Netzwerktechnik, ERP-Systeme, Telefonanlagen und sogar die Versandsoftware, was zu einer fragmentierten und ineffizienten IT-Struktur führte. Diese Zersplitterung verursachte erhebliche Performanceschwächen und führte dazu, dass viele Initiativen zur Modernisierung unserer Systeme scheiterten. Die Situation war so unbefriedigend, dass wir uns schließlich entschlossen, einen grundlegenden Wandel vorzunehmen. Bereits 2019 begannen wir mit den Vorbereitungen für eine umfassende IT-Überholung, die wir 2020 erfolgreich umsetzten. Diese Umstellung war notwendig, um die Effizienz und Leistungsfähigkeit unserer IT-Infrastruktur deutlich zu steigern und unsere Unternehmensprozesse nachhaltig zu verbessern."

Phase 2: Optimierung der Arbeitsabläufe

"Zu Beginn des Umstellungsprozesses unserer IT-Systeme hatte ich keine konkrete Vorstellung von der spezifischen Technik, die wir benötigen würden. Mein Ziel war jedoch klar, bestimmte ineffiziente Praktiken zu eliminieren, wie beispielsweise den Umgang mit Papierrechnungen im Eingangsbereich.
Ich wusste, was ich erreichen wollte – eine Digitalisierung dieser Prozesse. Die Lösungsansätze entstanden durch ein kreatives Zusammenspiel mit KNS-IT. Es war ein iterativer Prozess, bei dem wir gemeinsam Ideen entwickelten und erprobten, welche technischen Möglichkeiten am besten zu unseren Bedürfnissen passen würden. Diese Zusammenarbeit hat sich als äußerst fruchtbar erwiesen, denn seit der Einführung unserer neuen Systeme im Jahr 2020 haben wir die Art und Weise, wie wir arbeiten, revolutioniert. Dieser Wandel hat nicht nur zu einer effizienteren Bearbeitung geführt, sondern auch die Zufriedenheit im Team signifikant erhöht, da viele manuelle und zeitraubende Tätigkeiten automatisiert wurden."

Terminalserver und Sage:

Um die Effizienz zu steigern, wurde die Sage-Anwendung von lokalen Clients auf einen Terminalserver verlagert, was zu einer deutlichen Verbesserung der Arbeitsgeschwindigkeit führte. Dadurch ergeben sich für HellBa nun folgende Vorteile:

  1. Zentrale Verwaltung:
    Die Anwendung wird zentral verwaltet, wodurch Updates und Wartungsarbeiten effizient durchgeführt werden können. Das reduziert den administrativen Aufwand und minimiert Ausfallzeiten.

  2. Optimierte Arbeitsgeschwindigkeit:
    Mitarbeiter greifen über den Terminalserver auf eine einheitliche, leistungsfähige Infrastruktur zu, was zu einer spürbaren Verbesserung der Arbeitsgeschwindigkeit führt.

  3. Erhöhte Sicherheit:
    Da sensible Daten nur auf dem zentralen Server gespeichert werden, erhöht sich die Datensicherheit und Compliance. Zugriffsrechte können präzise verwaltet werden.

  4. Remote-Zugriff:
    Mitarbeiter können von verschiedenen Standorten und sogar aus dem Homeoffice auf die Sage-Anwendung zugreifen, ohne Einbußen bei der Geschwindigkeit oder Sicherheit hinnehmen zu müssen.

E-Mail-Archivierung

KNS-IT implementierte eine umfassende E-Mail-Archivierung und migrierte den Mailserver zu Office 365, was eine nahtlose Integration von Outlook und Teams ermöglichte. Durch die Implementierung einer umfassenden E-Mail-Archivierung werden alle geschäftsrelevanten E-Mails zentral und sicher archiviert. Die Archivierung gewährleistet die Einhaltung gesetzlicher Aufbewahrungspflichten, indem alle ein- und ausgehenden E-Mails manipulationssicher gespeichert werden. Im Falle versehentlich gelöschter oder verlorener E-Mails können diese problemlos aus dem Archiv wiederhergestellt werden. Ein leistungsstarkes Suchsystem ermöglicht es den Mitarbeitern, schnell und effizient nach bestimmten E-Mails zu suchen, was die Produktivität steigert. 

Migration zu Office 365

Dank der nahtlosen Integration von Outlook und Teams können Mitarbeiter mühelos auf E-Mails, Kalender und Kontakte zugreifen sowie sofort Nachrichten und Video- oder Audioanrufe über Microsoft Teams starten. Gemeinsame Kalender und Kontakte fördern die Zusammenarbeit und optimieren die Terminplanung. Die Cloud-basierte Lösung ermöglicht den Zugriff auf E-Mails und Dateien von überall.

Sicherheit und Compliance:
Office 365 bietet fortschrittliche Sicherheits- und Compliance-Funktionen, darunter Mehrstufige Authentifizierung, DLP (Data Loss Prevention) und E-Mail-Verschlüsselung, die HellBa beim Schutz sensibler Daten unterstützen. Die skalierbare Architektur von Office 365 ermöglicht es HellBa, Dienste je nach Bedarf anzupassen, und bietet flexible Preismodelle.

KNS berät und unterstützt bei der Implementierung und Anwendung der Sicherheit- und Compliance-Funktionen. 

Proaktives Monitoring

Mit der Einführung von PRTG wurde ein Systemmonitoring implementiert, das eine proaktive Überwachung der IT-Infrastruktur sicherstellt. Diese Lösung überwacht kontinuierlich alle wichtigen Netzwerkkomponenten, Server, virtuellen Maschinen und Anwendungen, um einen reibungslosen Betrieb zu gewährleisten.

Die Überwachung der Server-Performance und Speicherauslastung ermöglicht die Identifizierung potenzieller Ausfälle und die Durchführung präventiver Wartungsarbeiten. Kritische Schwellenwerte für CPU, RAM und Festplattenspeicher lösen automatische Benachrichtigungen an das IT-Team aus.

Virtuelle Maschinen: Virtuelle Maschinen auf der ESX-Plattform werden überwacht, um einen effizienten und sicheren Betrieb zu gewährleisten.

Anwendungs- und Service-Monitoring: Anwendungen wie Sage, Office 365 und Terminalserver werden kontinuierlich überwacht, um Probleme wie fehlerhafte Anmeldungen, Verbindungsprobleme oder Leistungseinbrüche frühzeitig zu erkennen und zu beheben.

Alarmierung und Berichterstellung: PRTG informiert das IT-Team sofort per E-Mail, SMS oder Push-Benachrichtigung bei Problemen. Detaillierte Berichte und Dashboards bieten einen schnellen Überblick über die IT-Infrastruktur.

Vorteile für HellBa:

In Phase 2 lag der Fokus auf der Optimierung der Arbeitsabläufe. Die Verlagerung der Sage-Anwendung auf einen zentralen Terminalserver führte zu einer deutlichen Verbesserung der Arbeitsgeschwindigkeit. Durch die Implementierung einer umfassenden E-Mail-Archivierung und die Migration des Mailservers zu Office 365 konnten die Kommunikations- und Kollaborationsmöglichkeiten erheblich verbessert werden. Eine proaktive Überwachung der IT-Infrastruktur mittels PRTG ermöglichte es HellBa, potenzielle Probleme frühzeitig zu erkennen und zu beheben.

"Unsere Prozesse haben sich seit 2018 drastisch verändert und sind heute nahezu vollständig digitalisiert. Ein Beispiel ist der Umstieg von Microsoft Office zu Microsoft 365, der uns eine flexiblere und effizientere Arbeitsweise ermöglicht hat. In der Fertigung haben wir die Planung und Durchführung komplett digitalisiert. Unsere Mitarbeiter nutzen jetzt Tablets direkt an den Maschinen, was die Notwendigkeit von Papier nahezu eliminiert hat. Wir sind von einem 100% papierbasierten System zu einem 98% papierlosen System übergegangen. Konkrete Verbesserungen zeigen sich überall: Die Buchhaltung ist vollständig digitalisiert, von der Verarbeitung von Eingangsrechnungen bis zur Kommunikation mit unserem Steuerberater, der jetzt monatlich digital über DATEV mit Dokumenten versorgt wird. Früher wurden diese Dokumente physisch in Schuhkartons gesammelt und zum Steuerberater gebracht. Auch unsere Auftragsverwaltung und die gesamte Dokumentation der Fertigungsprozesse sind jetzt digital. Das hat nicht nur unsere internen Abläufe beschleunigt, sondern auch die Kommunikation und den Informationsfluss zwischen den Abteilungen verbessert. Die digitale Transformation hat unsere Arbeitsweise revolutioniert, und das Feedback der Mitarbeiter ist durchweg positiv; sie können sich kaum noch vorstellen, zu den alten Methoden zurückzukehren. Diese Veränderungen haben unsere Produktivität erheblich gesteigert und tragen dazu bei, dass wir agiler und wettbewerbsfähiger am Markt agieren können."

Phase 3: Umzug und Modernisierung

Umzug nach Velbert:
Beim Umzug von Ratingen nach Velbert unterstützte KNS-IT HellBa bei der Konzeption und Planung, sowie der Einrichtung einer neuen Infrastruktur. Cisco-Switches und Ubiquiti-WiFi-Lösungen sorgten für eine stabile und schnelle Netzwerkverbindung. Ein neues Zeiterfassungssystem mit Transponderkartentechnologie wurde implementiert, und in Zusammenarbeit mit Ostertag wurde die DECT-Telefonie erweitert.

Kamerasysteme:
KNS-IT installierte ein neues Kamerasystem, das die spezifischen Anforderungen des Unternehmens erfüllte. Es ermöglicht eine zuverlässige Überwachung der Außenbereiche und trägt zur Sicherheit der Standorte bei.

 

Digitalisierung der Fertigung:

Die Arbeitsabläufe in der Fertigung wurden mittels fachspeziefischer Software digitalisiert, und die Maschinen wurden mit Tablets ausgestattet. Dadurch werden Aufträge jetzt digital übermittelt, Lagerbestände automatisch aktualisiert und Arbeitsfortschritte in Echtzeit erfasst.

Investitionen in Maschinen:
Durch die Investition in neue Maschinen wie die Schelling-Säge konnte die Produktivität erheblich gesteigert und der Materialverschnitt minimiert werden.

Kontinuierliche Betreuung und persönlicher Service

Ein Schlüsselfaktor für den Erfolg von HellBa war die persönliche Betreuung durch KNS-IT. Jeder Kunde erhält einen festen Ansprechpartner, der sowohl die technischen Aspekte kennt als auch die individuellen Anforderungen des Unternehmens versteht. Diese enge Bindung gewährleistet Vertrauen und Kontinuität in der Zusammenarbeit.

"Von 2020 bis 2023 konnten wir ein Umsatzwachstum von nahezu 50% verzeichnen, und das mit derselben Anzahl an Mitarbeitern in Verwaltung und Vertrieb. Das zeigt, wie stark die Produktivität pro Mitarbeiter gestiegen ist. Wir haben das Arbeitsvolumen gesteigert, ohne das Team entsprechend vergrößern zu müssen. Tatsächlich haben wir durch die Umstellung auf eine Teilzeitkraft sogar eine halbe Stelle eingespart, während wir gleichzeitig den Umsatz deutlich steigerten. Diese Entwicklungen waren messbar und haben uns gezeigt, dass die Investitionen in die IT nicht nur die tägliche Arbeit erleichtern, sondern auch direkte finanzielle Vorteile bringen."
„Wenn es wirklich kritisch wird, kann ich mich darauf verlassen, dass sie zur Stelle sind, egal zu welcher Uhrzeit oder an welchem Wochentag,“ betont der Geschäftsführer. „Diese Verlässlichkeit ist für mich von unschätzbarem Wert.“

Ergebnisse und Vorteile

Die umfassende Unterstützung von KNS-IT hat zu signifikanten Verbesserungen bei HellBa geführt:

Effizienz

Durch die Digitalisierung der Prozesse wurde die Effizienz deutlich gesteigert, was sich in einem Umsatzwachstum von fast 50% von 2020 bis 2023 widerspiegelt.

Kommunikation

Die Einführung von Office 365 und Teams hat die Zusammenarbeit und Kommunikation im Unternehmen gestärkt.

Produktivität

Die Investition in neue Maschinen und die Digitalisierung der Arbeitsabläufe führten zu einer erheblichen Steigerung der Produktionskapazität und Auslastung.

Remote-Arbeit und Sicherheit

Dank VPN-Lösungen und zentralisierter IT-Struktur können Mitarbeiter sicher von zu Hause arbeiten.

„Die messbaren Verbesserungen durch unsere digitalisierten Prozesse sind signifikant und beeinflussen mehrere Aspekte unseres Unternehmens. Die Effizienzsteigerung zeigt sich auch in unserem Umsatzwachstum.“
„Früher musste man physisch auf den Speicher steigen und mühsam die Ablage aus vergangenen Jahren durchsuchen, heute erreichen wir das gleiche Ergebnis mit ein paar Klicks.“

Dank der Zusammenarbeit mit KNS-IT hat sich HellBa zu einem modernen, effizienten Verarbeiter technischer Kunststoffe entwickelt. Die klare Problemdefinition, zielgerichtete Lösungsansätze und die enge Zusammenarbeit mit KNS-IT waren dabei entscheidend. Der Wandel von einer rudimentären zu einer nahezu umfassend integrierten IT-Landschaft zeigt, dass selbst ein etablierter Mittelständler durch gezielte Innovationen seine Prozesse revolutionieren kann.

Bashkim Bajrami

Geschäftsführer

HellBa Kunststoffe GmbH

„Unsere digitale Transformation ist ein kontinuierlicher Prozess, bei dem wir ständig bestrebt sind, Neuerungen zu implementieren und unsere Abläufe weiter zu optimieren,“ resümiert der Geschäftsführer. „Dieser proaktive Ansatz hat sich als äußerst erfolgreich erwiesen und ermöglicht es uns, agil und zukunftsorientiert zu bleiben.“

Warum IT Chefsache ist

Die IT ist längst kein abgeschotteter Technikbereich mehr – sie ist das Rückgrat moderner Unternehmen. Ob Kundenerlebnis, Lieferkette, Produktentwicklung oder Datenanalyse: Ohne leistungsfähige und strategisch ausgerichtete IT funktioniert heute kaum ein Geschäftsmodell. In der Praxis zeigt sich jedoch häufig ein anderes Bild: IT wird als operative Funktion verstanden, Projekte werden punktuell initiiert, die strategische Steuerung bleibt aus – mit gravierenden Folgen für Effizienz, Sicherheit und Innovationskraft.
Hinzu kommen aktuelle Herausforderungen: Unternehmen sehen sich steigenden Anforderungen an Cybersicherheit ausgesetzt, müssen mit immer kürzeren Innovationszyklen Schritt halten und auf sich wandelnde Kundenerwartungen reagieren. Gleichzeitig entstehen durch Künstliche Intelligenz, Cloud-Technologien oder Automatisierung völlig neue Chancen – vorausgesetzt, sie werden von der Unternehmensspitze erkannt und aktiv genutzt.

Ziel dieses Artikels ist es, ein praxisnahes Verständnis dafür zu schaffen, warum IT untrennbar mit erfolgreicher Unternehmensführung verbunden ist. Es geht darum, zu zeigen, wie digitale Verantwortung in der Chefetage verankert werden kann – und werden sollte –, um nachhaltige und zukunftsgerichtete Entscheidungen zu ermöglichen.

IT als strategischer Erfolgsfaktor

In vielen Unternehmen wird IT noch immer primär als Dienstleister gesehen – zuständig für funktionierende Infrastruktur, Systemverfügbarkeit und technischen Support. Diese Perspektive greift heute zu kurz. Moderne IT ist kein reiner Kostenfaktor mehr, sondern ein entscheidender Enabler: Sie schafft die Grundlage für neue Geschäftsmodelle, automatisierte Prozesse, datenbasierte Entscheidungen und eine agile Organisation.

IT kann maßgeblich zur Innovationskraft beitragen – etwa durch den Einsatz von KI, datengetriebener Produktentwicklung oder digitalen Kundenerlebnissen. Gleichzeitig ermöglicht sie Effizienzgewinne, z. B. durch automatisierte Workflows, skalierbare Cloud-Lösungen oder eine flexible Systemarchitektur. Unternehmen, die IT aktiv und strategisch nutzen, sichern sich Wettbewerbsvorteile, weil sie schneller auf Marktveränderungen reagieren, Kosten senken und neue Potenziale erschließen können.

Damit das gelingt, muss IT jedoch fest in die Geschäftsstrategie integriert sein. Es reicht nicht, technische Projekte zu genehmigen – die Unternehmensführung muss verstehen, welche Hebel die IT bietet, und diese gezielt mit den eigenen Zielen verknüpfen. Nur so wird aus einer unterstützenden Funktion ein echter strategischer Motor.

Risiken bei fehlender IT-Führung auf Top-Management-Ebene

Wenn IT nicht als Führungsaufgabe verstanden wird, entstehen Lücken – nicht nur auf technischer, sondern vor allem auf strategischer Ebene. In der Praxis zeigt sich das durch eine Vielzahl konkreter Risiken, die nicht selten erst dann sichtbar werden, wenn es bereits zu spät ist.

Fehlende Investitionen und Priorisierung

Ohne aktives Interesse und Steuerung durch das Top-Management fehlt es häufig an Klarheit über den tatsächlichen Stellenwert der IT. Budgets werden als Kostenblock gesehen, nicht als Investition in die Zukunftsfähigkeit des Unternehmens. Strategische IT-Projekte – wie etwa die Einführung cloudbasierter Plattformen, die Ablösung veralteter Systeme oder der Aufbau datengetriebener Services – werden zugunsten kurzfristiger Ziele verschoben oder gar nicht erst angestoßen. Die Folge: technische Schulden häufen sich, Systeme veralten und die Organisation verliert ihre Handlungsfähigkeit im digitalen Wettbewerb.

Sicherheitslücken, Innovationsstau, operative Risiken

Fehlt die Verankerung der IT auf C-Level, entstehen Sicherheitslücken – nicht selten durch eine fragmentierte Infrastruktur, fehlende Governance oder unzureichende Awareness auf Führungsebene. Cybersecurity wird zum „IT-Problem“ erklärt, statt als unternehmensweites Risiko erkannt zu werden. Gleichzeitig bleiben Innovationen aus: Neue Technologien werden zu spät erkannt oder nicht konsequent umgesetzt, weil strategische Leitlinien fehlen. Auch operative Risiken nehmen zu – etwa durch unzureichend getestete Systeme, fehlende Schnittstellen oder nicht abgestimmte IT-Architekturen.

Disconnect zwischen IT und Business-Zielen

Einer der größten, oft unterschätzten Effekte: Wenn IT und Geschäftsführung getrennt agieren, entsteht ein strategischer Disconnect. Die IT entwickelt Lösungen, die nicht zu den eigentlichen Geschäftszielen passen, während die Fachbereiche Anforderungen stellen, die technologisch nicht durchdacht sind. Projekte scheitern, weil die Zielrichtung fehlt – und weil niemand die Verantwortung dafür übernimmt, beide Welten zu verbinden. Der notwendige Schulterschluss zwischen Technologie und Geschäft bleibt aus – und mit ihm die Chance, digitale Vorhaben erfolgreich umzusetzen.

Beispiele aus der Praxis:
Was erfolgreiche (und weniger erfolgreiche) Unternehmen trennt

Ob ein Unternehmen seine IT strategisch führt oder sie nur „mitlaufen lässt“, zeigt sich besonders deutlich in der Praxis. Während einige Organisationen ihre IT im C-Level verankern und dadurch messbare Wettbewerbsvorteile erzielen, geraten andere ins Straucheln – nicht aufgrund fehlender Technik, sondern wegen mangelnder Führung und Verantwortung.

Erfolgsbeispiel: Porsche – IT als Innovationstreiber

Der Automobilhersteller Porsche hat frühzeitig erkannt, dass Digitalisierung nicht nur im Fahrzeug, sondern vor allem in Prozessen, Services und Geschäftsmodellen stattfinden muss. Die Rolle des CIO wurde nicht nur gestärkt, sondern gezielt in die Geschäftsstrategie integriert. Inzwischen gibt es ein eigenständiges Digital Lab, digitale Plattformstrategien und gezielte Kooperationen mit Start-ups. Die IT ist hier kein Dienstleister, sondern Innovationstreiber – mit direktem Draht zur Geschäftsführung. Der Erfolg zeigt sich nicht nur in neuen digitalen Services, sondern auch in kürzeren Entwicklungszyklen, besserer Kundenerfahrung und einer starken Position im globalen Wettbewerb. Der entscheidende Faktor: IT wird nicht als Unterstützer, sondern als strategischer Geschäftspartner behandelt.

Negativbeispiel: British Airways – IT-Ausfall mit Millionenfolgen

Ein eindrückliches Beispiel für die Folgen mangelhafter IT-Führung ist der IT-Ausfall bei British Airways im Jahr 2017. Aufgrund veralteter Systeme und unzureichender Notfallplanung kam es zu einem Totalausfall des IT-Systems, wodurch weltweit Flüge ausfielen, Passagiere strandeten und das Unternehmen massiven Imageschaden erlitt. Interne Berichte zeigten später, dass strategische IT-Themen auf Führungsebene nicht ausreichend beachtet und IT-Investitionen über Jahre hinausgeschoben worden waren. Die Folge: operative Schwächen, hoher finanzieller Schaden – und ein Vertrauensverlust bei Kunden und Mitarbeitenden.

Lessons Learned

Diese Beispiele zeigen klar: IT kann Unternehmen stärken oder schwächen – je nachdem, wie sie geführt wird. Erfolgreiche Unternehmen integrieren IT-Entscheider auf Augenhöhe in die Unternehmensleitung, schaffen klare Verantwortlichkeiten und investieren gezielt in technologische Zukunftsfähigkeit. Unternehmen, die das versäumen, laufen Gefahr, abgehängt zu werden – technisch, wirtschaftlich und kulturell. Die wichtigste Lehre: IT-Strategie ist nicht verhandelbar – und ihre Umsetzung darf kein Nebenschauplatz sein. Es braucht Führung, Verbindlichkeit und die Bereitschaft, Digitalisierung als kontinuierlichen Prozess auf oberster Ebene zu begleiten.

Rolle der Geschäftsführung im digitalen Wandel

Digitale Transformation ist kein IT-Projekt – sie ist eine Führungsaufgabe. Damit Unternehmen in der digitalen Welt bestehen, muss die Geschäftsführung eine aktive, gestaltende Rolle übernehmen. Technologieentscheidungen sind heute zugleich Geschäftsentscheidungen. Wer diese Verantwortung nicht wahrnimmt, überlässt zentrale Weichenstellungen dem Zufall – oder der IT-Abteilung, die oft gar nicht über das nötige Mandat verfügt, strategische Veränderungen anzustoßen.

Der CIO als Sparringspartner auf Augenhöhe

Der Chief Information Officer (CIO) ist mehr als ein technischer Leiter – er ist der zentrale Sparringspartner für die Geschäftsführung, wenn es um digitale Strategien, Plattformarchitekturen, Systemlandschaften und Innovationspotenziale geht. In fortschrittlichen Unternehmen sitzt der CIO mit am Tisch, wenn über Geschäftsmodelle, Investitionen und Kundenerlebnisse gesprochen wird. Die erfolgreichsten CIOs verstehen sowohl Technik als auch Business – und verbinden beides in ihrer Rolle als Brücke zwischen Technologie und Unternehmenszielen.
Doch das funktioniert nur, wenn der CIO auch den nötigen Rückhalt hat: eine klare Position auf C-Level, ein Budget mit strategischem Spielraum und Zugang zur obersten Führungsebene.

CDO, CTO – wer macht was?

Mit der wachsenden Komplexität digitaler Themen haben sich auch die Rollen im C-Level erweitert. Häufig ergänzt der Chief Digital Officer (CDO) die Geschäftsführung als Verantwortlicher für digitale Geschäftsmodelle, Plattformstrategien und datengetriebene Innovationen. Der Chief Technology Officer (CTO) wiederum fokussiert sich oft stärker auf Technologiearchitektur, Systemintegration und technologische Exzellenz.
Wichtig ist: Es braucht kein Rollenchaos, sondern klare Zuständigkeiten und ein abgestimmtes Zusammenspiel. Ob CIO, CTO oder CDO – alle diese Rollen können erfolgreich agieren, wenn sie strategisch eingebunden und nicht als reine Ausführungsinstanzen behandelt werden.

Digitalkompetenz im Vorstand ist kein „Nice-to-have“

Ein zentrales Missverständnis: Dass Digitalisierung vollständig an Fachverantwortliche delegiert werden kann. Die Realität ist eine andere: Die Geschäftsleitung muss selbst über ein grundlegendes digitales Verständnis verfügen – um Risiken richtig einschätzen, Chancen erkennen und IT-Projekte gezielt priorisieren zu können. Es geht nicht darum, Programmieren zu können, sondern Zusammenhänge zu verstehen und digitale Entwicklungen aktiv in Entscheidungen einzubeziehen.
Studien zeigen: Unternehmen mit digitalaffinen Vorständen investieren gezielter, transformieren erfolgreicher und sind innovationsstärker. Digitalkompetenz im Top-Management ist deshalb keine Zusatzqualifikation mehr, sondern eine Führungsanforderung.

IT-ist-Chefsache

Empfehlungen für Unternehmen:
So wird IT zur echten Chefsache

Die Erkenntnis, dass IT auf oberster Ebene verantwortet werden muss, ist nur der erste Schritt. Entscheidend ist, wie diese Einsicht in der Praxis umgesetzt wird. Viele Organisationen befinden sich in einem Zwischenschritt – mit digitaler Rhetorik nach außen, aber traditionellen Strukturen nach innen. Die folgenden Empfehlungen zeigen auf, wie Unternehmen IT-Führung konkret und wirksam im Top-Management verankern können.

1. IT-Strategie zur Chefsache machen

Digitalisierung darf kein paralleler Nebenschauplatz sein – sie muss Teil der Unternehmensstrategie sein. Das bedeutet: Die Geschäftsführung trägt die Verantwortung für IT-Investitionen, Prioritäten und Zielbilder. Die IT-Strategie sollte in enger Abstimmung mit der Geschäftsstrategie entwickelt und regelmäßig gemeinsam überprüft werden. Statt einzelne Tools oder Projekte zu bewerten, braucht es ein Gesamtbild: Welche digitalen Fähigkeiten benötigt das Unternehmen in zwei, fünf oder zehn Jahren – und wie kann die IT diese ermöglichen?

2. Digitale Kompetenz im Führungskreis gezielt aufbauen

Digitale Führung beginnt mit Verständnis. Vorstände und Geschäftsleitungen müssen sich mit digitalen Geschäftsmodellen, Technologien und Trends befassen – nicht im Detail, aber auf strategischer Ebene. Schulungen, Sparringsformate mit Expert:innen oder die gezielte Erweiterung des Führungsteams um digitale Profile sind wichtige Hebel. Unternehmen sollten digitale Kompetenz zur festen Säule in ihrer Führungsentwicklung machen – nicht nur im IT-Bereich, sondern über alle Funktionen hinweg.

3. IT systematisch in Entscheidungsprozesse integrieren

In vielen Unternehmen wird die IT erst dann eingebunden, wenn die Entscheidung eigentlich schon getroffen wurde – etwa bei neuen Geschäftsmodellen, M&A-Vorhaben oder Prozessveränderungen. Das ist riskant und ineffizient. Stattdessen sollte IT-Frühphasen-kompatibel gedacht werden: CIOs, CTOs und CDOs gehören in alle relevanten Strategie- und Investitionsrunden – als Impulsgeber, Risikomanager und Innovationstreiber. IT muss vor der Entscheidung mitreden, nicht nach der Umsetzung aufholen.

4. Governance-Strukturen hinterfragen und modernisieren

Veraltete Governance-Strukturen blockieren oft die Digitalisierung. Silo-Denken, unklare Zuständigkeiten und zu starre Hierarchien verhindern schnelle, abgestimmte Entscheidungen. Unternehmen sollten ihre Entscheidungs-, Budget- und Projektstrukturen überprüfen: Gibt es einen Digitalausschuss im Vorstand? Wer trägt Verantwortung für Technologieportfolios? Wie schnell können Innovationsvorhaben angestoßen werden? Moderne Governance bedeutet nicht mehr Kontrolle, sondern mehr Klarheit, Geschwindigkeit und Verbindlichkeit in digitalen Fragen.
Mit diesen Maßnahmen kann IT aus der „Nebenrolle“ in die Gestalterrolle überführt werden – als Teil der Führung, nicht als nachgelagerter Dienstleister. Denn wer IT wirklich zur Chefsache macht, schafft nicht nur technische Voraussetzungen, sondern auch kulturelle und strukturelle Voraussetzungen für nachhaltigen Erfolg im digitalen Zeitalter.

Fazit: IT gehört in die Führungsetage – ohne Ausnahmen

Die zentrale Botschaft dieses Artikels ist klar: IT ist längst kein nachgelagertes Technologiethema mehr – sie ist geschäftskritisch und strategisch. Unternehmen, die IT weiterhin auf die Rolle eines reinen Dienstleisters reduzieren, setzen ihre Innovationskraft, Sicherheit und Wettbewerbsfähigkeit aufs Spiel.

Die wichtigsten Punkte im Überblick:

  • IT ist ein Enabler für neue Geschäftsmodelle, Effizienz und Kundenmehrwert – kein reiner Support.
  • Ohne klare Verantwortung im Top-Management drohen Investitionsstau, Sicherheitsrisiken und strategische Fehlentscheidungen.
  • Erfolgreiche Unternehmen binden CIOs, CTOs und CDOs frühzeitig in strategische Prozesse ein – auf Augenhöhe mit anderen C-Level-Funktionen
  • Digitalkompetenz im Vorstand ist ein Muss, keine Option – nicht jeder muss Technikexpert:in sein, aber jeder muss digitale Entscheidungen verstehen und mittragen können.

Handlungsappell an Führungskräfte

Die Verantwortung liegt nicht bei der IT – sie liegt bei der Geschäftsführung. Wer heute unternehmerisch führen will, muss auch digital führen. Das bedeutet: strategisch denken, in Technologie investieren, Strukturen schaffen, die Wandel ermöglichen – und mutig vorangehen.

Digitale Transformation beginnt nicht mit einem Tool – sie beginnt mit einer Haltung.

Literaturverzeichnis

  1. Bitkom e. V. (2023): Digital Office Index 2023 – Digitalisierung der Geschäftsprozesse in deutschen Unternehmen. Berlin.
  2. Accenture (2023): Technology Vision – Total Enterprise Reinvention. Globale Studie zu digitalen Trends. 
  3. Capgemini (2022): Digital Mastery Report – Wie Unternehmen digitale Exzellenz erreichen. Capgemini Invent, Paris. 
  4. Gartner (2023): CEO Priorities 2023 – Accelerating Digital Business. Executive Insights Report. Stamford, CT. 
  5. Bundesverband Deutscher Unternehmensberatungen (BDU) (2022): Digitalisierung im Mittelstand – Status quo, Herausforderungen, Potenziale. Bonn.
  6. Handelsblatt (2017): IT-Panne bei British Airways legt Flugbetrieb lahm – Ursachenanalyse und Folgen. Artikel vom 29. Mai 2017. 
  7. Porsche AG (2021): Digitalstrategie und Innovationsmanagement bei Porsche – Der Weg zur digitalen Marke. Unternehmenspräsentation. 
  8. McKinsey & Company (2021): The CIO’s Moment – Leadership through the Digital Crisis. McKinsey Digital Insights. 
  9. Weill, P. & Woerner, S. (2020): Why Every CEO Should Care About Tech Strategy. In: Harvard Business Review, Vol. 98, No. 5, S. 60–68. Boston: Harvard Business Publishing.

Desaster-Recovery-Plan erstellen: So machen Sie Ihre IT krisensicher

Ein IT-Notfall kommt selten mit Vorwarnung – und doch sind viele Unternehmen unzureichend vorbereitet. Ein durchdachter Desaster-Recovery-Plan sichert nicht nur Systeme, sondern auch Ihre Handlungsfähigkeit im Ernstfall. In diesem Beitrag erfahren Sie, wie Sie Ihre IT strukturiert und praxisnah auf Krisenszenarien vorbereiten – von der Analyse über die Kommunikation bis zur Wiederherstellung.

Krisensicher dank Strategie: Ihre Roadmap für ein robustes Desaster-Recovery-Konzept

Ein funktionierendes IT-System ist heute das Rückgrat jedes Unternehmens. Doch genau darin liegt die Gefahr: Wenn alles läuft, fehlt oft der Antrieb, sich auf den Ausnahmezustand vorzubereiten. Dabei ist gerade jetzt der ideale Zeitpunkt, um Strukturen zu hinterfragen, Risiken neu zu bewerten und konkrete Notfallmaßnahmen zu planen.

Denn die zentrale Frage ist nicht ob etwas passiert, sondern wann – und wie gut Sie dann vorbereitet sind.

Teil 1 - Was zählt, wenn es ernst wird

Warum jetzt handeln?

Ob Cyberangriffe, Systemausfälle, Naturkatastrophen oder menschliches Versagen – Szenarien für IT-Desaster gibt es viele. Die Zahl erfolgreicher Angriffe auf mittelständische Unternehmen und Konzerne ist in den letzten Jahren dramatisch gestiegen. Gleichzeitig verlassen sich viele Organisationen auf komplexe Systeme – ohne zu wissen, wie schnell diese im Ernstfall wieder verfügbar wären. Gerade in Zeiten geopolitischer Unsicherheit und zunehmender Digitalisierung ist ein Desaster-Recovery-Plan (DRP) kein „nice to have“, sondern essenzieller Bestandteil einer resilienten Unternehmensstrategie.

Bestandsaufnahme: Was brauche ich wirklich?

Nicht jedes System ist im Notfall gleich wichtig. Die erste Frage muss daher lauten: Welche Prozesse sind geschäftskritisch – und welche Systeme stehen dahinter?
Eine strukturierte Business Impact Analyse (BIA) liefert hier Antworten. Sie zeigt, welche Systeme sehr schnell verfügbar sein müssen (z. B. Warenwirtschaft, Produktionssteuerung, Kommunikation) – und welche und welche Systeme nachgelagert reaktiviert werden können.

Wichtige Fragen dabei:

  • Welche Daten und Prozesse sind für den Fortbestand des Unternehmens unverzichtbar?
  • Wie lange kann der Betrieb ohne bestimmte Systeme aufrechterhalten werden?
  • Was kostet eine Stunde Stillstand – konkret?

Vertrauensgrenzen: Was ist noch sicher – was nicht mehr?

Viele Unternehmen vertrauen blind auf Systeme, die im Notfall selbst zum Problem werden können. Beispiel: Microsoft 365. Was auf den ersten Blick redundant erscheint, ist oft ein Single Point of Failure – denn auch Cloud-Dienste können ausfallen oder Ziel von Angriffen sein.
Ein eigener Exchange-Server im RZ mag altmodisch wirken – bietet aber unter Umständen mehr Kontrolle im Notfall. Entscheidend ist: Wo ziehe ich die Grenze des Vertrauens? Und welche Abhängigkeiten bin ich bereit einzugehen?
Auch hier gilt: Systeme, auf die Sie sich im Notfall verlassen wollen, müssen im Unternehmen durchdacht, getestet und notfalls isoliert lauffähig sein – sei es über eine Private Cloud, Terminalserver oder dedizierte Notfallumgebung.

Zielgrößen: RTO & RPO

Die zwei wichtigsten Kennzahlen im Desaster Recovery:

  • RTO (Recovery Time Objective): Wie schnell muss ein System wieder verfügbar sein?
  • RPO (Recovery Point Objective): Wie alt dürfen die Daten im Worst Case maximal sein?

Ein Beispiel: Wenn Sie Ihre Daten nur einmal täglich sichern, verlieren Sie im Ernstfall bis zu 24 Stunden an Informationen – das ist Ihr RPO. Wenn ein System erst nach 48 Stunden wieder hochgefahren werden kann, ist das Ihr RTO.
Viele Unternehmen definieren diese Werte zu optimistisch – oder gar nicht. Ein realistischer Abgleich zwischen Business-Anforderungen und technischer Machbarkeit ist daher essenziell.

Teil 2 – Kommunikation im Ernstfall: Klarheit statt Chaos

Ein Desaster-Recovery-Plan ist mehr als nur Technik. Einer der häufigsten Fehler in Notfallsituationen ist eine fehlende oder ungeplante Kommunikation – intern wie extern. Dabei entscheidet die richtige Kommunikation darüber, ob ein Vorfall schnell eingegrenzt werden kann oder zum Reputationsrisiko wird.

Wer kommuniziert – und wann?

In der Krise zählt jede Minute. Unklare Zuständigkeiten oder widersprüchliche Aussagen verzögern nicht nur den Wiederanlauf, sondern sorgen für Vertrauensverlust – bei Kunden, Mitarbeitenden und Partnern.
Ein guter DR-Plan definiert deshalb:

  • Verantwortliche Personen für Kommunikation (z. B. Geschäftsführung, IT-Leitung, Pressesprecher)
  • Klare Meldeketten intern – wer informiert wen in welcher Reihenfolge?
  • Vorbereitete Textbausteine für gängige Szenarien (Cyberangriff, Systemausfall, Datenverlust)
  • Kanalstrategie: Wann ist E-Mail sinnvoll, wann besser ein direkter Anruf?

Besonderheit: Kommunikation mit Externen

Spätestens wenn Kunden oder Aufsichtsbehörden betroffen sind, muss das Unternehmen reagieren – und zwar kontrolliert. Eine unüberlegte Aussage wie „Unsere IT wurde gehackt“ kann größere Schäden verursachen als der Vorfall selbst.
Typische externe Kommunikationspartner:

  • Kunden & Lieferanten
  • Presse & Öffentlichkeit
  • Behörden (z. B. Datenschutz, Finanzaufsicht)
  • Versicherungen

Je nach Branche können Meldepflichten bestehen – z. B. bei Datenschutzverletzungen (DSGVO). Auch dafür sollte ein DR-Plan vorbereitet sein.

Sonderfall: Cloud-Ausfälle und SaaS-Dienste

Ein beliebter Irrtum: „Wenn Microsoft 365 ausfällt, ist das nicht unser Problem.“ Doch genau das sehen Kunden und Mitarbeiter oft anders. Wer moderne SaaS-Plattformen nutzt, trägt auch Verantwortung für die Kommunikation im Störfall – selbst wenn die technische Ursache extern liegt.
Daher gilt:

  • Auch Cloud-basierte Dienste brauchen Notfallkommunikationsszenarien
  • Die Verantwortung für Kommunikation bleibt immer beim Unternehmen
  • Externe SLA-Verweise reichen im Ernstfall nicht aus

Praxis-Tipp: Kommunikations-plan als Teil des DR-Konzepts

Ein praxistauglicher Kommunikationsplan besteht idealerweise aus:

  • Kontaktdaten aller relevanten Personen (auch privat / mobil)
  • Kurzanleitungen für häufige Krisenszenarien
  • Templates für Pressemitteilungen und interne Mitteilungen
  • Liste mit Kommunikationsverboten (z. B. keine technischen Details ohne Freigabe)

Ziel: Jeder weiß sofort, was zu tun ist – und niemand muss „im Moment der Krise“ improvisieren.

„Living off the Land“: Die unsichtbare Gefahr aus dem eigenen System

Angriffe, die aussehen wie normale Systemaktivitäten…

Cyberangriffe haben sich verändert. Heute arbeiten viele Angreifer subtiler – sie greifen nicht von außen mit neuen Programmen an, sondern nutzen das, was bereits im Unternehmen vorhanden ist. Dieses Prinzip wird als „Living off the Land“ (LOTL) bezeichnet. Es beschreibt eine Methode, bei der sich Angreifer gezielt jener Tools bedienen, die in jeder Windows-Umgebung zum Alltag gehören: PowerShell, Windows-Dienste, Remote Desktop oder interne Skripte.
Das Heimtückische daran: Diese Werkzeuge sind fester Bestandteil des Betriebssystems und werden regelmäßig von Administratoren oder Wartungsdiensten genutzt. Sie sehen nicht verdächtig aus. Deshalb bleiben sie in vielen Fällen völlig unbemerkt – selbst von erfahrenen IT-Teams oder modernen Sicherheitslösungen.

Wenn der Angreifer kein Fremder mehr ist

Ein LOTL-Angriff beginnt meist mit einem kleinen Türöffner: ein kompromittiertes Benutzerkonto, eine Phishing-Mail, ein ungesicherter Fernzugriff. Von dort aus bewegen sich die Angreifer systematisch weiter – von System zu System, von Dienst zu Dienst. Sie erstellen eigene Skripte, überwachen die Umgebung, sammeln Informationen. Immer mit denselben Bordmitteln, die auch Ihr IT-Team nutzt.

Besonders gefährlich wird es, wenn administrative Rechte ins Spiel kommen. Denn mit diesen Rechten können nicht nur produktive Systeme manipuliert, sondern auch Sicherungssysteme gezielt außer Kraft gesetzt werden. Backups werden gelöscht oder verschlüsselt, Protokolle bereinigt, Alarmierungen deaktiviert. Wenn das Unternehmen den Angriff schließlich entdeckt, ist der eigentliche Schaden oft längst geschehen – und die Wiederherstellung wird zum Wettlauf gegen die Zeit.

Warum klassische Sicherheit hier nicht ausreicht

Die meisten Sicherheitskonzepte setzen auf die Erkennung von fremder Software oder auffälligem Verhalten. Doch bei einem LOTL-Angriff findet beides nicht statt. Alles wirkt legitim – denn es ist legitim. Genau deshalb greifen hier viele Schutzmechanismen ins Leere. Antivirenprogramme schlagen nicht an, weil keine Malware im klassischen Sinne vorliegt. Firewall-Regeln bleiben wirkungslos, weil sich der Angreifer innerhalb des Netzes bewegt. Und Protokolle sind nur hilfreich, wenn sie detailliert genug sind – was in vielen Unternehmen nicht der Fall ist.

Hinzu kommt: Je besser der Angreifer vorbereitet ist, desto unauffälliger verhält er sich. Manche Attacken laufen über Wochen oder Monate – leise, präzise und ohne sichtbare Spuren. Gerade für Unternehmen ohne aktives Monitoring oder ohne Segmentierung im Netzwerk ist das ein enormes Risiko.

Was ein Desaster-Recovery-Plan berücksichtigen muss

Ein moderner Desaster-Recovery-Plan darf sich nicht nur auf äußere Angriffe oder Hardware-Ausfälle konzentrieren. Er muss auch interne Bedrohungsszenarien abbilden – und LOTL ist eines der relevantesten davon. Das bedeutet konkret: Unternehmen müssen wissen, welche administrativen Werkzeuge im Einsatz sind, wer sie nutzen darf, wie sie überwacht werden und wie im Ernstfall schnell und zuverlässig reagiert werden kann.


Zudem sollte geprüft werden, ob Backups wirklich außerhalb des Netzwerks erreichbar sind – oder ob sie bei einem internen Angriff ebenfalls gefährdet wären. Auch Zugriffskonzepte, Rechtevergabe, Protokollierung und Alarmierungen gehören auf den Prüfstand. Wer diese Fragen im Vorfeld klärt, kann im Ernstfall zielgerichtet handeln – statt im Dunkeln zu tappen.


„Living off the Land“ ist eine der gefährlichsten Bedrohungen unserer Zeit – gerade, weil sie schwer zu erkennen ist und auf Systemen basiert, denen wir jeden Tag vertrauen. Doch mit der richtigen Vorbereitung lässt sich das Risiko deutlich reduzieren. Ein sauber geplanter, regelmäßig getesteter Desaster-Recovery-Plan ist dabei der entscheidende Baustein.

Schritt für Schritt: Ihre Roadmap zum Desaster-Recovery-Plan

Struktur statt Aktionismus

Ein Notfallplan bringt nur dann echten Mehrwert, wenn er nicht im Ordner verstaubt, sondern im Ernstfall greift. Doch viele Unternehmen scheitern nicht an der Technik, sondern an der fehlenden Struktur. Es reicht nicht, „irgendetwas“ zu sichern oder ein Backup-Konzept zu haben – entscheidend ist, wer, was, wann und wie wiederherstellt, kommuniziert und entscheidet. Damit der DR-Plan mehr ist als eine technische Skizze, braucht es ein klares Vorgehen. Nicht alles muss sofort umgesetzt werden – aber alles sollte bewusst entschieden und dokumentiert sein.

Phase 1: Bewertung & Priorisierung

Der erste Schritt ist die kritische Selbstbefragung: Welche Systeme sind wirklich überlebenswichtig? Was muss nach einem Ausfall sofort wieder funktionieren – und was kann warten? Dabei hilft eine Business-Impact-Analyse (BIA). Sie stellt die Verbindung zwischen Geschäftsprozessen und IT-Systemen her. Gemeinsam mit den Fachabteilungen wird festgelegt, welche Ausfallzeiten verkraftbar sind – und wo der Betrieb zum Stillstand kommt. Diese Phase ist bewusst nicht technisch. Sie erfordert betriebswirtschaftliches Denken: Welche Kosten entstehen pro Stunde Ausfall? Welche Kundenbeziehungen wären gefährdet? Welche regulatorischen Anforderungen müssen eingehalten werden?

Phase 2: Zieldefinition & Strategie

Sind die Prioritäten klar, geht es an die technischen Zielgrößen: Wie schnell muss ein System wieder laufen (RTO, Recovery Time Objective)? Und wie alt dürfen die Daten maximal sein (RPO, Recovery Point Objective)? Darauf basierend lassen sich konkrete Wiederherstellungsszenarien planen – von einzelnen Applikationen bis hin zum vollständigen Wiederanlauf eines Standorts. Strategien können hybride Wege beinhalten, z. B. ein schneller Start über virtuelle Maschinen in einer Private Cloud, während parallel die physische Infrastruktur wiederhergestellt wird. Auch Optionen wie das Hochziehen einer temporären Umgebung, z. B. via Terminalserver in neuer Domäne, gehören in diesen Plan. Wichtig ist dabei: Jedes Szenario muss realistisch, testbar und dokumentiert sein.

Phase 3: Umsetzung & Tests

Ein Desaster-Recovery-Plan ist nur so gut wie seine Praxisfähigkeit. Darum ist es essenziell, den Ernstfall nicht nur zu simulieren, sondern regelmäßig durchzuspielen – unter realitätsnahen Bedingungen. Tests zeigen nicht nur technische Schwachstellen, sondern auch organisatorische: Wer weiß im Ernstfall, was zu tun ist? Gibt es aktuelle Ansprechpartnerlisten? Wer hat Zugriff auf das Notfallhandy oder auf Offline-Dokumentationen? Parallel dazu müssen die technischen Maßnahmen umgesetzt werden: Backup-Strategien, Notfall-Server, Monitoring, Alarmierungswege, Kommunikationspläne – alles, was im Krisenfall den Unterschied macht.

Phase 4: Dokumentation & Verankerung

Ein DR-Plan ist ein lebendiges Dokument. Er muss regelmäßig aktualisiert, zugänglich gemacht und in die Unternehmensprozesse eingebettet werden. Nur wenn Verantwortlichkeiten klar benannt und Prozesse transparent sind, kann der Plan im Ernstfall greifen.
In dieser Phase sollten auch Schulungen stattfinden – nicht nur für IT, sondern auch für die Fachabteilungen. Denn ein erfolgreicher Wiederanlauf ist keine rein technische, sondern eine unternehmerische Leistung.
Desaster Recovery ist kein Projekt, das man „mal eben“ umsetzt. Aber mit einer strukturierten Roadmap, klaren Prioritäten und realistischen Zielen wird aus einem Risiko ein beherrschbares Szenario. Unternehmen, die vorbereitet sind, gewinnen im Ernstfall nicht nur Zeit – sondern auch Vertrauen, Stabilität und Handlungsfähigkeit.

Fazit: Wer vorbereitet ist, bleibt handlungsfähig

Struktur statt Aktionismus

Ein IT-Notfall kommt selten mit Vorankündigung. Und wenn er eintritt, zählt jede Minute. Unternehmen, die dann einfach in die Schublade greifen und auf einen konkreten, durchdachten Plan zurückgreifen können, sind im Vorteil – operativ, rechtlich und kommunikativ.


Desaster Recovery ist kein rein technisches Thema. Es ist ein strategisches Element moderner Unternehmensführung. Wer seine Systeme kennt, Abhängigkeiten bewertet, Verantwortlichkeiten definiert und Wiederanlaufszenarien durchspielt, ist nicht nur besser geschützt – sondern auch schneller wieder im Geschäft.
Dabei geht es nicht darum, jedes Szenario bis ins letzte Detail zu antizipieren. Vielmehr zählt die Fähigkeit, im Krisenfall schnell, geordnet und wirksam zu handeln. Und genau dafür ist ein guter Desaster-Recovery-Plan gemacht.


Sind Sie vorbereitet? Oder hoffen Sie noch auf Glück?
Vielleicht läuft Ihre IT derzeit reibungslos. Vielleicht ist der letzte Ausfall schon vergessen. Doch genau jetzt – wenn alles stabil wirkt – ist der beste Zeitpunkt, das Fundament für den Ernstfall zu legen.
Denn die zentrale Frage ist nicht ob etwas passiert, sondern wie gut Sie darauf vorbereitet sind.

Jetzt handeln – mit einem starken Partner an Ihrer Seite

Bei KNS – Kurfer Network Support unterstützen wir Unternehmen seit Jahren dabei, ihre IT-Infrastruktur nicht nur leistungsfähig, sondern auch krisenfest aufzustellen. Wir kombinieren technische Kompetenz mit strategischem Denken – für Lösungen, die nicht nur im Normalbetrieb, sondern auch im Ausnahmezustand funktionieren.

Ob Analyse Ihrer aktuellen Systeme, Erstellung eines individuellen Desaster-Recovery-Plans oder Aufbau einer resilienten Private-Cloud-Umgebung – wir begleiten Sie persönlich, verlässlich und lösungsorientiert.

Vereinbaren Sie ein unverbindliches Erstgespräch.

Gemeinsam klären wir, wie Ihr Unternehmen im Notfall handlungsfähig bleibt – ohne blinden Aktionismus, aber mit klarer Struktur.

 

VMware unter Broadcom: Warum jetzt der richtige Zeitpunkt für den Ausstieg ist

Die Übernahme von VMware durch Broadcom verändert den Virtualisierungsmarkt grundlegend – mit spürbaren Folgen für IT-Abteilungen aller Größen. Drastische Lizenzänderungen, steigende Kosten und ein schrumpfender Support stellen bisherige Strategien infrage. In dieser neuen Realität braucht es Klarheit und Weitblick: Wer jetzt handelt, kann Kosten senken, Abhängigkeiten reduzieren und seine IT zukunftssicher aufstellen. Dieser Beitrag zeigt, warum ein Umdenken notwendig ist – und welche Alternativen jetzt strategisch Sinn ergeben.

Virtuelle Stabilität in der Krise: Warum die VMware-Ära ins Wanken gerät

Die Übernahme von VMware durch Broadcom markiert eine tiefgreifende Zäsur im Virtualisierungsmarkt. Was jahrelang als stabile, kalkulierbare Grundlage für Enterprise-IT galt, steht nun in Frage. Die bisherigen Lizenzmodelle wurden radikal verändert, Preise steigen drastisch, und viele gewohnte Supportstrukturen lösen sich auf. Für IT-Leiter bedeutet das: Jetzt ist der richtige Zeitpunkt, die strategischen Grundlagen der eigenen Virtualisierungsinfrastruktur auf den Prüfstand zu stellen – bevor Kosten und Abhängigkeiten weiter aus dem Ruder laufen.

Eine neue Realität – und neue Risiken

Broadcom verfolgt nach der Übernahme eine klare Linie: maximale Margen, Fokussierung auf Großkunden, Konsolidierung der Produktpalette. Diese Strategie bleibt nicht ohne Auswirkungen: • Abschaffung klassischer Lizenzmodelle: Nur noch Subscription-Modelle stehen zur Verfügung. • Zwang zur Paketlösung: Einzelne Funktionen nur noch in übergreifenden Bundles erhältlich • Drastische Preisanstiege • Reduzierter Fokus auf mittelgroße Kunden: Partnernetzwerke werden ausgedünnt, Support zentralisiert Kurz: Unternehmen verlieren die Kontrolle – über Kosten, Verträge und Weiterentwicklung ihrer Infrastruktur.

Virtualisierung als strategischer Pfeiler – neu denken

Virtualisierung ist längst nicht mehr nur ein IT-Basisthema. Sie ist das Rückgrat moderner Infrastrukturen: für den Betrieb geschäftskritischer Anwendungen, für DevOps-Workflows, für hybride und Multi-Cloud-Strategien. Wer in der aktuellen Marktsituation auf VMware verbleibt, riskiert eine zunehmend einseitige Abhängigkeit – in technischen wie in kommerziellen Belangen. Die Alternative: ein strukturierter Blick auf andere Plattformen, die Offenheit, Integration und langfristige Planbarkeit bieten.

Virtualisierungsalternativen

Die Landschaft an Enterprise-fähigen Virtualisierungslösungen hat sich in den letzten Jahren deutlich erweitert. Neben VMware gibt es ausgereifte, wirtschaftlich attraktive Optionen, die sich nahtlos in bestehende Architekturen einfügen lassen.

Für wen es passt – und wo die Grenzen liegen
Hyper-V ist in vielen IT-Abteilungen bereits vorhanden – oft sogar ungenutzt. Besonders für Unternehmen mit starkem Microsoft-Fokus bietet Hyper-V Vorteile:

  • Kosteneffizient, da es in Windows Server integriert ist
  • Nahtlose Integration in Active Directory, System Center und Azure
  • Bekannte Tools und Prozesse, geringere Schulungskosten

Hyper-V eignet sich besonders für Unternehmen mit homogenen Windows-Workloads und klar strukturierter Serverlandschaft.
Weniger geeignet ist die Plattform jedoch für:

  • Heterogene Umgebungen mit Linux-, Container- oder Open-Source-Komponenten
  • Komplexe Hochverfügbarkeits-Szenarien mit flexiblem Storage
  • Organisationen, die eine plattformunabhängige IT-Strategie verfolgen

Microsoft Hyper-V im Fokus:

Cloud als einfache Alternative – gerade für kleinere Umgebungen

Neben klassischen Virtualisierungsplattformen gewinnen auch Public-Cloud-Angebote zunehmend an Bedeutung – nicht nur für Großunternehmen, sondern gerade für kleinere und mittelgroße Organisationen. Anbieter wie Hetzner oder Microsoft Azure ermöglichen es, schnell und kostengünstig virtuelle Maschinen und komplette Netzwerke aufzusetzen – ohne eigene Infrastruktur, ohne Lizenzkomplexität.

Typische Vorteile:

Geringe Einstiegskosten: Abrechnung nach tatsächlicher Nutzung, keine langfristigen Lizenzverpflichtungen Schnelle Bereitstellung: VMs und Netzwerke in wenigen Minuten verfügbar Hohe Flexibilität: Auswahl an Images, Betriebssystemen und Ressourcen je nach Bedarf skalierbar Volle Netzwerkfreiheit: Eigene Subnetze, Firewalls (z. B. OPNsense als virtuelle Appliance), VPNs und isolierte Umgebungen lassen sich problemlos aufbauen Gerade für Szenarien wie Testumgebungen, kleine produktive Serverlandschaften oder den schrittweisen Umstieg aus der On-Premises-Welt können Cloud-Plattformen wie Hetzner (kostengünstig, EU-Standort) oder Azure (tiefe Microsoft-Integration) attraktive Alternativen sein.

Für wen sich diese Option eignet:

IT-Abteilungen mit begrenzten Ressourcen oder ohne dedizierte Virtualisierungsinfrastruktur Organisationen mit Fokus auf Agilität und Skalierbarkeit Teams, die schnell und unabhängig neue Services bereitstellen möchten – von Webservern bis hin zu Firewalls

Unsere Empfehlung:

Raus aus der Abhängigkeit, rein in eine zukunftssichere Infrastruktur. Der Wandel im VMware-Lizenzmodell ist nicht nur ein kommerzieller Einschnitt – er ist ein Warnsignal. Unternehmen sollten diese Veränderung als Anlass nehmen, ihre Virtualisierungsstrategie neu auszurichten:

  • Kosten und Nutzen systematisch vergleichen
  • Strategische Unabhängigkeit stärken
  • Technologische Flexibilität wiederherstellen
  • Support und Betrieb neu strukturieren

Cloud-Lösungen sollten bei der Neuausrichtung der Virtualisierungsstrategie nicht fehlen. Sie sind kein Ersatz für alle Szenarien – aber ein starker Baustein für mehr Flexibilität, weniger Abhängigkeit und zukunftsfähige IT.

Fazit: Virtualisierung ist keine Selbstverständlichkeit mehr

Jetzt ist der richtige Zeitpunkt für Veränderung. Was lange gesetzt war, muss heute neu gedacht werden. Wer sich frühzeitig mit Alternativen beschäftigt, sichert sich Vorteile: technische Flexibilität, wirtschaftliche Kalkulierbarkeit und mehr Kontrolle über das, was wirklich zählt – die eigene IT.

Jetzt handeln – bevor andere für Sie entscheiden

Die Veränderungen im Virtualisierungsmarkt betreffen nicht nur Ihre Infrastruktur, sondern auch Ihre strategische Handlungsfähigkeit. Wer heute aktiv wird, kann Kosten, Risiken und Abhängigkeiten vermeiden – und seine IT zukunftssicher aufstellen. Lassen Sie uns gemeinsam prüfen, welche Plattform zu Ihren Anforderungen passt. Wir begleiten Sie – von der Analyse bis zur Migration.

Vergleichstabelle: Virtualisierungsalternativen

Plattform Lizenzmodell Integration Stärken Geeignet für
VMware vSphere Subscription-only Proprietär, vCenter-gebunden Marktführer, umfangreiche Funktionen, etabliertes Ökosystem Komplexe Legacy-Umgebungen, VMware-zentrierte IT
Microsoft Hyper-V In Windows Server enthalten Nahtlos in Microsoft-Umgebungen Günstig bei vorhandener Lizenz, AD-Integration Microsoft-Fokus, homogene Windows-Umgebungen
Proxmox VE Open Source Standardbasiert, API-offen Lizenzfrei, intuitive Web-GUI, flexibel Agile Teams, Edge- & Lab-Infrastrukturen
Hetzner Cloud Pay-per-use API-gesteuert, Open-Source-freundlich Sehr kostengünstig, schnelle Bereitstellung, EU-Standort Kleine bis mittlere Umgebungen, Labs, Web- & Dev-Services
Microsoft Azure Pay-per-use / Subscription Tief in Microsoft-Ökosystem integriert Global verfügbar, AD/AAD-Integration, Hybrid-Cloud-fähig Unternehmen mit Microsoft-Fokus und Cloud-Strategie

Unser Beitrag: Beratung, Planung, Migration

KNS unterstützt IT-Abteilungen bei der ganzheitlichen Neuausrichtung:

  • Analyse Ihrer bestehenden VMware-Umgebung
  • Technisch-wirtschaftlicher Vergleich alternativer Plattformen
  • Risikoarme Migrationsplanung
  • Begleitung von Pilotierung, Rollout und Betrieb

Ob hybride Umgebung, HCI-Architektur oder On-Prem-Modernisierung – wir denken Ihre Infrastruktur zukunftsorientiert weiter.

Jetzt unverbindlich beraten lassen.