Quantcast
Channel: Rechenzentrum – manage it
Viewing all 966 articles
Browse latest View live

Drei Optionen Rechenzentren über große Entfernung abzusichern

$
0
0

Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200 km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei einem Abstand von 200 km jedoch nicht mehr möglich: Die Latenz zwischen den Standorten ist einfach zu hoch, um Organisationen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle zu schützen. Was können Unternehmen nun tun, um ihre IT etwa gegen logische Fehler oder Ransomware-Attacken abzusichern, um minimalen Datenverlust und kurze Ausfallzeiten zu garantieren?

 

Der neue Mindestabstand, den das BSI (Bundesamt für Sicherheit in der Informationstechnik) seit Dezember 2018 zwischen sich Georedundanz gebenden Rechenzentren empfiehlt, stellt in vieler Hinsicht eine Zäsur dar. Er stellt die Nutzung synchroner Spiegelung grundsätzlich infrage und hat damit einen direkten Einfluss darauf, wie Rechenzentren hierzulande betrieben werden. Wer eine »kritische Infrastruktur« betreibt, wird vom Gesetzgeber sogar dazu gezwungen der Empfehlung zu folgen. Und wer das Pech hat Teil eines Branchenverbandes zu sein, der den Empfehlungen des BSI folgt, wie etwa Mitglieder der Bankenbranche Bafin, haben ebenfalls keine Wahl. All diese Organisationen müssen auf die Entscheidung reagieren und den Abstand ihrer Rechenzentren auf mindestens 200km bringen.

 

Empfehlung hat direkte Folgen für BC/DR

Die Empfehlung hat weiter reichende Folgen als nur in weiter entfernte Rechenzentren zu investieren. Unternehmen müssen aufgrund der neuen Distanz ihre genutzten Technologien für BC/DR überdenken, die aufgrund der neuen Rahmenbedingungen jetzt nicht mehr funktionieren. Um VMs zukünftig mit minimalem Performanceverlust und geringen RPOs zu schützen, müssen Unternehmen nun nach einer neuen Methode suchen und ihre DR- und Backupstrategien entsprechend anpassen. Ein wichtiger Baustein der bisherigen Strategie funktioniert aufgrund der neuen Distanz nicht mehr: Synchrone Spiegelung.

 

Neuer Standort und neue BC/DR-Strategie?

Im Allgemeinen liegen georedundante Rechenzentren bisher zwischen fünf und 35 Kilometer auseinander. Dies sind keine zufällige Marken. Fünf Kilometer war der bisher empfohlene Mindestabstand und bei circa 35 Kilometer ist die Latenz noch ausreichend gering, um synchron zu spiegeln. Bei größeren Unternehmen liegen die sich gegenseitig absichernden RZ oft sogar am gleichen Standort, nur getrennt durch mindestens einen Brandabschnitt. Kleinere Unternehmen sichern oft in ein RZ eines Partners in unmittelbarer Nähe. So können die Systeme jeden Schreibvorgang replizieren und bestätigen, bevor jede I/O geschrieben wird. Dies ist für schreibintensive Applikationen wie etwa SQL- und SAP-Datenbanken eine Grundvoraussetzung. Über 200 km ist es jedoch nicht mehr möglich, eine entsprechend niedrige Latenz zu erreichen. Damit stehen Unternehmen jetzt vor gleich zwei Problemen. Sie müssen nicht nur in einen neuen Standort investieren, sondern auch gleichzeitig ihre BC/DR-Strategie anpassen. Denn ein weiterer wichtiger Baustein des bisherigen Systems kommt bei weiter Entfernung an ihre Grenzen: Die Snapshot-Technologie.

 

Ab 200 VMs nimmt die Komplexität und der Performance-Overhead von Snapshots exponentiell zu

Die beim Thema BC/DR bisher meist genutzte Snapshot-Technologie ist in vieler Hinsicht ein Problem. Sie verschlingt massiv Speicherplatz, Bandbreite und Verwaltungsaufwand. Darüber hinaus erhöht sie den Performance-Overhead und die Komplexität. In der Praxis werden meist Storage-Snapshots auf LUN-Ebene und Snapshots auf VMDataStore-Ebene kombiniert. Nicht nur die hohe Anzahl der Snapshots ist ein Problem. IT-Manager müssen ständig entscheiden, wann und wo Snapshots erstellt, gelöscht oder konsolidiert werden müssen. Auch die Abhängigkeiten der VMs sind bei der Wiederherstellung mit Snapshots zu beachten. Ab etwa 200 produktiven VMs steigt der Aufwand für dieses Setup exponentiell an. Zieht man die Probleme von Snapshots und die Latenzprobleme bei einer Entfernung von mehr als 200 km in Betracht, kommt man zum Ergebnis, dass eine neue Lösung zwingend benötigt wird. Wenn synchrone Replikation nicht mehr funktioniert, muss zwangsläufig asynchron repliziert werden. Hierfür bieten sich Lösungen an, die journalbasierte Checkpoints setzen. Im Folgenden werden drei Szenarien erklärt, die CDP mit asynchroner Replikation nutzen um BC/DR auch über weite Entfernungen möglich zu machen.

 

CDP mit asynchroner Replikation: drei Optionen um den neuen Abstand einzuhalten

So können Unternehmen ihre Applikationen mit den neuen Voraussetzungen mit minimalem Datenverlust, Ausfallzeiten, Performance Overhead und Bandbreitenutzung effektiv und effizient schützen. Bei allen drei Optionen kann der zweite Standort mehr als 200 Kilometer entfernt liegen. Da synchrone Spiegelung aufgrund dieser Distanz keine Option ist, kommt nur asynchrone Replikation in Frage. Eine einfache Migration des bestehenden Setups ist deshalb unmöglich.

 

  1. Umstieg auf asynchrone Replikation und Auseinanderziehen des synchronen Spiegels auf über 200 Kilometer

Unternehmen können ihr bestehendes HA-System auf die gewünschte Entfernung ziehen und auf asynchrone Replikation umstellen. Eine Herausforderung dieser Möglichkeit ist die Vermeidung des Risikos bei der Migration. Dauert diese etwa 10 Tage, so wären die Unternehmensdaten 10 Tage nicht abgesichert. Für wichtige Applikationen natürlich ein nicht akzeptables Risiko.

 

  1. Aufbrechen des synchronen Spiegels und Migration an einen neuen Standort mit Umstieg auf asynchrone Replikation und CDP

Der Umstieg auf asynchrone Replikation mittels einer Replikationssoftware ist relativ einfach. Für die Migration an den neuen Standort repliziert die Lösung die Umgebung vorübergehend in die Cloud. Der Cluster kann anschließend aufgebrochen werden. Nach der Installation der neuen Hardware am neuen Standort wird per 1-to-many-Replikation an den zweiten Standpunkt repliziert. Ergebnis ist ein Cluster über zwei weit entfernte RZs mit CDP und asynchroner Replikation, aufbauend auf Journaling. Ein solches Setup bietet RPOs von wenigen Sekunden, bietet die Möglichkeit die Wiederherstellung zu orchestrieren und benötigt darüber hinaus deutlich weniger Speicherbedarf als Snapshots.

 

  1. Migration in die Cloud und komplette Auflösung des DR-Rechenzentrums und Umstieg auf asynchrone Replikation und CDP

Die neuen Rahmenbedingungen bieten tatsächlich eine passende Gelegenheit ein DR-Rechenzentrum sogar komplett aufzulösen. Anstatt in einen neuen Standort zu investieren, kann man einfach direkt die Cloud als DR-Ziel wählen. Dies ist tatsächlich auch relativ einfach: Es muss prinzipiell nur eine entsprechende Replikationssoftware installiert und ein passender Cloudanbieter ausgewählt werden. Die Software repliziert fortan in die Cloud und bietet Disaster Recovery und Backup von dort aus. Das DR-Rechenzentrum wird einfach abgeschaltet.

 

Um über weite Entfernung, wie sie etwa das BSI jetzt empfiehlt, Redundanz zu gewährleisten, bleibt als technologische Lösung eigentlich nur noch Continuous Data Protection mit Journaling und asynchroner Replikation übrig. Die Technologie löst die Probleme mit möglichem Datenverlust, Latenz, der Größe von Snapshots, Bandbreite und den Performance-Overhead. Die asynchrone Replikation bietet RPOs in Sekunden, ist deutlich günstiger, weniger verwaltungsaufwändig und schützt auch vor logischen Fehlern.

 

Fazit

Unternehmen, die nach Möglichkeiten suchen, ihr Rechenzentrum auch über einen Abstand von mehr als 200 Kilometer abzusichern, können dies mit asynchroner Replikation und CDP mit Journaling erreichen. Dabei steht ihnen die Wahl offen, weiterhin ein zweites physisches Rechenzentrum zu betreiben oder das zweite Rechenzentrum einfach abzuschalten und in die Cloud zu replizieren. Im Vergleich zur Replikation mit Snapshots hat die asynchrone Replikation mit CDP und Journaling zahlreiche Vorteile. Außerdem werden minimale Investitionen in weitere Hardware, wie etwa Proxy Server, Netzwerk oder dedizierte Hosts benötigt. Die Replikation auf Basis von Journaling erfordert darüber hinaus eine minimale Nutzung von Bandbreite und bietet gegen Datenverlust RPOs von nur wenigen Sekunden, anstatt von Stunden. Unternehmen, die sich mit den Folgen der BSI-Empfehlung befassen und planen ihr georedundantes Rechenzentrum an einen neuen Standort zu migrieren, sollten sich im Detail mit den möglichen Alternativen befassen.

Johan van den Boogaart, Zerto

 

BSI hebt Empfehlung für georedundante RZ-Entfernung von 5 auf 200 Kilometer an

Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI »Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren« genau dokumentiert [1].   Was die Entfernung von einander Georedundanz gebender…

Crashtest für die IT-Sicherheit

Warum Zulieferer für die Automobilbranche ihre Business-Continuity- und Disaster-Recovery-Lösungen aufrüsten müssen, um ein höheres Maß an IT-Resilience zu erreichen.   Im Jahr 2016 stoppten zwei Automobilzulieferer die Belieferung ihres Kunden Volkswagen. Dies führte bei Volkswagen zu erheblichen Verzögerungen in der Produktion und führte zu Verlusten von schätzungsweise 100 Millionen Euro. Diese damals sehr öffentliche Konfrontation…

Wie ernst nehmen kleine und mittlere Unternehmen den Schutz ihrer Daten?

Wie sind kleine und mittlere Unternehmen beim Schutz ihrer Daten aufgestellt? In einer Studie [1] wurden 251 IT-Entscheider in US-Unternehmen mit maximal 250 Beschäftigten befragt. Die Ergebnisse zeigen einen deutlichen Bruch zwischen der Sorge, Daten zu verlieren und den Möglichkeiten, diese im Notfall wiederherzustellen. Die Gefahr des Datenverlustes machte den befragten Unternehmen durchaus Kopfzerbrechen. 47…

501 Artikel zu „Backup RZ“

IT-Trends 2020: Daten-DNA, Datenschutz, Mikrorechenzentren, Backup-Strategien und Container

Fünf Trends drücken dem kommenden Jahr 2020 aus IT-Sicht einen Stempel auf. Sascha Oehl, Director Technical Sales bei Veritas Technologies, erläutert, inwiefern sich IT-Entscheider verstärkt mit maschinellem Lernen und künstlicher Intelligenz, der Daten-DNA sowie Edge-Computing und Containern auseinandersetzen müssen.   Automatismen für die Daten-DNA Es ist fast schon so universell gültig wie ein physikalisches Gesetz…

VMware erreicht vorzeitig CO2-Neutralität und RE100-Ziele

Als Teil der internationalen Initiative RE100 versorgt sich VMware zu 100 Prozent aus erneuerbaren Energien. VMware-Kunden sparen 664 Millionen Tonnen Kohlendioxid ein.  Drei Viertel der Mitarbeiter in Europa, dem Mittleren Osten und Afrika unterstützen gemeinnützige Organisationen über die VMware Foundation.   Bei VMware wird Nachhaltigkeit großgeschrieben. Wo viele Unternehmen gerade erst anfangen umzudenken, kann VMware…

RPO, RTO und Backup verstehen – Kennzahlen und Kriterien von Datensicherung

Da Unternehmen vermehrt auf geschäftskritische IT-Dienste angewiesen sind, sind Infrastruktur und Anwendungen nach Meinung von Rubrik zu wichtigen strategischen Imperativen geworden. Der junge Anbieter von Cloud Data Management fordert mehr Aufklärung.   »Ausfallzeiten und Datenverluste können enorme geschäftliche und finanzielle Auswirkungen haben, die mit einer effektiven Datensicherungsstrategie zwingend minimiert werden müssen«, erklärt Roland Stritt, Director…

Europäische Unternehmen ignorieren beim Daten-Backup die Cloud

Daten, Daten, Daten! Nur wohin damit, wenn es um deren Schutz geht? Die Cloud scheint bei europäischen Unternehmen kein adäquate Backup-Lösung zu sein. Sie vertrauen in der Mehrheit immer noch ganz traditionell auf Plattformanbieter wie Microsoft, um ihre Daten zu schützen. So offenbart es eine aktuelle Studie von Barracuda Networks, die die Antworten von 432…

Enge Integration mit geschäftskritischen Anwendungen: Veeam erhält Backup-Zertifizierung für SAP HANA

Neue Veeam Availability Suite 9.5 Update 4 bietet zertifiziertes Plug-In für SAP HANA. Integration mit SAP HANA verbessert Backup und Disaster Recovery. Vollständige Backup-Kontrolle für SAP-Administratoren.   Veeam Software, Anbieter von Backup-Lösungen für intelligentes Datenmanagement, hat jetzt für das neue Veeam Plug-In für SAP HANA die offizielle Zertifizierung »SAP Certified Integration for SAP HANA« erhalten.…

BSI hebt Empfehlung für georedundante RZ-Entfernung von 5 auf 200 Kilometer an

Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI »Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren« genau dokumentiert [1].   Was die Entfernung von einander Georedundanz gebender…

Ein Backup für Insektengitter

Es ist die Natur des Menschen, sich vor Ungemach zu schützen und so konstruiert, baut und vertreibt die Spengler und Meyer GmbH, besser bekannt unter »Die Muggergittermacher«, als eines der erfolgreichsten Unternehmen seiner Branche, Insektenschutzgitter für private Haushalte und Geschäftsgebäude. Seit fast 30 Jahren schützt das Unternehmen dadurch Menschen vor lästigen Fliegen oder Insektenstichen bei…

Geschäftskritische Downtime durch moderne Backups minimieren – Schnell zurück zum Tagesgeschäft

Unternehmen generieren mehr Daten als je zuvor: Laut IDC soll bis zum Jahr 2020 eine Datenmenge von 40 Zettabytes entstehen. Neben dem Volumen nimmt auch die Bedeutung der Daten zu. Die intelligente Nutzung von Daten hat sich als unerlässlich für die Wettbewerbsfähigkeit, den Umsatz und das Tagesgeschäft von Unternehmen auf der ganzen Welt erwiesen.  …

BaaS im Aufwind – Steigende Akzeptanz der Cloud verändert Backup-Anforderungen

Die zunehmende Akzeptanz der Cloud seitens der Unternehmen verändert die Rolle der Rechenzentren: Sie wandeln sich zu betriebskostenorientierten Einrichtungen, die für As-a-Service-Modelle optimiert sind. Das hat nach Angaben von Rubrik »auch spürbare Folgen für den Bedarf und die Realisierung von Backup-Lösungen, die vermehrt im »As-a-Service«-Modell genutzt werden.   »Für viele Unternehmen ist Backup-as-a-Service (BaaS) zu…

Backup: Von lästiger Pflicht zur nützliche Ressource

Cloud Data Management macht aus dem einst ungeliebten Daten-Backup eine wertvolle Ressource für Unternehmen. Backup- und Recovery-Lösungen hatten lange Zeit keinen guten Ruf. Der Markt stagnierte, war geprägt von den immergleichen Anbietern, welche die immer gleichen Lösungen verkauften: Lösungen, die die Benutzer einschränkten. Die Verwaltung und Sicherung von Geschäftsdaten und persönlichen Daten war eine langwierige…


Rechenzentrums-Trends 2020: Hybrid-Computing wird Mainstream

$
0
0

Bereitstellungsgeschwindigkeit wird zu einem immer wichtigeren Alleinstellungsmerkmal.

Während in den vergangenen Jahren vor allem innerhalb der Unternehmensführungen ausgiebig darüber diskutiert wurde, ob nun Cloud oder »On Premises« die bessere Wahl ist, haben sich mittlerweile hybride Architekturen durchgesetzt, die Public- und Private-Cloud-Modelle mit Edge-Infrastrukturen rund um neu gestaltete zentrale Rechenzentren vereinen. Diese im Wandel befindliche Herangehensweise an das Management von Daten und Computing-Ressourcen ist einer der fünf wichtigsten Rechenzentrums-Trends 2020, die Experteneines Anbieters für IT-Infrastruktur- und Continuity-Lösungen, identifiziert haben.

Die Entwicklung hin zu Hybrid-Architekturen erlaubt es Unternehmen, die Kontrolle über sensible Daten zu behalten und gleichzeitig die rapide wachsenden Anforderungen an Kapazität und Rechenleistung auf Kundenseite zu erfüllen. Nachdem Konnektivität und Verfügbarkeit gemeinsame Konzepte in diesem neuen Daten-Ökosystem werden, wird in Zukunft der Fokus verstärkt auf die nahtlose Kommunikation zwischen On-Premises-Ressourcen, der Cloud und dem Netzwerkrand – dem »Edge« – gelegt werden.

Rob Johnson, CEO von Vertiv, erklärt: »In der Rechenzentrumsbranche stellt sich aktuell ein neues Gleichgewicht ein. Der Markt kämpft mit Herausforderungen hinsichtlich Kapazität und fortschrittlichen Anwendungen, die maßgebliche Veränderungen in Rechenzentren aller Größe und Form erfordern. Gleichzeitig wird die Bereitstellungsgeschwindigkeit immer wichtiger für Technologieentscheidungen und wird auch über 2020 hinaus Investitionen und Innovationen in diesem Bereich bestimmen. Das wird sich auf viele verschiedene Arten zeigen, aber die Botschaft an Rechenzentrumsausrüster ist klar: Der Status Quo ist nicht akzeptabel.«

 

Im Nachfolgenden die Trends, die Vertiv für das neue Jahr identifiziert hat:

 

  1. Hybride Architekturen werden Mainstream:
    Während Cloud-Computing auch weiterhin ein wichtiger Bestandteil in den IT-Strategien der meisten Unternehmen sein wird, sehen wir einen Wandel der Strategie dahingehend, dass Unternehmen ihren IT-Mix und ihre Ausgaben auf die Anforderungen ihrer Anwendungen anpassen. Dies führt zu einem »Mehr« an hybriden Architekturen und zeigt klar, dass das hauseigene Rechenzentrum nach wie vor sehr wichtig ist – auch wenn sich seine Rolle ändert und einen Mix reflektiert, der modernen Unternehmen das Beste zweier Welten bietet.

 

  1. Bereitstellungsgeschwindigkeit ist das neue Wettrüsten:
    Die Leistung von Technologien und Systemen pendelt sich langsam auf einem hohen Level ein, große Veränderungen sind hier nicht mehr zu erwarten. Das bedeutet, dass die IT- und Rechenzentrumsentscheider verstärkt andere Kriterien ansetzen bei der Auswahl des Equipments. Der Kostenfaktor ist dabei nach wie vor ein wichtiges Kriterium, aber mehr und mehr wird die Entscheidung davon abhängen, wie hoch die Bereitstellungsgeschwindigkeit tatsächlich ist. Wenn alle anderen Faktoren eng beieinander liegen, kann jeglicher Geschwindigkeitsvorteil bei der Bereitstellung und Aktivierung von IT-Ressourcen entscheidend sein. Das gilt besonders dann, wenn die Rechenleistung in den verteilten Netzwerken von heute immer stärker Richtung Edge wandert, wo Verzögerungen bei der Bereitstellung gleichzusetzen sind mit dem Ausfall einer Anwendung – und damit fehlendem Umsatz.

 

  1. Die durchschnittliche Rack-Dichte bleibt gleich, aber…:
    Auch wenn sich die durchschnittliche Rack-Dichte vermutlich nur minimal verändern wird – zunehmend anspruchsvollere Anwendungen und immer mehr Workloads mit Bezug zu künstlicher Intelligenz (KI) wie beispielsweise Machine Learning oder Deep Learning erfordern immer mehr High-Performance-Computing-Komponenten. Experten von Vertiv erwarten, dass hier gerade zu Beginn des Jahres vor allem in den Bereichen Verteidigung, Advanced Analytics sowie Fertigung aufgerüstet wird, was den Grundstein legt für eine breitere Implementierung von HPC-Racks im Jahr 2021 und darüber hinaus. Diese Racks machen aktuell nur einen Bruchteil aller Racks aus, aber sie können nichts desto trotz außergewöhnliche Herausforderungen bei Kühlung und Stromversorgung mit sich bringen. So ist beispielsweise die wachsende Nachfrage nach direkten Flüssigkühlsystemen eine Konsequenz dieser Anforderungen.

 

  1. Batterien machen sich bezahlt:
    Bereits 2016 sagten Vertiv-Experten voraus, dass Lithium-Ionen-Batterien ihren Platz in Rechenzentren finden würden. Dies hat sich mittlerweile bewahrheitet und LI-Batterien haben einen signifikanten Anteil am Markt der unterbrechungsfreien Stromversorgungen. Dieser Marktanteil wächst immer weiter und wird sich auch auf den Edge-Einsatz ausdehnen, wo vor allem die geringere Größe und der geringere Wartungsbedarf zum Tragen kommen. Im nächsten Schritt geht es nun darum, dass die Flexibilität der LI- und anderer kommender Batteriealternativen wie beispielsweise TPPL (Thin plate pure lead – übersetzt: Dünnplatten-Reinblei) ihre im Vergleich höheren Kosten ausgleicht. 2020 wird das Jahr sein, in dem immer mehr Unternehmen gespeicherten Strom zurück an die Stromanbieter verkaufen und so zur Stabilisierung der Netze und dem Ausgleich von Spitzenlasten beitragen werden. Das wird ein wichtiger Bestandteil weitreichender Diskussionen rund um die Nachhaltigkeit in der Rechenzentrumsbranche sein.

 

  1. Globale Wechselbeziehungen:
    Die USA – vor allem das Silicon Valley – waren lange das Epizentrum der digitalen Welt und der aktuellen Generation der Rechenzentrumsentwicklungen. Aber Innovation geschieht überall. So entsteht gerade ein paralleles digitales Ökosystem mit entscheidenden Unterschieden in China. Rechenzentren in ganz Europa und in anderen asiatischen und südpazifischen Märkten wie zum Beispiel Australien, Neu-Seeland oder Singapur entwickeln sich weiter und rücken aufgrund von regionalen Gegebenheiten von traditionellen Praktiken ab – vor allem wegen der Herausforderungen bei Datenschutz und Nachhaltigkeit. So sorgt beispielsweise die EU-Datenschutzgrundverordnung weltweit dafür, dass überall schwierige Entscheidungen zur Datenhaltung getroffen werden müssen. Solche und ähnliche Herausforderungen sind der Grund dafür, warum die Bedeutung von Hybrid-Architekturen und On-Premises-Computing beziehungsweise -Datenspeicherung überdacht wird.
    Oder ein anderes Beispiel, wie man global voneinander lernt: In China haben einige Rechenzentren ihre entsprechend angepassten Server mit 240 Volt DC-Strom laufen lassen, um die Effizienz zu erhöhen und die Kosten zu senken. (In China und vielen anderen Ländern gibt es keine 230 Volt DC-Stromversorgung wie in Deutschland.) Für Rechenzentren in den USA ist eine 240 Volt DC-Stromversorgung seit langem ein theoretisches Ziel und es ist nur logisch, dass in anderen Teilen der Welt das neue Modell, das China hier heute fährt, übernommen wird.

 

»Während noch bis vor kurzem die Cloud der Trend für das Datenmanagement war, sehen wir mittlerweile eine Entwicklung hin zu einem hybriden Aufbau mit On-Premises- und Cloud-Anteilen gleichermaßen«, so Reinhard Purzer, Vice President & Managing Director DACH, Vertiv. »So sind Unternehmen flexibler und können den gestiegenen gesetzlichen Anforderungen von Datenschutzseite auf der einen und der immer notwendigeren Flexibilität und Skalierbarkeit auf der anderen Seite Rechnung tragen – und sind perfekt gerüstet für die Zukunft.«

 

825 Artikel zu „Trends Rechenzentrum“

Rechenzentrum-Trends für 2020: Was gehört auf die Trendliste für 2020?

Wachsende Datenmengen, eine sichere europäische Cloud (Datensouveranität), eine schnelle Modernisierung von Rechenzentren sowie der steigende Energieverbrauch sind aus Sicht von Rittal die IT-/Datacenter-Trends im Jahr 2020. Etwa die Verwendung von OCP-Technologie (Open Compute Project) und Wärmerückgewinnung bieten Lösungen für die aktuellen Herausforderungen.   Im Jahr 2025 könnten Menschen und Maschinen bereits 175 Zettabyte an Daten…

Data Center Trends 2019: Wie Unternehmen ihr Rechenzentrum fit für die Zukunft machen

Was sind aktuell die wichtigsten Herausforderungen und Erfolgsfaktoren bei der Data Center-Modernisierung? Das wollten die Marktanalysten von IDC herausfinden und haben dazu IT- und Fachentscheider aus 210 deutschen Unternehmen befragt. Höhere Produktivität, Konsolidierung von Ressourcen, verbesserte Sicherheit und Compliance – das sind für Unternehmen heute die wichtigsten Gründe, um in neue Data Center-Infrastrukturen zu investieren.…

Künstliche Intelligenz, Green IT & Hyperautomation: die wichtigsten IT-Trends für 2020

Automatisierung hilft Druckereien, profitable Businessmodelle zur Unterstützung von Kunden aus Werbung und Marketing zu entwickeln. Produktionsanlagen warten, Verkehr in Smart Cities steuern oder Bilder digital erkennen: Künstliche Intelligenz wird in vielen Bereichen eingesetzt und ist daher das zentrale IT-Thema 2020. Hundertfach kürzere Latenzzeiten durch 5G und Hyperautomatisierung werden KI weiter vorantreiben und das tägliche Leben…

Service-Management-Trends 2020: Von klügeren Bots und dem IT-Concierge

Vier Themen, die die Arbeit von ITSM-Organisationen bestimmen werden. Laut Marktanalyst Gartner verantworten CIOs bis 2023 mehr als das Dreifache der Endgeräte als noch 2018. Ohne technologische Unterstützung können sie diese Aufgabe auf Dauer kaum bewältigen. Schon heute sind die IT-Teams gefordert, immer mehr Anwendungen zu unterstützen, zunehmend strategische Beiträge zu leisten und die Kundenzufriedenheit…

Fünf Trends, die 2020 für den Sicherheitssektor von Bedeutung sind

Besonders zu Beginn eines Jahres schweift der Blick gerne in die Zukunft, um Themen, Entwicklungen und Tendenzen zu prognostizieren. Dezentrale Datenverarbeitung in der KI und Cybersecurity sind laut Axis Communications zwei der wichtigsten Themen, die für die Netzwerk-Video-Branche 2020 von Bedeutung sind.   Trend 1: Dezentrale Datenverarbeitung Seit einiger Zeit ist eine wachsende Dynamik in…

5 Technologie-Trends für 2020: Das neue Jahrzehnt wird vernetzter, intelligenter und interaktiver

Wir blicken auf ein Jahrzehnt voller Veränderungen zurück, das bestimmt war durch Innovationen in Sachen Künstlicher Intelligenz (KI), Digitalisierung und Machine Learning. Welche Herausforderungen erwarten Unternehmen im neuen Jahrzehnt? Welche technologischen Entwicklungen bringt uns 2020? Joe Petro, Executive Vice President & Chief Technology Officer von Nuance erklärt fünf Trends für Unternehmen im Bereich Technologie und…

Sechs Trends 2020: Alle Zeichen stehen auf Desktop-as-a-Service

IGEL CTO Matthias Haas wagt einen Blick in die Glaskugel und teilt seine Einschätzung der wichtigsten IT-Trends im Jahr 2020:   »Unser Leben und Arbeiten wird im 21. Jahrhundert maßgeblich von der Digitalisierung bestimmt. Dabei handelt es sich nicht um einen Trend, sondern vielmehr um eine unumkehrbare Umwälzung aller Lebens- und Arbeitsbereiche. Mehr denn je…

IT-Trends 2020: Daten-DNA, Datenschutz, Mikrorechenzentren, Backup-Strategien und Container

Fünf Trends drücken dem kommenden Jahr 2020 aus IT-Sicht einen Stempel auf. Sascha Oehl, Director Technical Sales bei Veritas Technologies, erläutert, inwiefern sich IT-Entscheider verstärkt mit maschinellem Lernen und künstlicher Intelligenz, der Daten-DNA sowie Edge-Computing und Containern auseinandersetzen müssen.   Automatismen für die Daten-DNA Es ist fast schon so universell gültig wie ein physikalisches Gesetz…

Digitaltrends für 2020

2020 steht vor der Tür und gibt einen willkommenen Orientierungspunkt dafür, welche Trends und Entwicklungen das kommende Jahr entscheidend mitbestimmen werden. Technologien wie künstliche Intelligenz und die Cloud entwickeln sich rasant weiter und werden auch in 2020 zu den dominierenden Themen der Digitalisierung gehören. Doch die Hürden auf dem Weg zur erfolgreichen Implementierung werden dank…

Das sind die Technologie-Trends 2020

Neue Technologien erfordern ein »Internet for the Future«. Apps statt Marken: Kundenloyalität im Wandel. Cybersecurity: Zero Trust und Threat Hunting.   Der Fachkräftemangel verschärft sich weiter, »Intent-based«-Netzwerke verbreiten sich, ein neues Internet am Horizont: Mit dem Ende der »Zehnerjahre« stehen spannende Entwicklungen in der IT an.   Was war das für ein Jahrzehnt: Der weltweite…

Fünf Trends schrauben die Anforderungen an das Krisenmanagement weiter nach oben

Welche Entwicklungen werden im Jahr 2020 die Krisen- und Notfallmanager von Unternehmen vor neue Herausforderungen stellen?  Die Anforderungen an das Krisenmanagement von Unternehmen sind bereits von jeher hoch. Da die Grenzen zwischen der virtuellen und physischen Welt zunehmend verschwimmen, sind Unternehmen wie auch Behörden zusätzlich gefordert. Sie müssen die richtigen Werkzeuge einsetzen und proaktiv planen,…

Schweizer Allianz will Rechenzentren dekarbonisieren

$
0
0

Swiss Data Center Efficiency Label für effiziente Rechenzentren

  • WEF-Jahrestreffen: Hewlett Packard Enterprise (HPE) lanciert mit Vertretern aus Industrie und Wissenschaft ein neuartiges Label für effiziente Rechenzentren. Ziel ist die Dekarbonisierung und die Senkung des Stromverbrauchs von Rechenzentren.
  • Die vom Bundesamt für Energie im Rahmen des Programms SwissEnergy geförderte Allianz strebt die schweizweite und internationale Einführung an.

 

 

Eine Gruppe von Vertretern aus Wissenschaft und Industrie stellte am Jahrestreffen des Weltwirtschaftsforums das »Swiss Data Center Efficiency Label« vor mit dem Ziel, die Schweizer Rechenzentren zu dekarbonisieren und deren Gesamtstromverbrauch signifikant zu senken. Die vom Industrieverband digitalswitzerland und Hewlett Packard Enterprise (HPE) initiierte Allianz hat den Verband Swiss Datacenter Efficiency Association (SDEA) gegründet, der für die Vergabe des Labels und die vorangehenden Prüfungen zuständig ist. Gründungsmitglieder des SDEA sind die Eidgenössische Technische Hochschule Lausanne (EPFL), Green IT Switzerland, HPE, die Hochschule Luzern (HSLU), die Swiss Data Center Association (Vigiswiss) und der Schweizerische Verband der Telekommunikation (ASUT). Das Bundesamt für Energie fördert die Initiative im Rahmen des Programms SwissEnergy.

Schweizer Modell soll weltweit adaptiert werden

Zehn Pilotanwender, darunter weltweit renommierte Marken, haben neue Technologien und Verfahren zur Steigerung ihrer Energieeffizienz eingeführt, um die Kriterien des neuen Labels erfüllen zu können. Dabei wurden bis zu 70 Prozent Strom eingespart, und fünf der Anwender beziehen bereits vollständig CO2-neutral erzeugten Strom. Der Kanton Genf plant, wesentliche Anforderungen des Labels in die nächste Fassung seines Energieeffizienz-Gesetzes aufzunehmen, um sie zu Voraussetzungen für den Neubau von Rechenzentren zu machen. Das Ziel ist nicht nur die schweizweite Einführung: Das Label soll auch der Europäischen Kommission und den Vereinten Nationen vorgestellt werden, damit das Schweizer Modell schließlich weltweit adaptiert wird.

»CO2-neutrale Stromquellen und energieeffiziente digitale Technologien sind bereits verfügbar; für ihre umfassende Einführung braucht es aber geeignete Methodiken, das Engagement der Industrie und die politische Umsetzung«, sagt Benoit Revaz vom Bundesamt für Energie. »Wir begrüßen Projekte wie das Swiss Data Center Efficiency Label, die dazu beitragen können, die negativen Auswirkungen einer der digitalen Grundpfeiler unserer Gesellschaft zu verringern. Wir ermuntern und unterstützen Unternehmen und andere Nationen weltweit dabei, ähnliche Initiativen umzusetzen.«

Ganzheitlicher Ansatz

Rechenzentren machen heute ein Prozent des weltweiten Gesamtstromverbrauchs aus [1]. An beliebten Hosting-Standorten wie der Schweiz ist der Anteil jedoch wesentlich höher: Im Jahr 2015 entfielen geschätzte 2,8 Prozent des gesamtschweizerischen Stromverbrauchs auf Rechenzentren [2]. Angesichts der exponentiellen Zunahme der Datenvolumen und des Datenverkehrs in den nächsten Jahren [3] braucht es neue Verfahren für die Messung und das Management der Effizienz von Rechenzentren, damit die CO2-Emissionen und der Stromverbrauch signifikant sinken können.

»Die heutigen Methodiken betrachten isolierte Aspekte der Nachhaltigkeit und der Effizienz von Rechenzentren. Sie erfassen nicht den gesamten Fußabdruck bezüglich CO2-Emissionen und Stromverbrauch«, sagt Christopher Wellise, Chief Sustainability Officer bei HPE. »Das Swiss Data Center Efficiency Label verfolgt dagegen einen ganzheitlichen Ansatz, indem es alle Aspekte des Stromverbrauchs und der Stromversorgung sowie die Weiterverwertung der Energie berücksichtigt. Es ermöglicht damit Betreibern von Rechenzentren, Industrieverbänden und Regierungen, die tatsächliche Auswirkung der digitalen Infrastrukturen auf das Klima zu messen und zu kontrollieren.«

Herausragende Energieeffizienz und Umweltverträglichkeit

Mit dem Swiss Data Center Efficiency Label werden Rechenzentren und deren IT-Infrastrukturen für herausragende Energieeffizienz und Umweltverträglichkeit ausgezeichnet. Dabei werden drei Hauptkriterien berücksichtigt. Die Vergabekriterien für die Infrastruktur der Rechenzentren beziehen sich auf die gesamten Energieströme, sowohl Aufnahme als auch Abgabe. Dabei wird auch berücksichtigt, ob und wie die Energieabgabe weiter genutzt wird (etwa die Abwärme zur Beheizung anderer Gebäude). Die Vergabekriterien für die IT-Infrastruktur beziehen sich auf die Energieeffizienz der eingesetzten IT-Technologien und ihre Auslastung. Je nachdem, welche Effizienzkriterien sie in welcher Weise erfüllen, können die Rechenzentren mit einem Label in Gold, Silber oder Bronze ausgezeichnet werden. Werden zudem noch die Umweltverträglichkeitskriterien im Zusammenhang mit dem CO2-Fußabdruck erfüllt, erhält das jeweilige Label ein »Plus«-Zeichen.

Dezentrale »Edge«-ICT-Infrastrukturen

Die Vergabekriterien sollen kontinuierlich an die sich schnell wandelnden Informations- und Kommunikationstechnologien und die hohe Innovationsrate der ICT-Branche angepasst werden. Besonderes Augenmerk liegt dabei auf der außerhalb von Rechenzentren rasant wachsenden ICT-Infrastruktur. Diese wird benötigt, um dezentral – in Produktionsstätten, Fahrzeugen oder öffentlichen Einrichtungen – anfallende, riesige Datenmengen in Echtzeit zu verarbeiten. Nach Gartner wurden 2018 rund 10 Prozent der von Unternehmen generierten Daten außerhalb der herkömmlichen (zentralen) Rechenzentren oder der Cloud produziert und verarbeitet. Laut Gartner wird dieser Anteil bis 2025 auf 75 Prozent ansteigen [4]. Daher soll das Swiss Data Center Efficiency Label in Zukunft auch solche dezentralen »Edge«-ICT-Infrastrukturen berücksichtigen, damit der Strom- und der CO2-Fußabdruck der digitalen Infrastrukturen ganzheitlich eingeschätzt und kontrolliert werden kann.

Paradigmenwechsel in der IT-Technologie

»Wir erleben gerade einen Paradigmenwechsel in der IT-Technologie. Die herkömmliche Siliziumtechnik, die sich in den vergangenen 50 Jahren durch eine Verdopplung der Chip-Packungsdichte alle zwei Jahre auszeichnete, stößt an ihre physikalischen Grenzen«, sagt Babak Falsafi, Professor an der Fakultät für Computer und Kommunikationswissenschaften der EPFL und Gründungsdirektor von EcoCloud, einer Fachgruppe aus Industrievertretern und Wissenschaftlern der EPFL. »Folglich kann die IT-Leistung künftig nur durch den Ausbau der Infrastruktur nachhaltig wachsen, einschließlich dezentraler Rechenzentren nahe an den Datenquellen am Edge. Das neue Label kommt daher genau zur rechten Zeit, um die Betreiber bei der Errichtung nachhaltiger IT-Strukturen zu unterstützen.«

 

[1] Koronen, C., Åhman, M. & Nilsson, L.J. Energy Efficiency (2019)
[2] Schweizerischer Bundesrat, DETEC, Bundesamt für Energie, Rechenzentren: Energieeinsparungen sind möglich (2015)
[3] Auf 33 Zettabytes im Jahr 2018 geschätzt; laut IDC-Bericht soll das weltweite Datenvolumen bis 2025 auf 175 Zettabytes anwachsen; siehe IDC Whitepaper: ‹The Digitization of the World From Edge to Core› gesponsert von Seagate (2018)
[4] Gartner, What Edge Computing Means for Infrastructure and Operations Leaders (2018)

 

1226 Artikel zu „Energie RZ“

Aus Abwärme Strom erzeugen – Potenziale der Energierückführung für die Industrie

In den Produktionsprozessen industrieller Unternehmen entsteht eine Menge Abwärme. Wie die Industrie diese ungenutzte Energie in Strom umwandeln kann, zeigt der neue Film des VDI Zentrum Ressourceneffizienz (VDI ZRE) anhand von zwei Unternehmensbeispielen aus der Metallverarbeitung und der Baustoffindustrie. © VDI ZRE 200 Millionen Megawattstunden Wärmeenergie – also etwa der gesamte Energieverbrauch des Bundeslands Hessen…

5 Technologie-Trends für 2020: Das neue Jahrzehnt wird vernetzter, intelligenter und interaktiver

Wir blicken auf ein Jahrzehnt voller Veränderungen zurück, das bestimmt war durch Innovationen in Sachen Künstlicher Intelligenz (KI), Digitalisierung und Machine Learning. Welche Herausforderungen erwarten Unternehmen im neuen Jahrzehnt? Welche technologischen Entwicklungen bringt uns 2020? Joe Petro, Executive Vice President & Chief Technology Officer von Nuance erklärt fünf Trends für Unternehmen im Bereich Technologie und…

Energiewende: vernetzte Produktion und Speicherung von Energie

Der Anteil der erneuerbaren Energien an der Stromproduktion erreicht mittlerweile fast 50 Prozent – mit dem großen Nachteil, dass sie sich dem wechselnden Strombedarf am Tage kaum anpassen können. Sie liefern nur dann elektrische Energie, wenn der Wind weht oder die Sonne scheint. Ideal wäre es, erzeugte erneuerbare Energie in großem Maße speichern und die…

Intelligentes Energiemanagementsystem für regenerative Energie

Energiedrehscheibe für Amsterdamer Hausbootsiedlung. Die erzeugte Energiemenge regenerativer Energiequellen schwankt. Ein neuartiges Energiemanagementsystem des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik ITWM ermöglicht es, Photovoltaikanlagen, Batteriespeichersysteme, Wärmepumpen und Elektroautos intelligent zu koppeln – und einzelne Haushalte oder ganze »Energiequartiere« trotz der Schwankungen weitestgehend mit eigener regenerativer Energie zu versorgen. © Isabel Nabuurs Die Wassersiedlung im Norden von…

Energiewende: Deutschlands Anteil am weltweiten Ökostrom-Verbrauch

Bei der Produktion sauberen Stroms ist Deutschland aktuell auf einem guten Weg. Der Anteil der erneuerbaren Energien an der Stromerzeugung und am Stromverbrauch nimmt hierzulande von Jahr zu Jahr zu. Im weltweiten Ländervergleich steht Deutschland damit – noch – gut da: wie die Infografik von Statista zeigt, verbrauchte die Bundesrepublik im Jahr 2017 9,2 Prozent…

Freiwillig oder unfreiwillig: Gründe für einen Energieversorgerwechsel gibt es viele

  In vielen Fällen bildet der Preis die ausschlaggebende Komponente für den Wechsel des Energieanbieters. Es kann jedoch andere Gründe für eine Umstellung geben: zum Beispiel, wenn der Versorger den Vertrag von sich aus kündigt. Das passiert entweder, wenn er den vor einigen Jahren garantierten Preis nicht mehr halten kann, oder, wenn er Insolvenz anmelden…

Erneuerbare Energien: Strommix zu 47 % regenerativ

47 Prozent des in Deutschland erzeugten Stroms kommen laut Fraunhofer-Institut für Solare Energiesysteme im laufenden Jahr aus erneuerbaren Quellen. Bis einschließlich Mitte Juli produzierten Wind- und Solaranlagen hierzulande fast 100 Terawattstunden (TWh) Strom. Zum Vergleich: Bei Braun- und Steinkohle waren es 84 TWh. Laut einem Bericht des Handelsblattes ist der Anteil der von Kohlekraftwerken an…

Erneuerbare Energien: Wie grün ist Europas Energie?

Es ist ein Vorhaben für den Klimaschutz: Bis 2020 will die europäische Union (EU) 20 Prozent des Bruttoendenergieverbrauchs aus alternativen Energiequellen wie Wind und Sonne speisen. Die EU-Mitgliedsstaaten haben sich dafür individuelle Ziele gesteckt. Laut den aktuellsten Eurostat-Daten, die sich auf das Jahr 2017 beziehen, haben bisher aber nur die wenigsten Länder ihr Klima-Ziel erreicht. Schweden, das ehrgeizigste…

Energiewende: Wer beim Ausbau von erneuerbaren Energien führt

Schleswig-Holstein und Baden-Württemberg sind führend im Bereich Erneuerbarer Energien. Das ist das Ergebnis eines Bundesländervergleichs, der im Auftrag der Agentur für Erneuerbare Energien (AEE) erstellt worden ist. Die beiden Länder unternehmen den Wissenschaftlern zufolge die meisten Anstrengungen zur Steigerung des Anteils erneuerbarer Energien im Wärmebereich und liegen bei den erreichten Indexpunkten nahezu gleichauf (0,555 und 0,554 von…

Fünf IT-Trends im neuen Jahrzehnt

Die Zukunft beginnt jetzt. Künstliche Intelligenz, Automatisierung und Container-Technologien wurden im aktuellen Jahrzehnt Standard in der IT-Landschaft vieler Unternehmen. Auch im neuen Jahrzehnt bleibt die Digitalisierung treibende Kraft für zahlreiche Entwicklungen. Fünf Experten von Micro Focus geben einen Ausblick auf die Trends, die das erste Jahr im neuen Jahrzehnt gestalten werden:   Digitale Transformation der…

Transparenz und Skalierbarkeit aus der Wolke: Energiekonzern OMV führt Konzern-Webauftritt in die Cloud

Anwenderbericht: Oracle WebCenter Sites Grundlage für neue benutzerfreundliche und hochverfügbare Webplattform der OMV Group. Um einen ansprechenden und hochverfügbaren Webauftritt sicherzustellen, entscheiden sich immer mehr Unternehmen, ihre Webseiten und Content-Systeme in die Cloud zu führen. So ist es auch beim Öl-, Gas- und Energieunternehmen OMV. Die Online-Plattform des weltweit tätigen Konzerns war bereits 2007 in…

Siemens präsentiert Ansatz für ein intelligentes und nachhaltiges Energieökosystem

Siemens Smart Infrastructure zeigt auf der diesjährigen European Utility Week (EUW) in Paris, wie das Unternehmen Energieintelligenz auf der Angebots- und Nachfrageseite vorantreibt. Indem Siemens das Energieökosystems über Gebäude, Industrie und Netze hinweg mitgestaltet, unterstützt es Regierungen, Städte und Unternehmen bei ihren Nachhaltigkeitszielen. Dabei konzentriert sich Siemens auf vier Themen, die auf die Energiewende einzahlen:…

Die Zukunft fährt elektrisch: Energie als wegweisende Ressource des 21. Jahrhunderts

In Zeiten der Fridays-for-Future-Bewegung nimmt das Thema Klimawandel viel Raum in der öffentlichen Debatte ein. Jüngst beschloss die Bundesregierung mit dem Klimapaket eine Festbepreisung auf den Ausstoß von Kohlendioxid, die vorerst vor allen Dingen die Industrie treffen wird. Spätestens jetzt lässt sich die Umstellung hin zu klimafreundlichen Technologien nicht mehr aufhalten. »Ein solch fundamentaler Wandel…

Modernes Rechenzentrum für Strom- und Gasversorger – Energieexperte EGT AG setzt bei Neubau auf Prior1

Vor über 120 Jahren in Triberg im Schwarzwald gegründet, stellt die EGT AG heute die Führungsgesellschaft der EGT Unternehmensgruppe dar. Sie ist inzwischen in drei Geschäftsbereichen tätig: Dem Bereich Energieservice mit individuellen und verbrauchsoptimierten Energielieferungen sowie der Beratung und Realisierung dezentraler Energieversorgungskonzepte mit geringstmöglichen CO2-Fußabdruck, dem Bereich Energienetze mit dem Betrieb von Strom-, Gas-, Wärmenetzen…

VMware erreicht vorzeitig CO2-Neutralität und RE100-Ziele

Als Teil der internationalen Initiative RE100 versorgt sich VMware zu 100 Prozent aus erneuerbaren Energien. VMware-Kunden sparen 664 Millionen Tonnen Kohlendioxid ein.  Drei Viertel der Mitarbeiter in Europa, dem Mittleren Osten und Afrika unterstützen gemeinnützige Organisationen über die VMware Foundation.   Bei VMware wird Nachhaltigkeit großgeschrieben. Wo viele Unternehmen gerade erst anfangen umzudenken, kann VMware…

CDP als Zukunft des Backups: Von periodisch zu kontinuierlich

$
0
0

Traditionelle Backup-Technologien stoßen an ihre Grenzen. Neue Backup-Ansätze wie CDP helfen dabei Verfügbarkeit zu jeder Zeit zu gewährleisten.

 

Backup ist seit gut 35 Jahren ein wesentlicher Bestandteil der IT-Infrastruktur. Doch während sich die Datenmenge selbst und die gesamte IT-Landschaft dramatisch verändert haben, ist die Backup-Technologie im Wesentlichen gleichgeblieben. In den weniger ausgelasteten Zeiten werden die Daten kopiert und an einem zweiten Ort gespeichert, von wo aus sie später wiederhergestellt werden können. Mit den neuen Anforderungen an moderne Rechenzentren scheint dieser auf Snapshots basierende Prozess veraltet zu sein, und viele Unternehmen stoßen an die Grenzen der aktuellen Backup-Technologie. Die Herausforderungen sind nicht die relativ einfache Erstellung von Backups, sondern die Verfügbarkeit zu jeder Zeit zu gewährleisten. Viele Unternehmen suchen deshalb nach Alternativen, um ihre Backup-Strategien zu modernisieren. Kontinuierliche Backups aufbauend auf Continuous Data Protection scheinen die logische Alternative zu periodischen Backups zu sein.

 

Die Mängel der traditionellen Backup-Technologien

Systeme rund um die Uhr online und hoch performant zu halten, war noch nie so wichtig wie heute. Doch egal was die Ursache für einen Ausfall ist – Ransomware, Umweltkatastrophen oder schlicht menschliche Fehler – mit herkömmlichen Sicherungsmethoden kann die Wiederherstellung oft Tage dauern. Darüber hinaus kann ein periodisches Backup einen bis zu 24 Stunden währenden Datenverlust verursachen. Grund genug für Unternehmen sich nach zeitgemäßen und verlässlicheren Lösungen umzuschauen.

 

Periodische Backups, die nur einmal am Tag gemacht werden, können bis zu 24 Stunden Datenverlust verursachen.

 

Periodische Backups kosten viel Zeit und bedeuten in der Regel starke Performanceeinbußen für das System. Sie sind von Natur aus wenig granular und bei heutiger schnell ansteigender Datenmenge und notwendiger Aktualität deshalb sehr schnell veraltet. Auch die Verwaltung der Backups ist oft eine komplexe und ressourcenintensive Aufgabe, bei der dedizierte Systeme und Hilfslösungen wie Backup-Proxys oder Media Agents zum Einsatz kommen. Dies hat sogar dazu geführt, dass viele Unternehmen mittlerweile eigene Backup-Spezialisten in ihren IT-Teams beschäftigen.

Eine weitere große Herausforderung in heutigen IT-Umgebungen besteht darin, dass Anwendungen nicht auf einer einzigen virtuellen Maschine (VM) liegen, sondern auf verschiedene VMs mit unterschiedlichen Rollen verteilt sind. Oft sind diese Anwendungen teilweise abhängig von anderen Anwendungen, wodurch komplexe Anwendungsketten entstehen. Die erfolgreiche Wiederherstellung dieser gesamten Anwendungsketten hängt davon ab, wie konsistent diese einzelnen VMs wiederhergestellt werden können. Inkonsistenzen machen die Wiederherstellung von Anwendungen lästig, komplex, zeitaufwendig und erlauben oft keine schnelle Wiederaufnahme von Diensten. Aus diesem Grund wurden die RTOs (Recovery Time Objective, Wiederanlaufzeit eines ausgefallenen (EDV-)Systems) für die Backup-Wiederherstellungszeit für Produktivsysteme immer länger.

 

CDP bietet RPOs von wenigen Sekunden

Die kontinuierliche Datenreplikation (Continuous Data Protection, CDP) ist, nach Ansicht vieler Experten, die Zukunft des Backups. CDP repliziert jede einzelne IO in Echtzeit, sodass RPOs (Recovery Point Objective, legt fest, wie groß der Zeitraum zwischen zwei Datensicherungen sein darf) von wenigen Sekunden erreicht werden können. Alle replizierten Änderungen werden in einem Journal gespeichert, so dass man einfach auf den neuesten Zeitpunkt zurückgreifen kann – mit manchen Lösungen sogar bis zu 30 Tagen in der Vergangenheit. CDP-basierte Plattformen ermöglichen nicht nur sehr geringen Datenverlust bei Ausfällen, dank Orchestrierung und Automatisierung können Dateien, Anwendungen, VMs oder sogar ganze Rechenzentren mit wenigen Klicks wiederhergestellt werden. Die meisten Anwendungsfälle, die eine granulare Wiederherstellung erfordern, wie etwa Dateilöschungen, Datenbankbeschädigung oder Ransomware, erfordern nur eine kurzfristige Datensicherung. Wenn beispielsweise ein Ausfall um 17:26 Uhr eintritt, ermöglicht CDP die Wiederherstellung von Daten die um 17:25 Uhr erstellt und gesichert wurden. Ein Backup, das seit mindestens 4 Stunden veraltet sein könnte, hilft in diesem Fall nicht weiter.

 

Da mit CDP jede IO in Echtzeit repliziert wird, kann ein RPO von wenigen Sekunden erreicht werden.

 

 

Mittels der Automation der Wiederherstellung und Orchestrierung lassen sich auch komplexe Multi-VM-Anwendungen konsistent wiederherstellen. Diese verketteten Anwendungen sind auf verschiedene VMs in verschiedenen Umgebungen verteilt. Sie müssen als zusammenhängende, logische Einheit geschützt werden, um eine konsistente Wiederherstellung zu ermöglichen. Moderne Lösungen mit CDP und Orchestrierung setzen Wiederherstellungspunkte, an denen alle VMs genau den gleichen Zeitstempel besitzen. Auf diese Weise, startet jede VM der Applikation vom selben Wiederherstellungspunkt aus. Dies erlaubt der IT-Abteilung den Service nicht nur für jede VM, sondern sogar die komplexesten Anwendungen innerhalb von Sekunden nach dem Auftreten des Fehlers wieder zu starten. Ohne einzelne VMs manuell starten oder Boot-Sequenzen einhalten zu müssen.

 

Kontinuierliche Datenreplikation ohne Performanceverlust

Moderne Plattformen, die CDP für Backup nutzen führen sogar Disaster Recovery, Backup, und Cloud-Mobilität in einer einzigen, einfachen und skalierbaren Lösung zusammen. Diese besteht idealerweise aus den Schlüsselkomponenten CDP mit einem Journal anstatt Snapshots sowie Orchestrierung & Automation. So bietet sie die Grundlage für eine kontinuierliche Datenreplikation ohne Beeinträchtigung der Performance und ermöglicht die konsistente Wiederherstellung von Anwendungen von vor wenigen Sekunden bis von vor Jahren. Das Journal vereint die kurz- als auch die langfristige Speicherung der Daten und ermöglicht dank Orchestrierung die Wiederherstellung von Dateien, VMs, Anwendungen oder ganzen Rechenzentren in einem benutzerfreundlichen Workflow mit nur wenigen Klicks. Diese Workflows sind plattformübergreifend konsistent und erlauben ein einfaches Failover auf einen sekundären Standort. Etwa das Verschieben einer Anwendung nach Azure, die Verwendung von AWS als DR-Standort für IBM-Cloud-Workloads oder die einfache Wiederherstellung einer Datei, VM oder einer gesamten Anwendung. Diese Orchestrierung & Automatisierung ermöglicht es Unternehmen, alles vorzudefinieren, um Workloads wie Boot-Reihenfolgen, die Verknüpfung von IPs oder Netzwerk erfolgreich mit wenigen Klicks wiederherzustellen.

 

Mühelose Datenverfügbarkeit statt zeitraubende Backup-Verwaltung

Unternehmen müssen ihre Daten schützen und ihre IT rund um die Uhr verfügbar halten. Die technologischen Grundlagen von Backup, insbesondere die Snapshot-Technologie, sind seit etwa 35 Jahren gleich und machen es IT-Teams schwer, die Verfügbarkeit garantieren wollen, aber stattdessen nur allzu häufig mit der Verwaltung von Backups beschäftigt sind. Die gute Nachricht für Unternehmen und ihre IT gleichermaßen: Lösungen für kontinuierliches Backup sind bereits verfügbar und sind nicht nur eine deutliche Verbesserung im Vergleich zu traditionellen Backups, sondern gehen im besten Fall noch einen Schritt weiter. Sie führen die bestehenden Lösungen für Backup, Disaster Recovery und Cloud-Mobilität endlich zusammen.

Johan van den Boogaart

 

Johan van den Boogaart ist Regional Sales Manager bei Zerto, blickt auf fast zwei Jahrzehnte Erfahrung in der IT-Branche zurück und bekleidete während seiner Karriere verschiedene Vertriebspositionen in den Bereichen Storage, Disaster Recovery und Virtualisierung. Vor Zerto verantwortete Boogaart den Vertrieb von Nexenta und Open-E in der deutschsprachigen Region als Sales Manager. Bei Acronis bekleidete er davor den Posten des OEM/ Corporate Account Managers. Boogaart ist Diplom Kaufmann und Absolvent der Universität Groningen.

 

 

8 Artikel zu „CDP Backup“

Cloud-Backup erfordert leitungsfähige WAN-Leitungen

Datensicherung in Cloud-Umgebungen

Unternehmen nutzen zunehmend Storage-Ressourcen in Cloud-Umgebungen, um dort Daten oder Backups zu speichern. Häufig übersehen sie jedoch einen Punkt: die Rolle der Netzwerkverbindungen zwischen Cloud-Computing-Ressourcen und dem Firmenrechenzentrum. Hohe Latenzzeiten und Bandbreiten-Engpässe können dazu führen, dass Desaster Recovery in einer Cloud nicht wie erwartet funktioniert.

Deutsche Rechenzentren haben höchste Stromkosten in Europa

Sechsmal höhere Steuern, Abgaben und Netzentgelte als in Niederlanden und Schweden. Stromkosten machen rund die Hälfte der Betriebskosten aus.   Rechenzentren in Deutschland müssen europaweit am meisten für Strom bezahlen. Die Kosten sind bis zu sechsmal höher als in Nachbarländern. Das ist das Ergebnis einer Preisanalyse des Digitalverbands Bitkom, bei der die Stromnebenkosten verglichen wurden.…

Drei Optionen Rechenzentren über große Entfernung abzusichern

Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200 km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei…

Tatort Diensthandy: Datensicherheitsrisiken bedenken

Smartphones zählen mittlerweile auch im Job zum Alltag – sei es für das Verfassen einer E-Mail zwischendurch oder zur kurzfristigen Terminabsprache. Doch spätestens seitdem die Medien darüber berichtet haben, dass einige Unternehmen Mitarbeitern die Nutzung von WhatsApp aufgrund der EU-Datenschutzgrundverordnung, kurz EU-DSGVO, verbieten, wissen viele, dass die dienstliche Nutzung von Handys datenschutzrechtliche Gefahren birgt. »Bei…

BSI hebt Empfehlung für georedundante RZ-Entfernung von 5 auf 200 Kilometer an

Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI »Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren« genau dokumentiert [1].   Was die Entfernung von einander Georedundanz gebender…

Unternehmen in der Cloud – und wo bleibt der Know-how-Schutz?

Sobald die EU-Mitgliedsstaaten die Know-how-Schutz-Richtlinie umgesetzt haben, müssen Unternehmen angemessene Maßnahmen zum Schutz von Geschäftsgeheimnissen vornehmen. Zählt dazu auch die Wahl des Cloud-Providers?   Ziel der Richtlinie 2016/943 ist ein einheitlicher Mindestschutz für Geschäftsgeheimnisse in Europa – doch was ändert sich damit? Und was hat die Wahl eines sicheren Cloud-Dienstes damit zu tun? Die Richtlinie…

Crashtest für die IT-Sicherheit

Warum Zulieferer für die Automobilbranche ihre Business-Continuity- und Disaster-Recovery-Lösungen aufrüsten müssen, um ein höheres Maß an IT-Resilience zu erreichen.   Im Jahr 2016 stoppten zwei Automobilzulieferer die Belieferung ihres Kunden Volkswagen. Dies führte bei Volkswagen zu erheblichen Verzögerungen in der Produktion und führte zu Verlusten von schätzungsweise 100 Millionen Euro. Diese damals sehr öffentliche Konfrontation…

Günstigere Kreditzinsen mit der richtigen BC-DR-Strategie?

Systemausfälle stellen für Unternehmen ein hohes Risiko dar. Ist ein Unternehmen stark von seinen IT-Systemen abhängig, können größere Ausfälle nicht nur Geld kosten, sondern das Bestehen des Unternehmens an sich bedrohen. Banken, die selbst sehr stark von IT-Diensten abhängen, haben dies erkannt und haben damit begonnen, das Risiko möglicher Kreditausfälle an die Widerstandsfähigkeit der Kunden-IT…

DR-Strategie: Rechenzentrum unter Quarantäne?

$
0
0

Wie Pandemien aktuelle DR-Strategien beeinflussen und den Weg zum ultimativen DR-Rechenzentrum ebnen – der Cloud.

 

Erst China, dann Italien: Covid-19 zwingt Regierungen zu drastischen Maßnahmen, etwa ein komplettes Land abzuriegeln und unter Quarantäne zu stellen. Das hat selbstverständlich Einfluss auf alle Ebenen des Lebens und Unternehmen kämpfen an vielen Fronten, um ihre Mitarbeiter in Sicherheit zu wissen. Gleichzeitig muss der Betrieb so reibungslos wie möglich weiterlaufen. Unternehmen, die ihr Geschäft hauptsächlich über das Internet abwickeln, scheinen im Vergleich zu denen in anderen Branchen im Vorteil: Kunden und Mitarbeiter können bequem von Zuhause aus arbeiten oder die Dienstleistungen nutzen. Doch was passiert, wenn die Rechenzentren, in denen die Dienstleistungen gehostet werden, von einer landesweiten Quarantäne betroffen sind? In diesem Fall können Unternehmen die Verfügbarkeit ihrer Systeme nicht mehr garantieren. Damit beeinflusst das Virus die DR-Strategien vieler Unternehmen, die sich bisher sicher wähnten.

 

Reichen 200 Kilometer Mindestabstand nicht?

Ende 2018 hatte das BSI empfohlen, den Mindestabstand für georedundante Rechenzentren von 5 auf 200 Kilometer anzuheben. 200 Kilometer seien eine ausreichende Entfernung zwei Rechenzentren vor den Folgen regionaler Katastrophen, wie etwa Überschwemmungen, Stürmen, nuklearen Unfällen oder Waldbränden, zu schützen. Gerade einmal ein Jahr später macht das Coronavirus und die von der WHO ausgerufene Pandemie den guten Absichten des BSI einen dicken Strich durch die Rechnung. Denn im Falle einer bundesweiten Quarantäne wäre es relativ egal, wie weit zwei redundante RZs voneinander entfernt lägen Bei einem Systemausfall wäre bei einer allgemeinen Ausgangssperre in Deutschland niemand in der Lage die Hardware wieder zum Laufen zu bringen. Damit hat dieses reale Szenario einen direkten Einfluss auf die DR-Strategien der Unternehmen. Denn wie lassen sich Daten und Workloads effektiv absichern, wenn eine Pandemie die Welt teilweise lahmlegt?

 

Journalbasierte asynchrone Replikation ermöglicht BC/DR über weite Entfernungen

Die Absicherung von Rechenzentren über 200 Kilometer stellte viele Organisationen seit der neuen Empfehlung des BSI bereits vor technische Probleme: Denn die Latenz zwischen den Rechenzentren wird beim neuen Mindestabstand zu hoch, um Unternehmen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle und logische Fehler, wie etwa Ransomware-Attacken, zu schützen. Um BC/DR auch über weite Strecken zu garantieren, setzen mehr und mehr Unternehmen auf neue Technologien wie etwa asynchrone Replikation auf Basis vom Journaling statt Snapshots. Dank journalbasierter Technologie können Unternehmen ihre Applikationen mit minimalem Datenverlust, Ausfallzeiten, Performance Overhead und Bandbreitenutzung effektiv und effizient über große Entfernungen schützen. Diese Methode öffnet nun auch die Tür für die Nutzung des ultimativen DR-Standortes: die Cloud.

 

Grafik 1: Durch die Absicherung aus der Cloud kann ein Unternehmen das Sicherheitsniveau seiner BC/DR-Strategie erhöhen – und somit auch landesweiten Qurantänen trotzen. Mit One-to-Many-Replication sogar in mehrere Clouds gleichzeitig.

 

 

Die Cloud als ultimatives DR-Rechenzentrum

Journalbasierte Replikation in Zusammenhang mit Recovery Automation und Orchestrierung erlaubt BC/DR auch aus der Cloud heraus. In der Praxis ist dies sogar sehr einfach: Nach der Installation einer Replikationssoftware und der Wahl des passenden Cloudanbieters repliziert die Software in die Cloud und bietet fortan Disaster Recovery und Backup aus der Cloud. Anders als ein kleines Backup-Rechenzentrun ist die Cloud auf globaler Ebene abgesichert und damit gleich mehrere Stufen sicherer. So schützt sie vor Ausfällen, selbst dann, wenn ein kompletter Kontinent und alle darin befindlichen Rechenzentren ausfallen sollten. Unternehmen, die auf diese Technologie setzen, erhöhen sofort das komplette Sicherheitsniveau ihrer BC/DR-Strategie.

 

Fazit

Unternehmen, die auf durchgängige Verfügbarkeit ihrer Applikationen angewiesen sind, müssen ihre BD/DR-Strategien an durchaus reale Katastrophen anpassen. Die Absicherung von Daten und Workloads über Technologien wie journalbasierte Replikation oder der Cloud bietet eine Lösung, die möglichen Folgen landesweiter Ausgangssperren, wie wir sie momentan erleben, abzusichern.

Johan van den Boogaart, Zerto

 

Drei Optionen Rechenzentren über große Entfernung abzusichern

Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200 km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei…

BSI hebt Empfehlung für georedundante RZ-Entfernung von 5 auf 200 Kilometer an

Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI »Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren« genau dokumentiert [1].   Was die Entfernung von einander Georedundanz gebender…

Crashtest für die IT-Sicherheit

Warum Zulieferer für die Automobilbranche ihre Business-Continuity- und Disaster-Recovery-Lösungen aufrüsten müssen, um ein höheres Maß an IT-Resilience zu erreichen.   Im Jahr 2016 stoppten zwei Automobilzulieferer die Belieferung ihres Kunden Volkswagen. Dies führte bei Volkswagen zu erheblichen Verzögerungen in der Produktion und führte zu Verlusten von schätzungsweise 100 Millionen Euro. Diese damals sehr öffentliche Konfrontation…

Wie ernst nehmen kleine und mittlere Unternehmen den Schutz ihrer Daten?

Wie sind kleine und mittlere Unternehmen beim Schutz ihrer Daten aufgestellt? In einer Studie [1] wurden 251 IT-Entscheider in US-Unternehmen mit maximal 250 Beschäftigten befragt. Die Ergebnisse zeigen einen deutlichen Bruch zwischen der Sorge, Daten zu verlieren und den Möglichkeiten, diese im Notfall wiederherzustellen. Die Gefahr des Datenverlustes machte den befragten Unternehmen durchaus Kopfzerbrechen. 47…

 

20 Artikel zu „DR-Strategie“

Günstigere Kreditzinsen mit der richtigen BC-DR-Strategie?

Systemausfälle stellen für Unternehmen ein hohes Risiko dar. Ist ein Unternehmen stark von seinen IT-Systemen abhängig, können größere Ausfälle nicht nur Geld kosten, sondern das Bestehen des Unternehmens an sich bedrohen. Banken, die selbst sehr stark von IT-Diensten abhängen, haben dies erkannt und haben damit begonnen, das Risiko möglicher Kreditausfälle an die Widerstandsfähigkeit der Kunden-IT…

DR-Strategien im Reality Check: Was ist ihr RTO?

Unternehmen müssen sich darauf verlassen können, dass ihre IT und damit wichtige Applikationen stets verfügbar sind. Um konstante Verfügbarkeit zu bieten, ihre Systeme gegen Hardwareausfälle zu wappnen und gesetzeskonform mit geltenden Vorschriften zu sein, haben viele Unternehmen bislang in teure Speichersysteme als das Herzstück ihrer DR-Strategie (Disaster Recovery) investiert. In einer immer stärker virtualisierten IT-Welt…

CDP als Zukunft des Backups: Von periodisch zu kontinuierlich

Traditionelle Backup-Technologien stoßen an ihre Grenzen. Neue Backup-Ansätze wie CDP helfen dabei Verfügbarkeit zu jeder Zeit zu gewährleisten.   Backup ist seit gut 35 Jahren ein wesentlicher Bestandteil der IT-Infrastruktur. Doch während sich die Datenmenge selbst und die gesamte IT-Landschaft dramatisch verändert haben, ist die Backup-Technologie im Wesentlichen gleichgeblieben. In den weniger ausgelasteten Zeiten werden…

Erfolgreiche digitale Transformation braucht IT-Resilienz

Für den »State of IT-Resilience Report 2019« wurden weltweit 500 Führungskräfte sowohl aus der IT als auch aus anderen Geschäftsbereichen befragt [1]. Die Teilnehmer kamen aus über zehn unterschiedlichen Branchen und äußerten sich zu den derzeitigen Herausforderungen von IT-Resilienz im Rahmen der digitalen Transformation. Die Ergebnisse der Befragung geben Einblick in den Stand der Dinge…

4 Grundlagentipps für ein erfolgreiches Cloud-Management

IT-Verantwortliche müssen sich heutzutage mit den verschiedensten Herausforderungen auseinandersetzen, die eine Migration in die Cloud mit sich bringen. Obwohl sich die Cloud-Nutzung in den letzten Jahren stark verbreitet hat, haben einige Unternehmen trotzdem das Gefühl, noch nicht das volle Potenzial der Cloud ausgeschöpft zu haben. Die Gründe hierfür lassen sich allerdings leicht identifizieren und die…

Effizientes Datenmanagement im Sport – Profiteams setzen vermehrt auf Cloud Data Management

Profisport ist ein großes Geschäft. Da die Teams auf der Suche nach einem Vorsprung sowohl auf dem Feld als auch außerhalb des Feldes sind, nutzen viele Vereine den technologischen Fortschritt und Big Data, um Spielern und Fans das bestmögliche Spielerlebnis zu bieten. Die Daten werden nicht nur verwendet, um Strategien für den Gewinn von Meisterschaften…

90 Prozent aller Unternehmen sind nicht bereit für die digitale Transformation

Anspruch und Wirklichkeit in Sachen Robustheit der IT-Systeme klaffen weit auseinander. Nur 7 Prozent der Befragten halten ihre Infrastruktur für widerstandsfähig genug, um erfolgreich zu sein. 50 Prozent aller Unternehmen könnten laut IDC ein Katastrophenereignis nicht überleben.   Im Rahmen der globalen Studie »State of IT Resilience« wurden 500 Fachkräfte aus IT und Management zu…

Crashtest für die IT-Sicherheit

Warum Zulieferer für die Automobilbranche ihre Business-Continuity- und Disaster-Recovery-Lösungen aufrüsten müssen, um ein höheres Maß an IT-Resilience zu erreichen.   Im Jahr 2016 stoppten zwei Automobilzulieferer die Belieferung ihres Kunden Volkswagen. Dies führte bei Volkswagen zu erheblichen Verzögerungen in der Produktion und führte zu Verlusten von schätzungsweise 100 Millionen Euro. Diese damals sehr öffentliche Konfrontation…

Ein Zero-Trust-Modell mithilfe von FIM und SCM implementieren

$
0
0

Illustration: Absmeier

Vor inzwischen annähernd zehn Jahren prägte John Kindervag, damals Analyst bei Forrester, den Begriff des »Zero Trust«. Er entwickelte das Modell im Jahr 2010 zu einer Zeit, da viele Unternehmen gerade erst damit begonnen hatten, grundlegende Regelungen zur Cybersicherheit einzurichten.

Gleichzeitig gingen Firmen in zu hohem Maße von einer nur angenommenen Sicherheit innerhalb der Grenzen ihrer Netzwerke aus. Kindervag formuliert: »Bei Zero Trust geht es nicht darum, Netzwerke, Clouds oder Endpunkte vertrauenswürdiger zu machen. Es geht darum, das Konzept des Vertrauens in Bezug auf digitale Systeme überflüssig zu machen.« Herkömmliche Best Practices in der Cybersicherheit haben sich stark darauf konzentriert, die Grenzen eines privaten Netzwerks zu schützen. Leider führte das zu einem gewissen Maß an vorbehaltlosem Vertrauen gegenüber Aktivitäten innerhalb dieser Netzwerke. Ein kognitiver blinder Fleck, von dem Bedrohungsakteure nach wie vor profitieren.

 

Was versteht man unter Zero Trust?

Das Zero-Trust-Modell geht von einer bestimmten Prämisse aus. Dabei werden sämtliche Aktivitäten, auch diejenigen innerhalb des eigenen vertrauenswürdigen Netzwerks, genauso überprüft und verifiziert wie Aktivitäten von außerhalb des Netzwerks. Das Konzept des Bring-Your-Own-Device setzt sich weiter durch und die Zahl der remote tätigen Mitarbeiter steigt. Eine Entwicklung, die ein Netzwerk ständig neuartigen Risiken aussetzt.

Verabschiedet man sich hingegen von der trügerischen Idee »vertrauenswürdiger« Benutzer und Geräte, hilft das, wachsam zu bleiben. Wenn man sämtliche Interaktionen als nicht verifiziert betrachtet, dann ändert sich die Art und Weise, mit der man Kontrollen betrachtet:

Beim Einrichten von Kontrollen zur Authentifizierung und zur Überprüfung des Benutzerverhaltens, betrachten Sicherheitsfachleute sämtliche Aktivitäten auf Grundlage eines Zero-Trust-Modells so, als handele es sich dabei um potenzielle Bedrohungen.

 

Die Microsoft-Strategie

Microsoft unterstützt drei wichtige Sicherheitsziele, die sich als Grundlage für die Implementierung von Zero Trust in einer IT-Umgebung eignen [1]:

Umfassende Sicherheit

Beziehen Sie alle verfügbaren Datenpunkte in die Authentifizierung und Autorisierung ein – Identität, Standort, Geräteintegrität, Datenklassifizierung, Anomalien, Service oder Workload.

Prinzip der geringsten Berechtigungen/Prinzip der minimalen Rechtevergabe

Schränken Sie den Zugriff mit JIT/JEA (Just-in-Time/Just-Enough-Access), flexiblen Risikorichtlinien und Datenschutzstrategien ein, um weiterhin sicher und produktiv zu arbeiten.

Was tun wenn…?

Behalten Sie Sicherheitsvorfälle unter Kontrolle, und vermeiden Sie die Ausbreitung im System – ganz einfach durch Segmentierung des Zugriffs nach Netzwerk, Nutzern, Geräten und Anwendungen. Stellen Sie außerdem sicher, dass alle Sessions durchgehend verschlüsselt ablaufen. Mit Analytics fördern Sie zudem die Transparenz und erkennen Bedrohungen schneller.

 

SCM und FIM kommen ins Spiel

Sicherheitskonfigurationsmanagement (Security Configuration Management oder kurz SCM) und die Überwachung der Dateiintegrität (File Integrity Monitoring, FIM) sind zwei der wichtigsten Sicherheitskontrollen, die man bei einem Zero-Trust-Modell im Netzwerk implementieren kann.

Falls Sie mit diesen Praktiken noch nicht vertraut sind, geben wir hier eine kurze Beschreibung der einzelnen Methoden:

  • SCM: Security Configuration Management kombiniert Elemente der Schwachstellenbewertung, der automatisierten Korrektur und der Konfigurationsbewertung. Die Methode senkt Risiken indem sie sicherstellt, dass Systeme ordnungsgemäß konfiguriert sind, um interne und/oder behördliche Sicherheits- und Compliance-Standards zu erfüllen.
  • FIM: File Integrity Monitoring ist eine (von Tripwire entwickelte) Sicherheitstechnologie, die Änderungen in einer Umgebung überwacht, erkennt und bewertet. Ziel ist es, Sicherheitsbedrohungen als solche zu identifizieren und zu beheben. FIM geht dabei über die Dateien selbst hinaus und überwacht die Systemintegrität. FIM warnt somit vor unberechtigten Änderungen an Servern, Datenbanken, Netzwerkgeräten, File-Servern, Anwendungen, Cloud-Umgebungen und virtuellen Images.

 

Hier zwei kurze Beispiele, wie SCM und FIM dabei helfen, Zero Trust in die Praxis umzusetzen:

  • Schleichende Ausweitung von Zugriffsrechten (Access Creep): SCM kann helfen, die von Microsoft empfohlenen JIT/JEA-Richtlinien durchzusetzen. Access Creep ist ein häufig auftretendes Problem. Nutzer erhalten im Laufe der Zeit immer weiter gefasste Zugriffsberechtigungen, ohne dass routinemäßig überprüft wird, ob diese Berechtigungen überhaupt noch angemessen sind. Wenn ein Nutzer bestimmte Ressourcen nicht mehr benötigt, sollte er nicht über die entsprechenden Berechtigungen verfügen. In Filesystemen werden Berechtigungen schnell unverhältnismäßig – ein SCM-Tool, das richtlinienbasierte Audits anwendet, hält das Problem auf sämtlichen Geräten in Schach. Ein SCM-Tool sollte Sie zusätzlich auch dann benachrichtigen, wenn ein unnötiger Zugriff ein Risiko darstellt.
  • Überwachung von Änderungen in Echtzeit: FIM-Tools verfolgen Änderungen bei allen Benutzern und auf sämtlichen Geräten nach. Dadurch erhält man ein klares Bild, welche Änderungen autorisiert oder nicht autorisiert vorgenommen wurden und kann unerwartete Änderungen oder Risiken beheben. Wenn man FIM-Tools mit Agenten zur Überwachung in Echtzeit kombiniert, bieten sie ausreichenden Einblick über die Vorgänge in einem Netzwerk, um ein Zero-Trust-Modell zu unterstützen.

 

Zero Trust ist allerdings kein Benchmark, den man erreichen kann. Vielmehr handelt es sich um einen netzwerkverstärkenden Ansatz, der kontinuierliche Anstrengungen über die Zeit belohnt. Aber selbst, wenn man sich nur ansatzweise mit der Idee des Zero Trust befasst, wird jedes Sicherheitsprogramm langfristig davon profitieren.

Frank Augenstein, Tripwire

 

[1] https://www.microsoft.com/en-us/security/business/zero-trust

 

86 Artikel zu „zero trust“

Ransomware-Angriffe mit Zero Trust bekämpfen: Best Practices gegen Daten-Geiselnahme

Ransomware bleibt ein lukratives Geschäft für Cyberkriminelle. Allein mit der Ransomware-Variante Ryuk erpressten Angreifer bereits Lösegelder von über 3,7 Millionen US-Dollar. Um die Sicherheitsvorkehrungen von Unternehmen zu umgehen, nutzen Hacker mittlerweile häufig anspruchsvolles Spear-Phishing, damit Opfer auf bösartige Links und Anhänge klicken oder verseuchte Webseiten besuchen. Nach der Infektion beginnt der Erpressungstrojaner mit der Verschlüsselung…

Datenpannen in der Cloud – Ist der Zero-Trust-Ansatz die Lösung?

In den vergangenen Monaten gab es zahlreiche, teilweise drastische Meldungen über Datenverluste beziehungsweise die ungewollte Offenlegung von Daten durch ungesicherte Clouds sowie Attacken auf Cloud-Infrastrukturen. Vor dem Hintergrund dieser Ereignisse erläutert Palo Alto Networks das Konzept von »Zero Trust« in der Cloud. Den Begriff »Zero Trust« gibt es seit fast zehn Jahren, aber er hat…

Cyberkriminalität auf dem Vormarsch: Das digitale Wettrüsten hat begonnen

Kaum eine Woche vergeht, ohne dass neue Berichte über Hacker-Angriffe publik werden. So sorgte zuletzt der Angriff auf den französischen Fernsehsender TV5 Monde für Aufsehen. Auch deutsche Unternehmen und Institutionen sehen sich zusehends mit hochprofessionellen Cyber-Attacken konfrontiert. Dabei ist der Cyber-Krieg bereits in vollem Gange – und die heimische Wirtschaft steht unter Zugzwang. Im April…

Corona und Home Office: Mitarbeiter für IT-Risiken der Fernarbeit sensibilisieren

Das Smart Working ist bei Mitarbeitern beliebt und wird von einer steigenden Anzahl Firmen umgesetzt. Während der Corona-Krise ergibt dieses Konzept umso mehr Sinn. Allerdings müssen Unternehmen auch in Notfällen einige Vorkehrungen treffen, um unangenehme Überraschungen zu verhindern, vor allem in Bezug auf Datensicherheit. Dieser Beitrag stammt vom Cybersecurity-Hersteller Stormshield, Teil des Airbus-Konzerns, der aus…

Hohe Dynamik in der Welt der Daten – Ein Ausblick

Nicht zuletzt die aktuellen Schlagzeilen rund um Home Office und die Leistungsfähigkeit der IT von Unternehmen belegen, dass die datengesteuerte digitale Transformation zu einem zentralen Bestandteil jedes erfolgreichen – und widerstandsfähigen – Unternehmens geworden ist. Betreibe benötigen die entsprechende Technologie, um nicht ausgebremst zu werden. »Ein automatisiertes Datenmanagement setzt Zeit und Ressourcen frei, so dass…

Social Engineering nutzt »Schwachstelle Mensch« – Mitarbeiter für Unternehmensresilienz

Sensibilisierung durch Security-Awareness-Kampagnen fördert die Widerstandskraft beim »Faktor Mensch« im Unternehmen. Die Beeinflussung des Mitarbeiters, um dadurch beispielsweise an vertrauliche Informationen zu gelangen – diesem Prinzip folgt das Social Engineering. Cyberkriminelle nutzen dabei den Menschen als vermeintlich schwächstes Glied im Sicherheitskonstrukt eines Unternehmens aus. Zur Cybersicherheit ist es daher neben der Absicherung der Technologien und…

ProSieben optimiert Monitoring mithilfe integrierter Lösung von SolarWinds

Um ihr Netzwerk besser überwachen und automatisierter verwalten zu können, ergänzt die ProSiebenSat.1 Tech Solution GmbH ihr Toolkit von SolarWinds.   Die ProSiebenSat.1 Tech Solution GmbH erweitert ihre Partnerschaft mit SolarWinds, einem Anbieter leistungsstarker und kostengünstiger IT-Management-Software. Die ProSiebenSat.1 Tech Solution GmbH bietet umfassende Leistungen für die Herstellung und multimediale Verbreitung von Fernsehinhalten an und…

Unternehmen werden überwiegend durch gestohlene Passwörter gehackt

Organisationen sollten sicherstellen, dass nur konforme Geräte, Benutzer, Anwendungen und Netzwerke auf ihre Dienste zugreifen können. Die EMA-Studie hat untersucht, wie wichtig die Rolle von kontextbezogener Sicherheit und Zero-Password-Authentifizierung dabei ist. MobileIron gibt die Ergebnisse einer Studie bekannt, der zufolge Passwörter nach wie vor die gängigste Authentifizierungsmethode aber auch die Hauptursache für Datenlecks sind. Der…

Automatisierte Früherkennung von Attacken auf das Rechenzentrum

Rechenzentren mit ihren vielen Daten, die darin vorgehalten – also IT-Deutsch für »abrufbereit aufbewahrt« – werden, stellen ein verlockendes Ziel für Angreifer dar. Wenn der Angreifer Glück hat, findet er eine Schwachstelle für den Zugang über das Internet zum Rechenzentrum. Anderenfalls erfordert ein direkter Angriff erheblichen Aufwand und Planung, wie Vectra, Anbieter eine Plattform für…

Cloud Security-Report: Schlechte Sicherheitshygiene führt zu einer Eskalation von Cloud-Schwachstellen

Der Cloud Threat Report deckt 199.000 unsichere Cloud-Templates auf und findet 43 Prozent der Cloud-Datenbanken unverschlüsselt vor. Palo Alto Networks hat aktuelle Forschungsergebnisse veröffentlicht, die zeigen, wie Schwachstellen bei der Entwicklung von Cloud-Infrastrukturen zu erheblichen Sicherheitsrisiken führen. Der Unit 42 Cloud Threat Report: Spring 2020 untersucht, warum Fehlkonfigurationen in der Cloud so häufig vorkommen. Der…

Fünf Regeln zur Bewältigung einer Cybersicherheitskrise: Vorstände und Verantwortliche unter Druck

Das aktuelle Allianz Risk Barometer 2020 – als weltweit größte Risikostudie – hat kritische Geschäftsunterbrechungen, die durch Cybersicherheitsverletzungen verursacht werden, als das größte Risiko für Unternehmen erkannt [1]. »Wann man von einer Cybersicherheitskrise betroffen sein wird, lässt sich nie vorhersagen. Unternehmen können aber Zeit gewinnen, indem sie einen gut einstudierten und effektiven Cyber-Resiliency-Plan aufstellen, der…

Cyberresilienz: Ein Synonym für Cybersicherheit?

Angesichts der wachsenden Zahl an Schwachstellen und der zunehmenden Komplexität von Cyberattacken lautet die Frage nicht mehr, ob ein Unternehmen attackiert wird, sondern wann – und ob die angegriffene Organisation in der Lage sein wird, ihre Aktivitäten unbeschadet fortzusetzen. Genau das bezeichnet die Cyberresilienz. Von Stormshield gibt es vier gute Vorsätze zu deren Gewährleistung.  …

Das wird sich 2020 in der Apple-PC-Technologiebranche ändern

Das »next big thing« wartet schon hinter der nächsten Ecke. Nirgends ist das zutreffender als in der Tech-Branche, oftmals genügt dort ein Blick in die jüngste Vergangenheit, um die Zukunft vorherzusagen. Dean Hager, der CEO des Softwareanbieters Jamf prognostiziert für dieses Jahr Neuerungen in folgenden vier Bereichen.   Die Neudefinition des Unified Endpoint Management (UEM)…

Rechenzentrums-Trends 2020: Hybrid-Computing wird Mainstream

Bereitstellungsgeschwindigkeit wird zu einem immer wichtigeren Alleinstellungsmerkmal. Während in den vergangenen Jahren vor allem innerhalb der Unternehmensführungen ausgiebig darüber diskutiert wurde, ob nun Cloud oder »On Premises« die bessere Wahl ist, haben sich mittlerweile hybride Architekturen durchgesetzt, die Public- und Private-Cloud-Modelle mit Edge-Infrastrukturen rund um neu gestaltete zentrale Rechenzentren vereinen. Diese im Wandel befindliche Herangehensweise…

Künstliche Intelligenz, Green IT & Hyperautomation: die wichtigsten IT-Trends für 2020

Automatisierung hilft Druckereien, profitable Businessmodelle zur Unterstützung von Kunden aus Werbung und Marketing zu entwickeln. Produktionsanlagen warten, Verkehr in Smart Cities steuern oder Bilder digital erkennen: Künstliche Intelligenz wird in vielen Bereichen eingesetzt und ist daher das zentrale IT-Thema 2020. Hundertfach kürzere Latenzzeiten durch 5G und Hyperautomatisierung werden KI weiter vorantreiben und das tägliche Leben…

Was Sie schon immer über Virtual Desktop Infrastructure wissen wollten …

$
0
0

Alle sprechen vom Home Office. Hermann Ramacher, Geschäftsführer der ADN , erklärt exklusiv die Hintergründe der technologischen Infrastruktur, die die Arbeit außerhalb von Betriebsräumen maßgeblich ermöglicht: Die Desktop-Virtualisierung.

 

Abstraktes Computing

Auch wenn der Umstieg nicht jedem Unternehmen gleichermaßen leichtfällt geschweige denn möglich ist, hat die Cloud-Revolution dem dezentralen Arbeiten massiv Vorschub geleistet. Während sich das anfangs auf das Teilen von Dateien über Server beschränkte, laufen mittlerweile ganz selbstverständlich eine große Zahl der täglich genutzten Anwendungen in der Cloud. Als finale Abstraktionsstufe geht der Trend in Richtung vollständig virtualisierte Desktops, also komplette Arbeitsplätze in der Cloud, die sich praktisch von jedem Gerät mit Internetverbindung aus nutzen lassen. Einmal bildlich gesprochen: Wenn ich wollte, könnte ich mir heute das CAD-Modell eines Teilchenbeschleunigers mit mehreren 10.000 Teilen auf meinem Smartphone ansehen, die entsprechende Bandbreite vorausgesetzt. Ungeachtet des praktischen Nutzens dieses Beispiels verdeutlicht es die Entwicklungssprünge, die IT in erstaunlich kurzer Zeit durchläuft.

Quelle: National Museum of Computing, Bletchley Park, Bletchley, Milton Keynes, UK_unsplash_frei

Alte Bits in neuen Speichern?

In der grauen Vorzeit des Computerzeitalters bei IBM in den 1960ern funktionierten die ersten sogenannten Mainframe-Computer nach einem ganz ähnlichen Prinzip wie virtuelle Desktops heutzutage. Während sich im Reinraum der nicht gerade platzsparende Mainframe befand, loggten sich die Nutzer in einem Nebenraum über Terminals auf dem System ein und teilten sich die Ressourcen. Das Personal Computing brachte eine Revolution mit sich und verlagerte die Rechenkapazitäten aus raumfüllenden Rechnerschränken unter die Schreibtische, was ganz neue Probleme mit sich brachte. Unternehmen mussten so eine Vielzahl an Geräten managen, die alle gewartet und aktualisiert werden mussten. Die Vernetzung von Computern und die Entwicklung von Server-Architekturen als zentrale Knotenpunkte in den Netzwerken vereinfachte dieses Problem wieder etwas. Doch selbst heute sieht es in den allermeisten Unternehmen trotz Cloud-Computing nicht wirklich anders aus. Laufen etwa das ERP oder produktionskritische Workloads selbstverständlich in einer Form von Cloud – ob Public, Private, Hybrid oder Multi –, so sind die Endpunkte aus Sicht der IT-Abteilungen ein unübersichtliches Chaos. Auch wenn das in Zeiten von BYOD mehr oder weniger akzeptiert wird, bringt es zwei maßgebliche Nachteile mit sich: Erstens ist die Verwaltung dieses Geräte-Dschungels aufwändig und somit teuer und zweitens ergeben sich zahlreiche Sicherheitsrisiken.

 

Mit VDI schließt sich der Kreis

Natürlich hat es in der Zwischenzeit viele verschiedene Ansätze zur Desktop-Virtualisierung gegeben, einschneidend war jedoch das Aufkommen von VDI – Virtual Desktop Infrastructure Mitte der 2010er-Jahre. Im Gegensatz zum Großteil der vorherigen Lösungen setzt VDI komplett auf das Outsourcen der Rechenleistung, was den Endpunkt – sprich das Gerät, mit dem auf den Desktop zugegriffen wird – vollständig entlastet. Die beiden oben genannten Nachteile lassen sich so praktisch restlos eliminieren. Die Nutzer haben nach wie vor die Freiheit, das Gerät ihrer Wahl zu nutzen, aber alle Ressourcen, Anwendungen und Dateien können wieder zentral gemanagt werden. Alles bleibt up-to-date und innerhalb des gesicherten Unternehmensnetzwerks. Unternehmen können so etwa Hardware länger einsetzen – ein Gewinn für die Unternehmens- und Umweltbilanz. Neuinvestitionen fallen um ein Vielfaches geringer aus, da Endgeräte quasi kaum Leistung benötigen. Auch lassen sich Legacy-Applikationen so wesentlich einfacher und sicherer weiterbetreiben, wodurch der Kostenfaktor eines möglichen Refactorings oder einer Migration abgefedert wird. Aktuell vollzieht sich der nächste konsequente Schritt: VDI aus der Cloud. Natürlich sind virtuelle Maschinen in der Cloud absolut nichts Neues. Neu aber ist, dass die großen Hyperscaler auf den Plan treten und sich des Themas VDI annehmen.

 

The next big thing!?

Ob AWS, Google oder Microsoft, alle stehen in den Startlöchern, den entstehenden Markt für sich zu erobern. Einen großen Vorsprung hat dabei Microsoft mit Windows Virtual Desktop. Wer auch nur ansatzweise die Diskussion im Umfeld von Konferenzen wie der Microsoft Ignite oder der IGEL Disrupt verfolgt hat, muss das große Interesse rund um das Thema wahrgenommen haben. Wenn die Vorteile von VDI auch länger auf der Hand lagen, war die Umsetzung aufgrund der technischen Herausforderungen und des Kostenfaktors für viele Unternehmen keine rentable Option. Nun, da die Hyperscaler sich des Themas annehmen, entstehen mit Windows Virtual Desktop (WVD) Angebote, die ein äußerst attraktives Preis-Leistungs-Verhältnis bieten. Bereits jetzt nutzt eine fünfstellige Zahl von Unternehmen WVD. Dabei reicht das Nutzerprofil von kleinen und mittelständischen Unternehmen mit 10 bis 20 Nutzern bis hin zu großen Firmen beispielsweise aus dem Finanzsektor. Prognosen gehen davon aus, dass der Markt insgesamt stark wachsen wird, durch eine große Nachfrage seitens Versicherungen, des Gesundheitswesens oder auch des öffentlichen Sektors. Aber wie bereits angedeutet ist auch bei KMU das Interesse groß, da WVD ihnen eine wirklich skalierbare IT-Infrastruktur als kompletten Managed Service bietet.

 

Kurzer Deep Dive zu Microsoft Windows Virtual Desktop

Neben den zahlreichen genannten Vorteilen stellt WVD weit mehr als bloßes VDI aus der Cloud dar. Nahezu alle Firmen nutzen für ihr Identitätsmanagement eine Form von Active Directory. Windows Virtual Desktop nutzt das Azure AD, das die Verwaltung von Nutzern und Sicherheitsgruppen noch einmal wesentlich vereinfacht.

Ein weiterer großer Pluspunkt in Sachen Kosten und Skalierbarkeit ist Windows 10 Multisession, das erste echte Multi-Client-Windows. Wer auf diesem Gebiet bewandert ist, weiß: Wollte man früher eine Multi-Client-Windows-Lösung realisieren, war man auf Windows Server angewiesen, was eine lange Liste von Problemen mit sich brachte. Viele Applikationen lassen sich schlichtweg nicht auf einem Server-OS installieren oder man muss ihnen vorgaukeln, sie liefen auf einem normalen Windows-Klienten. Windows 10 Multisession macht den parallelen Betrieb mehrerer regulärer Windows-Sitzungen möglich und Unternehmen profitieren von einem vorteilhaften Lizenzierungsmodell. Auch für Windows-7-Nutzer gibt es einen Silberstreifen mit WVD: Wer auf Windows 7 (noch) nicht verzichten kann, der erhält bei einer Migration auf WVD für die nächsten drei Jahre kostenfrei weiterhin alle Sicherheitsupdates.

Zudem wurde viel an der Optimierung des Nutzererlebnisses von Office 365 innerhalb von Windows Virtual Desktop getüftelt. Da im Prinzip jede Anmeldung bei WVD wie die erste Anmeldung auf dem System wäre, würde etwa das Öffnen von Outlook bei sehr großen Postfächern aufgrund des fehlenden Caches eine halbe Ewigkeit dauern, was elegant durch die Speicherung des Nutzerprofils auf einem SMB gelöst wurde. Diese und weitere technischen Verbesserungen verdankt das Produkt dem Aufkauf von FSLogix durch Microsoft. Über eine weitere Entwicklung von FSLogix ist es beispielsweise möglich, Applikationen ohne Installation zur Verfügung zu stellen, sodass diese stets aktuell von einem Speicherort aus bei jeder Anmeldung geladen werden können, als ob sie tatsächlich auf dem System installiert wären.

 

Das Ende des realen Desktops?

Wer denkt, Citrix und Co. würden jetzt durch Microsofts eigene Lösung verdrängt, hat weit gefehlt. Von Anfang an war Citrix in das WVD-Projekt involviert und kann mit seinen eigenen Lösungen auf WVD aufbauen und dadurch zusätzliche Mehrwerte anbieten. Ich gehe davon aus, dass VDI in 5 bis 10 Jahren quasi in allen Organisationen eine Rolle spielen wird. Schon jetzt beobachten wir, dass Unternehmen ihre Rechenzentren an Microsoft verkaufen und diese dann zu neuen Azure-Regionen werden. Sie realisieren, dass das Betreiben eines Rechenzentrums schlichtweg nicht zu ihren Kernkompetenzen gehört und wenig zu ihrem Geschäftserfolg beiträgt, während Hyperscaler diese Aufgabe wesentlich besser und kostengünstiger übernehmen können. Vorstellbar ist, dass langfristig alle Desktops in die Cloud gehen – warum, habe ich oben aufgezeigt. Die Vendoren-Landschaft wird sich dabei in Zukunft nicht wesentlich von der heutigen unterscheiden, mit dem Unterschied, dass Microsoft und andere die grundlegende Infrastruktur bereitstellen, auf die das Partner-Ökosystem seine VDI-Angebote aufbaut. So profitieren alle von der Zukunftsfähigkeit von Clouds wie Azure, während sie auf einen breiten und ständig evolvierenden Technologie-Stack zugreifen können.

 

Dipl.-Oec. Hermann Ramacher, Geschäftsführer der ADN – Advanced Digital Network Distribution GmbH, Bochum

IT-Reseller, die sich für Windows Virtual Desktop interessieren, unterstützt ADN mit einer ganzen Reihe von Angeboten speziell im Hinblick auf den aktuell großen Bedarf an Home-Office-Lösungen. Mehr dazu hier:

https://www.adn.de/de/akademie/remote-home-office-intensiv-paket

 

 

 

 

Desktop as a Service – Cloud-Arbeitsplätze mit Zonenmodell absichern

Der virtualisierte Arbeitsplatz aus der Public Cloud lockt Unternehmen mit günstigen Preisen und hoher Flexibilität. Unabdingbare Voraussetzungen für den deutschen Mittelstand: Größtmögliche Sicherheit und konfliktfreier Datenschutz. Grundlegende Maßnahmen bieten angemessenen Schutz, um die Vorteile bedenkenlos zu nutzen.

Virtualisierungsprojekte haben zu Beginn nichts mit Technik zu tun

Organisatorische Vorbereitung und Planung kommen oft zu kurz. Typische Fußangeln sind konzeptionelle Defizite, unzureichende Anforderungsprofile und schlecht geplante Betriebsprozesse. Die entscheidenden Vorteile der diversen Virtualisierungmöglichkeiten von Applikationen, Desktops, Diensten, Netzwerken, Servern oder Storage bestehen insbesondere darin, dass sich damit die IT-Ressourcen besser ausschöpfen lassen. Damit einher gehen eine höhere Flexibilität bei gleichzeitiger Steigerung der Effizienz…

Hyperkonvergenz als praxistaugliche Plattform für eine zukunftsfähige Unternehmens-IT

Im Praxischeck: Hyperkonvergenz bietet weit mehr als schnelle und einfache IT-Bereitstellung. Cloud und hyperkonvergente Infrastruktur (HCI) sind virtuelle Umgebungen, in denen Unternehmen aller Branchen neue Services entwickeln, bereitstellen, verschieben und verwalten können. Dabei profitiert man bei der Nutzung von Angeboten der großen Anbieter wie Google, Amazon & Co von Skaleneffekten. Diese bringt eine HCI in…

Hyperkonvergente Infrastrukturen: Flexible Skalierung und garantierte SLAs treiben den Vertrieb an

Bisher zog hyperkonvergente Infrastruktur (HCI) in die Unternehmens-IT vor allem deshalb ein, weil diese Systeme durch einfache Bereitstellung von IT-Ressourcen glänzen. Daran knüpft auch die neueste Technologie an, die zudem mit einem deutlich größeren Potenzial für den Vertrieb antritt. Zu diesem Ergebnis kommt eine Umfrage des Datenmanagementspezialisten NetApp [1]. In der Befragung stuften IT-Experten zwei…

Der Digital Workspace und die notwendige Software

Aus klassischer und moderner Welt wird ein Workspace – auch für die Lösungen. Noch gibt es nur vereinzelte M&A-Aktivitäten. Der Eigenbetrieb ist noch weit verbreitet. Im erstmalig erstellten Digital Workspace Vendor Benchmark 2017 untersuchte die Experton Group alle relevanten Lösungsanbieter in den Softwarebereichen, die für den Eigenbetrieb des Digital Workspaces notwendig sind. Die wichtigste Erkenntnis…

Cloud-Computing-Trends

Cloud Services – Enterprise Cloud Filesharing (SaaS) Enterprise Cloud Filesharing ist eine voll gemanagte und somit SaaS-konforme Storage-Umgebung aus einer Cloud-Umgebung. Der Zugriff erfolgt über Web Dashboards und Client-SW beziehungsweise Apps für den komfortablen Up- und Download von Dateien beziehungsweise Dokumenten. Administratoren haben im Optimalfall ein vollumfängliches Interface inklusive eines Rollen- und Rechte-Managements sowie Log-Files…

Trend zur Konvergenz bei VDI

Studie: 30 Prozent setzen bei der Implementierung bereits auf konvergente Lösungen; 41 Prozent würden zukünftig konvergente Infrastruktur vorziehen. Zahlreiche Unternehmen setzen bereits auf die Vorzüge von Virtual Desktop Infrastructure (VDI). Die Implementierung erfolgt häufig über »Do-It-Yourself«-Lösungen – Einbußen bei der Performance und fehlende Kenntnisse sind dabei die größten Herausforderungen. Eine Umfrage [1] zeigt jedoch eine…

Wie positionieren sich die Anbieter von Cloud Workplaces in Deutschland?

Das Managen einer Virtual Desktop Infrastructure (VDI) und das Hosting von individuellen Virtual Desktops in einer Private-Cloud-Umgebung sind keine neuen Themen im IT-Service-Markt; die kostengünstigere Bereitstellung von standardisierten Workplace Services aus einer Shared Private Cloud oder Public Cloud sind es dagegen sehr wohl. Im letztjährigen Cloud Vendor Benchmark hat die Experton Group erstmalig standardisierte Workplace…

Cloudifizierung der kompletten Unternehmensstruktur

Anwenderstory: Ulmer Traditionsjuwelier EHINGER SCHWARZ 1876 setzt voll auf Microsoft Azure.   Windows Virtual Desktop ist eines der neusten Angebote von Microsoft. Wo zuvor Partner wie VMware und Citrix mit Windows-Server-Lösungen die Marktlücke für Windows 10 Remote Desktops abdeckten, bietet Microsoft nun selbst virtualisierte Desktops aus seiner Azure Cloud heraus an. Die Lösung, die erst…

Low Code oder Pro Code: IT-Leiter müssen Brücken bauen

Die digitale Transformation und der wachsende Bedarf an Anwendungen erfordert, dass Unternehmen agiler werden und sich ständig anpassen. Daher müssen IT und Business enger zusammenarbeiten, um Kunden- und Geschäftswünsche möglichst schnell zu erfüllen und auch möglichst zu übertreffen. Dementsprechend ist die strategische Umstellung der Geschäftsprozesse auf Mobile- oder Browser-Anwendungen ein wichtiger Schritt. Dieser ist allerdings…

Infrastrukturmängel: Das bremst Unternehmen in Deutschland

Holprige Straßen und schwache Kabel machen der deutschen Wirtschaft laut IW Köln zunehmend zu schaffen. Für besonders große Schwierigkeiten sorgen marode Straßen und Brücken, die bei 30 Prozent der befragten Unternehmen für eine deutliche Beeinträchtigung der aktuellen Geschäftsabläufe sorgen. Die Situation hat sich hier seit der letzten Befragung im Jahr 2013 deutlich verschärft. Das gilt…

Corona-Krise: noris network baut Kapazitäten in Rechenzentren aus

$
0
0

noris network, IT-Dienstleister und Betreiber von Hochsicherheitsrechenzentren meldet: Der Betrieb der Rechenzentren und die Erbringung von IT-Dienstleistungen laufen uneingeschränkt weiter. Seit Mitte März arbeitet der Großteil der mehr als 370 Mitarbeiterinnen und Mitarbeiter dabei vom Home Office aus. Als weitere Reaktion auf die Corona-Krise und die rasch steigende Nachfrage von Kunden wurden die Rechenzentrums- und Servicekapazitäten insbesondere in den Bereichen ausgeweitet, die für die reibungslose Arbeit im Home Office notwendig sind: Sicherer VPN-Zugriff auf Daten im Unternehmensnetzwerk sowie Virtuelle Desktop Infrastruktur und Terminalserver.

»Auch bei uns arbeiten Mitarbeiterinnen und Mitarbeiter, deren Präsenz in den Betriebsstätten nicht zwingend notwendig ist, von zu Hause. Diese Maßnahme zum Schutz der Mitarbeitenden bei gleichzeitiger Aufrechterhaltung des Betriebs wollen wir möglichst vielen Unternehmen ermöglichen«, sagt Stefan Keller, Chief Marketing Officer (CMO) bei der noris network AG. »Wo immer die IT dabei helfen kann, die Zahl der sozialen Kontakte und damit die Geschwindigkeit der Pandemie zügig zu verringern, werden wir eine Lösung für unsere Kunden finden.«

 

Remote Access

https://www.noris.de/it-services/managed-services/managed-security/remote-access-ssl-vpn/

 

Managed Desktop Services

noris network AG
Die Nürnberger noris network AG bietet Unternehmen und Organisationen mit den Branchenschwerpunkten Banken/Versicherungen, Automotive/Industrie, Softwareentwicklung und Öffentliche Verwaltung maßgeschneiderte ITK-Lösungen in den Bereichen IT-Outsourcing, Managed Services, Cloud Services sowie Network & Security. Technologische Basis ist eine leistungsfähige IT-Infrastruktur mit noris network-eigenen Hochsicherheitsrechenzentren – darunter mit Nürnberg Süd und München Ost zwei der anerkannt modernsten und energieeffizientesten Rechenzentren Europas. Neben kundenspezifischen Lösungen und Services für klassische und virtualisierte IT-Infrastrukturen bietet noris network PaaS-Providing auf eigenen Cloud-Plattformen und mit Managed Kubernetes auch Services für die automatisierte Skalierung von Ressourcen (Container). Weitere, standardisierte Premium-Rechenzentrumsprodukte fasst das Unternehmen unter der Marke datacenter.de zusammen.
Die noris network AG ist mit ihren gesamten Geschäftstätigkeiten für ihre durchgängige Qualität und ihre Sicherheit im Service- und Informationssicherheitsmanagement nach ISO/IEC 20000-1, ISO/IEC 27001 und ISO 9001 zertifiziert. Im Bereich »Sicherheitsmanagement für bauliche Objekte« ist noris network als erster Rechenzentrumsbetreiber nach VdS-Richtlinie 3406 zertifiziert, zudem sind die maximalen Verfügbarkeits-, Schutz- und Energieeffizienzklassen des Rechenzentrums München Ost nach EN 50600 bestätigt.
Die Rechenzentren Nürnberg Mitte und Nürnberg Süd sowie München Ost haben das ISO 27001-Zertifikat auf Basis von IT-Grundschutz des BSI erhalten. 1993 gegründet, zählt die noris network AG zu den deutschen Pionieren auf dem Gebiet moderner IT-Dienstleistungen und betreut heute renommierte Unternehmen wie adidas AG, Consorsbank, Flughafen Nürnberg GmbH, Firmengruppe Max Bögl, Küchen Quelle GmbH, Schmetterling Reisen GmbH & Co. KG, Teambank AG u. v. m.

 

noris network ist Kubernetes Certified Service Provider

noris network AG ist von der Cloud Native Computing Foundation als Kubernetes Certified Service Provider (KCSP) bestätigt worden. Der IT-Dienstleister und Betreiber von Hochsicherheitsrechenzentren ist damit eines von weltweit gerade einmal 122 IT-Unternehmen, die als ausgewiesene Spezialisten für Kubernetes-Projekte auf der Partnerseite der Foundation geführt werden. noris network bietet in seinen Rechenzentren Managed Kubernetes Cluster…

Wirtschaftsprüfer Mazars in noris network Rechenzentrum: Bereit für weiteres Wachstum

Rechenzentrumsbetreiber noris network AG hat ein großes Projekt zum Outsourcing der IT der Mazars Deutschland erfolgreich abgeschlossen. Mazars Deutschland gehört zu den Top 10 der deutschen Wirtschaftsprüfer. Was durch Wachstum und Fusion angestoßen wurde, führte jetzt zu einer hybriden IT-Infrastruktur, die sich dem künftigen Wachstumskurs der Wirtschaftsprüfungsgesellschaft flexibel anpassen lässt. noris network betreibt für Mazars…

noris network übernimmt netplace

Premium-IT-Dienstleister und Rechenzentrumsbetreiber noris network AG übernimmt rückwirkend zum 1. Januar 2019 die Münchner netplace Telematic GmbH. Der Internet Service Provider und IT-Sicherheitsspezialist netplace firmiert bis auf weiteres unter eigenem Namen, wird mit seinem gesamten Management und Team aber Teil der noris network AG. Die noris network AG, die in der Region München bereits zwei…

Ingo Kraupa, Vorstand der noris network AG – Unternehmens­daten müssen besonders geschützt werden

noris network ist seit 25 Jahren im IT-Geschäft, betreibt zwei hochmoderne Rechenzentren in Nürnberg und Aschheim bei München. Security ist immer ein integraler Bestandteil dessen, was der IT-Dienstleister plant und umsetzt. Was wird in den nächsten Jahren von noris network zu erwarten sein?

noris network – Wachstumstreiber Cloud-Migration

Spätestens seit Bau und Eröffnung ihres innovativen Rechenzentrums in München-Aschheim mit 3.200 qm IT-Fläche zählt noris network zu den Topadressen in der deutschen Rechenzentrumsszene. Wir sprachen mit Vorstand (Chief Operating Officer) Jürgen Städing über das Jahr 2017 und künftige Entwicklungen.

noris network AG – Erfolgreich aus IT-Leidenschaft

Mit Technikbegeisterung und Gespür für die kommerzielle Nutzung zukunftsweisender Technologien wagten Joachim Astel, Ingo Kraupa und Matthias Urlichs 1993 die Gründung des ersten Internet Service Providers Nordbayerns. Sie sind bis heute aktiv und haben mit der Nürnberger noris network AG ein expandierendes mittelständisches Unternehmen mit mehr als 150 Mitarbeitern geschaffen. Ihr Geschäftsmodell: Premium-IT-Services auf Basis eigener Hochsicherheitsrechenzentren und Infrastruktur »made in Germany«.

Automatisiert extrahieren, konsolidieren und analysieren – Künstliche Intelligenz schafft Transparenz im strategischen Einkauf

Das Unternehmen Orpheus GmbH entwickelt -Spezialsoftware für den strategischen Einkauf internationaler Konzerne und gilt bei Chefeinkäufern (Chief Procurement Officer) aktuell als einer der weltweit innovativsten Anbieter. Nicht ohne Grund: Die Orpheus-Lösungen nutzen KI und Bots, um Daten zu Einkäufen, Produkten, Preisen und Anbietern aus verschiedensten Quellsystemen, Sprachen und Organisationseinheiten der Konzerne zu extrahieren, zu konsolidieren und zu analysieren. Diese neue Transparenz kann Konzernen Einsparungen in Millionenhöhe bringen. Die skalierbare Cloud-Infrastruktur für die Software und die sicheren Anbindungen an die datenführenden Quellsysteme der Konzerne stellt ein anderes Nürnberger Unternehmen: die noris network AG.

Weltweite Qualitätssicherung: Make or Buy?

Mobilfunk-Kunden wollen zu jeder Zeit zuverlässig höchste Dienstgüte – auch auf Reisen in aller Welt.

QoS und QoE (Quality of Service und Quality of ­Experience) sind wettbewerbsentscheidende Kriterien für Mobilfunk- und ­Internet-Anbieter. Mobilfunk-Kunden wollen zu jeder Zeit zuverlässig höchste Dienstgüte – auch auf Reisen in aller Welt. Die Testverfahren hierzu sind aufwendig und verlangen eine globale Infrastruktur. Die SIGOS GmbH ist weltweit führender Anbieter für Infrastruktur und Lösungen zur Sicherstellung von Qualität in Mobilnetzen. Beim Hosting der kritischen Systeme verlässt sich das Unternehmen auf den Nürnberger IT-Dienstleister noris network AG.

Vorteile mittelständischer IT-Dienstleister gegenüber Branchenriesen

Unterstützung strategischer Geschäftsprozesse – Ingo Kraupa

Der Nürnberger IT-Dienstleister und RZ-Betreiber noris network ist in den letzten Jahren stetig gewachsen. Durch den Bau eigener, hochmoderner Rechenzentren und den Ausbau der Angebote an Outtasking- und Outsourcing-Leistungen wurde das Unternehmen zu einem mittelständischen IT-Dienstleister, der große Markenunternehmen zu seinen Kunden zählt.

Wie fit ist die IT-Infrastruktur für Modern Workplaces?

Mit innovativen, mobilen Endgeräten und Anwendungen flexibel und agil arbeiten – Arbeitnehmer haben klare Vorstellungen ihres zukünftigen Arbeitsplatzes. Doch allein der Wunsch danach reicht nicht. Die technischen Vorrausetzungen müssen seitens der IT-Infrastruktur gegeben sein. Und hier gibt es noch dringenden Handlungsbedarf, wie die von techconsult durchgeführte Multiclient-Studie »My Modern Workplace – welche künftigen Anforderungen haben…

IT-Outsourcing bei den Stadtwerken Crailsheim – Eine Frage der Kernkompetenz

Kommunale Energieversorger gelten als Kritische Infrastruktur nach § 2 der BSI-KRITIS-Verordnung. Dies bringt hohe Anforderungen und Kostenrisiken mit sich, denen man sich mit eigenem Personal und Kapazitäten stellen kann. Oder man macht es wie die Stadtwerke Crailsheim, die als KRITIS-Betreiber ihre Infrastruktur an einen entsprechend zertifizierten IT-Dienstleister ausgelagert haben.

Für jede Anwendung die richtige Migrationsstrategie finden

Immer mehr deutsche Unternehmen betreiben CRM-, ERP- und andere Systeme in der Cloud – das zeigt etwa die Studie ISG Provider Lens Public Cloud – Solutions & Service Partners Germany 2019 [1]. Die Vorteile liegen klar auf der Hand, aber um sie nutzen zu können, müssen komplexe Migrationsprojekte richtig durchgeführt werden. Eine Migration ist dann…

KI-Schub für Unternehmen: Sechs Entwicklungen, die zeigen, wie künstliche Intelligenz Prozesse im Alltag beflügeln

KI-Einsatzmöglichkeiten im Zusammenspiel mit Unternehmensanwendungen. Dass künstliche Intelligenz (KI) eines der Trendthemen schlechthin ist, steht außer Frage. Eine aktuelle PwC-Studie kommt jedoch zu dem Ergebnis, dass erst sechs Prozent der Unternehmen in Deutschland KI einsetzen oder implementieren – es gibt demnach immensen Nachholbedarf. Oracle hat jetzt Anwendungsbereiche im ERP- und Geschäftssoftware-Umfeld zusammengestellt, in denen KI…

Drei Cloud-Trends 2020 in der Energieversorgung: Die Cloud als Rettung im Kampf der Energiefresser

Der prognostizierte globale Stromverbrauch soll in den nächsten Jahren immens ansteigen. Dies stellt Energieversorger vor ungeahnte Herausforderungen. Dennis Martin, Experte bei der metalogic GmbH in München, gibt einen Ausblick, wie smarte, Cloud-basierte Lösungsansätze die gesamte Energiebranche revolutionieren. metalogic ist Marktführer im jungen Markt für Forecasting-as-a-Service Lösungen und Managed Prognose Services, zuletzt konnte die Firma einen…

Sichere Cloud: BSI stellt aktualisierten C5-Katalog vor

Seit seiner Veröffentlichung 2016 hat sich der »Cloud Computing Compliance Criteria Catalogue« (C5) des BSI zum etablierten und vielfach national und international umgesetzten Standard der Cloud-Sicherheit entwickelt. Da Cloud-Techniken schnellen Innovationen unterworfen sind, hat das BSI den C5 nun einer umfassenden Revision unterzogen. Der überarbeitete und aktualisierte C5 wurde heute im Rahmen einer Veranstaltung in…


Datenschutz im Home Office: Macht Zero-Trust-Technologie die Cloud sicher?

$
0
0

Illustration: Absmeier, fotocitizen

Rund ein Viertel der Deutschen arbeitet derzeit von Zuhause aus [1]. Rosige Zeiten für Hacker: Sie nutzen die Krise um COVID-19 für gezielte Cyberangriffe. Sicherheitsforscher sprechen im Rahmen der Corona-Pandemie von einer der größten E-Mail-Kampagnen durch Cyberkriminelle, die jemals unter einem einzigen Thema durchgeführt wurde [2]. Auch die deutsche Verbraucherzentrale warnt explizit vor Malware und Phishing [3].

 

E-Mail als Einfallstor für Hacker

Gerade E-Mails sind für die Angestellten im Home Office eine immer noch unterschätzte Gefahr. So verbreiten Cyberkriminelle etwa Dokumente mit Malware als angebliche Informationen rund um SARS-CoV-2 und nutzen so die Angst der Empfänger für kriminelle Zwecke aus. Wenn Mitarbeiter diese Dokumente dann auf Firmenrechnern oder privaten Rechnern mit Zugang zum Firmennetzwerk öffnen, ist es bereits zu spät.

Darüber hinaus missbrauchen Cyberkriminelle E-Mails häufig für Social Engineering. Auf diese Weise können Angreifer zum Beispiel Zugangsdaten erbeuten. Besonders problematisch ist das in Verbindung mit privilegierten Nutzerkonten, wie sie in den Rechenzentren vieler Unternehmen für Administrationsaufgaben vorgesehen sind. Denn diese Konten verfügen häufig über uneingeschränkte Zugriffsrechte. So verschaffen sich die Hacker Zugriff zu den Systemen des Unternehmens und entwenden oder manipulieren dort sensible Daten und Dokumente.

 

VPN oder lieber in die Cloud?

Trotz dieser bekannten Gefahren versenden viele Angestellte immer noch sensible Dateien per Mail oder öffnen unwissentlich gefährliche Dateianhänge. Unternehmen sollten ihre Mitarbeiter im Home Office daher sensibilisieren und dafür sorgen, dass die Angestellten beim Austausch schützenswerter Daten auf sichere und erprobte Methoden setzen.

Ideal sind beispielsweise geschützte VPN-Verbindungen oder – noch einfacher in der Anwendung – hochsichere Business-Clouds mit virtuellen Datenräumen. Hier empfehlen sich Dienste wie die Versiegelte Cloud der Deutschen Telekom oder idgard der TÜV-SÜD-Tochter uniscon, die vollständig auf privilegierte Zugänge für Administratoren verzichten und auf sogenannte Zero-Trust-Technologie setzen.

Dabei sorgen verschiedene ineinander verzahnte technische Maßnahmen für die nötige Sicherheit. Sie stellen zuverlässig sicher, dass Daten und Anwendungen innerhalb der Infrastruktur gegen Attacken und unbefugte Zugriffe geschützt sind. Dies gilt sowohl für gespeicherte Daten als auch für die Datenübertragung und -verarbeitung. Nicht einmal der Betreiber des Dienstes hat hier Zugang.

Anwendung findet diese hochsichere Sealed-Cloud-Technologie [4] bereits in Kliniken, staatlichen Einrichtungen und in Unternehmen mit besonders hohen Sicherheitsansprüchen; etwa als File-Sharing-Ersatz zum sicheren Datenaustausch oder für die sichere Verarbeitung von IoT-Daten. Im Home Office sorgt die Sealed Cloud für das Extra-Maß an Sicherheit – ohne, dass die Angestellten sich mit komplizierten Schlüsseln, VPN-Verbindungen und Erweiterungen befassen müssen.

 

________________________________________
[1] https://www.uni-mannheim.de/gip/corona-studie/
[2] https://www.sueddeutsche.de/digital/it-sicherheit-coronavirus-hacker-cybercrime-1.4859962
[3] https://www.verbraucherzentrale.de/aktuelle-meldungen/digitale-welt/achtung-phishing-wie-betrueger-die-coronakrise-in-emails-nutzen-45714
[4] https://de.wikipedia.org/wiki/Sealed_Cloud
Lesenswertes aus den Bereichen Cloud-Security und Datenschutz im Internet finden Sie auf www.privacyblog.de

 


 

Sealed Cloud: Personaldaten sicher schützen

https://pixabay.com/de

In deutschen Unternehmen gibt es einen Bereich, in dem Datenverarbeitung immer gleichbedeutend mit der Verarbeitung personenbezogener Daten ist: Human Resources. Denn Personaldaten haben definitionsgemäß stets einen Personenbezug und weisen damit in den meisten Fällen einen erhöhten Schutzbedarf auf.

 

Personaldaten: DSGVO diktiert die Regeln

Selbstverständlich sind personenbezogene Daten nicht erst seit Inkrafttreten der Datenschutzgrundverordnung angemessen zu schützen. Bereits das Bundesdatenschutzgesetz (alt) formulierte konkrete Regeln für den Umgang mit personenbezogenen Daten, die auch unter der DSGVO weiter Bestand haben:

  • Rechtsgrundlage zur Datenverarbeitung ist erforderlich
  • Daten dürfen nicht unbegrenzt gespeichert werden
  • Verarbeitung der Daten darf nur für den beabsichtigten Zweck erfolgen
  • Datenschutzverletzungen sind meldepflichtig
  • Daten sind angemessen zu schützen

Doch darüber hinaus fordert die DSGVO bei Zuwiderhandlungen empfindliche Strafen – vorgesehen sind Geldbußen von bis zu 20 Millionen Euro oder vier Prozent des weltweit erzielten Jahresumsatzes [1]. Besonders heikel: Pflichtverletzungen im Datenschutzbereich können Geschäftsführer und Vorstände persönlich ersatzpflichtig machen; diese haften dann gegebenenfalls auch mit ihrem Privatvermögen [2]. In Extremfällen können sogar Gefängnisstrafen verhängt werden [3]. Viele Unternehmen setzen daher auf vermeintlich sichere Storage-Angebote wie beispielsweise digitale Datenräume.

Risiko: Privilegierter Zugriff

Doch selbst, wenn die üblichen »technischen und organisatorischen Maßnahmen« zum Schutz der Daten getroffen werden, bleibt ein nicht zu unterschätzendes Restrisiko. Dieses Risiko besteht selbst dann, wenn die personenbezogenen Daten in einem virtuellen Datenraum oder einer Business Cloud abgelegt sind. Denn gerade organisatorische Maßnahmen wie etwa sorgfältig durchdachte Rechte- und Rollenkonzepte lassen sich mit verhältnismäßig überschaubarem Aufwand umgehen. Darüber hinaus können sich Administratoren in der Regel privilegierten Zugriff zu den Servern verschaffen und vertrauliche Daten einsehen, manipulieren oder entwenden. Das aber bringt die Verantwortlichen in Bedrängnis, denn diese haben die Integrität der Daten sicherzustellen.

 

Abhilfe durch Technik?

Um personenbezogene Daten wie Personaldaten vor Einsicht, Manipulation oder Verlust zu schützen, braucht es eine technische Lösung, die jeglichen – auch privilegierten – Zugriff zuverlässig unterbindet. Herkömmliche Public-Cloud-Angebote können diese Anforderung in der Regel nicht erfüllen. Sogar viele Business Clouds tun sich schwer, unerwünschte Datenzugriffe wirkungsvoll zu unterbinden – die meisten klassischen Server-Infrastrukturen sehen privilegierte Admin-Zugänge vor, beispielsweise zu Wartungs- oder Monitoring-Zwecken.

Einen besseren Ansatz verfolgen betreibersichere Infrastrukturen [4]: Hier wurden die organisatorischen Schutzmaßnahmen ausnahmslos durch technische Maßnahmen ersetzt, die sich auch mit hohem Aufwand nicht umgehen lassen. Die Server sind hermetisch abgeriegelt, ein privilegierter Admin-Zugriff ist nicht vorgesehen – eine Kenntnisnahme vertraulicher Daten ist ebenso ausgeschlossen wie Diebstahl und Manipulation. Das gilt nicht nur für Administratoren, sondern für alle externen und internen Angreifer.

Unternehmen, die zur Speicherung und Verarbeitung vertraulicher und personenbezogener Daten auf betreibersichere Cloud- und Datenraum-Angebote setzen, sind damit rechtlich auf der sicheren Seite. Stehen die Server noch dazu in einem EU-Land mit besonders hohem Datenschutzniveau wie etwa Deutschland, schafft dies zusätzlich Vertrauen. Die passenden Zertifikate erleichtern den Verantwortlichen überdies die Erfüllung ihrer Rechenschaftspflichten [5].

 

________________________________________

[1] https://dsgvo-gesetz.de/art-83-dsgvo/
[2] https://www.rosepartner.de/geschaeftsfuehrerhaftung-datenschutzrecht.html
[3] https://diligent.com/wp-content/uploads/2017/11/WP0032_US_The-GDPR-Checklist-for-Directors.pdf
[4] https://de.wikipedia.org/wiki/Sealed_Cloud
[5] https://dsgvo-gesetz.de/art-5-dsgvo/
Betreibersichere Infrastrukturen sind eine noch recht junge Alternative zu herkömmlichen Cloud-Infrastrukturen und werden wegen ihres hohen Datenschutzniveaus seit einigen Jahren zunehmend im geschäftlichen Umfeld eingesetzt. Dazu zählen unter anderem die versiegelte Cloud der Deutschen Telekom und die Sealed Platform der TÜV SÜD-Tochter Uniscon GmbH.

 

Sealed Cloud – Big Data mit Datenschutz

Sealed Cloud – Big Data mit Datenschutz

Big Data verheißt Transparenz und Einsicht in Geschäftsvorgänge: Wenn Unternehmen Massendaten systematisch auswerten können, bedeutet das oft einen erheblichen Wettbewerbsvorteil. Doch wo bleibt der Datenschutz? Eine Frage, die bei Kundendaten hohe Brisanz hat. Wer darauf eine befriedigende Antwort finden will, sollte aktuellen Entwicklungen in der IT-Sicherheitstechnologie seine besondere Aufmerksamkeit schenken.

3336 Artikel zu „Cloud Sicherheit“

Fehlkonfigurationen sind größtes Sicherheitsrisiko für die Cloud

Untersuchung zeigt: Cybersicherheit muss bei allen Punkten der Cloud-Migration berücksichtigt werden. Laut des neuesten Forschungsberichts zur Cloud-Sicherheit von Trend Micro sind menschliche Fehler und komplexe Implementierungsprozesse die Hauptgründe für Sicherheitsprobleme in der Cloud [1]. Das Marktforschungsunternehmen Gartner prognostiziert, dass bis 2021 über 75 Prozent der mittleren und großen Unternehmen eine Multi-Cloud- oder Hybrid-IT-Strategie einführen werden…

Sechs Schritte zur Sicherheit in der AWS Cloud

Wer hat auf was Zugriff? Wie wird kontrolliert, wer Zugriff hat? Und an welchen Stellen sind im Falle eines Cyberangriffs welche Maßnahmen einzuleiten? Die Zahl der Unternehmen, die auf die Vorteile einer Cloud-Infrastruktur von AWS setzen, wächst rasant. Unternehmen aller Größenordnungen sind dabei jedoch im Zuge der Shared Responsibility für einen Teil der IT-Sicherheit ihrer…

Cloud-native Sicherheitsplattformen – Neues Zeitalter in der Cybersicherheit

Herkömmliche Sicherheitstools und -methoden erweisen sich zunehmend als ungeeignet, um die entwicklergetriebenen und infrastrukturunabhängigen Multi-Cloud-Modelle der Cloud-Native-Ära zu schützen. Palo Alto Networks sieht darin den Beginn eines neuen Zeitalters in der Cybersicherheit, das dominiert wird vom Konzept einer Cloud Native Security Platform (CNSP) – einer Sicherheitsplattform, bei der Cloud-native Technologien im Mittelpunkt stehen.   Bei…

Cloud Security-Report: Schlechte Sicherheitshygiene führt zu einer Eskalation von Cloud-Schwachstellen

Der Cloud Threat Report deckt 199.000 unsichere Cloud-Templates auf und findet 43 Prozent der Cloud-Datenbanken unverschlüsselt vor. Palo Alto Networks hat aktuelle Forschungsergebnisse veröffentlicht, die zeigen, wie Schwachstellen bei der Entwicklung von Cloud-Infrastrukturen zu erheblichen Sicherheitsrisiken führen. Der Unit 42 Cloud Threat Report: Spring 2020 untersucht, warum Fehlkonfigurationen in der Cloud so häufig vorkommen. Der…

Wächter in den Wolken: Datensicherheit in der Cloud

Cloud Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt.…

Cybersecurity im Kontext von Industrie 4.0: Herausforderungen und Lösungen der Cloud- und IoT-Sicherheit

In der vernetzten Industrie 4.0 wird Cloud-Sicherheit zum Rückgrat des Internets der Dinge. Cloud Computing und das Internet der Dinge sind zwei Technologien, die zu Industrie 4.0 gehören. Martin Schauf, Senior Manager Systems Engineering bei Palo Alto Networks, erörtert die Herausforderungen bei der Sicherung von Cloud und IoT, wenn es darum geht, die Umstellung auf…

Cloud-Sicherheit: Unternehmen verlangen skalierbare Elastizität

Wenn Unternehmen ihre Sicherheit in die Cloud verlagern, profitieren Nutzer von einheitlichen Sicherheitsstandards und einer verbesserten Benutzererfahrung. Ein Aspekt ist dabei ähnlich wie bei traditionellen Sicherheitsansätzen. Sowohl für lokale als auch für Cloud-Sicherheitslösungen ist die Kapazitätsplanung von entscheidender Bedeutung, um Verzögerungen oder Störungen im Unternehmen zu vermeiden. Palo Alto Networks erläutert, worauf Unternehmen unter dem…

Cloud-Sicherheit durch Insider-Attacken gefährdet

Die Cloud macht Insider-Attacken leichter und zudem schwerer erkennbar.   Die Ergebnisse einer Studie von Cybersecurity Insiders in Zusammenarbeit mit Securonix, zeigen, dass die Cloud Unternehmen nicht nur anfälliger für Insider-Bedrohungen macht, sondern diese auch wesentlich schwieriger zu erkennen sind. Laut Angaben von 39 % der im Rahmen des 2019 Insider Threat Report befragten Cybersecurity-Fachkräfte…

Sicherheit in der Cloud: Darauf sollten Unternehmen heute achten

Die Cloud bietet zahllose Vorteile, auf die heute kaum mehr ein Unternehmen verzichten kann. Wer sich jedoch für den Schritt in die Cloud entscheidet, sollte sich im Vorfeld vor allem mit einem Thema auseinandersetzen: der Sicherheit. Die meisten denken dabei wohl zuerst an entsprechende Softwarelösungen. Wirkliche Sicherheit in der Cloud lässt sich jedoch nur über…

Reiseunternehmen Sales-Lentz nutzt die Sophos XG-Firewall aus der Cloud – Sicherheit für Mobilität aus der Cloud

Mobilität ist eines der großen Themen unserer Zeit. Das Reisen von A nach B ist heute ein komplexes Unterfangen, das – digital eingebettet – nicht nur ein Erlebnis für die Reisenden selbst, sondern auch für deren virtuelles -Publikum ist, organisatorische Höchstleistung mit sich bringt und auch bei privaten Reisen zu einem professionellen Maß an Effizienz gelangt ist. Mobilität entwickelt sich in rascher Geschwindigkeit weiter und ist große Aufgabe für Infrastruktur und Sicherheit.

Markt für E-Mail-Sicherheit boomt, da sich Cyberangriffe häufen und Unternehmen zunehmend Cloud-Mailboxen nutzen

Für integrierte Lösungen, die mit mehrstufigen, komplexen Angriffen umgehen können, werden erhebliche Wachstumschancen bestehen, so Frost & Sullivan. E-Mail ist zum bevorzugten Medium für die Verbreitung von Malware und Malware-freien Angriffen geworden, und Hacker haben begonnen, Social-Engineering-Techniken für das Vorgeben, jemand anders zu sein, und andere Formen von Täuschung und Betrug einzusetzen. Die ständig wachsende…

Cloud Security: Sechs Maßnahmen für effektive Cloud-Sicherheit

Sicherheitsverantwortung in der Cloud durch Shared-Responsibility-Modell: Unternehmen tragen als Kunden Eigenverantwortung für kritische Bereiche. Die zunehmende Nutzung von Public-Cloud-Ressourcen macht es erforderlich, dass Unternehmen ihre Sicherheitsverantwortung ernster nehmen. Basierend auf dem Modell der geteilten Sicherheitsverantwortung von Anbieter und Kunde ergeben sich einige entscheidende Anforderungen an zuverlässige Cloud-Sicherheit. Sechs grundlegende Maßnahmen für effektive Cloud-Sicherheit helfen das…

Rohde & Schwarz Cybersecurity und Utimaco bieten hardwaregestützte Sicherheit in der Cloud

Mit der Kombination von R&S Trusted Gate des IT-Sicherheitsexperten Rohde & Schwarz Cybersecurity und dem High-Security-Modul von Utimaco bieten die beiden Unternehmen jetzt auch hardwaregestützte Sicherheit in der Cloud. Kryptografisches Material kann separat in einem Hardware-Sicherheitsmodul generiert werden. Somit steht den Kunden zukünftig auch eine zusätzliche Hardwareoption zur Einhaltung höchster Sicherheitsanforderungen mittels R&S Trusted Gate…

Sicherheit in der Cloud: Herausforderungen bei Cloud-First-Strategie bewältigen

Die heutige vernetzte Welt basiert auf der Datenzugänglichkeit von überall, zu jeder Zeit und auf jedem Gerät. Die Geschwindigkeit und Agilität, die mit Hosting-Diensten und -Anwendungen in der Cloud einhergeht, sind für den Erfolg zentral. Die damit verbundenen Vorteile haben Unternehmen in den letzten Jahren gezwungen, zumindest einige und in manchen Fällen sogar alle ihre…

IT-Sicherheitsprognosen 2019 – Fokus auf die Cloud

Im Jahr 2019 werden Cyberkriminelle neue innovative Wege beim Ausnutzen von Sicherheitslücken finden. Sie werden weiterhin IoT-Geräte auf ihrem Radar haben und außerdem in der Cloud nach neuen Möglichkeiten suchen, um gefährdete Anwendungen angreifen zu können. Unternehmen sollten daher daran arbeiten, effektivere Sicherheitslösungen einzusetzen, die aber auch ihr Budget nicht überfordern.

Hosting und Colocation: Die intelligente Generation der IT-Infrastruktur

$
0
0

Hardware, Software, Infrastrukturen – mit ihnen ist das so eine Sache. Vom Start-up bis zum Enterprise-Konzern: Alle benötigen bestenfalls neueste, hochwertige und leistungsfähige IT, doch bedeuten diese Attribute automatisch einen großen Einsatz finanzieller Mittel. »Gerade Start-ups und noch relativ junge Mittelständler haben oft das Problem, dass sich die Anforderungen an die Infrastrukturen schnell ändern können und dann schon nach kurzer Zeit eine Systemüberlastung entsteht. Oder es wird in teure Systeme investiert, deren Möglichkeiten dann zwar bezahlt, aber nicht gänzlich genutzt werden«, weiß Torben Belz, Geschäftsführer der Plutex GmbH aus Bremen. Hosting- oder Colocation-Modelle stellen nicht nur kostengünstige Alternativen zu einem Kauf dar, sondern ermöglichen auch Flexibilität und steigern in manchen Fällen sogar die Datensicherheit.

 

Sicherheit geben viele noch ungern aus der Hand

»Egal ob es um Hosting geht oder das Auslagern der eigenen Hardware in eine Colocation. Die erste Frage von Kunden lautet immer: Wie sicher ist es, eigene Daten in fremde Hände zu geben?«, sagt Torben Belz. Professionelle Rechenzentrumsbetreiber wie Plutex arbeiten nach dokumentierten, transparenten Sicherheitsvorgaben und richten sich für die Sicherheit der Datenverwaltung nach DSGVO-konformen Prozessen und den Richtlinien zum Datenmanagement. Diese regeln eindeutig, wie mit den Daten in laufenden Prozessen zu verfahren ist und auch wie die Übergabe der Daten nach Beendigung eines Hosting-Vertrags aussieht. Nachdem alle Daten gesichert und an den Kunden übergeben sind, werden die nicht mehr genutzten Serversysteme komplett abgeschaltet, die Nutzer- und Kundendaten DIN-zertifiziert geschreddert. Neben der digitalen Sicherheit der Daten sorgen sich Geschäftsführer auch um den physischen Schutz in den fremden vier Wänden. Torben Belz erklärt: »Wer sich bei der Sicherheit der Daten Sorgen um das Gebäudemanagement macht, sollte bei der Wahl des Providers darauf achten, ob dieser für Informationssicherheit und Qualitätsmanagement durch den TÜV zertifiziert ist.« Rechenzentren und Service-Provider mit dieser Auszeichnung haben Sicherheitsstandards, die man als Unternehmen selbst in den meisten Fällen gar nicht erfüllen kann. So liegen Daten in den Rechenzentren oft sicherer als in den eigenen Unternehmenswänden. Spezielle Zutrittstechnik sorgt für Gebäudesicherheit und über digitale Protokolle ist nachvollziehbar, wer die Räume wann und wie lange betritt. Hinzu kommen Maßnahmen wie USV-Anlagen, die für eine unterbrechungsfreie Stromversorgung sorgen, redundant ausgelegte High-Speed-Internetanschlüsse oder auch besondere Bandschutzanlagen, die statt mit Wasser oder Schaum mit Sauerstoffentzug arbeiten, um vor Datenverlust durch Feuchtigkeit zu schützen.

 

Kosten müssen transparent sein

»Wer im Fall eines IT-Sicherheitsvorfalls oder Datenverlustes einen Service-Provider zur Hand hat, erhält schnelle Rettung. Liegt die gesamte Verwaltung in Form eines Managed Services in den Händen solcher Experten, werden alle IT-Systeme rund um die Uhr überwacht, so dass Sicherheitsrisiken oft im Vorfeld minimiert werden. Dennoch mögliche Sicherheitsvorfälle werden dank der lückenlosen Überwachung durch erfahrene Administratoren schnell erkannt und Gegenmaßnahmen ergriffen. Bei Störungen fahren sie die Systeme innerhalb weniger Stunden wieder hoch und stellen verlorene Daten dank 3-facher, georedundanter Speicherung direkt wieder her«, verdeutlicht Torben Belz. Hierin besteht ein weiterer Punkt, der bei Colocation oder Mieten von IT-Infrastrukturen von Unternehmen genau unter die Lupe genommen werden sollte: Was beinhaltet das Angebot im Detail? Denn je hochleistungsfähiger die Infrastrukturen sind, desto anspruchsvoller ist die Verwaltung – und die ist nicht immer inklusive. So sollten schon im ersten Beratungsgespräch folgende Punkte vom Anbieter angesprochen werden, weiß Torben Belz:

  • »Was braucht der Kunde? Wo macht es Sinn, Serverkapazitäten hinzu zu buchen? Hier muss der Anbieter ein Gespräch auf Augenhöhe führen und Ideen, Maßnahmen und Vorteile so erklären, dass IT-fremde Kunden auf Basis des Gesprächs eine selbstständige Entscheidung treffen. Fachchinesisch und Ausführungen, denen Kunden nur bedingt folgen können, stellen keine gute Vertrauensbasis dar. Wer kauft denn schon gern etwas, was er nicht versteht? Ebenso gehört zu einem guten Service ein fester persönliche Ansprechpartner, denn Kunden haben oft Bedenken, mit der Technik allein gelassen zu werden.«
  • »Wie sieht die finanzielle Seite aus? Zu einer guten Beratung gehört eine detaillierte Aufstellung für Miete von Racks oder Servern, die in Abhängigkeit der Anforderungen der Kunden an Rechenleistung und Speicher erfolgt. Und hier wird auch klar dargestellt, wie sich die Kosten verändern, wenn der Provider auch das Servermanagement, also die Verwaltung der Server, übernimmt. Dies sind zwar weitere Kosten, doch im Sinne der Kosten-Nutzen-Rechnung sollten sie durchaus in Betracht gezogen werden. So gehören Monitoring, Update- und Patchmanagement, Firewalls und Datensicherung sowie Backup-Management zum Thema Servermanagement.«
  • »Ein weitere Punkt, der beim ersten Gespräch geregelt werden sollte, sind die Laufzeiten: Vorteilhaft sind kurze Laufzeiten, bei denen eine Kündigung immer zum Monatsende möglich ist. Das ermöglicht den Kunden nämlich auch Serverleistungen sehr leicht und flexibel anzupassen, wenn dies nötig wird.«
  • »Alle Punkte mit Kunden-Anforderungen und Service-Leistungen sollten schriftlich definiert werden, um daraus anschließend ein sehr konkretes, detailliertes und vor allem transparentes Angebot erstellen zu können.«

Hosting und Colocation-Service können eigene, teure IT-Infrastrukturen komplett ersetzen und sind für Unternehmen aus allen Branchen sinnvoll. Mit der Auslagerung des Datenmanagements an einen Profi steigern Unternehmen die Sicherheit ihrer Daten, erreichen ein Höchstmaß an Flexibilität beim Aufbau ihrer Infrastrukturen und nutzen gleichzeitig Vorteile wie nachhaltiges und energieeffizientes Betreiben der Technologien, da moderne Rechenzentren hier entsprechende Maßnahmen umsetzen.

www.plutex.de

Foto: Plutex GmbH Rechenzenturm

 

C3 – Cloud, Connectivity und Colocation

Drei Zauberworte für die digitale Infrastruktur deutscher Unternehmen.   Eine neue Studie von 451 Research im Auftrag von Digital Realty hat die Herausforderungen untersucht, mit denen sich deutsche Unternehmen beim Auf- und Ausbau ihrer digitalen Infrastrukturen konfrontiert sehen [1]. Dabei spielen nicht nur die Verwaltung der eigenen IT, sondern auch der Zugriff auf andere Dienstleistungen…

Zahl und Vielfalt von Colocation-Rechenzentren nehmen zu

Auch in den vergangenen zwölf Monaten zog die Nachfrage nach Colocation-Rechenzentren weiter kräftig an. Dadurch verzeichnen nicht nur die etablierten Anbieter hohe Wachstumsraten. Auch kleinere und regionale Anbieter drängen zunehmend erfolgreich auf den Markt. Deshalb hat der neue große Anbietervergleich »ISG Provider Lens Germany 2018 – Infrastructure & Datacenter/Private Cloud« den Colocation-Markt wegen dieser schnell…

Colocation und Housing: Studie zu Infrastructure & Application Sourcing

Immer mehr Services werden vom Markt verlangt. Steigende Anforderungen sowie der Kostendruck zwingen die Unternehmen aus dem Mittelstand sowie den Großunternehmen zum Handeln. Mit der 2. Auflage der letztjährigen Studien »Infrastructure Services Vendor Benchmark« sowie »Application Services Vendor Benchmark« erfolgt eine Zusammenlegung beider Themen sowie ein Rebranding hin zu »ISG Provider Lens Germany 2018 –…

Hosting und Managed Infrastructure Services behaupten sich neben Cloud Services

Infrastructure Services sind trotz der zunehmenden Bedeutung von Cloud Services noch immer ein wesentlicher Pfeiler des IT-Marktes. Die wenigsten Unternehmen sehen es heute noch als zielführend an, eigene Rechenzentren zu bauen, zu unterhalten und auf einem angemessenen Standard zu halten. Gleichzeitig macht eine zunehmende Ressourcenknappheit im Bereich der qualifizierten Administratoren einen Eigenbetrieb schwierig. Entsprechend wächst…

Housing, Hosting und Managed Infrastructure Services immer noch extrem wichtig

Im erstmalig erstellten Infrastructure Services Vendor Benchmark 2016 untersuchte die Experton Group alle relevanten Dienstleister in den Bereichen Housing, Hosting und Managed Infrastructure Services. Die wichtigste Erkenntnis daraus ist, dass es praktisch keine schlechten beziehungsweise unreifen Service-Angebote bei relevanten Anbietern gibt. Unterschiede ergeben sich insbesondere in der Wettbewerbsstärke und in der strategischen Weiterentwicklung der bestehenden…

100-Gbit/s: Mit Peerings in die Poleposition

ColocationIX GmbH rückt an die Spitze deutscher Internet Service Provider und knackt die 100-Gbit/s-Marke. In der IT-Welt bieten circa 150.000 Internet Service Provider ihre Dienste an. Betrachtet man die Anzahl der Verbindungen zu gleichrangigen Computernetzwerken, so nimmt die ColocationIX GmbH aktuell den zweiten Platz der Internet Service Provider in Deutschland ein und ist zudem das…

Sechs Fragen rund um Multi-Cloud – Vorteile und Herausforderungen

Viele Unternehmen nutzen mehr als einen Public-Cloud-Anbieter. Man spricht hier von »Multi-Cloud«, als Abgrenzung zur Hybrid-Cloud. Was steckt hinter dem Trend? Welche Auswirkungen hat dies auf ein Unternehmen? Wann sollte mehr als eine Public Cloud genutzt werden und wann ist dies zu vermeiden? Rubrik, Anbieter von Multi-Cloud Data-Control, liefert heute Antworten auf sechs der häufigsten…

Modernes Rechenzentrum für Strom- und Gasversorger – Energieexperte EGT AG setzt bei Neubau auf Prior1

Vor über 120 Jahren in Triberg im Schwarzwald gegründet, stellt die EGT AG heute die Führungsgesellschaft der EGT Unternehmensgruppe dar. Sie ist inzwischen in drei Geschäftsbereichen tätig: Dem Bereich Energieservice mit individuellen und verbrauchsoptimierten Energielieferungen sowie der Beratung und Realisierung dezentraler Energieversorgungskonzepte mit geringstmöglichen CO2-Fußabdruck, dem Bereich Energienetze mit dem Betrieb von Strom-, Gas-, Wärmenetzen…

Mit der Cloud die Logistik modernisieren

Die Logistikbranche befindet sich in einem Wandlungsprozess: Neue Wettbewerber, hohe Serviceerwartungen der Kunden sowie Kostendruck stellen Branchenvertreter vor neue Herausforderungen. Damit sie diesen begegnen können, brauchen Logistikunternehmen moderne IT-Infrastrukturen, um sich effizienter und innovativer aufzustellen. Nutzen sie Cloud-Infrastrukturen, kann das funktionieren. Nur: Wer in die Cloud wechseln will, sollte sich nicht nur auf Chancen, sondern…

Künstliche Intelligenz benötigt gigantische IT-Ressourcen aus der Cloud

Die Ausbreitung der künstlichen Intelligenz (KI) wird zu einer massiv steigenden Nachfrage nach mehr Rechenleistung und Speicherkapazität aus der Cloud führen. »KI betrifft alle Bereiche der Informationstechnologie und kann nur erfolgreich genutzt werden, wenn entsprechende Kapazitäten zur Verfügung stehen. Das ist mit unternehmenseigenen Rechenzentren in der erforderlichen Qualität und dem nötigen Service nur mit hohem…

Videos, Webinare und Whitepaper: DE-CIX Academy gibt wertvolle Informationen  für die Peering-Praxis

DE-CIX, Betreiber des weltgrößten Internetknotens in Frankfurt am Main, hat für seine Kunden und andere Interessierte mit der DE-CIX Academy ein spezielles Schulungsprogramm aufgelegt. Dieses erfolgt weitgehend in Form von White Paper und Webinaren, an denen Zuschauer live teilnehmen oder sich die Aufnahmen im Nachgang ansehen können. Zusätzlich dazu werden Handout-Unterlagen zum Download bereitgestellt. Wolfgang…

Frischer Wind für emissionsfreie Rechenzentren

Nachhaltig, kostengünstig, hochverfügbar und hochsicher: Windcloud 4.0 führt den Rechenzentrumsbetrieb in eine klimaneutrale Zukunft. Eine durch Windkraft gespeiste, CO2-neutrale digitale Infrastruktur, die deutlich kostengünstiger ist als herkömmliche Systeme und zudem höchsten Sicherheitsanforderungen genügt – das ist keine Zukunftsmusik. Karl Rabe, Thomas Reimers und Wilfried Ritter haben Windcloud 4.0 in diesem Jahr in Nordfriesland gegründet. Derzeit…

Neues Loadbalancer-Angebot: die einfachste Lösung zum Aufbau einer hochverfügbaren Infrastruktur

Der europäische Marktführer im Cloud-Bereich OVH hat die Architektur seines Lastverteilers neu konzipiert und so eine Lösung entwickelt, um in nur wenigen Klicks eine 100 % verfügbare Infrastruktur zu errichten.   Auf der Grundlage der Open-Source-Lösungen HAProxy und Nginx kann der Loadbalancer nun jede Art von HTTP-, TCP- und UDP-Traffic verteilen. Die einfache Handhabung macht…

Wie Technologie die Zukunft des Gesundheitswesens rapide ändert – Gesunde Technik

$
0
0

Krankheitserkennung, Behandlung und Heilung haben in den letzten Jahren rasante Fortschritte gemacht und häufig findet die Arbeit dabei nicht mehr physisch im Labor, sondern virtuell im Rechenzentrum statt.

Für viele Menschen scheint es im Moment so, als würde die Welt stillstehen. Das Coronavirus und die daraus resultierende Krankheit COVID-19 haben das Alltagsleben von uns allen fest im Griff und noch immer scheint es keinen Ausweg zu geben. Dabei arbeiten hinter den Kulissen zahlreiche Menschen daran, eine Lösung für dieses globale Problem zu finden, so wie sie es schon bei so vielen Krankheiten getan haben. Und was bei aller Sorge um das Coronavirus untergeht ist, dass die Erkennung von Krankheiten und die spezifische Behandlung enorme Entwicklungsschritte zu verzeichnen haben.

Wer sich mit der Verbindung von Gesundheitswesen und Technologiebranche beschäftigt, kann eine Entwicklung von Innovationen erleben, die nur wenige Jahre vorher entweder als pure Zukunftsmusik oder als nahezu unmöglich gegolten hätten. Vergleicht man das mit früheren Innovationszyklen – die breite Verwendung des Stethoskops zog sich mehrere Jahrzehnte – ist insbesondere die Geschwindigkeit neuer Konzepte und Techniken beeindruckend. Wir arbeiten heutzutage mit virtuellen Organen, um klinische Tests zu optimieren, können medizinische Geräte per 3D-Drucker herstellen und Roboter führen lebensrettende Operationen durch. Diese und viele andere Entwicklungen verändern das Gesundheitswesen nachhaltig, entwickeln es weiter und schaffen mehr Effizienz, führen zu geringeren Kosten, Zeitersparnis und mehr Erfolg für Patienten in einem digitalen Zeitalter.

Ein entscheidender Bereich in dieser Schnittstelle ist und bleibt vor allem die Bereitschaft der Menschen, Daten und Informationen schnell und einfach, aber auch möglichst effizient und sicher zu teilen. Viele Faktoren wirken sich hier – positiv wie negativ – auf die Gesellschaft und die möglichen Weiterentwicklungen aus. Einerseits sind da Datenschutzbedenken auf allen Seiten, sei es rund um die DSGVO oder die allgegenwärtigen Cyberbedrohungen und die Tatsache, dass Privatpersonen in den letzten Jahren vermehrt ein Bewusstsein dafür entwickelt haben, was sie wann mit wem teilen und wo ihre Daten gespeichert werden; andererseits gehört die Aufbereitung von riesigen Datenmengen bereits heute für viele Menschen zum Alltag – sei es, weil sie sich aktiv damit beschäftigen, oder weil sie passiv davon profitieren – und zahlreiche Patienten lernen durch die Analyse ihrer persönlichen Healthcare-Daten, bewusster mit ihrer Gesundheit umzugehen und individuell für sich bessere Entscheidungen zu treffen.

Bei Technologie im Gesundheitswesen gibt es keine Einheitslösung. Dieser Bezug zum Individuum findet sich immer mehr in der modernen Medizin, auch durch die Fortschritte in moderner Datenverarbeitung. Zum einen geht es dabei darum, dass Medizin und Therapie zunehmend auf jeden einzelnen Patienten zugeschnitten werden, zum anderen macht man sich das Wissen der Patienten zu Nutze. Dabei kommen zahlreiche Technologien zum Einsatz, die seit Jahren Innovation in vielen unterschiedlichen Sektoren vorantreiben, nur eben maßgeschneidert auf das Gesundheitswesen – ein aus guten Gründen hochgradig reguliertes System. Doch dort, wo die regulatorischen Hürden genommen wurden, spielen heute weltweit Technologien wie künstliche Intelligenz (KI), Machine Learning oder das Internet of Things (IoT) eine Rolle. Aber auch alltäglichere Konzepte, wie Mobile Apps oder Gamification werden genutzt, um weitere Daten zu sammeln, indem Patienten von sich aus Informationen über ihren Zustand teilen. Ziel ist es mit alledem ein System zu schaffen, das jedem Einzelnen dabei hilft, gesund zu bleiben.

Die wichtigsten Aspekte dabei sind, wie schnell, wie weit und wie strukturiert Informationen geteilt werden können. Mediziner erzielen heute oft bessere Ergebnisse, wenn sie Zugriff auf mehr Daten in guter Qualität haben; zusätzlich brauchen sie die Tools, damit umzugehen und eine Plattform, die Schnittstellenverluste vermeidet. Auf der Makroebene kann das dazu führen, dass Medikamente und Medizinprodukte schneller entwickelt werden und damit schneller auf den Markt kommen können. Es kann aber vor allem auch dabei helfen, Therapie individuell auf einen Patienten abzustimmen. Wie wichtig das ist, sieht man weltweit in verschiedenen Bereichen. Gerade durch das Altern unserer Gesellschaft rücken Krankheiten wie Diabetes und Demenz mehr in den Fokus, die sich bei unterschiedlichen Patienten unterschiedlich entwickeln können und daher völlig individuelle Lösungsansätze benötigen.

Während wir bei den Datenmengen und der Geschwindigkeit der Datenübertragung bereits sehr weit sind, ist Struktur von Daten noch immer ein Problem. Nur etwa ein Fünftel aller Daten im Gesundheitswesen liegen strukturiert vor, wodurch es extrem schwierig wird, sie zu nutzen und gezielt für medizinische Zwecke einzusetzen. Wechselnde Datenschutzbestimmungen, Unwillen zu digitalisieren und veraltete Prozesse tun ihr Übriges, um Datenverarbeitung und Datenaustausch im Gesundheitswesen weiter zu optimieren.

Herausforderungen bleiben. Während wir also bereits große Weiterentwicklungen sehen, bedeutet das nicht, dass Technologie und Digitalisierung alle unsere Probleme im Gesundheitswesen gelöst haben. Es bestehen immer noch zahlreiche Herausforderungen, insbesondere wenn es um den unterschiedlichen Zugang zu Lösungen von Patienten auf der ganzen Welt geht. Nicht alle haben die Möglichkeit, von den modernsten Entwicklungen im Gesundheitswesen zu profitieren, oder sie haben insgesamt nur sehr wenig oder gar keinen Zugang zum Gesundheitswesen. Wir sehen dadurch ein weitreichendes Problem, insbesondere im Bereich der klinischen Studien: ein Mangel an Diversität. Denn trotzt aller technischer Weiterentwicklungen haben nach aktueller Schätzung nur 3 Prozent aller erwachsenen Krebspatienten die Möglichkeit, an klinischen Tests teilzunehmen (was ihnen potenziell Zugriff auf lebensrettende Medikamente ermöglicht). Ein Mangel an Diversität macht es aber wiederum umso wichtiger, dass Möglichkeiten geschaffen werden, um Menschen mit unterschiedlichen Hintergründen und Merkmalen einen technisch einfachen und barrierefreien Zugang zu Plattformen zu gewähren, über die sie ihre Informationen teilen können.

Wir sehen aber auch einen zusätzlichen wirtschaftlichen Drang, gerade Themen wie Datenschutz und Accessibility schnell anzugehen. Dabei sind es vor allem auch Consumer-Electronics-Unternehmen, die massiv beeinflussen, wie sich die Schnittstelle zwischen Gesundheitswesen und Technologie entwickelt. Es drängen heute große Tech-Unternehmen vermehrt auf den Gesundheitsmarkt, was schon an sich einen positiven Effekt auf die Innovation hat. Und dadurch, dass Technik immer bezahlbarer und weiterverbreitet wird – insbesondere Wearables und Sensoren, aber auch Gesundheits- und Fitness-Apps – wurden Veränderungen möglich, die vor ein paar Jahren noch undenkbar gewesen wären.


Christian Hebenstreit,
Senior Vice President & General Manager EMEA
bei Medidata

 

 

 

Illustration: © Peshkova /shutterstock.com

 

1613 Artikel zu „Gesundheit IT“

Wie künstliche Intelligenz hilft, Krankheiten zu bekämpfen – Revolution im Gesundheitswesen

Die Herausforderungen im Gesundheitswesen sind gewaltig. Die Kosten steigen, das Geld ist knapp und die Margen sinken. Gleichzeitig fehlt es an Pflegepersonal, die vorhandenen Fachkräfte sind überarbeitet. Kliniken müssen effizient wirtschaften, um Patienten die bestmögliche Versorgung zu gewährleisten – und gleichzeitig Datensicherheits- und Compliance-Anforderungen bei der Verarbeitung der anfallenden Daten sicherstellen.

Mit fortschreitender Pandemie überwiegt die finanzielle Unsicherheit die gesundheitlichen Bedenken

Der Nachrichtenkonsum steigt und die Menschen gestalten ihren Alltag achtsamer.   Die aktuelle Analyse des COVID-19-Barometers, der globalen Verbraucherstudie von Kantar, untersucht, wie die Menschen im Verlauf der Pandemie reagieren und sich an die »neue Normalität« anpassen. Die zweite Welle der Befragung von mehr als 30.000 Verbrauchern in über 50 Ländern zeigt unter anderem folgende…

Datenstrategie: Voraussetzungen für digitale Gesundheitsinnovationen »Made in Germany« schaffen

In seiner Stellungnahme äußert sich der Bundesverband Gesundheits-IT (bvitg) zum derzeitigen Entwurf der Datenstrategie der Bundesregierung. Darin würdigt der Verband die Strategie als wichtige Wegmarke, verweist aber gleichzeitig auf den weiterhin großen Regelungsbedarf bei der Verfügbarkeit und Verarbeitung von Gesundheitsdaten.   Um am Standort Deutschland die Verfügbarkeit und -bereitstellung von Daten zu erhöhen und datengetriebene…

Künstliche Intelligenz ist wichtiges Thema im Gesundheitswesen

Die Bedeutung von Technologie im Gesundheitswesen ist aktuell allgegenwärtiger denn je. Egal ob Telemedizin, die schnelle Auswertung von Befunden oder schlichtweg das Datenmanagement – moderne Informations- und Datentechnik spielt im Gesundheitswesen eine zentrale Rolle. Der Einsatz von künstlicher Intelligenz im Gesundheitswesen nimmt ebenfalls rasch zu, wie Pure Storage berichtet. KI wird bereits zur Verbesserung der…

Was den Gesundheitssektor so anfällig für Angriffe auf die Cybersicherheit macht

Der Gesundheitssektor ist wie jeder andere Industriezweig essentiell auf Software angewiesen. Sie spielt in praktisch allen Bereichen eine entscheidende Rolle. Bei der Diagnose, bei sämtlichen bildgebenden Verfahren und Messungen, der Überwachung, der Verabreichung von Medikamenten und beim Führen von Krankenakten. Ganz zu schweigen von administrativen Funktionen wie Terminplanung und Abrechnung. Leider ist die Cybersicherheit dabei…

Gesundheitssystem: Auf 1.000 Deutsche kommen 4,3 ÄrztInnen

In Deutschland kommen laut Angaben der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) auf 1.000 EinwohnerInnen 4,3 ÄrztInnen. Damit ist die Bundesrepublik im Vergleich mit anderen Corona-Krisengebieten gut versorgt, wie der Blick auf die Grafik zeigt. In den USA kommen beispielsweise auf 1.000 Menschen nur 2,6 ÄrztInnen mit Patientenkontakt. Indes sagten diese Zahlen wenig über…

Corona: Mehr Angst um Unternehmenserfolg als um Gesundheit

Wie groß ist die Angst der Deutschen vor dem Coronavirus (SARS-CoV-2)? Wie beeinflusst die aktuelle Situation den Arbeitsalltag in deutschen Büros und Fabriken? Und welche Maßnahmen ergreifen Unternehmen bislang? Die Jobplattform StepStone hat am Dienstag (3.3) mehr als 4.000 Menschen befragt, um herauszufinden, wie sich das Virus bislang auf die Arbeitswelt auswirkt. Demnach macht sich…

Gesundheits-Vorsätze 2019: Viel Wasser trinken, gut schlafen, weniger Zucker und Stress

Eine Auswertung der Präventions-App YAS von 17.928 Nutzern zeigt: 16 % integrierten neue Gewohnheiten nachhaltig (über 4 Wochen hinweg), 15 % meditierten jeden Monat, (6.073 Minuten insgesamt) und 22 % verbesserten ihre Schlafqualität. 13 % erreichten ihre selbst gewählten Ziele zu 100 % und setzten dabei mehrheitlich auf den niedrigsten Schwierigkeitsgrad. Fazit: »Weniger ist mehr!…

Der Ruf nach mehr Digitalisierung im Gesundheitswesen

In der Studie »Connected Healthcare Consumer Report« gaben 6.000 Privatpersonen aus neun Ländern, davon über 500 aus Deutschland über ihre Meinung zum Versorgungssystem, zu Versicherern sowie Pharma- und Medizintechnikunternehmen Auskunft [1]. Zu den wichtigsten Erkenntnissen zählt, dass die Branche den Erwartungen der Patienten nicht gerecht wird. Die Hälfte (50 %) der Befragten aus Deutschland findet,…

Geistige Gesundheit (eigentlich) genauso wichtig wie körperliche

Die meisten Deutschen (84 %) halten die eigene geistige Gesundheit für genauso wichtig wie ihr körperliches Wohlbefinden. Gleichzeitig haben weniger als vier von zehn Bundesbürgern (39 %) den Eindruck, dass das derzeitige Gesundheitssystem psychischen Erkrankungen denselben Stellenwert einräumt wie körperlichen Beschwerden. Das ist das Ergebnis einer globalen Studie des Markt- und Meinungsforschungsinstituts Ipsos im Auftrag…

Digitalisierung: Das sind die größten Baustellen der Gesundheitsbranche

  Die Gesundheitsbranche hat noch Nachholbedarf bei der Digitalisierung. Das zeigt eine aktuelle Studie des Branchennetzwerks Healthcare Frauen (HCF). Die Bedeutung des Themas ist aber inzwischen in den Köpfen der Verantwortlichen angekommen.   Mit der von adesso gesponserten und maßgeblich mitkonzipierten Studie »DIG-IN Digitaler Healthcare Index 2019« der HCF liegen erstmals belastbare Zahlen zur Digitalisierung…

China 2019: Erfolg, Sicherheit und Gesundheit sind die drei wichtigsten Werte der chinesischen Konsumenten

Der Werte-Index China 2019 analysiert erstmalig Diskussionsbeiträge in chinesischen Social-Media-Kanälen. Die Ergebnisse bieten deutschen Unternehmen wichtige Erkenntnisse über die aktuelle Wertewelt der in China lebenden Menschen. Nach der Studie sind für chinesische Internetnutzer Erfolg, Sicherheit und Gesundheit aktuell die drei wichtigsten Werte. Im Vergleich dazu sind es in Deutschland laut dem Werte-Index 2018 die Werte…

Gesundheit am Arbeitsplatz: Verantwortung für Führungskräfte, aber auch für jeden Einzelnen

Wer im Service arbeitet, tickt »etwas« anders – das hört man oft, und das ist positiv gemeint. Engagierte Mitarbeiter leben den Service, für sie ist der Dienst am Kunden eine emotionale Angelegenheit, eben eine Lebensaufgabe. Aber je nach Einsatzbereichen ist auch eine gewisse Last zu tragen, angefangen von der Verantwortung über den Dialog zum Kunden…

Cyberbedrohungen im Gesundheitswesen unter der Lupe

Angesichts der vielfältigen Bedrohungsszenarien in Klinikumgebungen ist ein neuer Sicherheitsansatz erforderlich. Die Technologie im Gesundheitswesen ist aktuell gekennzeichnet durch Vernetzung smarter medizinischer Geräte und Digitalisierung von Patientenakten. Der schnelle Ausbau der digitalen Datenumgebung führt gleichzeitig dazu, dass eine enorme Menge an sensiblen Gesundheitsdaten produziert, bewegt und gespeichert wird. Durch die voranschreitende Vernetzung und Digitalisierung wächst…

Datenschutz und Verschlüsselung im Gesundheitswesen siechen vor sich hin

Studie des Gesamtverbandes der Deutschen Versicherungswirtschaft (GDV) offenbart: Sensible Daten von Patientinnen und Patienten nicht ausreichend geschützt. Um den Datenschutz im Gesundheitswesen ist es schlecht bestellt: Eine neue Studie der GDV zeigt, dass Ärzte sowie Apotheken hierzulande nachlässig im Umgang mit Passwörtern sind. Hinzu kommt die Tatsache, dass viele auf Verschlüsselung verzichten – fatal, wenn…

#Changehabits: Mit einer Gesundheits-App ziehen neue Gewohnheiten in den Alltag ein

Das mehrfach ausgezeichnete Health-Startup YAS.life erweitert seine kostenlose Motivations-App YAS um das Feature »Gesundheitsziele«. Das neue Tool gibt Impulse in den Bereichen Fitness, Ernährung und Mentales Wohlbefinden. Dabei funktioniert YAS ohne erhobenen Zeigefinger und motiviert niederschwellig und individuell. Finanziert wird das Präventionsprogramm, das auf selbstlernenden Algorithmen basiert, von der Pro FIT Förderung der Investitionsbank Berlin…

Report: Cloud-fähige IT-Infrastrukturen sind der Schlüssel für erfolgreiche Digital Platforms

$
0
0

Neue Studie untersucht Erfolgskriterien digitaler Plattformen und zeigt Unternehmen Ansätze zum Aufbau erfolgreicher digitaler Geschäftsmodelle auf.

Illustration: Absmeier, Stocksnap, Jarmoluk

Equinix hat die Ergebnisse eines neuen Forschungsberichts veröffentlicht, der vom IT-Analystenhaus Crisp Research, der heutigen Research-Marke von Cloudflight, durchgeführt wurde. Die Studie »Digital Platforms – Reifegrad und Designkriterien für erfolgreiche digitale Geschäftsmodelle« kommt zu dem Ergebnis, dass Unternehmen, die in den Aufbau digitaler Plattformen investieren, langfristig strategische Wettbewerbsvorteile schaffen können – vorausgesetzt, sie setzen auf die Vernetzung innerhalb eines digitalen Ökosystems.

Die neue Studie bietet einen Einblick in den Reifegrad und aktuellen Status von Digital Platforms im deutschen Markt – von Start-ups über den Mittelstand bis hin zu DAX-Konzernen. Der Bericht erläutert, wie Unternehmen digitale Geschäftsmodelle gewinnbringend implementieren können und inwiefern sich Branchen wie das Finanzwesen, die Automobilindustrie, das Gesundheitswesen oder der Telekommunikationssektor hinsichtlich der Plattformreife voneinander unterscheiden.

Unternehmen aller Branchen setzen dabei auf eine solide IT-Infrastruktur, die das Fundament effektiver digitaler Plattformen bilden. Die wichtigsten Merkmale lauten: »dezentral, cloud-ready, hochgradig vernetzt und automatisiert«. Allen digitalen Plattformen ist ein zentrales Merkmal gemeinsam – sie verbinden Infrastrukturen, Daten, Dinge und Menschen miteinander. Indem sie dezentrale und hochgradig vernetzte Infrastrukturen bereitstellen, bieten Rechenzentrumsunternehmen wie Equinix ideale Voraussetzungen für Unternehmen, um die digitale Transformation weiter voranzutreiben. Sie stellen dabei nicht nur zusätzliche IT-Kapazitäten zur Verfügung, sondern eröffnen auch Zugang zu einem umfassend vernetzten digitalen Ökosystem aus Partnern, Clouds und Services, die den Datenaustausch und damit den Aufbau von Plattformen und die Umsetzung von Innovationen erleichtern.

 

Highlights

 

  • Laut Report werden die Top-100-Unternehmen in Deutschland im Jahr 2020 etwa 20 % ihrer Umsätze direkt aus dem digitalen Geschäft erzeugen. So bietet die Nutzung digitaler Plattformen den Unternehmen neue Vermarktungs- und Umsatzmöglichkeiten. Voraussetzung dafür ist der Aufbau einer Plattformökonomie, in der mehrere Akteure einer Branche digital zusammentreffen und miteinander vernetzt sind.
  • Business-Ökosysteme sind ein zentrales Design- und Erfolgskriterium digitaler Plattformen. So werden Kollaborationen sowie der direkte Zugang zu solchen Ökosystemen immer wichtiger – mehr als die Hälfte (59 %) der im Rahmen der Studie befragten IT-Entscheider beabsichtigen, über die Beteiligung an einem digitalen Ökosystem gemeinsam mit Partnern digitale Lösungen und neue Produkte zu entwickeln. 90 % attestieren dem Ökosystem eine Bedeutung für das eigene Geschäftsmodell, wobei 32 % davon eine hohe bis sehr hohe Bedeutung angeben.
  • Der Report prognostiziert dementsprechend, dass unternehmenseigene Rechenzentren in Zukunft weiter an Relevanz verlieren und die Services externer Colocation-Anbieter dafür immer stärker nachgefragt werden. So gehen IT-Entscheider im Rahmen der Studie davon aus, dass unternehmenseigene Rechenzentren 2020 mit 42 % nur noch einen Teil der IT-Architektur ausmachen werden. Zum Zeitpunkt der Durchführung der Befragung im Jahr 2019 lag der angegebene Teil der eigenen Rechenzentren noch bei 60 %.
  • Der Bericht empfiehlt Unternehmen, die digitale Plattformen aufbauen, einen Bottom-up-Ansatz. Dieser sieht den Aufbau einer soliden und global vernetzten IT-Infrastruktur als Fundament der digitalen Plattform vor. Der Einsatz innovativer Technologien wie KI oder Quantencomputing kann künftig dabei helfen, die Wettbewerbsfähigkeit weiter zu stärken.
  • Unternehmen können verteilte Infrastrukturen und digitale Ökosysteme weltweit direkt, sicher und dynamisch miteinander vernetzen und sie mit Clouds und Netzwerkanbietern verbinden, indem sie die Network Edge Services von Equinix mit Equinix Cloud Exchange Fabric™ kombinieren – und so ihre Reichweite auf potenziell Tausende neuer Geschäftspartner auf der ganzen Welt ausdehnen.
  • Laut einer separaten von Equinix in Auftrag gegebenen, unabhängigen Umfrage unter mehr als 2.450 führenden IT-Entscheidern weltweit, an der 103 Personen in Deutschland teilnahmen, sehen fast zwei Drittel (64 %; 57 % in Deutschland) der globalen IT-Entscheidungsträger die Digitalisierung ihrer IT-Infrastruktur als Priorität an. Die Optimierung der Netzwerkleistungen und die Reduzierung von Latenzzeiten wurde von mehr als der Hälfte der Befragten weltweit (59 %; 41 % in Deutschland) als Priorität genannt.

Anna-Lena Schwalm, Tech Analyst & Consultant, Cloudflight:

»Digitale Plattformen, vernetzte Infrastrukturen und Business-Ökosysteme werden immer wichtiger für den langfristigen Geschäftserfolg der Unternehmen. Einige Digitalentscheider sind bereits auf dem richtigen Weg, haben allerdings noch zahlreiche Hausaufgaben zu erledigen, um im Spiel der digitalen Plattformen obenauf zu sein und ihr Potenzial voll ausschöpfen zu können.«

 

Jens-Peter Feidner, Managing Director, Deutschland, Equinix:

»Digitale Plattformen bilden das Herzstück der digitalen Transformation. Die Ergebnisse der Cloudflight-Studie haben uns nochmals verdeutlicht, dass es bei deutschen Unternehmen bereits viele Ansätze gibt, digitale Prozesse zu etablieren. Wir sehen es dabei als unsere Aufgabe an, Unternehmen beim Aufbau entsprechender Infrastrukturen, die eine sichere und schnelle Vernetzung und damit den Geschäftserfolg ermöglichen, zu unterstützen.«

 

Zusätzliche Ressourcen

 

65 Artikel zu „Plattform Ökonomie“

Plattform-Experten sind in den Chefetagen Exoten

Nur fünf Prozent der Manager halten sich selbst für Plattform-Experten. Jeder vierte Manager hat noch nie etwas von digitalen Plattformen gehört. Nur die wenigsten Geschäftsführer und Vorstände in Deutschland kennen sich wirklich gut mit digitalen Plattformen aus – aber dennoch haben sie in der großen Mehrheit die Verantwortung für das Thema an sich gezogen. So…

»Wir brauchen international erfolgreiche Plattformen«

Von digitalen Plattformen profitieren alle. 3 von 5 Deutschen sehen Vorteile für Kunden, die auf Plattformen einkaufen. 57 Prozent der Deutschen shoppen auf Plattformen, 27 Prozent bieten dort Produkte oder Services an. Digitale Plattformen bringen verschiedene Anbieter, Partner und Kunden auf den unterschiedlichsten Märkten zusammen. Weltweit werden so Milliardenumsätze erzielt und ganze Branchen grundlegend verändert.…

Wirtschaft in Deutschland investiert in digitale Plattformen

Digitale Plattformen machen als Geschäftsstrategie Schule in Deutschland. Fast jedes zweite für eine Studie befragte Unternehmen steckt mitten im Aufbau, jedes fünfte ist bereits Betreiber einer digitalen Plattform. Als Vorbild für die strategische Ausrichtung als Plattform stehen unter anderem große Internetkonzerne und Vergleichsportale. Für 93 Prozent der befragten Experten werden digitale Plattformen in Zukunft eine…

Digitale Plattformen verändern den ERP-Markt

■ Anbieter müssen neue Geschäftsmodelle entwickeln. ■ Derzeit fehlt es noch an Standards für Schnittstellen in der ERP-Welt. ■ Bitkom veröffentlicht Positionspapier »Digitale Plattformen und ERP«.   Beschaffung planen, Zahlungsausgänge pünktlich organisieren oder die Produktion steuern: Dank Enterprise-Resource-Planning-Systemen sind eine Vielzahl von Geschäftsprozessen in Unternehmen längst digitalisiert. Doch die fortschreitende Digitalisierung führt auch dazu, dass…

Mehrheit hat noch nie etwas von digitalen Plattformen gehört

■  54 Prozent der Unternehmen kennen den Begriff Plattform-Ökonomie nicht. ■  Jeder Dritte, der damit etwas anfangen kann, hält Plattformen für sein Unternehmen nicht für relevant. Digitale Plattformen erwirtschaften Milliarden-Umsätze und haben in den vergangenen Jahren ganze Branchen wie die Hotelbranche, den Handel oder auch die Musik- und Filmindustrie grundlegend verändert. Doch deutsche Unternehmen tun…

Ganzheitliches Enterprise Information Management: Digitale Plattformen – die Marktplätze von heute

Im B2C-Bereich mit Ebay, Uber und Co. bereits fest etabliert, werden plattformbasierte Geschäftsmodelle auch für B2B-Unternehmen zunehmend interessanter. Sie ermöglichen es, ihr Produkt- und Dienstleistungsspektrum auf digitaler Ebene zu erweitern sowie eine starke Vernetzung innerhalb der gesamten Wertschöpfungskette. Die technologische Basis bildet dabei ein ganzheitliches Enterprise Information Management (EIM).

Datenökonomie kann mit souveränen Nutzern rechnen

Datensouveränität: Große Mehrheit der Deutschen trifft bewusste Entscheidungen über Verwendung ihrer Daten im Netz. 50 Prozent der Nutzer wünschen sich mehr Transparenz über Verwendung der Daten. eco: Datenschutz-Grundverordnung bietet ausgewogene Regelung Personalisierung und Nutzerzentrierung sind eine Voraussetzung für den Erfolg digitaler Dienste. Dazu erheben diese Dienste Daten – oftmals mit Personenbezug. Die sogenannte Datenökonomie führt…

Digitale Plattformen sind Chance und Bedrohung zugleich

62 Prozent haben noch nichts von digitalen Plattformen gehört. Jedes zweite Unternehmen, das sich mit Plattform-Märkten beschäftigt, hat für das eigene Unternehmen relevante Plattformen entdeckt – und nutzt diese auch. Die Digitalisierung führt dazu, dass sich auf immer mehr Märkten digitale Plattformen etablieren – doch die meisten deutschen Unternehmen wissen mit dieser Entwicklung immer noch…

Digitale Plattformen sind vielen Top-Managern kein Begriff

■      60 Prozent ist die Entwicklung zur Plattform-Ökonomie unbekannt. ■      Digitalisierung verändert Privatkunden- und Business-to-Business-Märkte. ■      Unternehmen brauchen eine Plattform-Strategie. Eine der zentralen Entwicklungen im Zusammenhang mit der Digitalisierung der Wirtschaft ist einer Mehrheit der deutschen Top-Manager unbekannt: Sechs von zehn Geschäftsführern und Vorstandsmitgliedern (60 Prozent) von Unternehmen ab 20 Mitarbeitern wissen nicht, was die…

Wie digitale Wirtschaftssysteme eine »Wir-Ökonomie« schaffen – fünf Trends

Künftig arbeiten erfolgreiche Unternehmen nicht mehr als isolierte Organisationen, sondern als Teil einer digitalen »Wir-Ökonomie«. Diese neue Wirtschaftsform basiert auf digitalen Plattformen und vernetzten Systemen, die die bisherigen Grenzen unterschiedlicher Industriezweige verschwimmen lassen. Accenture spricht in der »Technology Vision 2015« von einer 180-Grad-Wendung in der Art wie wir arbeiten und leben [1]. »Zuletzt konnten wir…

Viele Unternehmen halten nur 6 Monate durch

https://de.statista.com/infografik/21544/anteil-der-befragten-dazu-wie-lange-ihr-betrieb-mit-anti-pandemie-massnahmen-noch-ueberleben-kann/?utm_source=Statista+Global&utm_campaign=26425070ab-All_InfographTicker_daily_DE_PM_KW18_2020_MI&utm_medium=email&utm_term=0_afecd219f5-26425070ab-297819997 https://de.statista.com/infografik/21544/anteil-der-befragten-dazu-wie-lange-ihr-betrieb-mit-anti-pandemie-massnahmen-noch-ueberleben-kann/?utm_source=Statista+Global&utm_campaign=26425070ab-All_InfographTicker_daily_DE_PM_KW18_2020_MI&utm_medium=email&utm_term=0_afecd219f5-26425070ab-297819997 Viele deutsche Unternehmen sehen ihre Existenz bedroht durch die Coronakrise. Das geht hervor aus der April-Umfrage des ifo Instituts. 29,2 Prozent der befragten Firmen sagten, sie könnten drei Monate oder kürzer überleben, wenn die pandemiebedingten Einschränkungen noch für längere Zeit bleiben würden. Sechs Monate oder kürzer könnten 52,7 Prozent durchhalten. »Das sind beunruhigende…

Digitalindex rutscht ins Minus

ITK-Unternehmen bewerten Geschäftslage noch als befriedigend, blicken aber pessimistisch in die Zukunft. Präsident Berg: »Wir befinden uns an einem Digital Turning Point«.   In der Digitalbranche hat sich die Stimmung im April weiter eingetrübt. Unter dem Eindruck der Corona-Krise fiel der Index für die Geschäftslage um 20,1 Zähler auf 0,9 Punkte. Damit bewerten die IT-…

Finanzhilfen: Der deutsche Corona-Schutzschirm ist gewaltig

Das Volumen der deutschen Corona-Finanzhilfen umfasst laut einer Aufstellung des Think Tanks Bruegel aktuell über zwei Billionen Euro – das entspricht 60 Prozent der Wirtschaftsleistung des vergangenen Jahres. Damit mobilisieren Bund und Länder deutlich mehr Mittel als andere Staaten, wie der Blick auf die Statista-Grafik zeigt. Der deutsche Schutzschirm setzt sich aus 236 Milliarden Euro…

SBBS besser als Corona-Bonds

Abhängigkeit von Banken und EU-Staaten ist nach wie vor sehr hoch. Banken haben noch immer einen Anreiz, vor allem Staatsanleihen ihres Heimatlandes zu kaufen. Der sogenannte Home Bias hat sich daher in vielen EU-Ländern kaum zurückgebildet. Sollten Banken verpflichtet werden, Staatstitel mit Eigenkapital zu hinterlegen, würde sich Problem der geringen Streuung in den Anleiheportfolios sogar…

Ökonomen loben Hilfen der Bundesregierung zur Bekämpfung der Coronakrise

Wirtschaftswissenschaftler an deutschen Universitäten finden die Hilfsmaßnahmen der Bundesregierung gut, so das Ergebnis des ifo Ökonomenpanels, das zusammen mit der FAZ erstellt wird. 155 Professoren*innen nahmen teil. Zwei Drittel der Befragten nannten den Nachtragshaushalt über 156 Milliarden Euro angemessen. »Nun zeigt sich, wie wichtig es war, Rufen nach mehr Schulden in den letzten Jahren eine…

Corona-Krise: Weniger Hamsterkäufe und ein Shift von offline zu online

Fast jeder Dritte kauft weniger offline als vor der Krise. Die Hamsterkäufe der letzten Wochen scheinen langsam abzunehmen, aber dafür tragen die Befragten im Vergleich zur Vorwoche vermehrt Mundschütze (+8 %-Pkt.; 8 % vs. 16 %). 90 % der Deutschen verbringen mittlerweile den größten Teil ihrer Zeit Zuhause. Das trägt auch dazu bei, dass nun…

Expertengruppe plädiert für Stufenplan für die Zeit nach dem Shutdown

Die geltenden Beschränkungen in Gesellschaft und Wirtschaft allmählich zu lockern und dabei die medizinische Versorgung der gesamten Bevölkerung zu sichern – dafür plädiert jetzt eine interdisziplinäre Gruppe renommierter Wissenschaftler. In ihrem Positionspapier zeigen die Forscher um ifo-Präsident Clemens Fuest und Martin Lohse, Präsident der Gesellschaft Deutscher Naturforscher und Ärzte, Wege zu diesem Ziel auf. Die…

Grüne Rechenzentren statt heißer Luft

$
0
0

https://www.incampus-tec.de

Auf dem IN-Campus in Ingolstadt wird Audi künftig die Abwärme des Rechenzentrums als Heizenergie nutzen. (Bild ©Audi AG, Audi IN-Campus: https://www.incampus-tec.de )

 

Nicht nur der gestiegene Serienkonsum auf Netflix, Amazon Prime und Co. stellt die Kapazitäten der Rechenzentren auf eine harte Probe. Auch unzählige E-Mails, Social Media Posts, Videokonferenzen oder Kryptowährungen wie Bitcoin tragen zu einem gigantischen Datenverkehr bei. Die Folge ist ein extrem hoher Energieverbrauch. »Konzepte für umweltfreundliche Rechenzentren müssen auch in Deutschland stärker Einzug halten«, sagt Klaus Dederichs, Head of ICT beim auf Bau- und Immobilien spezialisierten Beratungs- und Planungsunternehmen Drees & Sommer mit Sitz in Stuttgart. Aktuelle Projekte wie der Technologiepark IN-Campus von Audi in Ingolstadt gehen mit einem ausgeklügelten Energiekonzept und Abwärmenutzung mit gutem Beispiel voran.

 

Gemäß einer kürzlich veröffentlichten Bitkom-Studie beträgt global das CO2-Äquivalent von Rechenzentren und Kommunikationsnetzen etwa 200 bis 250 Megatonnen [1]. »Unser digitaler Alltag, beruflich wie privat, braucht Unmengen an Strom, verursacht CO2 und wirkt sich erheblich auf das Klima aus. Eine Stunde auf Netflix zu streamen, benötigt genau so viel Energie, wie etwa sieben Kilometer mit dem Pkw durch die Stadt zu fahren«, erklärt Dederichs.

 

Verbrauch entspricht Berlins Strombedarf

Zu einem umweltfreundlicheren Energieverbrauch der Digitalisierung müssen künftig grünere Rechenzentren beitragen. Schätzungen zufolge werden Data Center bis zum Jahr 2025 bis zu einem Fünftel des globalen Stromverbrauchs ausmachen [2]. Wo genau er derzeit weltweit liegt, ist aufgrund fehlender Angaben vieler Betreiber unklar. Die Bandbreite reicht von 200 bis 500 Milliarden Kilowattstunden pro Jahr. Laut Berechnungen des Borderstep Instituts entfielen auf die geschätzt mehr als 55.000 deutsche Rechenzentren, davon viele im Eigenbetrieb der Unternehmen oder Banken, etwa 13 Milliarden Kilowattstunden pro Jahr [3]. Das entspricht dem gesamten jährlichen Strombedarf einer Großstadt wie Berlin.

 

Luft nach oben bei der Abwärme

Bei Drees & Sommer begleitet Dederichs mit seinem ICT-Team derzeit die Konzeption, den Bau und Betrieb zahlreicher Rechenzentren. Bei letzterem bieten nicht nur erneuerbare Energien viel Potenzial in Sachen Nachhaltigkeit. Luft nach oben sieht Dederichs vor allem auch bei der Nutzung der Abwärme.

Andreas Ahrens, Rechenzentrumsexperte bei Drees & Sommer stimmt ihm zu: »Beim Betrieb der Data Center erhitzen sich die Server, was erfordert, sie kontinuierlich zu kühlen. Es entsteht Wärme, die ungenutzt verpufft, statt mit ihr angrenzende Bürogebäude, Wohnungen oder Gewächshäuser zu heizen.« Anders als in Schweden existierten in Deutschland noch zu wenig Rechenzentren, die an das Nah- und Fernwärmenetze angeschlossen seien. In Stockholm gibt es bereits rund 30 Rechenzentren, die ihre Abwärme in das Stockholmer Fernwärmenetz einspeisen. Bis 2035 sollen sie sogar etwa zehn Prozent des Heizbedarfs von Stockholm decken.

 

Abnehmer im Sommer wie Winter finden

Warum die Abwärmenutzung in Deutschland noch hinterherhinkt, dazu führt Ahrens aus: »Über das gesamte Jahr gibt ein Rechenzentrum Abwärme ab. Ideal sind daher benachbarte Abnehmer, die sie permanent und nicht nur im Winter zum Heizen benötigen. Das gilt für Schwimmbäder, Wäschereien oder für landwirtschaftliche Vorhaben wie Urban Farming. Das muss eine Stadt oder Kommune frühzeitig bei Genehmigungen berücksichtigen und kluge Quartiersplanungen fördern«.

Laut Ahrens reiche bei den meisten Data Center die Temperatur der Abwärme mit bis zu 30 Grad Celsius für direkte Heizzwecke zumeist nicht aus. Hier könne es sich lohnen, über den Einbau sogenannter Niedertemperaturheizungen bei angrenzenden Büro- und Wohngebäuden nachzudenken. Alternativ könnten die Rechenzentrumsbetreiber mittels Wärmepumpen die Temperatur auch erhöhen. »Das steigert jedoch die ohnehin schon erheblichen Herstellungs- und Betriebskosten der Betreiber. Die Kosten für die Temperaturerhöhung müssen daher unter dem Verkaufspreis für die Wärme liegen, damit es sich für die Betreiber rechnet«, sagt Ahrens.

 

Anreize für Umweltfreundlichkeit schaffen

Letzteres erschweren die hohen Strompreise in Deutschland, woran das Erneuerbare-Energien-Gesetz (EEG) mit der gleichnamigen Umlage einen großen Anteil hat. Drees & Sommer-Partner Klaus Dederichs befürwortet, Rechenzentren von der EEG-Umlage zu befreien, bei denen die Abwärme genutzt wird: »Die Data Center erfüllen dann ja das EEG-Ziel, nämlich umweltfreundliche Energien zu fördern«.

Insbesondere Skandinavien punktet bei Rechenzentren-Betreibern mit niedrigen Strompreisen, geringen Kosten für die Kühlung und teilweise auch mit Steuervergünstigungen. Im vergangenen Jahr stoppte Amsterdam allerdings den Bau von Rechenzentren. Für sie sollen künftig strengere Umweltauflagen gelten. Klimaschutz bei Data Centers will auch die Europäische Kommission vorantreiben. Im Strategiepapier »Shaping Europe´s Digital Future« skizziert sie einen Fahrplan für die Klimaneutralität der Rechenzentren bis 2030 [4]. Für den Masterplan sollen mindestens 100 Milliarden Euro mobilisiert werden.

 

IN-Campus von Audi mit zukunftsweisenden Null-Energie-Konzept und Abwärmenutzung

Mit dem aktuell entstehenden Technologiepark IN-Campus auf dem Gelände einer ehemaligen Erdölraffinerie im Osten von Ingolstadt setzt Audi Maßstäbe, und das nicht nur für zukunftsweisende Mobilitätsformen oder in puncto umweltfreundliche Sanierung. »Unsere Vision ist ein Null-Energie-Campus«, erzählt Markus Faigl, der bei Audi die Planung des Energiekonzepts verantwortet. Gesteuert wird es über eine Energiezentrale.

Das Rechenzentrum soll im Laufe des Jahres 2022 in den Live-Betrieb gehen und die Abwärme der rund 8.000 Server als Heizenergie genutzt werden. Drees & Sommer begleitet die Campus-Entwicklung mit Projektsteuerung, Green Building-Beratung, technischem Projektmanagement sowie Inbetriebnahme-Management und Integrationstests für das Rechenzentrum. »Die Synergie aus Energieeffizienz und Resilienz ist dabei das oberste Projektziel«, erklärt Mathias Franke, der seitens Drees & Sommer als Resilienz-Experte für kritische Infrastrukturen die Leitung des ICT-Projektteams übernimmt.

 

[1] https://www.bitkom.org/sites/default/files/2020-05/2020-05_bitkom_klimastudie_digitalisierung.pdf
[2] https://data-economy.com/data-centres-world-will-consume-1-5-earths-power-2025/
[3] https://www.borderstep.de/netzwerk-energieeffiziente-rechenzentren/
[4] https://ec.europa.eu/info/strategy/priorities-2019-2024/european-green-deal_de
Weitere Links
– Bitkom, Borderstep Institut und Uni Zürich: »Klimaschutz durch digitale Technologien – Chancen und Risiken« https://www.bitkom.org/sites/default/files/2020-05/2020-05_bitkom_klimastudie_digitalisierung.pdf
– NeRZ, Netzwerk energieeffiziente Rechenzentren / eco, Verband der Internetwirtschaft e.V.: »Abwärmenutzung im Rechenzentrum« https://ne-rz.de/wp-content/uploads/2019/07/Whitepaper_Abwaermenutzung_2019.pdf
– Strategie der europäischen Kommission »Ein europäischer Grüner Deal«: https://ec.europa.eu/info/strategy/priorities-2019-2024/european-green-deal_de

 

 

451 Artikel zu „Rechenzentren Effizienz“

Energieeffizienz und Rechenzentren in Deutschland – weltweit führend oder längst abgehängt

Der Rechenzentrumsmarkt in Deutschland wächst weiterhin dynamisch. Im Jahr 2016 stiegen die Investitionen für den Neubau und die Modernisierung der Rechenzentrumsinfrastruktur im Vergleich zum Vorjahr um 10 % auf 970 Millionen Euro. Im Jahr 2017 werden die Investitionen die Eine-Milliarde-Euro-Marke überschreiten. Getrieben wird das Wachstum vor allem durch die zunehmende Digitalisierung von Wirtschaft und Gesellschaft…

Rechenzentren: Für Energieeffizienz fehlen klar definierte Werte

Neue Forschungsergebnisse von The Green Grid belegen, dass – obwohl neun von zehn IT-Leitern in Europa anerkennen, dass Rechenzentren bei der sozialen Verantwortung von Unternehmen (CSR) eine wichtige Rolle spielen – knapp die Hälfte der Unternehmen keine Ziele für Energieeffizienz definieren. Auf diese Weise können sie nur bedingt analysieren, inwieweit Rechenzentren zur unternehmensweiten CSR-Strategie beitragen…

Fast die Hälfte der Rechenzentren missachtet Energieeffizienz

Obwohl die Mehrheit der Unternehmen den wachsenden Druck spürt, die Effizienz ihrer Rechenzentren zu verbessern, verfolgen 43 Prozent keine Ziele in Bezug auf Energieeffizienz. Das belegt eine Befragung von 150 Rechenzentrumsleitern in Deutschland, England und Frankreich im Oktober 2015, die von The Green Grid in Auftrag gegeben wurde. Die wichtigsten Ergebnisse der Studie lauten: 88…

Kostenloser Leitfaden zu Energieeffizienz in Rechenzentren

■       In deutschen Rechenzentren stehen 1,7 Millionen Server. ■       Energiebedarf soll in den nächsten Jahren auf 12 Milliarden kWh steigen. ■       Bitkom-Publikation gibt Hilfestellung zur Effizienzsteigerung. Wie können Rechenzentren möglichst leistungsfähig und dabei energieeffizient arbeiten? Diese Frage steht im Mittelpunkt eines Leitfadens, den der Digitalverband Bitkom jetzt veröffentlicht hat. Rechenzentren sind zentral für das Funktionieren…

Corona-Krise: noris network baut Kapazitäten in Rechenzentren aus

noris network, IT-Dienstleister und Betreiber von Hochsicherheitsrechenzentren meldet: Der Betrieb der Rechenzentren und die Erbringung von IT-Dienstleistungen laufen uneingeschränkt weiter. Seit Mitte März arbeitet der Großteil der mehr als 370 Mitarbeiterinnen und Mitarbeiter dabei vom Home Office aus. Als weitere Reaktion auf die Corona-Krise und die rasch steigende Nachfrage von Kunden wurden die Rechenzentrums- und…

Deutsche Rechenzentren haben höchste Stromkosten in Europa

Sechsmal höhere Steuern, Abgaben und Netzentgelte als in Niederlanden und Schweden. Stromkosten machen rund die Hälfte der Betriebskosten aus.   Rechenzentren in Deutschland müssen europaweit am meisten für Strom bezahlen. Die Kosten sind bis zu sechsmal höher als in Nachbarländern. Das ist das Ergebnis einer Preisanalyse des Digitalverbands Bitkom, bei der die Stromnebenkosten verglichen wurden.…

Schweizer Allianz will Rechenzentren dekarbonisieren

WEF-Jahrestreffen: Hewlett Packard Enterprise (HPE) lanciert mit Vertretern aus Industrie und Wissenschaft ein neuartiges Label für effiziente Rechenzentren. Ziel ist die Dekarbonisierung und die Senkung des Stromverbrauchs von Rechenzentren. Die vom Bundesamt für Energie im Rahmen des Programms SwissEnergy geförderte Allianz strebt die schweizweite und internationale Einführung an.     Eine Gruppe von Vertretern aus…

Drei Optionen Rechenzentren über große Entfernung abzusichern

Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200 km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei…

IT-Trends 2020: Daten-DNA, Datenschutz, Mikrorechenzentren, Backup-Strategien und Container

Fünf Trends drücken dem kommenden Jahr 2020 aus IT-Sicht einen Stempel auf. Sascha Oehl, Director Technical Sales bei Veritas Technologies, erläutert, inwiefern sich IT-Entscheider verstärkt mit maschinellem Lernen und künstlicher Intelligenz, der Daten-DNA sowie Edge-Computing und Containern auseinandersetzen müssen.   Automatismen für die Daten-DNA Es ist fast schon so universell gültig wie ein physikalisches Gesetz…

IT-Trends 2020: mehr Augenmerk auf Effizienzsteigerung und sinkende Kosten

Ausgaben für Informationstechnologie steigen, mehr Budget für Digitalisierung und intelligente Technologien.   Trotz unsicherer Konjunkturaussichten steigen die IT-Budgets im kommenden Jahr weiter an. Nur wenige Unternehmen kürzen. Die Prognosen für 2021 sind ebenfalls positiv, das zeigen Vorab-Ergebnisse der IT-Trends-Studie von Capgemini. In diesem Jahr nahmen 120 IT- und Fachverantwortliche von Großunternehmen in Deutschland, Österreich und…

Flexibilität von Container-Rechenzentren – Steigende Popularität

Noch sind knapp dreiviertel der realisierten Rechenzentren klassische Inhouse-Lösungen. Dazu zählen sowohl als eigenes Gebäude errichtete Datacenter als auch Raum-in-Raum- respektive Schranklösungen. Jedoch halten Containerlösungen zunehmend Einzug. Insbesondere dann, wenn sie für spezielle Anforderung gedacht sind. Ihr Hauptargument ist eine höhere Flexibilität.

Modernes Output Management für Rechenzentren

Rechenzentren großer Unternehmen haben zumeist eine Mainframe-Landschaft, bestehend aus IBM-Systemen. Für deren Management und Optimierung gibt es spezielle Softwareprodukte wie die des Berliner Herstellers Beta Systems Software AG. Im Zuge der Digitalisierung steigen die Anforderungen an solche: Sie müssen einfach zu bedienen sein, hohe Sicherheit bieten, mit neuen Web- oder Cloud-Lösungen integrierbar und dabei noch…

Wie künstliche Intelligenz Rechenzentren beeinflusst

Künstliche Intelligenz hat die Science-Fiction längst verlassen und ist – mehr oder weniger unbemerkt – Teil unseres Alltags geworden. Diese Entwicklung bleibt auch für Rechenzentren nicht ohne Folgen – sie könnten einerseits von KI profitieren, müssen aber andererseits andere Architekturen aufweisen. Die richtige Verkabelung spielt dabei eine entscheidende Rolle. Schon 1968 hielt künstliche Intelligenz (KI)…

5G und die Auswirkungen auf die Infrastruktur von Rechenzentren

Die Zukunft mit 5G wird immer mehr zur Realität und die Versteigerung der Frequenzen in Deutschland sehnlichst erwartet. Damit steht die Gesellschaft am Anfang der nächsten technologischen Revolution, etwas mehr als ein Jahrzehnt nach der letzten. Obwohl das Herunterladen von HD-Filmen in nur einem Bruchteil der derzeitigen Geschwindigkeit eine der spannendsten zukünftigen Funktionen ist, ist…

Alternativlos: Holistische Automatisierung für Rechenzentren

Hochgradige Automatisierung macht auch vor dem Rechenzentrum nicht halt, ist jedoch eine komplexe, vielschichtige Thematik, die eine genaue Analyse erforderlich macht. Illustration: Geralt Absmeier Automatisierung erweist sich bei vielen Aufgaben im Rechenzentrum seit langer Zeit als nützlich. Dies gilt speziell für alltägliche, häufig wiederkehrende, meist administrative Aufgaben. Hierzu zählen die Einrichtung von Benutzerkonten oder File-Sharing-Servern,…

Unsichere Rechenzentren lassen das Zukunftsmodell Blockchain wackeln

Sicherheit für Mensch, Gebäude und Hardware rückt im Rahmen der Blockchain-Automatisierung immer weiter in den Hintergrund. Betreiber von Rechenzentren vernachlässigen oftmals die physische Sicherheit ihrer Data-Center. Grund dafür ist die Konzentration auf sichere digitale Services zur Verwaltung der Datenmassen der Blockchain-Technologie. »Gerade wenn die Sicherung von wachsendem Datenmaterial erhöhte Aufmerksamkeit fordert, gerät die physische Sicherheit,…

Rechenzentren noch energetischer optimieren – Wetterdaten- und Energieprognose-Tool

Die SECUrisk, ein Geschäftsbereich der DATA CENTER GROUP, hat ein Tool entwickelt, um Rechenzentren anhand von standortspezifischen Wetterdaten energetisch zu optimieren. Mit diesem Wetter- und Energieprognose-Tool können RZ-Betreiber die Energiekosten ihres bestehenden Datacenters senken, indem sie die Kühlungssysteme mit einem sehr hohen Genauigkeitsgrad an das lokale Wetter anpassen. Für Klimaanlagen, die beim Neubau oder der…

Industrie will mit Cloud Kosten senken, Effizienz erhöhen und Märkte erschließen

Mehrheit sieht große Herausforderungen bei Komplexität und Datenintegration in der Multi-Cloud. Eine Studie hat den aktuellen Stand sowie künftige Entwicklungen in deutschen und schweizerischen Fertigungsunternehmen bei der Nutzung von Cloud Services untersucht. Demnach sieht die Industrie einen großen Wertbeitrag von Cloud-Lösungen vor allem bei den geschäftlichen Herausforderungen Kosten- und Effizienzdruck im IT-Betrieb (78 %), Erschließung…

Edge-Rechenzentren: Modularität ist entscheidend für Edge RZ

Vier von zehn deutschen Unternehmen geben an, dass sie 2018 verstärkt auf Automatisierung setzen, um ihre Auslastung mit reduzierten Produktionskosten besser austarieren zu können. Automatisierung bedeutet auf der anderen Seite mehr Datenvolumen und erfordert wesentlich höhere Rechenleistungen von der steuernden IT. Gemäß Thomas Sting, Geschäftsführer der DATA CENTER GROUP, stellen regionale Dienstleistungsrechenzentren, sogenannte Edge RZ,…

Studie: Rechenzentren sind Garant für nachhaltige Digitalisierung in Europa

$
0
0

  • Deutliche Steigerung der Energieeffizienz: 12 Mal niedrigerer Energieverbrauch pro übertragenem GB Daten in Rechenzentren im Vergleich zu 2010.
  • Stetig sinkende CO2-Emissionen (30 % weniger bis 2030) trotz steigender Anforderungen an Rechenleistung.
  • Globales Energieeffizienzpotenzial durch Cloud Computing noch nicht ausgeschöpft.
  • Forderung: Bundesregierung muss energiewirtschaftliche Rahmenbedingungen für Rechenzentren dringend optimieren und europäische Rahmenbedingungen anstreben.

 

Rechenzentren sind das Rückgrat der digitalen Transformation von Wirtschaft und Gesellschaft in Deutschland, Europa und weltweit. Als Teil des digitalen Infrastrukturökosystems sind sie gleichzeitig Garant einer ökologisch nachhaltig ausgelegten Digitalisierung in Europa und können ihren Beitrag zum Erreichen der Klimaziele in Deutschland und Europa beitragen.

 

Während sich der Bedarf an Rechenleistung durch die anhaltende Digitalisierung von Wirtschaft und Gesellschaft in den vergangenen 10 Jahren verzehnfacht hat, ist der Energiebedarf pro Gigabit in Rechenzentren heute 12 Mal niedriger als noch im Jahr 2010. Gleichzeitig sinken europaweit die CO2-Emissionen von Rechenzentren. Bis 2030 ist mit einer Absenkung der CO2 Emissionen um 30 Prozent zu rechnen. Zu diesen Erkenntnissen kommt der Vorabauszug einer seitens des eco Verbandes für die Allianz zur Stärkung digitaler Infrastrukturen in Deutschland in Auftrag gegebenen Studie des Borderstep Instituts, unterstützt vom Vodafone Institut.

»Die Digitalisierung in Wirtschaft, Verwaltung und Gesellschaft schreitet voran und damit auch die Anforderungen an Rechenleistung in Rechenzentren. Diese Entwicklung bedingt einen moderaten Anstieg des Energieverbrauchs. Das bedeutet aber nicht, dass dementsprechend auch die CO2-Emissionen von Rechenzentren in Europa gleichermaßen in die Höhe geschnellt sind. Im Gegenteil, sind diese nämlich seit Jahren rückläufig«, sagt Klaus Landefeld, Stellvertretender eco Vorstandsvorsitzender und Vorstand Infrastruktur und Netze. Der europäische Vergleich zeige aber auch: Deutschland könne hier noch besser werden, wenn die Bundesregierung die Branche in ein energiewirtschaftliches Gesamtkonzept einbeziehe und energiepolitische Rahmenbedingungen optimiere«, so Landefeld weiter. Die kürzlich auch von den Energieministern der Bundesländer geforderte Abschaffung der EEG-Umlage wäre hier auch aus Sicht der Allianz ein erster wichtiger Schritt.

 

https://www.eco.de/wp-content/uploads/2020/05/eco-studie_rechenzentren-in-europa_chancen-fuer-eine-nachhaltige-digitalisierung_teil1-1.pdf

 

Rechenzentren werden klimafreundlicher: CO2-Emissionen sinken um 30 Prozent bis 2030

 

Ein wichtiger Hebel für eine bessere Ökobilanz ist die Einsparung von CO2-Emissionen.

Dabei ist die Branche, wie die oben genannte Studie aufzeigt, bereits auf einem guten Weg. Bereits seit 2015 sind die CO2-Emissionen durch den Strombedarf von Rechenzentren in Gesamteuropa rückläufig. Bis 2030 werden die Emissionen auch in Westeuropa sinken, so dass für ganz Europa mit einem Rückgang der Treibhausgas-Emissionen um 30 Prozent zu rechnen ist. Für Deutschland gehen die Prognosen allerdings davon aus, dass die CO2-Emissionen in der Stromerzeugung langsamer sinken. Dies liegt vor allem daran, dass unter aktueller Gesetzeslage der Ausstieg aus der Stromerzeugung aus Kohleenergie noch bis zum Jahr 2038 andauern kann. Im Jahr 2019 lag der Anteil von Braun- und Steinkohle am deutschen Erzeugungsmix Strom bei etwa 33 Prozent. Ein schnellerer, politisch gesteuerter Kohleausstieg in Deutschland könnte jedoch zu einem wesentlich stärkeren Absinken der CO2-Emissionen der Rechenzentren in Westeuropa führen.

 

Viele Rechenzentrumsbetreibende verbessern ihre CO2-Bilanz bereits heute durch die zunehmende Stromerzeugung mit Erneuerbaren Energien. Bereits 2017 gaben 30 Prozent der Betreiber in Deutschland an, ausschließlich Strom aus Erneuerbaren Energien für ihr Rechenzentrum zu verwenden. Dies kann über den Bezug von Ökostrom eines Stromlieferanten oder auch über den eigenen (lokalen) Betrieb von EE-Erzeugungsanlagen geschehen.

 

Eine gute Alternative wären hier auch sogenannte Power Purchase Agreements, die den Strombezug direkt von EE-Anlagenbetreibenden ermöglichen. PPAs könnten die Energiewende massiv beschleunigen. Allerdings sind sie in Deutschland aufgrund der EEG-Umlage und des bestehenden Förderregimes bisher noch zu unattraktiv, um intensiver genutzt zu werden. Hier besteht dringender politischer Handlungsbedarf.

 

Für eine Gesamtbetrachtung der CO2-Bilanz von Rechenzentren muss außerdem noch berücksichtigt werden, dass digitale Technologien das Potenzial haben, zukünftig wesentlich mehr Treibhausgasemissionen einzusparen, als ihr Betrieb verursacht. Diese Potenziale können um den Faktor drei bis zehn über den Emissionen liegen, die durch den Betrieb digitaler Geräte und Infrastrukturen direkt entstehen.

 

»Rechenzentren sind in mehrfacher Hinsicht Innovationsmotor für eine nachhaltige Wirtschaft und der Garant für eine nachhaltige Digitalisierung in Europa. Dies sehen wir gerade aktuell angesichts der Corona-Krise, wo digitale Infrastrukturen als Innovationstreiber beispielsweise in den Bereichen Verkehr und Home-Office Anwendungen wirken«, sagt Béla Waldhauser, Sprecher der Allianz zur Stärkung digitaler Infrastrukturen in Deutschland, die sich 2017 unter dem Dach des eco e.V. gegründet hat.

 

»Eine nachhaltige ökologische Transformation unserer Gesellschaft wird ohne Digitalisierung nicht möglich sein«, ergänzt Inger Paus, Geschäftsführerin des Vodafone Instituts und Vorsitzende der Geschäftsführung der Vodafone Stiftung Deutschland. Davon sei auch eine Mehrheit der Europäer überzeugt, wie die jüngsten Umfragen des Vodafone Instituts bestätigten. »In der öffentlichen Diskussion wird bei der Betrachtung der Nachhaltigkeit digitaler Technologien jedoch meist stark auf den Energiebedarf fokussiert, statt den Blick auf die Potenziale zur Vermeidung von CO2-Emissionen zu lenken. Die Studie zeigt nicht nur, dass Rechenzentren ihre Ökobilanz kontinuierlich verbessern, sondern auch, dass sie als Rückgrat der Digitalisierung ein wesentlicher Teil der Lösung sind«, so Paus weiter.

 

 

Hohe Effizienzpotenziale durch Cloud Computing nicht ausgeschöpft

 

Weitere Effizienzpotenziale ergeben sich auch durch die wachsende Bedeutung von Cloud Computing. Vorteile wie Flexibilität, Skalierbarkeit, geringer Administrationsaufwand oder keine Investitionskosten führen dazu, dass immer mehr Organisationen sich dafür entscheiden, Cloud-Technologien zu nutzen und so ihren Strombedarf um bis zu 84 Prozent senken können. Wie die Studie zeigt, liegt Europa allerdings bei der Nutzung von Cloud Services in Unternehmen im Vergleich zu anderen Teilen der Welt zurück. So nutzen im Durchschnitt nur 26 Prozent der EU-Unternehmen im Jahr 2018 bezahlte Cloud Services.

 

Die komplette Studie zum Thema Nachhaltigkeitspotenziale von Rechenzentren erscheint im Herbst und untersucht neben den Energieeffizienzpotenzialen im Bereich Stromverbrauch und Emissionen auch konkrete Fallbeispiele für energie- und ressourceneffiziente Rechenzentren in Europa sowie Chancen und Herausforderungen, die durch regulative Rahmensetzung sowie der Nutzung von Abwärme in Rechenzentren entstehen können.

 

Über die Allianz zur Stärkung digitaler Infrastrukturen in Deutschland
Die Internetwirtschaft ist Schlüsselbranche und Wachstumsmotor unserer Zeit: Ihr Anteil an der Gesamtwirtschaft steigt seit Jahren kontinuierlich. Doch während Provider und große Anbieter sozialer Plattformen häufig im Fokus von Politik und Öffentlichkeit sind, bleiben die Unternehmen, die am Anfang der Wertschöpfungskette Internet stehen – nämlich Betreiber digitaler Infrastrukturen wie Rechenzentren oder Colocation-Anbieter – bislang weitgehend unbekannt. Gleichwohl ist diese Branche von herausragender Bedeutung für eine gelingende digitale Transformation in Deutschland. Die Allianz zur Stärkung digitaler Infrastrukturen in Deutschland ist ein Zusammenschluss führender Unternehmen aus verschiedenen Branchen digitaler Infrastrukturen wie etwa Rechenzentrumsbetreiber, Co-Location-Anbieter, Internet Service Provider, Carrier, Cloud-Anbieter, Softwarehersteller und Vertreter aus der Anwendungsindustrie unter dem Dach von eco – Verband der Internetwirtschaft e.V.. Ihre Mitglieder wollen auf die Bedeutung ihrer Branche für den Digitalstandort Deutschland aufmerksam machen und in einen konstruktiven Dialog mit Politik und Öffentlichkeit treten. www.digitale-infrastrukturen.net.
Über eco
Mit über 1.100 Mitgliedsunternehmen ist eco der größte Verband der Internetwirtschaft in Europa. Seit 1995 gestaltet eco maßgeblich das Internet, fördert neue Technologien, schafft Rahmenbedingungen und vertritt die Interessen seiner Mitglieder gegenüber der Politik und in internationalen Gremien. Die Zuverlässigkeit und Stärkung der digitalen Infrastruktur, IT-Sicherheit und Vertrauen sowie eine ethisch orientierte Digitalisierung bilden Schwerpunkte der Verbandsarbeit. eco setzt sich für ein freies, technikneutrales und leistungsstarkes Internet ein.

 

459 Artikel zu „Rechenzentren Effizienz“

Energieeffizienz und Rechenzentren in Deutschland – weltweit führend oder längst abgehängt

Der Rechenzentrumsmarkt in Deutschland wächst weiterhin dynamisch. Im Jahr 2016 stiegen die Investitionen für den Neubau und die Modernisierung der Rechenzentrumsinfrastruktur im Vergleich zum Vorjahr um 10 % auf 970 Millionen Euro. Im Jahr 2017 werden die Investitionen die Eine-Milliarde-Euro-Marke überschreiten. Getrieben wird das Wachstum vor allem durch die zunehmende Digitalisierung von Wirtschaft und Gesellschaft…

Rechenzentren: Für Energieeffizienz fehlen klar definierte Werte

Neue Forschungsergebnisse von The Green Grid belegen, dass – obwohl neun von zehn IT-Leitern in Europa anerkennen, dass Rechenzentren bei der sozialen Verantwortung von Unternehmen (CSR) eine wichtige Rolle spielen – knapp die Hälfte der Unternehmen keine Ziele für Energieeffizienz definieren. Auf diese Weise können sie nur bedingt analysieren, inwieweit Rechenzentren zur unternehmensweiten CSR-Strategie beitragen…

Fast die Hälfte der Rechenzentren missachtet Energieeffizienz

Obwohl die Mehrheit der Unternehmen den wachsenden Druck spürt, die Effizienz ihrer Rechenzentren zu verbessern, verfolgen 43 Prozent keine Ziele in Bezug auf Energieeffizienz. Das belegt eine Befragung von 150 Rechenzentrumsleitern in Deutschland, England und Frankreich im Oktober 2015, die von The Green Grid in Auftrag gegeben wurde. Die wichtigsten Ergebnisse der Studie lauten: 88…

Kostenloser Leitfaden zu Energieeffizienz in Rechenzentren

■       In deutschen Rechenzentren stehen 1,7 Millionen Server. ■       Energiebedarf soll in den nächsten Jahren auf 12 Milliarden kWh steigen. ■       Bitkom-Publikation gibt Hilfestellung zur Effizienzsteigerung. Wie können Rechenzentren möglichst leistungsfähig und dabei energieeffizient arbeiten? Diese Frage steht im Mittelpunkt eines Leitfadens, den der Digitalverband Bitkom jetzt veröffentlicht hat. Rechenzentren sind zentral für das Funktionieren…

Grüne Rechenzentren statt heißer Luft

Auf dem IN-Campus in Ingolstadt wird Audi künftig die Abwärme des Rechenzentrums als Heizenergie nutzen. (Bild ©Audi AG, Audi IN-Campus: https://www.incampus-tec.de )   Nicht nur der gestiegene Serienkonsum auf Netflix, Amazon Prime und Co. stellt die Kapazitäten der Rechenzentren auf eine harte Probe. Auch unzählige E-Mails, Social Media Posts, Videokonferenzen oder Kryptowährungen wie Bitcoin tragen…

Corona-Krise: noris network baut Kapazitäten in Rechenzentren aus

noris network, IT-Dienstleister und Betreiber von Hochsicherheitsrechenzentren meldet: Der Betrieb der Rechenzentren und die Erbringung von IT-Dienstleistungen laufen uneingeschränkt weiter. Seit Mitte März arbeitet der Großteil der mehr als 370 Mitarbeiterinnen und Mitarbeiter dabei vom Home Office aus. Als weitere Reaktion auf die Corona-Krise und die rasch steigende Nachfrage von Kunden wurden die Rechenzentrums- und…

Deutsche Rechenzentren haben höchste Stromkosten in Europa

Sechsmal höhere Steuern, Abgaben und Netzentgelte als in Niederlanden und Schweden. Stromkosten machen rund die Hälfte der Betriebskosten aus.   Rechenzentren in Deutschland müssen europaweit am meisten für Strom bezahlen. Die Kosten sind bis zu sechsmal höher als in Nachbarländern. Das ist das Ergebnis einer Preisanalyse des Digitalverbands Bitkom, bei der die Stromnebenkosten verglichen wurden.…

Schweizer Allianz will Rechenzentren dekarbonisieren

WEF-Jahrestreffen: Hewlett Packard Enterprise (HPE) lanciert mit Vertretern aus Industrie und Wissenschaft ein neuartiges Label für effiziente Rechenzentren. Ziel ist die Dekarbonisierung und die Senkung des Stromverbrauchs von Rechenzentren. Die vom Bundesamt für Energie im Rahmen des Programms SwissEnergy geförderte Allianz strebt die schweizweite und internationale Einführung an.     Eine Gruppe von Vertretern aus…

Drei Optionen Rechenzentren über große Entfernung abzusichern

Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200 km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei…

IT-Trends 2020: Daten-DNA, Datenschutz, Mikrorechenzentren, Backup-Strategien und Container

Fünf Trends drücken dem kommenden Jahr 2020 aus IT-Sicht einen Stempel auf. Sascha Oehl, Director Technical Sales bei Veritas Technologies, erläutert, inwiefern sich IT-Entscheider verstärkt mit maschinellem Lernen und künstlicher Intelligenz, der Daten-DNA sowie Edge-Computing und Containern auseinandersetzen müssen.   Automatismen für die Daten-DNA Es ist fast schon so universell gültig wie ein physikalisches Gesetz…

IT-Trends 2020: mehr Augenmerk auf Effizienzsteigerung und sinkende Kosten

Ausgaben für Informationstechnologie steigen, mehr Budget für Digitalisierung und intelligente Technologien.   Trotz unsicherer Konjunkturaussichten steigen die IT-Budgets im kommenden Jahr weiter an. Nur wenige Unternehmen kürzen. Die Prognosen für 2021 sind ebenfalls positiv, das zeigen Vorab-Ergebnisse der IT-Trends-Studie von Capgemini. In diesem Jahr nahmen 120 IT- und Fachverantwortliche von Großunternehmen in Deutschland, Österreich und…

Flexibilität von Container-Rechenzentren – Steigende Popularität

Noch sind knapp dreiviertel der realisierten Rechenzentren klassische Inhouse-Lösungen. Dazu zählen sowohl als eigenes Gebäude errichtete Datacenter als auch Raum-in-Raum- respektive Schranklösungen. Jedoch halten Containerlösungen zunehmend Einzug. Insbesondere dann, wenn sie für spezielle Anforderung gedacht sind. Ihr Hauptargument ist eine höhere Flexibilität.

Modernes Output Management für Rechenzentren

Rechenzentren großer Unternehmen haben zumeist eine Mainframe-Landschaft, bestehend aus IBM-Systemen. Für deren Management und Optimierung gibt es spezielle Softwareprodukte wie die des Berliner Herstellers Beta Systems Software AG. Im Zuge der Digitalisierung steigen die Anforderungen an solche: Sie müssen einfach zu bedienen sein, hohe Sicherheit bieten, mit neuen Web- oder Cloud-Lösungen integrierbar und dabei noch…

Wie künstliche Intelligenz Rechenzentren beeinflusst

Künstliche Intelligenz hat die Science-Fiction längst verlassen und ist – mehr oder weniger unbemerkt – Teil unseres Alltags geworden. Diese Entwicklung bleibt auch für Rechenzentren nicht ohne Folgen – sie könnten einerseits von KI profitieren, müssen aber andererseits andere Architekturen aufweisen. Die richtige Verkabelung spielt dabei eine entscheidende Rolle. Schon 1968 hielt künstliche Intelligenz (KI)…

5G und die Auswirkungen auf die Infrastruktur von Rechenzentren

Die Zukunft mit 5G wird immer mehr zur Realität und die Versteigerung der Frequenzen in Deutschland sehnlichst erwartet. Damit steht die Gesellschaft am Anfang der nächsten technologischen Revolution, etwas mehr als ein Jahrzehnt nach der letzten. Obwohl das Herunterladen von HD-Filmen in nur einem Bruchteil der derzeitigen Geschwindigkeit eine der spannendsten zukünftigen Funktionen ist, ist…

Alternativlos: Holistische Automatisierung für Rechenzentren

Hochgradige Automatisierung macht auch vor dem Rechenzentrum nicht halt, ist jedoch eine komplexe, vielschichtige Thematik, die eine genaue Analyse erforderlich macht. Illustration: Geralt Absmeier Automatisierung erweist sich bei vielen Aufgaben im Rechenzentrum seit langer Zeit als nützlich. Dies gilt speziell für alltägliche, häufig wiederkehrende, meist administrative Aufgaben. Hierzu zählen die Einrichtung von Benutzerkonten oder File-Sharing-Servern,…

Unsichere Rechenzentren lassen das Zukunftsmodell Blockchain wackeln

Sicherheit für Mensch, Gebäude und Hardware rückt im Rahmen der Blockchain-Automatisierung immer weiter in den Hintergrund. Betreiber von Rechenzentren vernachlässigen oftmals die physische Sicherheit ihrer Data-Center. Grund dafür ist die Konzentration auf sichere digitale Services zur Verwaltung der Datenmassen der Blockchain-Technologie. »Gerade wenn die Sicherung von wachsendem Datenmaterial erhöhte Aufmerksamkeit fordert, gerät die physische Sicherheit,…

Rechenzentren noch energetischer optimieren – Wetterdaten- und Energieprognose-Tool

Die SECUrisk, ein Geschäftsbereich der DATA CENTER GROUP, hat ein Tool entwickelt, um Rechenzentren anhand von standortspezifischen Wetterdaten energetisch zu optimieren. Mit diesem Wetter- und Energieprognose-Tool können RZ-Betreiber die Energiekosten ihres bestehenden Datacenters senken, indem sie die Kühlungssysteme mit einem sehr hohen Genauigkeitsgrad an das lokale Wetter anpassen. Für Klimaanlagen, die beim Neubau oder der…

Industrie will mit Cloud Kosten senken, Effizienz erhöhen und Märkte erschließen

Mehrheit sieht große Herausforderungen bei Komplexität und Datenintegration in der Multi-Cloud. Eine Studie hat den aktuellen Stand sowie künftige Entwicklungen in deutschen und schweizerischen Fertigungsunternehmen bei der Nutzung von Cloud Services untersucht. Demnach sieht die Industrie einen großen Wertbeitrag von Cloud-Lösungen vor allem bei den geschäftlichen Herausforderungen Kosten- und Effizienzdruck im IT-Betrieb (78 %), Erschließung…

SD-WAN, SD-Branch, SD-LAN: Was ist was in Software-definierten Netzen

$
0
0

Illustration: Absmeier, DavidRockDesign

Das Software Defined Networking (SDN) findet in zentralen Rechenzentren immer mehr Anhänger. Darüber hinaus profitieren auch andere Teile des Unternehmensnetzwerks von ähnlichen Ansätzen. Wo liegen Gemeinsamkeiten, wo Unterschiede von SD-WAN, SD-Branch oder SD-LAN? Der Systemintegrator Circular durchleuchtet die Begrifflichkeiten.

 

Weitreichende Performance: SD-WAN

Betrieb und Verwaltung eines WAN gestalteten sich in der Vergangenheit teuer, komplex und wenig flexibel. Hinzu kommt, dass immer mehr Unternehmen Cloud-Dienste nutzen: sei es in Form von SaaS-Anwendungen oder IaaS-Plattformen. In der Regel kommen sogar mehrere Angebote verschiedener Hersteller zum Einsatz, Stichwort Multi Cloud. Dieses Umfeld stellt Verantwortliche für Unternehmensnetzwerke vor große Herausforderungen.

Technologien für ein Software-definiertes WAN (SD-WAN) versprechen Abhilfe. Denn sie bieten über sämtliche WAN-Verbindungen hinweg eine automatisierte Verwaltung. Eine Software leitet dann den Datenverkehr automatisiert und dynamisch über den geeignetsten und effizientesten WAN-Pfad. Dieser kann über eine Leitung mit MPLS (Multiprotocol Label Switching) ebenso führen wie über das öffentliche Breitband-Internet oder drahtlose 4G/LTE-Verbindungen. Welche Datenpakete welchen Weg einschlagen, hängt von den Netzwerkbedingungen, den Kosten des Circuit sowie den Anforderungen an Sicherheit und QoS (Quality of Service) ab. Die Richtlinien für das Routing legen dabei die Unternehmen selbst fest. Ob die Anwendungen und Daten im Unternehmen oder in der Cloud liegen, spielt keine Rolle.

SD-WAN-Lösungen bieten somit zahlreiche Vorteile: Sie entlasten Netzwerkverantwortliche durch eine einfache, zentrale Administration. Zudem helfen sie durch ein anwendungsbezogenes Routing die Performance zu stabilisieren und Verbindungskosten zu senken. Außerdem reduzieren sie den Aufwand für die Anbindung neuer Standorte, weil sich programmierbare Netzwerkgeräte aus der Ferne automatisiert bereitstellen lassen. Auch die Agilität der Unternehmen steigt, da sie sogar proaktiv auf Echtzeit-Netzwerkbedingungen reagieren können. Vordefinierte Richtlinien machen’s möglich.

 

Lokales Netzwerk auf Fernsteuerung: SD-LAN

Im Gegensatz zu SD-WAN wendet ein SD-LAN die Prinzipien softwaredefinierter Netzwerke auf lokaler Ebene an. Es entkoppelt dazu ebenfalls die Steuerungsebene und die Datenebene. Mit SD-LAN etablieren Unternehmen in ihren Niederlassungen eine Architektur mit weitgehend konsistenten Richtlinien. Die zentrale und automatisierte Orchestrierung sorgt – analog zu SD-WAN – für mehr Effizienz, Servicequalität und Sicherheit. Dies gelingt, weil auch ein SD-LAN den gesamten Datenverkehr priorisiert, nur eben auf lokaler Ebene. Es bündelt Netzwerkressourcen dort, wo sie für wichtige Aktivitäten am nötigsten sind. Dazu passt das SD-LAN Leistung und Verhalten des lokalen Netzwerks dynamisch an die aktuell genutzten Anwendungen an. Durch diese Flexibilität unterstützt SD-LAN auch wachsende Ökosysteme von IoT-Geräten und Cloud-Anwendungen.

 

SD-Branch: Alle Zügel in der Hand

Unternehmen, die eine große Anzahl von Zweigstellen oder international weit verzweigte Niederlassungen betreiben, müssen gleichermaßen ihr WAN- und LAN-Management im Fokus haben. Sie müssen sich sowohl um einen schnellen, zuverlässigen und möglichst kostengünstigen Datenverkehr zwischen den Standorten kümmern als auch für ein leistungsfähiges Netzwerk vor Ort sorgen. SD-Branch vereint beides: Denn bei einer SD-Branch-Lösung enden die zentrale Verwaltung und die Sicherheitsfunktionen nicht am Endpunkt des WAN. Sondern die Steuerungs- und Kontrollmöglichkeiten lassen sich auf den Datenfluss innerhalb der Zweigstellen ausdehnen. Unternehmen managen so nicht nur die drahtgebundenen Netzwerke (LAN). Sie schließen auch die immer häufiger eingesetzten drahtlosen Verbindungen (WLAN) mit ein. Zudem konsolidieren SD-Branch-Lösungen wie Juniper Contrail SD-WAN alle lokalen Dienste einer Zweigstelle auf einer universellen Plattform. In Summe sorgen sie dadurch für ein einheitliches, regelbasiertes Management im gesamten Unternehmensnetzwerk.

 

Zwei entscheidende Erfolgsfaktoren

SD-Branch erfolgreich zu implementieren gelingt allerdings nur unter zwei Voraussetzungen: Zum einen muss eine Steuerungsplattform so umfassend und ausgereift sein, dass sie alle nötigen Funktionen bereitstellt, skalierbar sein, um auch wachsenden Ansprüchen zu genügen sowie weitreichende Integrationsmöglichkeiten bieten. Nur so wird der Wunsch nach Konsolidierung und zentraler Verwaltung sämtlicher Netzwerkdomains und -services auch Wirklichkeit. Zum zweiten hängt der Erfolg von der Erfahrung der IT-Mitarbeiter mit SD-WAN-Lösungen und cloudbasierten Netzwerken ab. Denn sowohl Architektur und das Einrichten einer SD-Branch-Umgebung müssen genau auf ein Unternehmen zugeschnitten sein. Dieter Badmann, Director DACH von Juniper Networks, rät daher: »Auch wenn grundsätzliches Know-how im eigenen Unternehmen vorhanden ist, sollte dennoch die Zusammenarbeit mit einem Serviceanbieter oder einem spezialisierten Systemintegrator gesucht werden. Diese verfügen über entsprechende Erfahrungen aus vielen Projekten und helfen einen schnellen Projekterfolg und ROI zu erzielen.«

SD-Branch-Lösungen haben enormes Potenzial: Sie ermöglichen Administrationsprozesse zu bündeln und Netzwerkdienste zu vereinfachen. Ferner helfen sie, Anwendungsumgebungen und Domains zu konsolidieren. Was zudem immer wichtiger wird: Sie erleichtern die Verwaltung aller im Netzwerk angemeldeten Nutzer und IoT-Geräte. All dies macht sie vor allem für Unternehmen interessant, die über internationale Standorte verfügen, zusätzlich zu MPLS ein Internet-VPN betreiben oder mehrere Applikationen über die Cloud beziehen – also für immer mehr Unternehmen.

Alexander Krist, Manager Sales Enterprise bei Circular Informationssysteme

 

88 Artikel zu „SD-WAN“

SD-WAN: Lassen sich Sicherheit und Agilität kombinieren?

Die Digitalisierung verändert Rahmenbedingungen für die Wirtschaft – und gleichzeitig die Art und Weise, wie Angestellte arbeiten. So ergeben sich verschiedene interne und externe Herausforderungen; Unternehmen müssen agil sein und Mitarbeitern durch neue Technologien eine flexible Arbeitsweise ermöglichen. Dabei darf die Sicherheit aber nicht zu kurz kommen. Software-Defined Wide Area Networks (SD-WAN) können dabei helfen…

Unterbrechungsfreie Außenübertragung mit SD-WAN

MDR: erfolgreicher Absprung zu mehr Sicherheit und Zuverlässigkeit.   Die Spannung steigt. Der zweite Durchgang des Skispringens bei der Nordischen Ski-WM geht in die finale Phase. Nur noch ein Springer wartet auf das »Go« für seinen Absprung vom Schanzentisch. Die Menge tobt, und auch die Radiozuhörer fiebern mit, wer sich wohl den Weltmeistertitel holen wird.…

SD-WAN – Fünf Prognosen für 2020

  Zunehmende Einsatz der Enterprise Cloud sorgt für eine Verlagerung hin zu Security-Services aus der Cloud Traditionelle WAN-Architekturen basieren auf dem Rücktransport von Cloud-Traffic über lokale Perimeter-Firewalls. Diese Architekturen sind inzwischen überholt, da der Großteil des Datenverkehrs von den Niederlassungen in die Cloud fließt anstatt zum Datacenter. Erweiterte Sicherheitsfunktionen, wie CASB und ZTNA, werden in…

SD-WAN: Applikationen nur so gut wie das Netzwerk

Die Cloud-Nutzung ist laut Bitkom auf Rekordniveau bei Unternehmen. Allerdings ist die Leistung der Applikationen in der Cloud nur so gut wie das Netzwerk. Doch herkömmliche WANs können den Ansprüchen eines modernen Datenverkehrs kaum gerecht werden. Das traditionelle Router-zentrierte Modell ist netzwerkgesteuert. Dies bedeutet im Wesentlichen, dass das Unternehmen gezwungen ist, sich an die Einschränkungen…

SD-WAN: Chancen und Herausforderungen

Sicherheit, Performance und Bandbreite sind zentrale Anforderungen bei der Transformation von Unternehmensnetzwerken. Die Transformation von Unternehmensnetzwerken ist in der DACH-Region in vollem Gange.   GTT Communications, Anbieter Cloud-basierter Netzwerke für multinationale Unternehmen, gab die Veröffentlichung der Studie »SD-WAN: Wettbewerbsfaktor im digitalen Zeitalter« bekannt. Die Erhebung wurde durch das Marktforschungsunternehmen IDC erstellt. Die Umfrage unter 150…

SD-WAN, Virtualisierung, Microservices – Drei Grundlagen für eine erfolgreiche Rundumerneuerung der Infrastruktur

Viele Unternehmen erneuern 2018 ihre Infrastruktur, verlagern alles in die Cloud und müssen ihr Netzwerk auf den neuesten Stand bringen. Gründe dafür gibt es viele: Aktuell ist einer der drängendsten Gründe die EU-DSGVO und die Compliance mit den neuen Richtlinien. Das setzt IT-Teams zusätzlich unter Druck, denn zu ihren üblichen Pflichten kommen nun noch Aufgaben rund um die DSGVO, wie etwa Wartungsaufgaben, hinzu.

Smart City und SD-WAN: Wie die digitale Transformation Städte intelligenter macht

Eine flächendeckende drahtlose Konnektivität in Städten gepaart mit IoT-Technologie – diese Kombination eröffnet neue, vielfältige Möglichkeiten für die Entwicklung intelligenter Städte, sogenannter Smart Cities. In puncto Netzwerktechnologie erfordern Smart Cities einen modernen Software-definierten Ansatz für Wide Area Networking, kurz: SD-WAN. WANs für intelligente Städte müssen mehr denn je agil, geradezu elastisch sein. Kommunen jeglicher Größe…

Was Technologieanbieter nicht erzählen: Darauf kommt es bei SD-WAN wirklich an

Fünf Insider-Tipps rund um die Standortvernetzung per SD-WAN. Software-Defined WAN (SD-WAN) gilt besonders bei der Standortvernetzung als Mittel der Wahl. Unternehmen und Organisationen können damit ihre Netzwerkkosten senken und die Performance steigern. Doch während auf dem bunten Papier der Marketing-Prospekte jede SD-WAN-Lösung in den schönsten Farben glänzt, gilt es für Interessenten, die wesentlichen Aspekte im…

SD-WAN: In zehn Schritten ein Software-Defined WAN implementieren

Ein Software-Defined WAN hat speziell für Unternehmen, die mehrere Niederlassungen unterhalten, eine Reihe von Vorteilen: Sie müssen keine wartungsintensive IT-Infrastruktur in der Außenstelle installieren. Zudem können sie den Mitarbeitern in den Außenstellen über ein flexibles und leistungsfähiges Wide Area Network Anwendungen in einer gleichbleibend hohen Qualität zur Verfügung stellen. Doch wie lässt sich ein herkömmliches…

Finanzbranche profitiert von SD-WAN

Von Jeffrey Granvold* In letzter Zeit konnte man dramatische Veränderungen in den IT-Abteilungen großer Firmen beobachten, und zwar in der Art und Weise, wie man dort mit den wachsenden Anforderungen an das Wide-Area Network (WAN) umgeht. Das ist kein vorübergehender Trend im Netzwerk-Management, sondern rührt vom Aufstieg des Internet of Things (IoT). Heute ebnen Workloads…

BOM: Open-Source-Risiken (immer) im Auge behalten

Es ist kaum anzunehmen, dass Oberstufenschüler ihrem Berufsberater »Chief Inventory Officer« als ihren persönlichen Traumberuf vorschlagen – falls es diesen Titel überhaupt gibt. Er klingt auf jeden Fall kaum nach Glamour, Prestige oder aufregender Tätigkeit – vielmehr nach eintöniger Arbeit wie in noch nicht komplett vergangenen Tagen: mit dem Klemmbrett im Warenlager.   Dennoch ist…

 

 

120 Artikel zu „Software Defined Networking“

Software Defined Networking macht Unternehmen fit für die Digitalisierung

Die Digitalisierung stellt die IT-Infrastrukturen vieler Unternehmen zunehmend vor Herausforderungen, denn: Die hohen Anforderungen an Agilität, Sicherheit und Skalierung können die meist historisch gewachsenen Infrastrukturen oft nicht mehr erfüllen. Der Veränderungsdruck auf die IT ist groß, insbesondere bei den Netzwerkinfrastrukturen. Eine Lösung ist Software Defined Networking (SDN). Damit verfügen Unternehmen nicht nur in Krisensituationen über…

Software Defined Networking (SDN) ergänzt klassische Netzwerke, statt sie komplett zu ersetzen

Neuer Anbietervergleich sieht langfristige Koexistenz von hardwarebasierten Netzwerken und SDN. Der Markt für Software Defined Networking (SDN) wächst weiter rasant. Doch werden SD-Netzwerke die herkömmlichen Lösungen auf Basis von MPLS (Multi Protocol Label Switching) auch längerfristig nicht komplett ablösen, sondern eher ergänzen. Dies meldet der neue »ISG Provider Lens – Network – Software Defined Solutions…

Welche Vorteile bietet Software Defined Networking (SDN)?

Herkömmliche Netzwerkarchitekturen haben sich in den letzten 15 Jahren kaum verändert und sind in die Jahre gekommen. Die heute gestellten Anforderungen an Flexibilität, Schnelligkeit und Sicherheit können damit nicht erfüllt werden. In jedem einzelnen traditionellen Switch ist die Firmware implementiert – bei Änderungen oder Neuinstallation von Devices oder Anwendungen muss die Konfiguration an jeder einzelnen…

Software Defined Networking (SDN) – eine Revolution im Netzwerkumfeld

Nach den Virtualisierungswellen im Server- und Storage-Umfeld rollt nun die Virtualisierung des Netzwerks auf die Anwender zu. Herkömmliche Netzwerkinfrastrukturen sind in die Jahre gekommen und können die Anforderungen an Flexibilität, Schnelligkeit und Sicherheit nicht erfüllen. In jedem einzelnen traditionellen Switch ist die Software (Firmware) implementiert, bei Änderungen oder Neuinstallation von Devices oder Anwendungen muss die…

Der Channel steht an der Schwelle zu Software Defined Networking

Laut Channel-Umfrage sind Komplexität und Bandbreite im Netzwerk die größten Herausforderungen für Kunden, Virtualisierung ist der Top-Trend. Mehr als die Hälfte der befragten EMEA Channel Partner sowie Systemintegratoren (54 Prozent der Befragten) sehen Software Defined Networking (SDN) und Network Functions Virtualization (NFV) in den nächsten zwei Jahren als bedeutende Trends [1], so die Ergebnisse der…

Anbietervergleich zu Software-Defined Networking: Großanbieter drängen in den SDN-Markt

Die großen Telekommunikations- und Infrastruktur-Anbieter erschließen zunehmend das Geschäft mit Software-Defined Networking (SDN). In den vergangenen zwölf Monaten haben sie erkennbar damit begonnen, klassische Netzwerktechnologien durch SDN-Lösungen und -Services zu ersetzen. Dies meldet der neue große Anbietervergleich »ISG Provider Lens Germany 2018 – Software-Defined Networking and Services« des IT-Marktforschungs- und Beratungshauses ISG Information Services Group.…

Softwareinvestitionen kritisch für das Überleben des Mittelstands nach der Coronakrise

Die Digitalisierung in Deutschland kam bisher eher schleppend voran. Ausgerechnet eine weltweite Pandemie ist jetzt der Anlass um in Sachen digitale Transformation Vollgas zu gegeben. Softwareinvestitionen wurden erhöht und für das Überleben von Unternehmen notwendige Software gekauft. So geben laut der aktuellen Capterra-Studie ein Drittel der befragten Unternehmen an, dass die angeschaffte Software kritisch für…

In 5 Schritten zum Open Source Software Defined Storage

Die Anforderungen für Speichersysteme sind in den letzten Jahren immer weiter gestiegen, Agilität, Flexibilität und die schnelle Bereitstellung von Ressourcen sind in einer bi-modalen IT die großen Herausforderungen. Wir haben heute mit mobilen und IoT-Geräten weitaus mehr Endpunkte, an denen Daten generiert werden, als noch vor einigen Jahren denkbar gewesen wäre. Besonders Videoinhalte verbreiten sich…

Software- und IT-Services-Markt in Deutschland: Droht nach guten Jahren der Markteinbruch?

Die IT-Branche in Deutschland blickt auf zwei hervorragende Jahre zurück. Der Softwaremarkt wuchs (dank SaaS) um mehr als 5 Prozent, das Wachstum im IT-Services-Geschäft näherte sich der 5-Prozentmarke, die IT-Ausgaben nahmen im letzten Jahr um knapp 4 Prozent zu. Basierend auf der aktuellen Wirtschaftssituation und aktuellen Gesprächen mit zahlreichen Anbietern und Anwendern hat das Marktanalyse-…


Rechenzentren per Mausklick migrieren

$
0
0

Mit dem richtigen Ansatz wird die Migration von Daten und Workloads in jede Umgebung zum Kinderspiel.

In Zeiten von Hybrid- und Multi-Cloud wollen Unternehmen Daten und Workloads idealerweise flexibel und schnell per Mausklick überall hin verschieben können: Von Server zu Server, von Testumgebungen zur Qualitätssicherung, von einem Rechenzentrum in ein anderes, von AWS zu Azure und von dort zurück in den lokalen On-Premises-Speicher. Tatsächlich sind Migrationen im Rechenzentrum trotz der Nutzung von hybriden Cloudumgebungen noch immer eine der am meisten gefürchteten Aufgaben. Auch bei genauer Planung kann immer etwas schiefgehen und zu Ausfallzeiten der IT führen. Damit Migrationen nicht nur schnell und transparent, sondern auch komplett ohne Risiko stattfinden können, benötigen IT-Teams die richtigen Werkzeuge.

 

Umzug per Mausklick? Pustekuchen!

Was in der Theorie einfach klingt, hat in der Praxis oft seine Tücken, so auch Migrationen in der Hybrid Cloud. Denn moderne Applikationen bestehen heute meist aus einer Vielzahl an teilweise an verschiedenen Orten gehosteten Teilen und lassen sich eben nicht einfach so per Mausklick verschieben. Einer der üblichen Fallstricke bei der Migration innerhalb einer hybriden Cloud ist zum Beispiel das Thema Netzwerk: Verschiebt man Workloads manuell in eine andere Umgebung, so muss man oft anschließend die IP-Adressen von Hand neu verknüpfen. Dasselbe gilt für Pre- und Post-Scripte, zum Beispiel für MPLS. Diese Komplexität potenziert sich in den meisten modernen Unternehmen heutzutage, da diese neben der Cloud im eigenen Rechenzentrum schon jetzt mehrere Technologie-Stacks parallel nutzen. Die Nutzung dieser Hybrid- und Multi-Cloud-Umgebungen hat jedoch nicht nur die Thematik der Migration von Daten und Workloads sondern auch die Komplexität des kompletten Systems um ein Vielfaches erhöht. Dies erhöht das Risiko für Ausfallzeiten in einer Zeit, in der Ausfallzeiten längst nicht mehr akzeptabel sind.

 

Klassische Migration stellt hohes Risiko für Ausfallzeiten dar

Vor Cloud Computing wurden Daten mit dem sogenannte Lift-and-Shift-Ansatz von Ort zu Ort bewegt. Sie wurden buchstäblich als Festplatte, Server oder komplettes Rack an einen neuen Ort bewegt. Später wurden Daten oder Anwendungen über das Netzwerk manuell migriert – im Prinzip genauso, wie normale Endnutzer Daten von Ordner zu Ordner kopieren. Dies geschah meist in der Nacht oder über das Wochenende, wenn die Dienste und Daten kurzzeitig nicht verfügbar sein konnten. Diese Art der Migration wurde jedoch mit immer größer werdenden Datenmengen und immer höheren Anforderungen an Verfügbarkeit immer mehr zum Problem. Verfügbarkeit muss heute jederzeit garantiert sein und die immer größer werdenden Datenmangen machen es fast unmöglich große Mengen an Daten in akzeptabler Zeit sicher zu transferieren – und das sogar über die schnelle Glasfaser. Seitdem sind Migrationen im Allgemeinen aufwändig, kosten viel Zeit und sind mit zahlreichen Risiken verbunden. Als Folge kann es aufgrund vieler zu Beginn der Migration unbekannter Faktoren zu langen Ausfallzeiten kommen, wenn etwas schiefgeht. Da ein Scheitern oder ein längerer Ausfall der IT heutzutage jedoch nicht mehr hinnehmbar sind, suchen IT-Teams nach Möglichkeiten das Thema Migration zu vereinfachen.

 

Das übergeordnete Thema: Ausfallzeiten vermeiden

Ausfallzeiten zu vermeiden ist eine der wichtigsten Aufgaben jeder IT. Neben Migrationen gibt es zahlreiche weitere geplante oder ungeplante Gründe, weswegen die IT, oder zumindest Teile davon, nicht wie gewohnt verfügbar sind: Neben Upgrades, der Implementierung neuer Technologien, Ransomware, Hardware-Ausfällen, Naturkatastrophen und menschlichen Fehlern sind Migrationen eine der am häufigsten auftretenden Quellen für Ausfallzeiten. Damit sind Migrationen eng verwandt mit den Themen Application Mobility, Disaster Recovery und Business Continuity (BC/DR). Zu diesem Themenkomplex gesellen sich auch die analog mit dem Grad der Komplexität wachsenden Sicherheitsbedenken und immer strikter werdende Compliance-Regeln. IT-Teams haben vielerorts erkannt, dass es fast unmöglich ist dieses Minenfeld mit den derzeit gängigen Methoden und Technologien zu navigieren. Dabei ist die Lösung dieses Problems zentral für die derzeit wichtigste Aufgabe im Rechenzentrum: Die digitale Transformation.

 

Eine erfolgreiche digitale Transformation benötigt neue Lösungen

Ungelöst werfen diese verwandten Herausforderungen die berechtigte Frage auf, wie Organisationen mit gängigen Konzepten die digitale Transformation meistern können, ohne längere Ausfallzeiten zu erzeugen. Idealerweise benötigten IT-Teams also Technologien, die Workloads nicht nur einfach an einen gewünschten Ort migriert, sondern auch gleichzeitig zuverlässigen Schutz vor den möglichen Auswirkungen der Migration bietet. Es ist zwar möglich, all diese Aufgaben mit einem Sammelsurium an verschiedenen Lösungen zu bewältigen – doch insbesondere bei hybriden Cloudstrukturen ist mit diesem Ansatz Ärger vorprogrammiert. Mehrere parallel genutzte Tools für Migration, Disaster Recovery und Business Continuity haben meist einen Funktionsumfang, der sich überschneidet und man muss sich entscheiden, mit welcher Lösung man welchen Teil der Migration bewältigen will. Der Einsatz von jeweils einzelnen Lösungen für Migration, Sicherheit und IT-Resilience erinnert in diesem Zusammenhang eher an den »Lift and Shift«-Ansatz bei der manuellen Migration von alter auf neue Hardware.

 

IT-Resilienz als Grundlage für reibungslose Migrationen

Fazit: Die ideale Lösung für die Migration von Workloads und Daten ist keine Insellösung, sondern Teil eines Komplettpakets, das die übergeordnete Herausforderung »Ausfallzeiten vermeiden« löst. Moderne Lösungen für IT-Resilience erledigen alle Aufgaben vom kompletten Schutz der Workloads, zum Testen der Umgebung hin zur eigentlichen Migration. Um Migrationen so reibungslos wie möglich über die Bühne gehen zu lassen, sollten Unternehmen auf solche Komplettlösungen setzen, die beim Verschieben von Daten und Workloads in andere Umgebungen keinerlei unnötigen Hindernisse in den Weg stellen. Dies bedeutet insbesondere, dass sie komplett unabhängig von Hypervisoren, Storage-Lösungen und unterschiedlichen Clouds sind. Zudem sollte es vor der Migration möglich sein, Failover-, Failback- und Regressionstests durchzuführen. So weiß man schon vor der Migration, ob Probleme auftreten können und erledigt diese zukünftig sorgenfrei – per Mausklick.

Reinhard Zimmer, Zerto

 

 

Reinhard Zimmer, Zerto: »Die ideale Lösung für die Migration von Workloads und Daten ist keine Insellösung, sondern Teil eines Komplettpakets, das die übergeordnete Herausforderung »Ausfallzeiten vermeiden« löst.«

 

 

 

637 Artikel zu „Migration RZ“

Für jede Anwendung die richtige Migrationsstrategie finden

Immer mehr deutsche Unternehmen betreiben CRM-, ERP- und andere Systeme in der Cloud – das zeigt etwa die Studie ISG Provider Lens Public Cloud – Solutions & Service Partners Germany 2019 [1]. Die Vorteile liegen klar auf der Hand, aber um sie nutzen zu können, müssen komplexe Migrationsprojekte richtig durchgeführt werden. Eine Migration ist dann…

Studie zeigt beunruhigenden Stand der Windows-10-Migration

Eine neue Untersuchung von Adaptiva hat ein aus Sicherheitssicht schockierendes Ergebnis erbracht. Obwohl Microsoft den Support für Windows 7 Mitte Januar 2020 einstellt, haben erst 14 % der befragten Unternehmen alle ihre Systeme auf Windows 10 migriert. Für seine »Windows 10 Enterprise Impact Survey« hat Adaptiva, Anbieter von Endpunkt-Management- und Sicherheitslösungen, weltweit 450 Unternehmen befragt.…

124.000 IT-Experten (verzweifelt) gesucht

Zahl der unbesetzten Stellen steigt binnen eines Jahres um 51 Prozent auf 124.000. IT-Jobs bleiben im Schnitt sechs Monate vakant. Zwei Drittel der Unternehmen rechnen mit einer weiteren Verschärfung.   Die Zahl der offenen Stellen für IT-Fachkräfte erreicht eine neue Rekordmarke. In Deutschland gibt es aktuell 124.000 offene Stellen für IT-Spezialisten. Das entspricht einem Anstieg…

Wer die Cloud wirklich ernst nimmt, erzielt bessere Geschäftsergebnisse

Gute Abstimmung von Cloud-Transformation und Business-Planung sichert den Erfolg. Bessere Datensicherheit ist die primäre Erwartung an einen Wechsel in die Cloud. Laut dem Unisys Cloud Success Barometer liegt Europa ein wenig hinter dem globalen Durchschnitt, wenn es um die Nutzung von Vorteilen aus der Cloud geht.   Weltweit migrieren die meisten Unternehmen und Organisationen (93…

Automatisierte Migrationsverfahren mittels Robotic Process Automation: Datenmigration leicht gemacht mit RPA

Datenmigration kann als das Übertragen von Daten von einem System oder einer Datenbank in ein anderes definiert werden. Die Auslöser für Datenmigrationsprojekte reichen von der Stilllegung von Altsystemen, über eine System-/Infrastrukturkonsolidierung bis hin zu Upgrades für die Unternehmensressourcenplanung (ERP). Geschäftsszenarien, die eine Datenmigration erfordern, sind in erster Linie Fusionen oder Übernahmen, bei denen ältere IT-Systeme…

Rechtssicherer Dokumentenaustausch mit NGDX – Sanfte Migration in die digitale Zukunft

Die Digitalisierung schreitet rasend schnell voran und mit demselben Tempo verändern sich auch die Anforderungen, denen Unternehmen, Organisationen und Behörden gegenüberstehen. Sie alle müssen sicherstellen, dass sensible Dokumente auf dem digitalen Weg rechts- und manipulationssicher ausgetauscht werden. Möglich wird dies durch den Einsatz von Dokumentenaustauschverfahren, anhand derer sich die bereits vorhandene Infrastruktur kosteneffizient, unkompliziert und sanft in die digitale Welt migrieren lässt.

Datenbankmigration: So werden Legacy-Systeme performanter, agiler und effizienter

Es gibt viele gute Gründe, von relationalen Legacy- auf New-Technology-Datenbanken zu migrieren. Diese fünf Tipps eines NoSQL-Datenbankpioniers machen den Umstieg leichter. Semi-strukturierte Daten, das Internet der Dinge, also OT-Applikationen, mobile Online-Devices und Big-Data-Anwendungen stellen hohe Anforderungen an klassische relationale Datenbank-Systeme, denen sie oft nicht mehr optimal gewachsen sind. Die starren Tabellenstrukturen der Systeme stammen noch…

ERP-Migration: Mit der richtigen Strategie schneller am Ziel

»Never change a running system«, heißt es. Dennoch: Irgendwann steht in jedem Unternehmen die Modernisierung des ERP-Systems an. Diese Migration lässt sich auf verschiedene Weisen angehen Wer eine so kritische Anwendung wie ein ERP-System modernisiert, betritt immer auch Neuland. Wie bei einer Reise, kann dies viele neue Erkenntnisse und wertvolle Erfahrungen mit sich bringen. Schlecht…

BSI hebt Empfehlung für georedundante RZ-Entfernung von 5 auf 200 Kilometer an

Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI »Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren« genau dokumentiert [1].   Was die Entfernung von einander Georedundanz gebender…

Automation vereinfacht Data-Warehouse-Migration in die Cloud

Die Migration des Data Warehouse in die Cloud ist für Unternehmen, die Teile ihrer Infrastruktur in die Cloud verlegen, ein wichtiger und über kurz oder lang auch notwendiger Schritt. Als eines der wichtigsten Puzzleteile der Infrastruktur, ist er leider auch meist sehr komplex und mit hohen Kosten verbunden. Anstatt die Migration dieses wichtigen Bestandteils der…

Die zentralen Aspekte rund um RPA – kurz und bündig

Robotic Process Automation (RPA) ist derzeit das IT-Buzzword schlechthin. Aber was genau hat es mit dieser Technologie eigentlich auf sich? UiPath beantwortet die wichtigsten Fragen.   Was ist RPA? Die Arbeitsabläufe der meisten Mitarbeiter in Unternehmen sind heute IT-gestützt. Dennoch sind an vielen Stellen nach wie vor manuelle Eingriffe erforderlich, die völlig simpel sind und…

Die sichere Migration in die Cloud beschleunigen

Das zunehmende Tempo der Digitalisierung führt zu einem enormen Fachkräftemangel, insbesondere im Bereich Cloud und Cybersicherheit. Für Unternehmen, die Anwendungen, Daten, Geschäftsabläufe sowie eine Vielzahl von virtuellen Infrastrukturen in die Cloud verlagern müssen, bedeutet das nichts Gutes. Wie können Unternehmen, die bereits bei wichtigen Cyber-Projekten hinterherhinken, die Migration in die Cloud beschleunigen? Venu Lambu, Global…

Vor einer Cloud-Migration eine Cloud-Strategie entwerfen

Überlegt zum Sprung in die Wolke ansetzen. Die Migration in die Cloud mit IT-Inventur und Kennzahlenabgleich vorbereiten. Bis 2025 wird die Cloud-Nutzung so fest im Geschäftsalltag verankert sein, dass es Wichtigeres gibt, als über die Cloud zu reden. Diese Prognose teilt ein Fünftel der deutschen IT-Entscheider in einer aktuellen Umfrage, die der amerikanische Softwareanbieter Citrix…

Digitale Lieferketten, saubere Technologien und autonome Fahrzeuge genießen höchste Priorität in der Automobilindustrie

Eine aktuelle Studie von Infosys mit dem Titel »Digital Outlook for the Automotive Industry« zeigt, wie digitale Technologien in Unternehmen bestehende Abläufe verbessern, Probleme lösen und neue Geschäftsoptionen eröffnen. Für den Bericht wurden im Rahmen einer weltweiten Umfrage IT- und Business-Entscheider in der Automobilindustrie zu den Einsatzmöglichkeiten neuer digitaler Technologien befragt.   Die wichtigsten Ergebnisse:…

noris network eröffnet Rechenzentrum Hof mit Streaming-Event

$
0
0

Premiumrechenzentrum für Unternehmen in der Region Hof

Nach Hochsicherheitsrechenzentren in Nürnberg und München betreibt der Nürnberger IT-Dienstleister noris network AG jetzt ein Rechenzentrum in Hof. Am 15. Juli 2020 wird der neue Standort eröffnet – offiziell und virtuell. In einem Livestream werden Interviews mit Informationen zu modernen IT-Services geboten und Videoaufnahmen von Technik und Colocation-Flächen im Rechenzentrum übermittelt. Mit Experten, Services und Flächen für moderne IT eröffnet das Rechenzentrum insbesondere mittelständischen Unternehmen in Oberfranken sowie den angrenzenden thüringischen, sächsischen und tschechischen Regionen neue Möglichkeiten für die Digitalisierung und einen effizienteren IT-Betrieb mit hochverfügbaren IT-Infrastrukturen.

Das zertifizierte Colocation-Rechenzentrum von noris network bietet Kunden moderne, flexibel teilbare RZ-Flächen, eine ausfallsichere Infrastruktur, hochperformante Internetanbindungen und skalierbare Unterstützung durch IT-Experten. Im 3 000 m² großen Gebäudekomplex befinden sich Colocation-Flächen für Racks mit bis zu 6 kVA und 48 Höheneinheiten und Compartments mit 38 m² und bis zu 60 kVA zum Anmieten. Das Hofer Rechenzentrum verfügt über eine mehrfach redundante und Carrier-neutrale Internetanbindung mit einer Gesamtkapazität von 4 Tbit/s und einer Verfügbarkeit des Backbones von über 99,99 % p. a. Das nach ISO/IEC 27001, ISO/IEC 20000-1 und ISO 9001 zertifizierte Rechenzentrum wird rund um die Uhr von IT-Spezialisten betreut, die Kunden beraten und mit Managed Services skalierbare Unterstützung in Bereichen von IT-Betrieb über Cyber Security bis zum Datenbank- und Applikationsbetrieb leisten.

»Mit dem Rechenzentrum in Hof erweitern wir unsere Kapazitäten über die Metropolregionen München und Nürnberg hinaus. Unser Rechenzentrumsnetzwerk bietet damit noch mehr standortverteilte Redundanz. Das Echo aus der Region auf ein nach europäischen Sicherheitsstandards zertifiziertes, leistungsfähiges Rechenzentrum in der Nähe ist sehr positiv. Nicht zuletzt die Corona-Krise hat gezeigt, dass Unternehmen mit moderner, hochverfügbarer IT-Infrastruktur schneller und effizienter auf Veränderungen reagieren können. Wir freuen uns, dass wir Unternehmen aus der Region Hof dabei helfen können«, sagt Stefan Keller, Vorstand Vertrieb der noris network AG.

Interessierte Unternehmer und IT-Verantwortliche können sich am 15. Juli ab 13:55 Uhr im YouTube-Channel »norisnetwork« https://youtu.be/ARUw1MVc-j4 zum 30-minütigen Streaming Event zuschalten. Der Live-Stream eröffnet exklusive Einblicke in das Rechenzentrum und in Interviews werden Technik und Services erläutert. Über begleitende Chats können Zuschauer dabei direkt Fragen zum neuen Rechenzentrum stellen.

 

 

108 Artikel zu „noris network „

Corona-Krise: noris network baut Kapazitäten in Rechenzentren aus

noris network, IT-Dienstleister und Betreiber von Hochsicherheitsrechenzentren meldet: Der Betrieb der Rechenzentren und die Erbringung von IT-Dienstleistungen laufen uneingeschränkt weiter. Seit Mitte März arbeitet der Großteil der mehr als 370 Mitarbeiterinnen und Mitarbeiter dabei vom Home Office aus. Als weitere Reaktion auf die Corona-Krise und die rasch steigende Nachfrage von Kunden wurden die Rechenzentrums- und…

noris network ist Kubernetes Certified Service Provider

noris network AG ist von der Cloud Native Computing Foundation als Kubernetes Certified Service Provider (KCSP) bestätigt worden. Der IT-Dienstleister und Betreiber von Hochsicherheitsrechenzentren ist damit eines von weltweit gerade einmal 122 IT-Unternehmen, die als ausgewiesene Spezialisten für Kubernetes-Projekte auf der Partnerseite der Foundation geführt werden. noris network bietet in seinen Rechenzentren Managed Kubernetes Cluster…

Wirtschaftsprüfer Mazars in noris network Rechenzentrum: Bereit für weiteres Wachstum

Rechenzentrumsbetreiber noris network AG hat ein großes Projekt zum Outsourcing der IT der Mazars Deutschland erfolgreich abgeschlossen. Mazars Deutschland gehört zu den Top 10 der deutschen Wirtschaftsprüfer. Was durch Wachstum und Fusion angestoßen wurde, führte jetzt zu einer hybriden IT-Infrastruktur, die sich dem künftigen Wachstumskurs der Wirtschaftsprüfungsgesellschaft flexibel anpassen lässt. noris network betreibt für Mazars…

noris network übernimmt netplace

Premium-IT-Dienstleister und Rechenzentrumsbetreiber noris network AG übernimmt rückwirkend zum 1. Januar 2019 die Münchner netplace Telematic GmbH. Der Internet Service Provider und IT-Sicherheitsspezialist netplace firmiert bis auf weiteres unter eigenem Namen, wird mit seinem gesamten Management und Team aber Teil der noris network AG. Die noris network AG, die in der Region München bereits zwei…

noris network – Wachstumstreiber Cloud-Migration

Spätestens seit Bau und Eröffnung ihres innovativen Rechenzentrums in München-Aschheim mit 3.200 qm IT-Fläche zählt noris network zu den Topadressen in der deutschen Rechenzentrumsszene. Wir sprachen mit Vorstand (Chief Operating Officer) Jürgen Städing über das Jahr 2017 und künftige Entwicklungen.

noris network AG – Erfolgreich aus IT-Leidenschaft

Mit Technikbegeisterung und Gespür für die kommerzielle Nutzung zukunftsweisender Technologien wagten Joachim Astel, Ingo Kraupa und Matthias Urlichs 1993 die Gründung des ersten Internet Service Providers Nordbayerns. Sie sind bis heute aktiv und haben mit der Nürnberger noris network AG ein expandierendes mittelständisches Unternehmen mit mehr als 150 Mitarbeitern geschaffen. Ihr Geschäftsmodell: Premium-IT-Services auf Basis eigener Hochsicherheitsrechenzentren und Infrastruktur »made in Germany«.

Ingo Kraupa, Vorstand der noris network AG – Unternehmens­daten müssen besonders geschützt werden

noris network ist seit 25 Jahren im IT-Geschäft, betreibt zwei hochmoderne Rechenzentren in Nürnberg und Aschheim bei München. Security ist immer ein integraler Bestandteil dessen, was der IT-Dienstleister plant und umsetzt. Was wird in den nächsten Jahren von noris network zu erwarten sein?

ISO/IEC 27001 als integriertes Managementsystem nutzen – Ein Managementsystem als Alleinerbe

Zertifizierungen sind für Unternehmen und IT-Dienstleister als Qualitätsnachweis unverzichtbar. Doch die Vielzahl von Qualitäts-, Sicherheits- und Compliance-Normen führt zu Intransparenz, erschwert deren Beachtung im Alltag und verteuert Audits. Einen möglichen Ausweg zeigt die noris network AG: Hier werden die Anforderungen verschiedenster Standards über die ISO 27001 integriert.

Automatisiert extrahieren, konsolidieren und analysieren – Künstliche Intelligenz schafft Transparenz im strategischen Einkauf

Das Unternehmen Orpheus GmbH entwickelt -Spezialsoftware für den strategischen Einkauf internationaler Konzerne und gilt bei Chefeinkäufern (Chief Procurement Officer) aktuell als einer der weltweit innovativsten Anbieter. Nicht ohne Grund: Die Orpheus-Lösungen nutzen KI und Bots, um Daten zu Einkäufen, Produkten, Preisen und Anbietern aus verschiedensten Quellsystemen, Sprachen und Organisationseinheiten der Konzerne zu extrahieren, zu konsolidieren und zu analysieren. Diese neue Transparenz kann Konzernen Einsparungen in Millionenhöhe bringen. Die skalierbare Cloud-Infrastruktur für die Software und die sicheren Anbindungen an die datenführenden Quellsysteme der Konzerne stellt ein anderes Nürnberger Unternehmen: die noris network AG.

Weltweite Qualitätssicherung: Make or Buy?

Mobilfunk-Kunden wollen zu jeder Zeit zuverlässig höchste Dienstgüte – auch auf Reisen in aller Welt.

QoS und QoE (Quality of Service und Quality of ­Experience) sind wettbewerbsentscheidende Kriterien für Mobilfunk- und ­Internet-Anbieter. Mobilfunk-Kunden wollen zu jeder Zeit zuverlässig höchste Dienstgüte – auch auf Reisen in aller Welt. Die Testverfahren hierzu sind aufwendig und verlangen eine globale Infrastruktur. Die SIGOS GmbH ist weltweit führender Anbieter für Infrastruktur und Lösungen zur Sicherstellung von Qualität in Mobilnetzen. Beim Hosting der kritischen Systeme verlässt sich das Unternehmen auf den Nürnberger IT-Dienstleister noris network AG.

Vorteile mittelständischer IT-Dienstleister gegenüber Branchenriesen

Unterstützung strategischer Geschäftsprozesse – Ingo Kraupa

Der Nürnberger IT-Dienstleister und RZ-Betreiber noris network ist in den letzten Jahren stetig gewachsen. Durch den Bau eigener, hochmoderner Rechenzentren und den Ausbau der Angebote an Outtasking- und Outsourcing-Leistungen wurde das Unternehmen zu einem mittelständischen IT-Dienstleister, der große Markenunternehmen zu seinen Kunden zählt.

Generation R: Wie der Lockdown für einen nachhaltigen Wandel in der Mitarbeiterstruktur sorgt

Während die Welt gespannt auf das Ende des Lockdowns wartet, steht eine neue Generation von Arbeitnehmern in den Startlöchern und bereitet sich auf eine veränderte Arbeitswelt vor. Die Arbeitnehmerschaft, wie wir sie kennen, setzt sich weltweit aus fünf verschiedenen Generationen zusammen – jede mit ihren eigenen, individuellen Arbeitsstilen und Vorlieben. Der globale Lockdown hat viele…

Arbeiten nach Corona: Home Office als Modell der Zukunft?

Viele Arbeitnehmer wollen jetzt wieder zurück an ihren Arbeitsplatz. Flexiblere Arbeitsweisen sind der langgehegte Wunsch vieler Arbeitnehmer. Doch erst die Corona-Pandemie hat dafür gesorgt, dass Chefs die Vorteile von Home Office und digitaler Kommunikation erkannt haben. Mit den allmählichen Lockerungen der Verordnungen zur Kontaktbeschränkung steht in deutschen Firmen langsam die Rückkehr in die Büros an.…

Mittelständische Fertigungsunternehmen nutzen ihr Potenzial im Kampf gegen Corona

Mittelständische Fertigungsunternehmen stehen aufgrund der aktuellen Situation großen wirtschaftlichen Herausforderungen gegenüber. Unternehmen, die digital gut aufgestellt sind und flexibel agieren können, haben nicht nur in der Krise einen großen Wettbewerbsvorteil. Umso wichtiger, dass das eingesetzte ERP-System die Unternehmen dabei unterstützt, agil und aktionsfähig zu bleiben. Dies zeigen Beispiele von mittelständischen Fertigungsbetrieben, die mit abas ERP…

Datenschutz und Covid-19-Tracking – ein Widerspruch?

Covid-19 bringt die Diskussionen um Datenschutz an einen entscheidenden Punkt, der unseren Umgang mit sensiblen Daten langfristig beeinflussen wird. Auf der einen Seite ist Datenschutz ein entscheidender Faktor für das Vertrauen der Menschen in ein Unternehmen. Auf der anderen Seite merken wir gerade, dass Datenschutz uns in einer Form die Hände bindet, wie wir es…

Raus aus dem digitalen Schock – IT-Führungskräfte bereiten sich auf neue Arbeitswelt vor

63 Prozent der deutschen IT-Führungskräfte beschleunigen digitale Transformation, um Remote Work langfristig zu ermöglichen. 65 Prozent der befragten Führungskräfte sagen, Mitarbeiter werden nicht mehr dauerhaft in das Büro zurückkehren.   IT-Abteilungen weltweit wurden durch den unvermittelten Umstieg auf Home Office und Remote Work auf die Probe gestellt. Eine neue Umfrage, die Censuswide im Auftrag von…

Besser vorbereitet für künftige Krisen: Empfehlungen aus der Risikoforschung

Obwohl es frühzeitige Warnungen vor einer exponentiell wachsenden Pandemie gab, wirkten die meisten politischen Entscheidungsträgerinnen und Entscheidungsträger weltweit unvorbereitet und zögerlich, als sich Covid-19 von China aus in die ganze Welt ausbreitete. Inzwischen hat die Krise zu beispiellosen Einschränkungen geführt und die schwerste Rezession seit dem Zweiten Weltkrieg ausgelöst. In einem Artikel im »Journal of Risk…

Wirtschaft: So unterschiedlich meistern Länder die Corona-Krise

Die wirtschaftliche Bewältigung der Corona-Krise stellt für Länder weltweit eine immense Herausforderung dar. Die Arbeitslosigkeit steigt, das BIP sinkt und es droht die Rezession. Eine neue Studie des Jobvermittlers Adecco hat ermittelt, wie unterschiedlich Länder die Krise meistern. Nach der Analyse der makroökonomischen Indikatoren von zwölf Ländern kam die Studie zu dem Ergebnis, dass vor allem der…

Studie: Rechenzentren sind Garant für nachhaltige Digitalisierung in Europa

Deutliche Steigerung der Energieeffizienz: 12 Mal niedrigerer Energieverbrauch pro übertragenem GB Daten in Rechenzentren im Vergleich zu 2010. Stetig sinkende CO2-Emissionen (30 % weniger bis 2030) trotz steigender Anforderungen an Rechenleistung. Globales Energieeffizienzpotenzial durch Cloud Computing noch nicht ausgeschöpft. Forderung: Bundesregierung muss energiewirtschaftliche Rahmenbedingungen für Rechenzentren dringend optimieren und europäische Rahmenbedingungen anstreben.   Rechenzentren sind…

Remote Work: Digitale Nähe trotz räumlicher Distanz

Remote Work braucht mehr als eine moderne IT-Infrastruktur und digitale Collaboration-Tools. Nicht erst seit Covid-19 ist Remote Work für immer mehr Unternehmen ein viel diskutiertes Thema. Vom Home Office unterscheidet sich Remote Work nur dadurch, dass Remote Worker von jedem beliebigen Ort aus arbeiten, ein Internetzugang vorausgesetzt. Beide Arbeitsformen basieren aber auf der Überzeugung, dass…

Alles im Griff: IT-Monitoring in Kombination mit Drittwartung sorgt für Durchblick und Sicherheit

$
0
0

Die Verfügbarkeit und die Lebensdauer der Systeme im Rechenzentrum zählen zu den größten Herausforderungen der IT-Abteilungen. Die Infrastruktur wird zunehmend komplexer und heterogener. Das macht eine Überwachung notwendiger und gleichzeitig schwieriger. Ein systematisches Monitoring hilft dabei, die Verfügbarkeit der Infrastruktur zu erhöhen und ermöglicht proaktive Wartung. Manche Störungen können schon im Vorfeld erkannt werden, um frühzeitig Gegenmaßnahmen einzuleiten. Gleichzeitig werden durch eine passgenaue Kombination von Monitoring und Drittwartung Störungen rund um die Uhr schnell erkannt und behoben – und zwar bevor Arbeits-, Produktions- oder Logistikprozesse behindert oder gar lahmgelegt werden.

In vielen IT-Abteilungen verwenden die Mitarbeiter jeden Tag mehrere Stunden auf die Überwachung von Performancedaten der Server und Dienste. Trotz großer Bemühungen ist dieses manuelle Monitoring oft lückenhaft. Tritt ein Fehler außerhalb des Kontroll-Zeitfensters auf, kann es lange dauern, bis die Störung entdeckt wird. Ein Unternehmen sollte daher prüfen, ob ein Monitoring-Tool sinnvoll und ob der interne Betrieb eines Monitoring überhaupt abbildbar ist: Ist genug Manpower vorhanden? Haben die Mitarbeiter für jedes System in der heterogenen Landschaft das passende Know-how? Werden diese Fragen mit Nein beantwortet, kann der Service eines Multivendor-Dienstleisters sinnvoll sein. Dies hat verschiedene Vorteile: Das Monitoring findet rund um die Uhr – 24/7 – statt. Durch kontinuierliche Real-Time-Messung der Komponenten mit Hilfe eines Monitoring-Tools lassen sich Ausfälle verhindern oder schnell lokalisieren. Das Tool überwacht eine beinahe beliebig große Menge an Servern, Services und Standorten und gibt nahezu alle Hersteller und Systemwelten in einem zentralen Dashboard wieder. Das ist ein wesentlicher Vorteil gegenüber Tools anderer Anbieter, die in der Regel nur Systeme bestimmter Hersteller überwachen.

Von einem Fehler zu wissen, ist der erste Schritt, ihn zu vermeiden oder direkt zu beheben der entscheidende zweite. Um den Zeitverlust zwischen Störungsmeldung und Behebung zu minimieren, kann es sinnvoll sein, Monitoring und Wartung in die Hände eines Dienstleisters für Drittwartung (Third-Party-Maintenance/TPM) zu legen. Dieser überwacht die gesamte kritische Systemlandschaft. Daten, die auf eine drohende oder bereits bestehende Störung hinweisen, werden in Echtzeit auf Dashboards des Unternehmens und des Dienstleisters angezeigt. Automatisch wird beim Support ein Ticket angelegt. Der Dienstleister übernimmt sofort die Wartung. Ein Multivendor-Anbieter kann dabei herstellerübergreifend bei jedem Gerät den Service durchführen. Das Prüfen einzelner Wartungsverträge, die Suche nach dem richtigen Ansprechpartner und zeitraubendes Fingerpointing entfallen. Für die IT-Abteilung gibt es nur einen Vertrag und einen Ansprechpartner, der durch festgelegte Service Level Agreements eine schnelle Entstörung garantiert.

Die Übernahme des Monitorings und der Wartung durch einen Dienstleister hat noch andere Vorteile: Sie entlastet die IT-Abteilung des Unternehmens und schafft freie Kapazitäten zur Bewältigung der Herausforderungen, die durch die zunehmende Digitalisierung und neue Technologien wie IoT oder AI entstehen. Eine nahtlose Überwachung der IT-Landschaft ist auch hinsichtlich möglicher Cyber-Attacken wichtig. Sie kann diese zwar nicht verhindern, aber schnell aufdecken und so deren Konsequenzen minimieren.

Mehr Informationen sowie ein Whitepaper zum Thema IT-Monitoring finden Sie nach Registrierung auf: https://insights.technogroup.com/it-monitoring

 

 

 

 

 

 

Mit Data Vault zu mehr Agilität im Data Warehouse

$
0
0

Architekturen. Frameworks. Praxis.

Illustration: Absmeier

Data Vault ist eine Modellierungstechnik, mit der sich bestehende Data Warehouses (DWH) modernisieren und damit den aktuellen Anforderungen an Datenhaltung und Analytics anpassen lassen. DWH-Verantwortliche stehen unter immer größeren Druck, ihre Systeme anpassen zu müssen. Klassische DWH-Konzepte nach Inmon oder Kimball sind nicht dafür geeignet, weil sie schnell immer komplexer werden und sehr teuer sind. Die benötigten Implementierungs- und Testzyklen sind sehr umfangreich, zudem fällt eine lange Liste an Auswirkungen oder Abhängigkeiten an, was den Aufwand unverhältnismäßig hoch macht.

Es muss also ein neuer Ansatz her. Data Vault erlaubt es, die Architektur und die Methodik des DWHs bedarfsgerecht an geänderte Anforderungen anzupassen. Die Modellierungstechnik erlaubt es, zielgerichtete Entwicklungen voranzutreiben beziehungsweise die Time-to-Market zu verkürzen. Data Vault liefert damit eine Antwort auf viele Herausforderungen, mit denen DWH-Architekten und -Verantwortliche derzeit konfrontiert werden.

 

Data Vault: Was ist das?

Data Vault bietet eine hohe Flexibilität bei Erweiterungen, eine bitemporale, vollständige Historisierung der Daten und ermöglicht eine starke Parallelisierung von Datenladeprozessen. Wer sich mit dem Begriff des agilen Data Warehouse beschäftigt, landet schnell bei Data Vault. Das Besondere an der Technik ist, dass sie auf die Bedürfnisse von Unternehmen fokussiert ist, weil sie flexible, aufwandsarme Anpassungen eines Data Warehouse ermöglicht.

Data Vault 2.0 betrachtet den gesamten Entwicklungsprozess sowie die Architektur und besteht aus den Komponenten Methode (Implementierung), Architektur sowie Modell. Vorteil ist, dass dieser Ansatz alle Aspekte von Business Intelligence mit dem zugrunde liegendem Data Warehouse bei der Entwicklung berücksichtigt.

 

Die Architektur von Data Vault besteht im Wesentlichen aus drei Schichten (Layer):

  • Staging Layer: sammelt die Rohdaten aus den Quellsystemen, etwa CRM oder ERP
  • Data Warehouse Layer: Wird diese Schicht als Data-Vault-Modell modelliert, beinhaltet sie:

o        Raw Data Vault: speichert die Rohdaten.

o        Business Data Vault: beinhaltet harmonisierte und transformierte Daten auf Basis von Geschäftsregeln (optional).

o        Metrics Vault: speichert Laufzeitinformationen (optional).

o        Operational Vault: speichert die Daten, die direkt aus operativen Systemen in das Data Warehouse fließen (optional.)

  • Information Mart Layer: Diese Schicht modelliert Daten als Star-Schema und/oder anderen Modellierungsverfahren. Sie stellt Informationen für die Analyse und das Berichtswesen zur Verfügung.

 

Die Hauptkomponenten des Data Vault-Modells

Data Vault unterteilt bei der Modellierung alle zum Objekt gehörenden Informationen in drei verschiedene Kategorien – im Unterschied zu Klassikern der Modellierung der dritten Normalform (3NF). Diese Informationen werden anschließend strikt getrennt voneinander abgelegt. Die funktionalen Bereiche lassen sich in Data Vault in sogenannten Hubs, Links und Satelliten abbilden:

  • Hubs sind das Herzstück des Kerngeschäfts (core business concept) wie Kunde, Verkäufer, Verkauf oder Produkt. Die Hub-Tabelle wird um den Business Key (Vertrags- oder Kundennummer) herum gebildet, wenn zum ersten Mal eine neue Instanz dieses Business Keys im Data Warehouse eingeführt wird. Der Hub enthält keine beschreibenden Informationen und keine FKs. Er besteht nur aus dem Business Key, mit einer im Warehouse erzeugten Sequenz von ID- oder Hash-Schlüsseln, Ladedatum/Zeitstempel und der Datensatzquelle.
  • Links stellen Beziehungen zwischen den Business Keys her. Jeder Eintrag in einem Link modelliert n-m Beziehungen einer beliebigen Anzahl von Hubs. Das erlaubt es dem Data Vault, flexibel auf Änderungen in der Business Logik der Quellsysteme, wie zum Beispiel Änderungen in der Kordialität von Beziehungen, zu reagieren. Genau wie der Hub enthält der Link keine beschreibenden Informationen. Er besteht aus den Sequenz-IDs der Hubs, auf die er sich bezieht, einer im Warehouse generierten Sequenz-ID, Ladedatum/Zeitstempel und Datensatzquelle.
  • Satelliten enthalten die beschreibenden Informationen (Kontext) für einen Business Key, der in einem Hub gespeichert ist, oder einer Beziehung, die in einem Link gespeichert ist. Satelliten funktionieren »insert only«, das bedeutet, dass die komplette Datenhistorie im Satelliten abgespeichert ist. Es können mehrere Satelliten zur Beschreibung eines einzelnen Business Key (oder einer Beziehung) verwendet werden. Ein Satellit kann jedoch nur einen Schlüssel (Hub oder Link) beschreiben.

 

Die Vorteile von Data Vault

Anwender sollten wissen: Data Vault ist kein IT-Selbstzweck. Ziel ist es, die Organisation bei der schnellen Bereitstellung von integrierten Daten für Analysen und Berichte zu unterstützen. Data Vault hat daher technisch wie organisatorisch viele große Vorteile:

 

  • Vorteile für Unternehmen

Der größte Vorteil von Data Vault ist die starke Reduzierung der Entwicklungszeit, etwa bei der die Umsetzung von Business-Anforderungen. Zudem wird ein höherer Return on Investment erzielt und das DWH durch den Einsatz von Data Vault skalierbar. Unternehmen können außerdem alle Daten bis zu ihrem Quellsystem nachverfolgen. Von Data Vault profitieren besonders Organisationen, die große Datenvolumina in kurzer Zeit laden müssen, ihre BI-Applikationen agil entwickeln wollen oder ein vorgelagertes Core Data Warehouse innerhalb einer bestehenden Silo-Architektur aufbauen möchten.

 

  • Vorteile in technischer Hinsicht

Data Vault unterstützt klassische Batch-Verarbeitung ebenso wie Near-Realtime-Loads. Dabei können Unternehmen auch unstrukturierte/NoSQL-Datenbanken anbinden. Im Vergleich zu klassischen DWH-Architekturen werden die Geschäftsregeln im Business Data Vault und in der Information Mart Layer eingesetzt. Damit sind sie möglichst nah beim End-User implementiert. Entsprechend werden Geschäftsregeln »spät« abgebildet und das DWH exakt mit den Daten beladen, wie sie im Quellsystem vorliegen. Man spricht daher von »Source of Facts« und nicht von der »Source of Truth«. Darüber hinaus lässt sich das DWH dank eines iterativen, agilen Entwicklungszyklus inkrementell ausbauen, um das Datenmodell bedarfsgerecht für alle Themen zu erweitern. Durch »Time Traveling«, also stichtagsbezogene Auswertungen beziehungsweise Zeitreisen, lassen sich Daten aus dem Altbestand zu einem bestimmten Stichtag darstellen oder auswerten. Unternehmen können Berichtsstände direkt miteinander vergleichen. Durch das unveränderte, vollständige und historisierte Laden werden überdies Compliance- und Auditanforderungen erfüllt.

 

Einfache Umsetzung von Data Vault

Data Vault erfordert kein neues Aufsetzen der Architektur. Neue Funktionen können mit den Konzepten und Methoden von Data Vault direkt aufgebaut werden. Dabei ist ein paralleles Anwenden von Data Vault möglich und bereits existierende Bestandteile gehen nicht verloren.

Frameworks können dabei die Arbeit bedeutend erleichtern: sie ziehen einen Layer zwischen DWH und Entwickler und verringern damit die Komplexität bei der Umsetzung. Ein einfach anzuwendendes Framework ist das Pentaho Data Vault Framework. Es wurde speziell entwickelt, um Unternehmen bei der Entwicklung, Bereitstellung und dem Betrieb von Data Vaults zu unterstützen. Das Framework erlaubt einfaches Anbinden neuer Datenquellen, ohne selbst ETL-Strecken entwickeln zu müssen. Die ETL-Jobs zum Beladen von Hubs, Links und Satelliten sind dazu vollständig parametrisiert. Dabei werden auch knifflige Fälle berücksichtigt, etwa, wie man mit fehlenden Datensätzen, multiaktiven Satelliten oder der fachlichen Gültigkeit von Daten umgeht.

Ein grafisches Interface ermöglicht eine einfache Konfiguration. Satelliten lassen sich an beliebiger Stelle in das Data Vault einfügen, ohne dabei das Modell zu verändern. Das Konfigurations-Cockpit ermöglicht eine bequeme Steuerung und eine einfache Anbindung neuer Datenquellen. Daneben gibt es Werkzeuge, die historisierte Daten einfach zusammenfügen und in den Data Marts zur Analyse zur Verfügung stellen. Schließlich wollen Unternehmen auf die Daten bedarfsgerecht zugreifen können. Durch den PIT Merge Join Step können zum Beispiel Daten aus verschiedenen Satelliten chronologisch korrekt zusammengebracht werden, ohne dass dafür unflexible Point-In-Time-Tabellen benötigt werden.

 

Wer profitiert von Data Vault?

Vor allem Unternehmen, die große Datenvolumen in kurzer Zeit laden müssen sowie Unternehmen, die ihre Business-Intelligence-Applikationen agil entwickeln, profitieren von Data Vault. Auch Unternehmen, die ein vorgelagertes Core Data Warehouse innerhalb einer existierenden Silo-Architektur aufbauen, gewinnen dadurch große Vorteile.

Zusammenfassend lässt sich festhalten: Mit Data Vault erhalten Unternehmen ein leistungsfähiges Werkzeug an die Hand, um durchgängige, abgestimmte Datenmodelle für ihr Data Warehouse aufzubauen. Veränderungen sind sehr einfach vorzunehmen, sodass Data Vault sehr gut geeignet ist, um Data Warehouses für zukünftige Herausforderungen agil aufzustellen.

Stefan Müller, Director Big Data Analytics, it-novum GmbH (www.it-novum.com)

 

Eine Übersicht über das Konzept kann nach Registrierung kostenlos unter https://bit.ly/2BlzGNC heruntergeladen werden.

 

55 Artikel zu „Data Vault“

Hadoop und Data Vault – Ein evolutionärer Ansatz für Big Data

Big Data liefert neue Möglichkeiten mit schwach strukturierten beziehungsweise unstrukturierten Daten umzugehen. Der »Data Lake« soll alle Daten sammeln; die Analysten von Gartner haben das Konstrukt in einen »Data Swamp« umbenannt. Die Entwicklungsgeschwindigkeit für neue Werkzeuge rund um Hadoop ist sehr hoch, es entstehen immer wieder neue Möglichkeiten der Datenanalyse. Es wird Zeit mit einem evolutionären Vorgehen die Vorteile zu nutzen, ohne gleich die komplette BI-Struktur neu aufzusetzen.

Königsweg Automatisierung – Der Weg zu mehr Effizienz für Data Warehouse und Data Lake

Data Warehouses haben eine lange Tradition. Doch mit Big Data Analytics und Data Lakes haben viele diesen Ansatz totgesagt. Das entspricht allerdings nicht der Realität: Geschätzt betreiben mehr als 60 Prozent der Unternehmen Data Warehouses, oft sogar mehrere. Assets, in die viel investiert wurde und die Vorteile bieten, die mit einem Data Lake nicht erreicht…

Datenstrategien für Big Data – Automatisierung des Data Warehouse muss Teil der Lösung sein

Im Zeitalter von Big Data könnte man davon ausgehen, dass man gar nicht genug Daten haben kann. Denn aus Daten lassen sich in der Theorie wichtige Erkenntnisse ziehen, die Unternehmen zu ihrem Vorteil nutzen können. Und so sammeln Unternehmen seit Jahren fleißig Daten aus immer mehr Quellen ein – und stehen damit auch vor der…

Open-Data-Initiative: Mit Datenkooperationen gegen die »Daten-Kluft«

Durch die Nutzung und den Austausch öffentlich zugänglicher Daten können fundierte Entscheidungen getroffen und sogar einige der weltweit drängendsten sozialen Herausforderungen besser bewältigt werden. So heißt es in der neuen Datenstrategie der Bundesregierung, »Daten sind eine Schlüsselressource«, etwa für die Verbesserung der Gesundheitsversorgung. Die Fähigkeit Daten verantwortungsvoll und selbstbestimmt zu nutzen, zu verknüpfen und auszuwerten,…

Data Preparation: In 4 Schritten zum Data-Science-Projekt

Die richtige Data Preparation erhöht die Vorhersagequalität von Datenmodellen und steigert die Wirksamkeit von Machine Learning-Zyklen.   Die meisten Daten sind ohne eine vorher durchgeführte Data Preparation für KI-gestützte Prognosen ungeeignet: ihre Qualität ist unzureichend, sie liegen nicht in numerischer Form vor, oder es fehlen Werte. Diese Handlungsempfehlungen unterstützen bei der Datenvorbereitung und helfen, den…

Wie gelangt man zu einem effektiven Data Lake?

Die schnelle Entscheidungsfindung auf Basis digitaler Daten verändert die Art und Weise, wie Unternehmen und IT arbeiten. Da Unternehmen auf alle Arten von Informationen zugreifen wollen, haben sie einen Bedarf an Infrastrukturexperten erkannt, die ihnen helfen, aus ihren Daten neue Werte zu erschließen. Rubrik, Anbieter einer Plattform für Multi-Cloud Data-Control, erläutert jüngste Entwicklungen in diesem…

Analytics reicht nicht mehr aus: Top-Trends im Big-Data-Umfeld 2020

Wide Data, DataOps, Metadaten-Kataloge, Datenkompetenz und Shazamen sind die wichtigsten Trends im kommenden Jahr. Für 2020 hat der Data-Analyst-Spezialist Qlik folgende fünf Trends im Zusammenhang mit Big Data und Analytics identifiziert:   Aus Big Data wird Wide Data Dank skalierbarer Cloud-Lösungen sind in Big-Data-Umgebungen nicht länger die Kapazitätslimits unternehmensinterner IT-Infrastrukturen ein begrenzender Faktor. Die Herausforderung…

Die Trends für Business Intelligence & Big Data 2020

Welche Trends für Business Intelligence (BI), Data & Analytics werden das Jahr 2020 prägen? Im Interview gibt BARC-Chef-Analyst Dr. Carsten Bange seine Prognosen ab. Außerdem stellt er exklusiv die Ergebnisse des BARC BI Trend Monitor 2020 vor, der 2.650 Anwender von BI-Technologie zu ihren persönlichen Trendthemen befragt hat. Dr. Carsten Bange, Gründer und Geschäftsführer von…

Big Data: Wo die wilden Daten leben

Data Lakes, Data Marts, Data Vaults und Data Warehouses. Worin unterscheiden sich die verschiedenen Ansätze der Dateninfrastruktur? Big Data oder Data Analytics sind einige der größten Herausforderungen für die IT unserer Zeit. Viele Unternehmen befinden sich inmitten einer Umstellung auf eine datengesteuerte Ausrichtung ihrer Organisation und sind auf der Suche nach der dazu passenden Dateninfrastruktur.…

Big Data Vendor Benchmark 2017 liefert unabhängigen Vergleich von Big-Data-Lösungsanbietern

Die Analyse sehr großer polystrukturierter Datenmengen – Big Data – wird die Welt noch für sehr viele Jahre beschäftigen. Big Data gehört zu den Grundelementen der digitalen Transformation. Die Experton Group sieht hier vor allem die Notwendigkeit branchenspezifischer und zielgruppenspezifischer Angebote der ICT-Anbieter. Aus den »Big Data«-Dimensionen Business Intelligence und Business Analytics haben sich in…

Big Data ist bei deutschen Unternehmen bislang kein Thema

»Wir wollen weg vom Grundsatz der Datensparsamkeit, hin zu einem kreativen und sicheren Datenreichtum«, hat Alexander Dobrindt (CSU) unlängst verkündet. Weiterhin bezeichnete der Infrastrukturminister Daten als den Rohstoff der Digitalisierung. Ein Rohstoff, der offenbar bislang nur von wenigen abgebaut wird, wie eine aktuelle Veröffentlichung des Statistischen Bundesamts zeigt. Demnach setzen bislang nur sechs Prozent der…

Apache-Spark-Studie zeigt Wachstum bei Anwendern und neuen Workloads wie Data Science und Machine Learning

Zum besseren Verständnis der zunehmenden Bedeutung von Spark bei Big Data hat die Taneja Group ein großes Marktforschungsprojekt durchgeführt und rund 7.000 Teilnehmer befragt. In die weltweit angelegte Analyse wurden Führungskräfte aus Technik und Verwaltung einbezogen, die unmittelbar mit dem Thema Big Data zu tun haben. Die mit überwältigender Resonanz abgeschlossene Studie gibt Aufschluss die…

Big Data – Schluss mit lustig – Big Data wird ernst!

Seit 2011 beobachten wir bei Experton den Markt und die Lösungen für das Trendthema »Big Data«. Inzwischen haben viele Anbieter Produkte, Lösungen und Services für die neuen Datendimensionen in den Anwenderunternehmen auf den Markt gebracht. Bislang sind das jedoch vor allem Lösungen, die zunächst einmal rein technisch mit den Datenmengen umgehen können, schnelle Visualisierungsmöglichkeiten bieten,…

Verknüpfung von BI und Big Data hebt Datenanalysen auf neues Niveau

Business-Intelligence-Systeme sind in vielen Unternehmen produktiv im Einsatz. Zusätzliche Auswertungsmöglichkeiten bieten Big-Data-Anwendungen. Der kombinierte Einsatz in Unternehmen ist noch die Ausnahme, das ungenutzte Potenzial aber immens, meint der IT-Dienstleister Consol Software GmbH. Mit Business-Intelligence (BI)-Lösungen, die eine systematische Auswertung von Daten unterstützen, können Unternehmen wichtige Erkenntnisse für die Optimierung ihrer Geschäftsprozesse gewinnen. Die Datenanalysen helfen…

Big Data und gesellschaftliche Verantwortung

Mit den unheimlich vielen Analyse-Tools und den Social-Media-Datenschätzen sowie mit neuen Denkweisen wie Massenfinanzierung und gemeinsamer Nutzung von Privateigentum entstehen Chancen auf vermeintliche und echte disruptive datengetriebene Geschäftsmodelle. Bei den Szenarien sollte immer auch ein ethischer Gedanke im Vordergrund stehen. Einige Anbieter haben mächtige Werkzeuge entwickelt, darunter auch solche, die sogenannte disruptive Geschäftsmodelle fördern und…

Anstieg bei Investitionen in Big Data, obwohl immer weniger Unternehmen investieren wollen

Der Fokus hat sich von Big Data auf konkrete Geschäftsprobleme verschoben, die durch Big Data gelöst werden können. Investitionen im Bereich Big Data nehmen weiterhin zu, aber laut des IT-Research und Beratungsunternehmens Gartner sind erste Zeichen eines abgeschwächten Wachstums zu erkennen. Die Gartner-Umfrage zeigt, dass 48 Prozent der Unternehmen im Jahr 2016 in Big Data…

Neue Methoden für Business Intelligence – Agilität durch Automatisierung des Data Warehouse

Data Warehouse Automation bedeutet, dass die Entwicklung und Pflege der Datenaufbereitung aus wenigen Informationen heraus generiert wird und somit radikal beschleunigt. Diese Automation ist nicht ein Tool-Thema, sondern vor allem auch ein methodisches Thema. Neue Methoden im Bereich Business Intelligence, kurz BI, erlauben neben der Beschleunigung durch die Generierung auch eine höhere Agilität in der Bereitstellung von Daten und neue Wege in der Kommunikation mit dem Kunden.

Wie ERP-Systeme globalen Handel unterstützen: Grenzen – los?

Was bedeutet für Sie und Ihr Unternehmen der Begriff »Globalisierung«? Teils vorschnell definiert als Möglichkeit irgendwo auf der Welt billiger produzieren zu können, ist die Ausweitung der Geschäftstätigkeit auf den internationalen Markt für Sie sicherlich deutlich vielschichtiger und wird es immer mehr.   Begriffe wie Nachhaltigkeit, Neue Märkte, Produktion-on-Demand, globale Vernetzung, Handelskämpfe, Digitalisierung und Automatisierung,…

Effiziente Kühlsysteme für stabile und performante Prozesse – Serverkühlung: Das Rückgrat der Digitalisierung

$
0
0

Ob im Home Office oder beim Streaming: Die weltweite Covid-19-Pandemie und damit verbundene Kontaktbeschränkungen führen zu einer starken Auslastung des Datennetzwerks. Damit Rechenzentren überhaupt funktionieren, müssen sie rund um die Uhr gekühlt werden. Als Experte auf dem Gebiet erläutert Ingo Gdanitz, Business Development Manager bei der technotrans SE, die Herausforderungen und Potenziale effizienter Serverkühlung.

Um den hohen Bedürfnissen an Rechenzentrumskapazitäten gerecht zu werden, wächst auch der Kühl- und Energiebedarf stetig an«, erklärt Gdanitz. Der Sassenberger Kühl- und Temperierspezialist technotrans rechnet auch nach der Corona-Krise mit einer erhöhten Nachfrage. Die Auswahl eines effizienten und kundenspezifischen Kühlsystems sei dabei die wichtigste Maßnahme. Serverkühler gibt es in der Branche in sämtlichen Größen und Leistungskategorien, die je nach Wärmelast zum Einsatz kommen.

Worauf es bei der Serverkühlung ankommt. Gdanitz weist insbesondere auf die Energieeffizienz der Kühltechnik hin: »Optimierungsmaßnahmen können die Energieeffizienz der Serverkühlung signifikant verbessern.« Ein weiterer wichtigerer Punkt ist die Zuverlässigkeit der Technologie, denn für Anwender mit hochsensiblen Daten, die eine 100-prozentige Verfügbarkeit erfordern, wäre ein Ausfall der Kühlung fatal. Darüber hinaus ist das Monitoring, speziell für sogenannte Co-Location-Server-Zentren, von großer Bedeutung. Für den Fall, dass ein Rechenzentrum in mehreren Ausbaustufen geplant wird, ist schließlich auch die Erweiterbarkeit essenziell.

Aus jahrelanger Erfahrung weiß das Technologieunternehmen, dass beim Auslegen der Kühltechnik mehrere Faktoren berücksichtigt werden müssen:

  • Wärmelast: Je größer die Rechenleistung, desto höher ist die daraus entstehende Wärmelast, die von der Kühltechnik aus dem Rechenzentrum abgeführt werden muss.
  • Klimatische Bedingungen: Die Außentemperatur an den Server-Standorten entscheidet häufig über die Art der Kühltechnik.
  • Investitionsbudget: Ziel der Auslegung von Kühltechnik ist es, Anwendern möglichst kosteneffiziente Lösungen anzubieten.
  • Anwender-Modell: Abhängig von den Anforderungen des Anwenders, müssen Serverkühler bestimmte Leistungsansprüche wie Verfügbarkeit oder Erweiterbarkeit erfüllen.

In-Row-Wärmetauscher für den modularen Aufbau. In-Row-Wärmetauscher werden mit geringem Aufwand direkt zwischen die einzelnen Server-Racks platziert. Sie nehmen die Abwärme der Server auf, geben sie ans Kühlwasser ab und drücken kühle Luft zurück. Ein Beispiel dafür ist der In-Row-Wärmetauscher aus der technotrans-Gruppe: Die einzelnen Lüfter einer Kühleinheit sind jederzeit modular auf- oder abbaubar, sogar im laufenden Betrieb.

 

Abbildung 1: Das schematische Beispiel verdeutlicht den Aufbau eines vollständigen wassergekühlten Systems.

Abbildung 1: Das schematische Beispiel verdeutlicht den Aufbau eines vollständigen wassergekühlten Systems.

 

Zuverlässige Kühlung mit aktiver Kaltwassererzeugung. Kaltwassersätze, auch Chiller genannt, sind Kältemaschinen, die mittels eines Flüssigkeitskreislaufs Serverräume aktiv hinunterkühlen. Die Kaltwassererzeuger aus der technotrans-Gruppe sind atmosphärisch geschlossene Systeme, die in mehreren modularen Einheiten parallel betrieben werden können. »Das hat den Vorteil, dass eine hohe Verfügbarkeit aufgrund der redundanten Struktur gewährleistet wird«, sagt Gdanitz. Er rät dazu, den gesamten Kühlleistungsbedarf in kleinere Einheiten mit je 30 Prozent aufzuteilen. Sollte eine Einheit ausfallen, sind immer noch 90 Prozent des maximalen Kühlbedarfs verfügbar.

 

Abbildung 2: Technotrans-Freikühler (Wasserkühler) in V-Shape-Bauweise.

Abbildung 2: Technotrans-Freikühler (Wasserkühler) in V-Shape-Bauweise.

 

Hohe Energieeffizienz durch freie Kühlung. Freie Kühlung ist für den Außenbereich der Serverzentren gedacht, wo das warme Wasser ankommt und Wärme an die Umgebungsluft abgegeben wird. technotrans setzt dazu auf eine indirekte Freikühlung, die die niedrige Außenlufttemperaturen nutzt, um den Zentralkühlkreis zu kühlen. Diese Funktion wird nutzbar bei Außenlufttemperaturen etwas unterhalb der gewünschten Serverraum-Temperatur und übernimmt mit weiter sinkender Außenlufttemperatur immer mehr Anteile der Kompressor-Kälteerzeugung, bis hin zu einer kompletten Abschaltung der Kompressoren.

Durch die Kombination aus aktiver und freier Kühlung lassen sich enorme Energieeinsparungen erzielen und die sogenannte Power Usage Effectiveness (PUE) von Rechenzentren deutlich steigern. Der PUE-Messwert dient dazu, den Wirkungsgrad eines einzelnen Rechenzentrums über einen bestimmten Zeitraum zu messen. »Im Vergleich zur herkömmlichen Kompressor-Kühlung können bis zu 50 Prozent des Energiebedarfs für die Serverkühlung eingespart werden«, sagt Gdanitz.

In Abhängigkeit von der Temperaturdifferenz zwischen Außentemperatur und zulässiger Temperatur im Serverbereich gibt es unterschiedliche Möglichkeiten der Kühlung. Im Optimalfall ist die Außentemperatur niedrig genug, um allein über Freikühlung den Serverbereich hinunter zu kühlen. In den wärmeren Perioden kann eine aktive Flüssigkeitskühlung mit Verdichterkälte nachgeschaltet werden, um auch in dieser Zeit eine zuverlässige Kühlung zu ermöglichen.

Nachhaltige Kühlung von Serverräumen. »Auch wir möchten die Technologien der Branche nachhaltig gestalten und legen deshalb einen Entwicklungsschwerpunkt auf die Steigerung von Energieeffizienz«, sagt Gdanitz. Dabei kommt es vor allem auf den Dreiklang der Kühlsysteme an: Konzept, Komponenten und Regelung. technotrans trägt auf konzeptioneller Ebene zu einer höheren Nachhaltigkeit durch den Einsatz von freier Kühlung bei. Alle aktiven Komponenten sind zudem in der Drehzahl anpassbar, um unnötigen Energieverbrauch zu vermeiden.

technotrans verfolgt dabei einen ganzheitlichen Ansatz und übernimmt auch die komplette Projektierung mit Installation sowie Inbetriebnahme aller notwendigen Komponenten. Für die unterschiedlichen Projektanforderungen steht eine bewährte Palette an Serverkühlsystemen in diversen Leistungskategorien und Industriestandards zur Verfügung.


Illustrationen: © MicroOne /shutterstock.com;  technotrans

 

 

95 Artikel zu „Kühlung Rechenzentrum“

Energieeffizienz: Das leistet innovative Verdunstungskühlung im Rechenzentrum

Hoher Stromverbrauch und steigende Energiekosten fordern von Rechenzentren höchste Energieeffizienz. Wachsende Datenmengen und erhöhte Rechenanforderungen zahlreicher Unternehmen wandern heute in Hochleistungsrechenzentren. Ein solches errichtet aktuell die Hartl Group im niederbayerischen Hofkirchen. Anfang 2016 wird es in Betrieb gehen. Unverzichtbar: Die Klimatisierung des Rechenzentrums. Die im IT-Raum freiwerdende Wärme muss so effizient wie möglich aus dem…

Rechenzentrums-Trends 2020: Hybrid-Computing wird Mainstream

Bereitstellungsgeschwindigkeit wird zu einem immer wichtigeren Alleinstellungsmerkmal. Während in den vergangenen Jahren vor allem innerhalb der Unternehmensführungen ausgiebig darüber diskutiert wurde, ob nun Cloud oder »On Premises« die bessere Wahl ist, haben sich mittlerweile hybride Architekturen durchgesetzt, die Public- und Private-Cloud-Modelle mit Edge-Infrastrukturen rund um neu gestaltete zentrale Rechenzentren vereinen. Diese im Wandel befindliche Herangehensweise…

Rechenzentrum-Trends für 2020: Was gehört auf die Trendliste für 2020?

Wachsende Datenmengen, eine sichere europäische Cloud (Datensouveranität), eine schnelle Modernisierung von Rechenzentren sowie der steigende Energieverbrauch sind aus Sicht von Rittal die IT-/Datacenter-Trends im Jahr 2020. Etwa die Verwendung von OCP-Technologie (Open Compute Project) und Wärmerückgewinnung bieten Lösungen für die aktuellen Herausforderungen.   Im Jahr 2025 könnten Menschen und Maschinen bereits 175 Zettabyte an Daten…

Modernes Rechenzentrum für Strom- und Gasversorger – Energieexperte EGT AG setzt bei Neubau auf Prior1

Vor über 120 Jahren in Triberg im Schwarzwald gegründet, stellt die EGT AG heute die Führungsgesellschaft der EGT Unternehmensgruppe dar. Sie ist inzwischen in drei Geschäftsbereichen tätig: Dem Bereich Energieservice mit individuellen und verbrauchsoptimierten Energielieferungen sowie der Beratung und Realisierung dezentraler Energieversorgungskonzepte mit geringstmöglichen CO2-Fußabdruck, dem Bereich Energienetze mit dem Betrieb von Strom-, Gas-, Wärmenetzen…

Vier Ansatzpunkte für den Einsatz von künstlicher Intelligenz im Rechenzentrum

Unter den vielen Möglichkeiten, wie künstliche Intelligenz (AI = Artificial Intelligence) in Rechenzentren genutzt werden kann, gibt es momentan vier Anwendungsbereiche, in denen sich der Einsatz von AI besonders anbietet: das Regulieren von Stromverbrauch und Kühlung, das Infrastrukturmanagement, die IT-Sicherheit (inklusive physischem Zugriff) sowie die IT-Automatisierung. Daher kann jedes Rechenzentrum in unterschiedlichem Maße von AI…

In nur neun Monaten zur neuen IT-Infrastruktur – Rechenzentrums-Container von Rittal

ene‘t ist ein auf die Energiebranche spezialisiertes IT-Systemhaus. Mit einer selbst entwickelten Software und den stets aktuellen Daten zum Strom- und Gasmarkt kalkulieren Erzeuger, Netzbetreiber und Versorger die bestmöglichen Endverbraucherpreise. Das rasante Wachstum von ene‘t machte den Neubau eines Rechenzentrums in Rekordzeit notwendig.

Nachhaltige Datenspeicherung made in Nordfriesland: Ein Rechenzentrum setzt auf Windenergie

Wind gibt es in Nordfriesland reichlich – und so stellten sich Karl Rabe, Theodor Steensen und Jan-Martin Hansen Anfang 2015 aus Nordfriesland die alles entscheidende Frage: »Wenn Rechenzentren so viel Energie verbrauchen – immerhin drei Prozent des globalen Stromverbrauchs – und das mit so hohem CO2-Ausstoß verbunden ist, wieso gibt es in Nordfriesland kein Rechenzentrum,…

Open Compute Projekt – Mehr Gleichstrom und offene Standards im Rechenzentrum

Die laufenden Betriebskosten im Rechenzentrum zu senken, ist für jeden CIO eine Daueraufgabe. Die Initiative »Open Compute Project« (OCP) setzt hierzu auf homogene Rechenzentren und eine zentrale Gleichstromversorgung im Rack. Neue OCP-Produkte und aktualisierte Spezifikationen zeigen, wie attraktiv das Konzept ist.

Wichtige Kennzahlen für den IT-Betrieb – Optimale Energieeffizienz im Rechenzentrum

Digitale Geschäftsmodelle, Cloud Computing und Big-Data-Analysen sind nur einige der vielen Treiber, die den Bedarf nach mehr Rechenleistung vorantreiben. Für IT-Manager bedeuten zusätzlich installierte Kapazitäten aber auch, dass die Energiekosten für das Rechenzentrum in den Mittelpunkt wirtschaftlicher Analysen rücken. Mit welchen Kennzahlen Unternehmen die Kosteneffizienz ihrer IT-Infrastruktur bewerten sollten, zeigt der folgende Beitrag.

Trendprognose: Die Rechenzentrumsinfrastruktur 2017

Diese sechs Trends sollen 2017 für die Infrastruktur von Rechenzentren wichtig werden. »Weltweite Trends wie Cloud, Big Data und Mobility rücken immer mehr in den Fokus. Wer sich in der IT diesen Entwicklungen verweigert wird untergehen«, so Reinhard Purzer, Vice President & Managing Director Deutschland, Österreich & Schweiz (DACH) von Vertiv. »Aber um hier mithalten…

Data-Center-Trends 2017: Standort, Energie und Kühlung werden immer wichtiger

  Was erwartet die Rechenzentrumsbranche in den kommenden Jahren? Auf welche Trends und Technologien sollten Betreiber besonders achten? Verne Global gibt einen Ausblick auf 2017. Explodierende Daten durch Industrie 4.0 Industrie 4.0 und digitale Transformation sind nach wie vor die Themen der Stunde. 50 Milliarden Geräte werden laut Gartner in den nächsten fünf Jahren an…

Drei Tipps für die Wahl eines Rechenzentrums

Analog zur zunehmenden Digitalisierung aller Branchen bis hin zu einzelnen Mitarbeitern sind auch die Anforderungen an eine fachgerechte Sicherung und Verwaltung unternehmenseigener IT gewachsen. Worauf sollten mittelständische Geschäftsführer bei der Rechenzentrumswahl achten. Industrie 4.0, Internet of Things (IoT) und Big Data – die Digitalisierung hat viele neuartige Themen geschaffen, die Unternehmen zeitnah auffordern ihre IT-Landschaft grundlegend zu…

In Frankreich arbeitet das erste Rechenzentrum mit Energiespeicherung

Erneuerbare Energien werden mit Batteriespeichertechnologie verknüpft. Das erste Rechenzentrum arbeitet mit einem Lithium-Ionen-Batteriespeicher. Das Unternehmen Webaxys, Provider und Telekomanbieter mit Sitz in der Normandie, hat ein neues Rechenzentrum in Saint-Romain de Colbosc in der Nähe von Le Havre eingeweiht. Seit seiner Gründung verfolgt das Unternehmen eine Innovationsstrategie, die auf gesellschaftlichem Engagement und einem respektvollen Umgang…

Betriebskosten um rund ein Viertel senken – Sparen im Rechenzentrum

80 Prozent der Rechenzentren verbrauchen zu viel Energie [1]. In einer Untersuchung von über 100 Unternehmen hinsichtlich der Energieeffizienz in ihren Datacentern wurde festgestellt, dass der Power-Usage-Effectivness-Wert (PUE-Wert) im Mittel bei 1,7 liegt. Wenige Maßnahmen können die Effizienz steigern und so die Stromkosten um 20 bis 30 Prozent senken.

Das »energieeffizienteste« Rechenzentrum der Welt

Das in einem Container untergebrachte, vollständig mobile Rechenzentrum mit modularem Aufbau, Tencent West Lab will, die Energieeffizienz betreffend, weltweit führend sein. Das Ergebnis der Zusammenarbeit von ZTE und Tencent ist ein Rechenzentrum, das mehrere technologische Innovationen vereint. Am bemerkenswertesten ist ein Power Usage Effectiveness (PUE)-Wert von 1,0665 (unter Einbeziehung der Energiegewinnung über die Photovoltaik-Anlage). Dieser…

Sparen im Rechenzentrum

So können RZ-Verantwortliche die Betriebskosten um rund ein Viertel senken. 80 Prozent der Rechenzentren verbrauchen zu viel Energie [1]. Der Experte für sicheren und effizienten RZ-Betrieb untersuchte über 100 Unternehmen hinsichtlich der Energieeffizienz in ihren Datacentern. Dabei stellte er fest, dass der Power-Usage-Effectivness-Wert (PUE-Wert) im Mittel bei 1,7 liegt. Nach Angaben von Marc Wilkens, Senior…

Hochskalierbares Rechenzentrum: Lefdal Mine Datacenter mit PUE-Wert von 1,12

Der Bau des Lefdal Rechenzentrums in einer ehemaligen Mine an der norwegischen Küste geht zügig voran. Auf der CeBIT werden nun erstmals die dort installierten Rechenzentrums-Container von Rittal und IBM präsentiert. Mit diesem Konzept können Unternehmen Kosteneinsparungen von bis zu 40 Prozent im Vergleich zu einem Cloud-Rechenzentrum in Deutschland erzielen. Im ersten Bauabschnitt werden derzeit…

Grundsteinlegung für hochmodernes Rechenzentrum im Münchner Osten

Mit einer feierlichen Grundsteinlegung in Aschheim bei München haben am 24. November 2015 offiziell die Bauarbeiten für das neueste Hochsicherheitsrechenzentrum der Nürnberger noris network AG begonnen. Auf dem Gelände im Münchner Osten entsteht mit dem RZ MUC5 eines der modernsten Hochsicherheitsrechenzentren Europas. Bereits Ende 2016 sollen hier die ersten IT-Systeme von Kunden der noris network…

Neues Monitoring – Das ist der Trend im Rechenzentrum

Viele Rechenzentren haben heute Schwierigkeiten mit dem Monitoring und der Verwaltung der genutzten Serverkapazitäten. Mit einem geschätzten Anteil von 30 Prozent sind diese Tätigkeiten, welche an vielen Stellen auch in modernen Häusern noch größtenteils manuell erfolgen, ein besonders hoher Kostenpunkt – neben der Kühlung, Sicherung und Instandhaltung. Besonders teuer können Ausfälle bei lückenhafter Überwachung werden…

Viewing all 966 articles
Browse latest View live