Quantcast
Channel: Rechenzentrum – manage it
Viewing all 966 articles
Browse latest View live

Künstliche Intelligenz benötigt gigantische IT-Ressourcen aus der Cloud

$
0
0

Illustration: Absmeier, dlohner

Die Ausbreitung der künstlichen Intelligenz (KI) wird zu einer massiv steigenden Nachfrage nach mehr Rechenleistung und Speicherkapazität aus der Cloud führen. »KI betrifft alle Bereiche der Informationstechnologie und kann nur erfolgreich genutzt werden, wenn entsprechende Kapazitäten zur Verfügung stehen. Das ist mit unternehmenseigenen Rechenzentren in der erforderlichen Qualität und dem nötigen Service nur mit hohem finanziellem und personellem Aufwand zu bewältigen. Die notwendige Rechenleistung kann nur durch die Cloud flächendeckend gewährleistet werden«, sagt Marcus Busch, Geschäftsführer der Leaseweb Deutschland GmbH.

Grundlage für die Nutzung künstlicher Intelligenz sind Daten. Allein die aktuellen Trends der Automotive-Industrie – allen voran autonomes Fahren – oder die massiven Umbrüche im Banken- und Payment-Sektor beschleunigen das Anwachsen der Datenmenge. Deep-Learning-Systeme können aus diesen Daten wertvolle Erkenntnisse ziehen. Täglich fallen weltweit laut MerlinOne, einem US-amerikanischen Anbieter für Digital-Management-Software, rund 2,5 Trillionen Bytes Datenvolumen an. Diese Menge ist nur dann erfolgreich für KI nutzbar, wenn die Rechenleistung von Clouddienstleistern zur Verfügung steht. Der Datenverkehr wird weiter wachsen und in die Cloud wandern, so der Netzwerkspezialist Cisco. »Im Jahr 2021 prognostiziert Cisco eine Datenmenge von 19,5 Zettabyte im weltweiten Cloud-Rechenzentrumsverkehr. Die Datenmenge wird in den kommenden Jahren exponentiell wachsen. Das beobachten wir auch bei unseren eigenen, weltweiten Rechenzentren, die wir permanent ausbauen, um mit dem steigenden Volumen und dem Qualitätsanspruch unserer Kunden Schritt zu halten«, sagt Leaseweb-Geschäftsführer Busch.

Drastisch steigende Nachfrage nach und Cloud

Aus diesen Gründen erwartet Marcus Busch eine drastisch steigende Nachfrage nach Hosting- und Cloudservices, die auch den Ansprüchen großer Unternehmen und Organisationen gerecht werden. »Der Datenzuwachs macht externe, qualitative Ressourcen unabdingbar, um Zukunftstechnologien gewinnbringend einsetzen zu können. Vor diesem Hintergrund sind Unternehmen gut beraten, sich heute bereits nach einem verlässlichen Hosting- und Cloudanbieter umzusehen. Nur wer auf Hosting-Partner setzt, die die nötige Skalierbarkeit, Flexibilität sowie individuellen Service und Support mitbringen, wird die anfallenden Daten auch effizient nutzen können und sich so wertvolle Wettbewerbsvorteile im internationalen Vergleich sichern.« Der Anspruch an die Infrastruktur wird sich dabei jährlich weiter steigern: »Künftige IT-Infrastruktur muss agil und dynamisch jederzeit den Ansprüchen der Nutzer voraus sein. Das ist mit einer statischen Infrastruktur im Unternehmen nicht abbildbar. Die Qualität von Unternehmen wird mehr und mehr an ihrer digitalen Leistungsfähigkeit gemessen werden, und die wird durch externe Cloud- und Hosting-Spezialisten gewährleistet«, so Marcus Busch von Leaseweb.


 

Fünf Tipps für sichere Cloud-Nutzung

Ab in die Cloud? Aber sicher!

Illustration: Absmeier, Pixabay

Die Cloud-Technologie hat in den vergangenen Jahren nicht nur den IT-Markt, sondern auch die Geschäfts- und Arbeitswelt stark verändert. Im Zuge der Digitalisierung und Vernetzung von Geschäftsprozessen hat die Datensicherheit außerdem eine neue Bedeutung erlangt. Diese Relevanz hat auch der Gesetzgeber erkannt und ergänzend zu bestehenden branchenspezifischen Vorgaben mit der DSGVO ein Instrument geschaffen, das die Durchsetzung des Datenschutzes auch in der digitalen Welt auf breiter Ebene ermöglicht. Mit dieser Entwicklung sind die Auswirkungen von IT-Sicherheitsvorfällen nun deutlich unmittelbarer wirtschaftlich spürbar, da mit Datensicherheitsverstößen Haftungsfragen einhergehen und das Vertrauen der Kunden Schaden nehmen kann. Mit großer Skepsis wird angesichts komplexer Anforderungen in vielen Unternehmen daher der Umzug in die Cloud betrachtet. Dabei sind Daten in der Cloud prinzipiell überaus sicher. Risiken für Datenverluste oder Sicherheitsvorfälle entstehen hingegen dadurch, wie die Cloud genutzt wird. Theoretisch können bereits kleine Unachtsamkeiten der Nutzer massive Datenverluste nach sich ziehen – die darüber hinaus womöglich nicht sofort vom Unternehmen entdeckt werden können. Verschärft wird dieses Risiko dadurch, dass Cyberkriminelle dies erkannt haben und ihre Angriffstaktiken auf Schwachstellen in der Nutzung erweitert haben.

Die Herausforderung für Unternehmen besteht also darin, einerseits die gesetzlichen Anforderungen an den Datenschutz zu erfüllen und außerdem sicherzustellen, dass die Nutzung der Cloud möglichst sicher erfolgt. Zwar bringt jedes Unternehmen in dieser Hinsicht individuelle Voraussetzungen mit, doch im Allgemeinen sind die folgenden fünf Aspekte ein geeigneter Ausgangspunkt:

 

  1. Eng mit dem Cloud-Provider zusammenarbeiten

Was die Datensicherheit anbelangt, besteht in der Cloud eine geteilte Verantwortung zwischen Anbieter und Nutzer. Wobei der letztgenannte in der Lage sein muss, nachzuweisen, dass er bei der Auswahl des Anbieters größte Sorgfalt hat walten lassen. Dafür sollte zu Beginn Klarheit darüber bestehen, für welche Datenarten Cloudanwendungen genutzt werden sollen. Sind auch personenbezogene Daten betroffen, muss im Sinne der DSGVO geklärt werden, ob die Daten ausschließlich innerhalb des EU-Raums verarbeitet, gespeichert und gesichert werden. Ebenso sollten Nutzer sich vergewissern, dass ihr Anbieter über einen geeigneten Malware-Schutz und ausreichende Wiederherstellungsmechanismen verfügt. Falls der Anbieter mit Subunternehmen zusammenarbeitet, sollte vertraglich festgehalten werden, dass alle Vereinbarungen auch für diese gelten.

Wichtig für Nutzer ist es darüber hinaus, gemeinsam eine Verfahrensregelung bei Sicherheitsvorfällen zu treffen und die internen Prozesse entsprechend anzupassen, damit die gesetzlich geltenden Meldefristen eingehalten werden können.

 

  1. Intelligenten Malware-Schutz einsetzen

Mit ihren vielfältigen Sharing-Möglichkeiten bergen Cloudanwendungen ein hohes Risiko für die Verbreitung von Malware, beispielsweise durch infizierte Dokumente. Mit dem enormen Aufkommen an Daten und der Schnelligkeit des Austauschs sind signaturbasierte Antivirenlösungen längst überholt. Mit automatisierten Sicherheitslösungen, die in Echtzeit alle Dateien in der Cloud auf Malware überprüfen, kann ein geeignetes Schutzniveau erzielt werden. Idealerweise sollten diese über Machine Learning-Funktionen verfügen, mit denen anhand verhaltensbasierter Analysen auch bislang noch unbekannte Bedrohungen als verdächtig gekennzeichnet und entsprechend eingedämmt werden können.

Dieser Schutz sollte nicht ausschließlich auf die Cloud beschränkt bleiben. Denn die Endpoints, die auf diese Dateien zugreifen, stellen ebenfalls ein Risiko dar. Auch dort sollte es möglich sein, potenziell gefährliche Daten vor ihrem Weg in die Cloud herausfiltern zu können. Der Cloud-Malware-Schutz sollte daher mit den Endpoint-Security-Tools kompatibel oder in einer Lösung enthalten sein.

 

  1. Identitäts- und Zugriffsmanagement implementieren

Die Unternehmens-IT ist nicht mehr ausschließlich auf den Firmenstandort beschränkt. Prinzipiell können Mitarbeiter und mitunter auch externe Auftragsnehmer von überall über ihre Accounts auf die Clouddaten zugreifen. Allein die Zugangsdaten bieten dafür keinen geeigneten Schutz. Mit Identity and Access Management (IAM) kann durch Einbeziehung kontextabhängiger Faktoren das Sicherheitsniveau erhöht werden. Beispielsweise können Richtlinien erstellt werden, in denen definiert wird, dass der Zugriff aus bestimmten Ländern oder über ungesichertes WLAN verweigert wird. Darüber hinaus können die Zugriffsrechte je nach Abteilung, Position, Dokumentenarten, Standort, Endgerät oder Zeiträume verfeinert werden.

 

  1. Datenverschlüsselung und DLP nutzen

Ergänzend zu der Eliminierung von umgebungsbedingten Risiken spielt der unmittelbare Schutz der Daten in der Cloud eine zentrale Rolle. Durch eine Verschlüsselung nach höchstem Standard ist dafür gesorgt, dass Daten bei Verlust für Dritte unbrauchbar sind. Mit zusätzlichen Data Loss Prevention (DLP)-Funktionen erhält die IT-Abteilung einen anwendungsübergreifenden Überblick aller Datenströme, der damit verbundenen Benutzeraktivitäten und ist in der Lage, bei Bedarf kontrollierend einzugreifen.

 

  1. Unternehmensangehörige schulen

In der vernetzten Welt können auch Personen eine Schwachstelle für IT-Umgebungen darstellen. Hacker setzen mittlerweile in hohem Maße auf Social-Engineering-Angriffstaktiken, da diese in der Regel erfolgreicher sind. Mit regelmäßigen Schulungen über aktuelle Betrugsversuche sowie der Möglichkeit, verdächtige Ereignisse mit geringem Aufwand melden zu können, können Mitarbeiter für ihre wichtige Rolle sensibilisiert und in die IT-Verteidigungsstrategie integriert werden.

 

Datensicherheit in den Fokus rücken

Die Notwendigkeit all dieser Sicherheitsmaßnahmen auf verschiedenen Ebenen zeigen auch auf, wie die Anforderungen der Datensicherheit und die Besonderheiten der Cloud-Technologie zusammenwirken. Unternehmen müssen dafür Sorge tragen, dass die von ihnen verarbeiteten Daten stets sicher sind – und dies beschränkt sich nicht auf den Cloud-Speicherort, sondern schließt potenzielle Risiken für Datenverluste, die durch die Nutzung der Cloud entstehen könnten, mit ein. Ergänzend zum traditionellen Schutz des eigenen Netzwerks müssen Unternehmen auch alle Übertragungswege in die Cloud sichern. Ein lückenloser Schutz kann am besten erzielt werden, wenn ausgehend von den Daten und ihren Verarbeitungswegen geeignete Sicherheitsmaßnahmen entwickelt werden.

 

Michael Scheffler, Regional Director Central and Eastern Europe, Bitglass

 


 

189 Artikel zu „Hosting Cloud“

Hosting und Managed Infrastructure Services behaupten sich neben Cloud Services

Infrastructure Services sind trotz der zunehmenden Bedeutung von Cloud Services noch immer ein wesentlicher Pfeiler des IT-Marktes. Die wenigsten Unternehmen sehen es heute noch als zielführend an, eigene Rechenzentren zu bauen, zu unterhalten und auf einem angemessenen Standard zu halten. Gleichzeitig macht eine zunehmende Ressourcenknappheit im Bereich der qualifizierten Administratoren einen Eigenbetrieb schwierig. Entsprechend wächst…

Cloud- und Hosting-Markt: Abkehr vom Hosting, hin zu IaaS

Immer mehr europäische Unternehmen nutzen Cloud Computing [1]. Im Rahmen der »2014 European Hosting and Cloud Survey« wurden über 400 Führungskräfte und IT-Entscheider aus der Hosting- und Cloud-Branche befragt. Die Ergebnisse zeigen deutlich, dass sich der Markt in einer Umbruchphase befindet: Zahlreiche Unternehmen stellen auf die Cloud um und beziehen vor allem Infrastructure as a…

Cloud: Welche Hintertüren offen sind

Ob File-Sharing, Zugriff von privaten Geräten oder Shadow-IT: Das sind die Schwachstellen in Cloud-Infrastrukturen. Daten liegen nicht nur in der Cloud – mit Daten wird gearbeitet. Genau das ist der Punkt, der IT-Verantwortliche weltweit immer noch vor Herausforderungen stellt: Nur ein Drittel (33 Prozent) kann beispielsweise für ausreichend Sicherheit sorgen, wenn Mitarbeiter Links zu Dateien…

Cloud-Repatriation – Warum migrieren Unternehmen aus der Public Cloud zurück?

Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend.   Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde.…

Drei Tipps zur Absicherung von Public-Cloud-Ressourcen

Immer häufiger erhalten Hacker Zugriff auf die Public-Cloud-Ressourcen von Unternehmen und Organisationen. Die Ursache ist oft ein nachlässiger Umgang mit den Zugangsschlüsseln berechtigter Nutzer. Eine wesentliche Quelle solcher Schlüssel stellen Entwickler-Plattformen wie GitHub dar, auf denen Mitglieder der DevOps-Teams oft auch vertrauliche Informationen ablegen, die sich in Skripten oder Konfigurationsdateien befinden. Hacker sind sich dessen…

Cloud Security: Sechs Maßnahmen für effektive Cloud-Sicherheit

Sicherheitsverantwortung in der Cloud durch Shared-Responsibility-Modell: Unternehmen tragen als Kunden Eigenverantwortung für kritische Bereiche. Die zunehmende Nutzung von Public-Cloud-Ressourcen macht es erforderlich, dass Unternehmen ihre Sicherheitsverantwortung ernster nehmen. Basierend auf dem Modell der geteilten Sicherheitsverantwortung von Anbieter und Kunde ergeben sich einige entscheidende Anforderungen an zuverlässige Cloud-Sicherheit. Sechs grundlegende Maßnahmen für effektive Cloud-Sicherheit helfen das…

Sicherheit in der Cloud: Herausforderungen bei Cloud-First-Strategie bewältigen

Die heutige vernetzte Welt basiert auf der Datenzugänglichkeit von überall, zu jeder Zeit und auf jedem Gerät. Die Geschwindigkeit und Agilität, die mit Hosting-Diensten und -Anwendungen in der Cloud einhergeht, sind für den Erfolg zentral. Die damit verbundenen Vorteile haben Unternehmen in den letzten Jahren gezwungen, zumindest einige und in manchen Fällen sogar alle ihre…

Experten diskutieren über die Zukunft der Cloud

Vom 23. bis 29. März 2019 dreht sich beim CloudFest im Europapark Rust alles um die Zukunft der Cloud- und Hosting-Branche. Das CloudFest zählt zu den wichtigsten Veranstaltungen für Cloud-Technologien und -Strategien in Deutschland. Mit über 7 000 Besucher erwarten die Veranstalter in diesem Jahr wieder eine neue Rekordmarke. Die IT-Spezialisten der noris network AG…

Hybride Multi-Cloud-Lösungen für mehr Freiheit und Transparenz

Sollten sich Unternehmen mit einem »Eine-Cloud-für-alles«-Ansatz begnügen? Nein! Denn Unternehmen, die offene, hybride Cloud-Lösungen nutzen, haben ganz klare Wettbewerbsvorteile. Denn eine hybride Multi-Cloud-Architektur passt sich mit verschiedenen Cloud-Anbietern und Konfigurationen ideal an unterschiedliche Use-Cases an und lässt sich trotzdem einheitlich verwalten.   Mythen über Multi-Clouds Es ist ein verbreitetes Missverständnis, dass mehrere Clouds automatisch eine…

C3 – Cloud, Connectivity und Colocation

Drei Zauberworte für die digitale Infrastruktur deutscher Unternehmen.   Eine neue Studie von 451 Research im Auftrag von Digital Realty hat die Herausforderungen untersucht, mit denen sich deutsche Unternehmen beim Auf- und Ausbau ihrer digitalen Infrastrukturen konfrontiert sehen [1]. Dabei spielen nicht nur die Verwaltung der eigenen IT, sondern auch der Zugriff auf andere Dienstleistungen…


Acht Überlegungen für eine erfolgreiche Cloud-Implementierung

$
0
0

Cloud Computing hat komplette Branchen verändert und verdrängt traditionelle Legacy-Infrastrukturen in Unternehmen. Sogar Regierungen, die traditionell neue Technologien eher langsam für sich entdecken, nutzen heute die Vorteile der Cloud. Im Zuge all dieser Entwicklungen sind Cloud-Native-Strategien zur Norm geworden.

Bei Cloud-Native geht es jedoch nicht einfach nur darum, die Cloud gegenüber anderen Modellen vorzuziehen. Der große Vorteil dieses Ansatzes besteht vielmehr darin, dass Unternehmen aus einer Vielzahl von Services den jeweils aktuell passenden auswählen können, um effizienter zu werden. Eine gut durchdachte Cloud-Native-Strategie ermöglicht es Organisationen, die Vorteile der Cloud – vor allem in Form von Skalierbarkeit, höherer Sicherheit und Kosteneinsparungen – schnell und unkompliziert zu nutzen.

Vor der Umsetzung einer Cloud-Native-Strategie sind jedoch acht wichtige Punkte zu beachten. Sie reichen von der Budgetzuweisung bis hin zu Aspekten rund um Ausbildung und Training.

 

  1. Budgetvergabe

Die Cloud-Technologie ist noch relativ jung. Preismodelle für manche Services sind für einige Kunden ungewohnt. Doch diese Herausforderung lässt sich meistern. Wichtig ist, dass Preise transparent dargelegt werden und sich Anbieter und Kunde auf einen bestimmten Service-Level einigen können. Setzen Unternehmen auf die Cloud, sinken die Betriebskosten. Die Verwaltung eigener Rechenzentren ist nicht länger nötig, für die Wartung der IT-Infrastruktur ist der Cloud-Dienstleister verantwortlich. Enthält der Budgetplan eine grobe Aufstellung darüber, wie viel Geld für welche Aktivitäten vorgesehen ist, können Unternehmen die Cloud-Performance optimieren, neue Services entwickeln und Innovationen vorantreiben.

 

  1. Vertrags- und Beschaffungsflexibilität

Die Entwicklung eines offenen Wettbewerbs in der Beschaffung ist ein entscheidender Bestandteil eines robusten und effektiven Cloud-Rollouts. Schließlich führt ein gesunder Wettbewerb dazu, dass Unternehmen Zugang zu einer breiteren Palette von Produkten und Dienstleistungen erhalten und gleichzeitig die Kosten senken können.

Die Öffnung des Beschaffungsprozesses gibt Unternehmen die Möglichkeit, Kosten und Nutzen zu vergleichen. Darüber hinaus können sie durch kürzere, flexiblere Verträge mit Anbietern die gut funktionierenden Dienste erweitern und bei weniger optimalen Angeboten den Umstieg einleiten, ohne dass dies mit erheblichen Kosten oder Frustrationen verbunden ist.

 

  1. Übergang von einem Beschaffungsmodell zu einem Verbrauchsmodell

Der Wechsel von einem Investitions- zu einem OPEX-Modell ist einer der großen Vorteile der Cloud und ermöglicht es Unternehmen, Kosten zu senken, Ressourcen effektiv zu verwalten und die IT-Performance zu maximieren. Anstatt mehr in die Optimierung von Rechenzentren und Servern zu investieren, bezahlen Unternehmen nur für die Ressourcen, die sie in der Cloud tatsächlich verbrauchen.

Ein solcher Ansatz ermöglicht es Firmen, die IT-Nutzung je nach Bedarf zu skalieren. So werden beispielsweise Entwicklungs- und Testumgebungen in der Regel nur acht Stunden am Tag während der Arbeitswoche genutzt. Dadurch sind Kosteneinsparungen von 75 Prozent (40 Stunden gegenüber 168 Stunden) möglich. Außerdem lassen sich Ressourcen effektiv verwalten, und die Cloud-Performance kann maximiert werden.

 

  1. Cloud-Sicherheitsanforderungen/Benchmarks 

Cloud-Sicherheit ist eine notwendige und wichtige Komponente jeder Cloud-Implementierung. Da die Bedrohungslandschaft wächst, müssen Unternehmen über ausgereifte Sicherheits- und Compliance-Prozesse verfügen, um die Daten zu schützen, die durch ihr Netzwerk fließen. Ob Sicherheitsvorgaben wie ISO 27000, DSGVO oder Compliance-Richtlinien – Regularien und Gesetze dieser Art müssen in jeder Cloud-Computing-Infrastruktur beachtet werden.

 

  1. Richtlinien zur Datenklassifizierung

Bei der Datenklassifizierung und -identifikation geht es darum, Daten so zu kennzeichnen, dass sie effektiv geschützt, sowie schnell und effizient gefunden werden können. Als Teil eines Cloud-basierten Ansatzes ist es wichtig, über eine Datenklassifizierungsrichtlinie zu verfügen und zu verstehen, wie Informationen im Unternehmen verwendet werden.

Sofern Nutzer bei der eigenen Arbeit erfahren, dass sie mit Sicherheitstechnologien wie End-to-End-Verschlüsselung sicherer und Compliance-konform arbeiten, steigt die Akzeptanz, und Cyberattacken können erfolgreicher abgewehrt werden.

 

  1. Datenschutz und Kontrolle

Es ist kein Geheimnis, dass Cyberangriffe an Volumen und Raffinesse zunehmen. Laut einer Studie von Linklater hat die Anzahl der Unternehmen, die Hackern zum Opfer fielen, innerhalb der vergangenen drei Jahre um 63 Prozent zugenommen. Zugleich hat das Vertrauen der Kunden höchste Priorität. Um dieses Ziel zu erreichen, müssen Unternehmen Datenflüsse exakt kennen und sich an Datenschutzbestimmungen halten. Bei Datenlecks verstoßen Unternehmen nicht nur gegen Vorschriften und Gesetze, sondern sie verlieren auch Kunden und der Ruf leidet.

Gehen Unternehmen in die Cloud, so müssen sie dem Datenschutz oberste Priorität einräumen. Für Cloud-Anbieter sind Datenmanagement und Services, die regelmäßigen Audits unterzogen werden, ein Muss. Cloud-Anbieter entwickeln diese Dienste am besten auf Basis von Best-Practice-Beispielen aus dem Bereich Datenschutz. Zugleich müssen Unternehmen das vollständige Nutzungsrecht an den Daten besitzen, sie vollständig kontrollieren und entscheiden können, an welchem geografischen Ort diese gespeichert werden. Haben Organisationen ihren Datenbestand im Griff, können sie Risiken erkennen und die Privatsphäre ihrer Kunden schützen.

 

  1. Cloud-Ausbildung und Training

Cloud-Ausbildung und -Training sind wichtige Elemente einer erfolgreichen, langfristigen Cloud-Implementierung. Sie wird allerdings fragmentiert bleiben und nicht von den Mitarbeitern effizient genutzt werden, wenn nicht für alle Beteiligten klar erkennbar ist, wie die Cloud der Organisation helfen kann. Vorteile wie Wachstum, Flexibilität, Skalierbarkeit und Innovation müssen deutlich werden.

Als Teil eines Kulturwandels ist es wichtig, in die Unterstützung von Mitarbeitern und Interessengruppen zu investieren. Indem Unternehmen Schulungen und Zertifizierungen anbieten, Cloud-basierte Qualifikationen ermöglichen und eine fruchtbare Arbeitsumgebung rund um die Cloud schaffen, können sie deren Potenzial nutzen. Darüber hinaus entsteht mehr Know-how im Unternehmen. Es hilft dabei, Innovationen voranzutreiben, neue Ideen zu entwickeln und Wettbewerbsvorteile zu sichern.

 

  1. Roadmap für die Cloud-Migration

Viele Unternehmen wollen auf die Cloud umsteigen, hadern jedoch mit der Umsetzung. Das ist verständlich, denn die Cloud bietet viele neue Konzepte, Implementierungsmodelle und Anwendungen.

Ein Kernvorteil von Cloud Computing ist das breite Leistungsspektrum, das große Anbieter wie AWS anbieten. Mit ihm lässt sich eine sehr individuelle IT-Umgebung aufbauen. Obwohl es keine einheitliche Lösung für den Wechsel in die Cloud gibt, kann eine Anleitung in Form einer Roadmap für die Cloud-Migration dabei helfen, den richtigen Weg zur Cloud-Akzeptanz zu finden.

Es ist hilfreich, gemeinsam mit einem Cloud-Provider einen klaren Plan auszuarbeiten, der die Cloud-Strategie und Unternehmensziele in Einklang bringt. Auf diese Weise können Firmen ihre Cloud-Migration transparent vorantreiben, Probleme beheben und die Grundlage für eine Cloud-first-Organisation schaffen.

 

Cloud ist die Zukunft

Es ist unbestreitbar, dass die Cloud viele Möglichkeiten für Innovation und Zusammenarbeit auf der ganzen Welt schafft. Trotzdem sehen noch immer viele IT-Verantwortliche in diesem Bereich große Unwägbarkeiten und wissen nicht, wie sie aus dieser für sie unbekannten Technologie das Optimum herausholen können.

Gleichzeitig wollen immer mehr Unternehmen Cloud-Native-Strategien umsetzen. Dafür benötigen sie einen klaren Migrationsfahrplan. Wird dieser durch innovative Trainingsprogramme und den klaren Fokus auf Sicherheit, Datenschutz und Compliance flankiert, gelingt der reibungslose Übergang in die Cloud.

Constantin Gonzalez, Principal Solutions Architect bei AWS

 

1750 Artikel zu „Cloud Strategie“

Neue Storage-Architekturen: Hybrid- und Multi-Cloud-Strategien beschleunigen

Auch wenn alle Welt über Daten und ihre Bedeutung für mehr Wettbewerbsfähigkeit und Flexibilität spricht, so fällt es vielen Unternehmen dennoch schwer, dieses Potenzial zu nutzen – und zwar aus einem einfachen Grund: Traditionelle Storage-Anbieter halten sie davon ab, ihr System zu modernisieren, weil sie an herkömmlichen Architekturen mit all ihrer inhärenten Komplexität und Einschränkungen…

Sicherheit in der Cloud: Herausforderungen bei Cloud-First-Strategie bewältigen

Die heutige vernetzte Welt basiert auf der Datenzugänglichkeit von überall, zu jeder Zeit und auf jedem Gerät. Die Geschwindigkeit und Agilität, die mit Hosting-Diensten und -Anwendungen in der Cloud einhergeht, sind für den Erfolg zentral. Die damit verbundenen Vorteile haben Unternehmen in den letzten Jahren gezwungen, zumindest einige und in manchen Fällen sogar alle ihre…

Alle Stärken nutzen: Sechs Strategien, mit denen Unternehmen ihren Cloud-Erfolg steigern

Mit der Cloud stehen Unternehmen Technologien zur Verfügung, mit denen sie bestens für die aktuellen Herausforderungen im Rahmen der Digitalisierung gerüstet sind. Das volle Potenzial lässt sich allerdings nur ausschöpfen, wenn Unternehmen über die Technik hinaus grundlegende Strategien berücksichtigen. Unternehmen unterliegen aktuell einem enormen Innovations- und Wettbewerbsdruck. Um diesem standzuhalten, sind sie gefordert, die Time-to-market-Phasen…

Vor einer Cloud-Migration eine Cloud-Strategie entwerfen

Überlegt zum Sprung in die Wolke ansetzen. Die Migration in die Cloud mit IT-Inventur und Kennzahlenabgleich vorbereiten. Bis 2025 wird die Cloud-Nutzung so fest im Geschäftsalltag verankert sein, dass es Wichtigeres gibt, als über die Cloud zu reden. Diese Prognose teilt ein Fünftel der deutschen IT-Entscheider in einer aktuellen Umfrage, die der amerikanische Softwareanbieter Citrix…

Die Vorteile ausgereifter Cloud-Sicherheitsstrategien

Ein neues Cloud-Security-Maturity-Model mit Benchmarks bietet Unternehmen Orientierung bei der Nutzung von nicht-IT-geführten Cloud-Services. Erfahrene Unternehmen haben doppelt so wahrscheinlich einen Cloud-Security-Architekten eingestellt wie andere Unternehmen.   Netskope stellt den neuen »The Maturity of Cloud Application Security Strategies«-Report vor, in dem die Enterprise Strategy Group (ESG) im Auftrag von Netskope die geschäftlichen Vorteile der Nutzung…

Flug auf Sicht in der Cloud – Auf dem Weg zu einer umfassenden Cloud-Security-Strategie

Clouddienste werden aus der Unternehmenslandschaft künftig nicht mehr wegzudenken sein. Der Aufwärtstrend in der Einführung von Cloud Services hält branchenübergreifend weiter an. Wie die diesjährige Studie von Bitglass, an der 135.000 Unternehmen weltweit teilgenommen haben, zeigte, liegt die Cloudnutzung mittlerweile bei 81 Prozent – eine Zunahme von 37 Prozent gegenüber 2016 [1]. Einen nicht unwesentlichen…

Die 3 Schlüsseltechnologien einer Multi-Cloud-Strategie

Multi-Cloud-Konzepte sind auf dem Vormarsch, da Unternehmen mehr Auswahl über den besten Ort für ihre Daten und Workloads suchen. Im Verlauf teilen Branchenexperten ihr Wissen darüber, was IT-Teams beachten sollten, um die Vorteile der Cloud-Flexibilität bei der Einführung einer Multi-Cloud-Strategie voll ausschöpfen zu können. Sie empfehlen drei Schlüsseltechnologien, die beim Aufbau einer Multi-Cloud-Umgebung wichtig sind.…

Eine Cloud-Strategie allein reicht nicht, um wettbewerbsfähig zu bleiben

»Cloud Master« in allen Branchen auf dem Vormarsch.   Eine neue Studie zeigt, dass sogenannte »Cloud Master« – zukunftsorientierte Unternehmen, die sehr Cloud-erfahren sind und bereits durchschnittlich 70 Prozent ihrer Applikationen in die Cloud verlagert haben – ihre Wettbewerber in allen Branchen weit hinter sich lassen. Für die Studie befragte das Forschungsunternehmen Longitude Research im…

 

Hyperkonvergenz als praxistaugliche Plattform für eine zukunftsfähige Unternehmens-IT

$
0
0

Im Praxischeck: Hyperkonvergenz bietet weit mehr als schnelle und einfache IT-Bereitstellung.

Cloud und hyperkonvergente Infrastruktur (HCI) sind virtuelle Umgebungen, in denen Unternehmen aller Branchen neue Services entwickeln, bereitstellen, verschieben und verwalten können. Dabei profitiert man bei der Nutzung von Angeboten der großen Anbieter wie Google, Amazon & Co von Skaleneffekten. Diese bringt eine HCI in der Server, Speicher, Netzwerk und Virtualisierungstechnik in einer »Box« fertig konfiguriert sind, ins Rechenzentrum. In welchem Maße das bereits geschieht, veranschaulicht der IDC Worldwide Quarterly Converged Systems Tracker. So legte der HCI-Umsatz im vierten Quartal 2018 im Vergleich zum Vorjahr um 57 Prozent auf 1,9 Milliarden US-Dollar zu. Damit decken diese Appliances fast 47 Prozent des gesamten Markts für integrierte Systeme ab. Konvergente Infrastrukturen kommen dagegen nur auf knapp 39 Prozent, Tendenz weiter fallend.

Für diese Entwicklung nennen die IT- und Marktexperten zwei Gründe: Eine »reguläre« HCI kann die Komplexität im Rechenzentrum senken und geschäftskritische Workloads abbilden. Bei letztgenanntem Aspekt geht ein Anbieter jedoch noch einen Schritt weiter. Dessen HCI weist zwei wesentliche Alleinstellungsmerkmale auf: Das System trennt Speicher- von Compute-Kapazitäten, beide lassen sich daher unabhängig voneinander erweitern. Darüber hinaus garantiert die integrierte Element-OS-Technologie auch bei mehreren Workloads die Leistung. Quality of Service (QoS) nennt sich das Feature, das für einen stabilen und performanten Betrieb von Business-Lösungen wie VDI (Virtual Desktop Infrastructure), SQL, SAP und vielen anderen sorgt. Der entscheidende Vorteil der NetApp HCI: Ein notwendiges Overprovisioning und die daraus folgenden Lizenzgebühren entfallen. Neben diesen »heißen« bildet eine HCI aber auch »kalte« Workloads wie Backup & Recovery ab.

 

Ein Rädchen greift für Multi-Workloads ins andere

HCI lässt sich auch für einen einzelnen Workload verwenden, seine wahren Stärken spielt Hyperkonvergenz jedoch aus, wenn sie verschiedene Anwendungen auf einer Plattform konsolidiert. Von diesem Vorteil profitiert auch die KOEPFER Gruppe, ein Hersteller hochpräziser Zahnräder sowie Getriebekomponenten. Der Automobilzulieferer betrieb zuvor eine Tier-1-All-Flash-Array-Datenspeicherlösung und nutzte Server als Virtualisierungsumgebung. Die HCI konsolidiert nun verschiedene Workloads, wie den SAP Content Server sowie den System Center Configuration Manager (SCCM) von Microsoft, um die Computer zu verwalten. Hinzu kommen zwei Exchange Mailserver im On-Premises-Betrieb, eine Unix-Anwendung mit Oracle-Datenbank als ERP-System, die IP-Telefonanlage, mehrere Fileserver, Domain-Controller und ein Dokumentenmanagementsystem. Alle Workloads lassen sich zudem kapseln und ihre Performance garantieren. Davon und vom einfachen IT-Betrieb profitiert vor allem die IT-Mannschaft beim Automobilzulieferer. Und auch die Zahlen überzeugen: Das Vorgängersystem leistete 7.200 IOPS (Input/Output Operations per Second), die vier Medium-Storage-Nodes schaffen hingegen 200.000 IOPS.

Performancegewinn und -stabilität standen auch bei der Linzmeier Bauelemente GmbH im Vordergrund, als das Unternehmen seine klassische Server-Speicher-Architektur ersetzte. Denn diese offenbarte massive Performanceengpässe im SAP-Betrieb. Auf der HCI betreibt die Firma jetzt eine VMware-Umgebung, in der 45 VMs (Virtuelle Maschinen) laufen – für SAP, Domain-Controller, SQL, File- und Mailserver sowie eine Citrix-Umgebung. Linzmeier profitiert dank HCI nun von einer einfacheren Administration und geringerem Stromverbrauch sowie der extrem verbesserten Performance – die auch die Nutzer im Alltag merken.

Sowohl KOEPFER als auch Linzmeier überzeugt die Kombination aus starker Performance und einfacher Verwaltung. Deduplizierung spart zusätzlich Platz im Rack. Außerdem konnten beide Anwenderfirmen den Hypervisor frei wählen, wobei sie zusätzlich Lizenzkosten sparen. Dank der Storage-Compute-Trennung lässt sich das System je nach Bedarf erweitern.

 

Einfache Integration in die Cloud und Entwicklungsschub

Auch der Managed Service Provider (MSP) Concat AG suchte nach einer standardisierten Plattform für viele unterschiedliche Kundensysteme. Ziel des IT-Spezialisten war eine einfach zu verwaltende, voll virtualisierte und mandantenfähige Cloud-Plattform. Auf dieser neuen Lösung wollte man den VMware-Hypervisor weiterhin einsetzen. Die neue HCI erfüllt diese Vorgaben und löst dedizierte Server ab. Die entstandene hybride Cloud-Landschaft ist als mandantenfähige Cloud-Plattform aufgebaut, die redundant und skalierbar an das Internet anbindet. So ist der MSP in der Lage, in kurzer Zeit die Bandbreite zu erhöhen, wenn Bezieher von Managed Services (MS) das wünschen. Die Plattform konsolidiert wie gefordert sämtliche Kundensysteme. Dank QoS-Feature kann Concat die Lasten auf den Knoten sauber verteilen. Die erreichte Standardisierung im IT-Betrieb will der IT-Dienstleister nun auch auf die Datacenter seiner Kunden übertragen.

 

Brücke in die Cloud

Der kurze Streifzug durch die IT-Abteilungen verschiedener Branchen zeigt: HCI ist branchenübergreifend für alle Unternehmen und Organisationen geeignet, die mehr aus ihren Daten herausholen wollen – sie deckt jeden Workload und vor allem Multi-Workload-Szenarien ab. Auch dank Argumenten wie flexibler Skalierbarkeit, Automatisierung und standardmäßiger Integration in die Cloud breitet sich der Ansatz weiter aus. Hyperkonvergente Systeme sind also weder Analystenhype noch Marketingversprechen, sondern bieten eine äußerst praxistaugliche Plattform, um die Unternehmens-IT zukunftsfähig zu machen. Das geht weit über das schnelle und einfache Bereitstellen von Services hinaus. Hyperkonvergenz ist prädestiniert, mehrere »heiße« wie »kalte« Workloads zu konsolidieren sowie an Clouds anzudocken. Mit einer solchen Appliance lassen sich auch Microservices und containerbasierte Lösungen umsetzen, zum Beispiel für DevOps. Diese Szenarien werden zwar auch weiterhin vor allem in der Public Cloud laufen – dahin schlägt HCI aber problemlos eine Brücke.

 

André Braun ist Manager Cloud Infrastructure Sales DACH bei NetApp

(Quelle: NetApp)

Foto: https://pixabay.com/de

 

14 Artikel zu „Hyperkonvergenz“

Hyperkonvergenz, Virtualisierung und Security: Weniger ist mehr

Die Vorteile von Hyperkonvergenz und Virtualisierung im Security-Management nutzen. Das Hauptziel der Virtualisierung – nach wie vor einer der treibenden Trends im Rechenzentrum – ist das Minimieren der Betriebskosten bei gesteigerter Leistung und Effektivität. Das Aufkommen des Software-Defined Data Centers (SDDC) und von hyperkonvergenter Infrastruktur (HCI) mit einer zusätzlichen Abstraktionsebene, ermöglicht zudem eine schnellere Bereitstellung…

Zunahme an Hyperkonvergenz und Software-definiertem Speicher

Studie zeigt: 71 Prozent der Teilnehmer aus 53 Ländern verwenden bereits HCIS oder SDS oder planen deren Einführung. Atlantis Computing veröffentlichte gemeinsam mit ActualTech Media die Ergebnisse einer Umfrage zu hyperkonvergenter Infrastruktur (HCIS) und softwaredefinierter Speicherung (SDS). Die Studie bietet Einblicke, wie IT-Organisationen zukünftig moderne Rechenzentren aufbauen. Die Umfrage, unter 1.267 Rechenzentrumsleitern aus 53 Ländern,…

Keine mobile Sicherheit ohne Security by Design

Bei der Softwareentwicklung von Desktop-, Web- und Mobil-Anwendungen kommt niemand mehr an Security by Design vorbei. Software muss von Grund auf und von Anfang an sicher sein. Nur so ist sie optimal vor Cyberattacken, Datenmanipulation und Datendiebstahl geschützt. Die Anzahl von Cyberattacken steigt weiter rasant und die Angriffe werden zunehmend komplexer. Statt im Nachhinein immer…

Mit dem Einsatz von Containern steigen die Storage-Herausforderungen

Laut einer Gartner Studie wird im Jahr 2020 über die Hälfte der Unternehmen Container-Technologien einsetzen. Kein Wunder, schließlich bieten Container bisher ungekannte Mobilität, Vereinfachung und Effizienz, damit IT-Teams neue Mikroservices und bestehende Anwendungen schnell aufsetzen und aktualisieren können. Wegen ihrer zahlreichen Vorteile werden Container in den kommenden Jahren eine immer größere Rolle in der IT…

Branchenkonvergenzen erfordern neue Teststrategien

  Technologien und Prozesse sind zunehmend branchenübergreifend und bringen beim Testen sowohl Probleme als auch Potenzial mit sich. Teststrategien, die auf geschlossenen und proprietären Verfahren basieren, gefährden den Erfolg von Unternehmen. Durch Partnerschaften mit branchenübergreifend tätigen Unternehmen lassen sich die nötigen Einblicke gewinnen, um Testabteilungen rechtzeitig auf neue Anforderungen vorzubereiten.   Branchenkonvergenzen sind kein neues,…

Cybersicherheit in Unternehmen leidet unter der Komplexität und mangelnder Nutzerfreundlichkeit von Security-Tools

Das sind die Sorgen und Wünsche von IT-Managern im Umgang mit Sicherheitswerkzeugen.   Rund zwei von drei IT-Professionals sind davon überzeugt, dass die Effektivität der Cybersicherheit in ihren Unternehmen unter der Komplexität der Security-Tools leidet. Das ist das Ergebnis der aktuellen VMworld-Studie des PAM-Spezialisten Thycotic. Obwohl sie in die Auswahl der Sicherheitslösungen eingebunden sind, beklagen…

Hyperkonvergente Infrastrukturen: Der gehobene Mittelstand nutzt bereits HCI

Gibt es eine typische Unternehmergruppe, die einen besonders hohen Bedarf an hyperkonvergenten Infrastruktur (HCI) anmeldet? Diese und weitere Fragen haben IT-Experten in einer Umfrage beantwortet [1]. Als Ergebnis lässt sich festhalten: Vor allem große mittelständische Firmen und das Branchensegment »Cloud Service Provider/IT-Dienstleister« vertrauen den vorkonfigurierten Systemen, um Infrastruktur agil und flexibel bereitzustellen, die Virtualisierung im…

Forscher speichern ein Bit auf atomgroßen Magneten

IBM hat bekanntgegeben, dass es einem Team im kalifornischen IBM-Forschungszentrum in Almaden gelungen ist, mit Hilfe eines einzelnen Atoms den weltweit kleinsten Magneten herzustellen und ein Datenbit darauf zu speichern. Herkömmliche Festplatten benötigen dafür bisher etwa 100.000 Atome. Das Ergebnis der Forschungsarbeit basiert auf der Erfahrung von über 30 Jahren Nanotechnologieforschung bei IBM. Dazu gehört…

Software-Defined WAN löst das Problem mit dem Internet-Zugang

Jemandem ein Rätsel aufzugeben, bedeutet, die betreffende Person vor ein Problem zu stellen. So steht es im Duden. Und mit einem speziellen »Rätsel« sehen sich Netzwerkspezialisten konfrontiert: Sie suchen nach Wegen, um Mitarbeitern in Niederlassungen und Home Offices einen Internet-Zugang bereitzustellen. Das ist schwieriger als gedacht. Denn viele Unternehmensnetze sind nach dem Prinzip »Nabe und…

Rechenzentrum: Verdreifachung von Edge-Einrichtungen bis 2025

$
0
0

Aktuelle Prognosen deuten auf ein rasantes Edge-Wachstum und einen starken Rückgang an Fachkräften hin.

Vor fünf Jahren startete Vertiv eine globale, branchenweite Umfrage bezüglich des Rechenzentrums (RZ) der Zukunft. »Data Center 2015: Exploring the Possibilities« greift die Visionen von mehr als 800 Branchenexperten auf und stellt eine gemeinsame Vision für das Rechenzentrum der nächsten Generation vor. Das Halbzeit-Update: »Data Center 2025: Closer to the Edge zeigt grundlegende Veränderungen in der Branche, die in den Prognosen von 2014 kaum zu erkennen waren.

 

Die Migration zum Edge verändert die Art und Weise, wie die heutigen Branchenführer über das Rechenzentrum denken. Sie kämpfen mit einem breiten RZ-Ökosystem, das aus vielen verschiedenen Arten von Einrichtungen besteht, und verlassen sich zunehmend auf den Rand des Netzwerks (Edge). Von den Teilnehmern, die heute bereits Edge-Sites betreiben oder bis 2025 Edge-Sites nutzen wollen, rechnet mehr als die Hälfte (53 %) damit, dass die Anzahl der von ihnen unterstützten Edge-Sites um mindestens 100 % wächst, wobei 20 % einen Anstieg von 400 % oder mehr prognostizieren. Zusammengefasst erwarten die Umfrageteilnehmer, dass ihre Gesamtzahl der Edge-Computing-Standorte bis 2025 um 226 % zunehmen wird.

 

Während der vorangegangenen Studie 2014 wurde Edge zwar als wachsender Trend erkannt, verdiente aber nur vier Erwähnungen im 19-seitigen Bericht. Man konzentrierte sich zu diesem Zeitpunkt noch deutlich mehr auf hybride Architekturen, die Unternehmens-, Cloud- und Colocation-Ressourcen nutzten. Selbst in einer Branche, die sich rasant entwickelt und kontinuierlich verändert, ist das Wachstum von Edge und die damit verbundenen drastischen Auswirkungen auf die Rechenzentrumslandschaft erstaunlich.

 

»In einem Zeitraum von nur fünf Jahren haben wir die Entstehung eines völlig neuen Segments des RZ-Ökosystems erlebt, das durch die Notwendigkeit angetrieben wird, die Computer näher am Benutzer zu platzieren«, sagte Rob Johnson, CEO von Vertiv. »Dieses neue, verteilte Netzwerk ist auf ein erfolgskritisches Edge angewiesen und verändert die Art und Weise, wie wir bislang über das Rechenzentrum gedacht haben, grundlegend.«

 

»Vorhersagen über technologische Veränderungen in einem Zeitraum von zwei bis drei Jahren sind eine Herausforderung. Aber die vorliegende Studie bildet exakt die Vision eines sich ständig verändernden und unglaublich dynamischen Marktes ab, der sich vor unseren Augen entwickelt«, sagte Giordano Albertazzi, Präsident von Vertiv in Europa, dem Nahen Osten und Afrika. »Insbesondere stimmen die Schätzungen für den zukünftigen Anstieg im Edge Computing mit dem prognostizierten Wachstum von KI, IoT und anderen latenz- und bandbreitenabhängigen Anwendungen überein. Die Herausforderung – insbesondere angesichts des Personalmangels im Rechenzentrum – besteht darin, die gesamte neue Infrastruktur effektiv und effizient zu verwalten. Fernmanagement und Ansätze wie z. B. Light-Out-Rechenzentren werden eine immer wichtigere Rolle spielen.«

 

Mehr als 800 Rechenzentrumsexperten nahmen an der Umfrage teil. Weitere spannende Ergebnisse der Umfrage:

 

Die Befragten sehen die Aussichten für Solar- und Windenergie im Rechenzentrum nicht mehr so optimistisch wie 2014. Zu diesem Zeitpunkt prognostizierten sie, dass bis 2025 etwa 34 % der Rechenzentrumsleistung aus diesen Energiequellen kommen würde. Jetzt liegt die Erwartung bei 21 % – immer noch optimistisch angesichts des ambitionierten Zeitplans.

Weltweit gehen 16 % der Teilnehmer davon aus, dass sie bis 2025 in den Ruhestand gehen werden, was den ohnehin schon problematischen Fachkräftemangel noch verschärft. In den USA liegt diese Zahl bei alarmierenden 33 %.

 

[1] Die vollständigen Umfrageergebnisse finden Sie im Report »Data Center 2025: Closer to the Edge«. Der ursprüngliche Bericht und eine zusätzliche Analyse der Ergebnisse sind unter vertiv.com verfügbar.
https://www.vertiv.com/de-emea/about/news-and-insights/articles/pr-campaigns-reports/data-center-2025-closer-to-the-edge

 

168 Artikel zu „Edge Computing“

Edge Computing: Dezentralisierte Netzarchitekturen beschleunigen Anwendungen und Dienste

Die Unternehmens-IT verändert sich – wieder einmal. Nach der Mainframe-Ära, der verteilten Datenverarbeitung mit Client-Server-Modellen und der Rezentralisierung in die Cloud steht nun erneut ein dezentraler Ansatz im Mittelpunkt: das Edge Computing. Indem Anwendungen, Daten und Dienste vom Core-Rechenzentrum zu den äußeren Rändern des Netzwerks verlagert werden, lassen sich Workloads wesentlich schneller und effektiver verarbeiten.…

Edge Computing: Latenzfreie Datenverarbeitung am Rande der Cloud

So bringt Edge Computing den entscheidenden Vorteil für zeitkritische Datenverarbeitung. Der Großteil der Datenverarbeitungsprozesse in Unternehmen findet mittlerweile in der Cloud statt. Hier ist es möglich, passgenau zugeschnittene Angebote eines Cloudanbieters in Anspruch zu nehmen und so komplett auf eigene, betriebsinterne Server verzichten zu können. Die Vorteile liegen auf der Hand: Die Speicherkapazität ist leicht…

Cloud-Trends 2018: Fachkräftemangel, Edge Computing und Cloud-Infrastruktur

Die ungewisse politische Lage und die Vorschriftenänderungen könnten 2018 für Unternehmen zu einem unberechenbaren Jahr machen. Die richtige Mischung von pragmatischer Kreativität und Initiative zu finden wird von zentraler Bedeutung für Unternehmen sein, weil diese auch in diesem Jahr danach streben werden, flexible, bewegliche und regelkonforme Leistungsmöglichkeiten zu entwickeln. Mark Lewis, EVP Products & Development…

Edge Computing – oder wie Netzwerke intelligenter werden

Ein Beitrag über Chancen, Hindernisse und Trends dieses Lösungsansatzes.   Die wachsende Digitalisierung und Globalisierung erfordert immer modernere IT-Umgebungen: transparent, kostengünstig, einfach zu managen sollen sie sein und sich gleichzeitig flexibel an den Geschäftsbedarf anpassen lassen, um nur ein paar Anforderungen zu nennen. Hybride Cloud-Strukturen waren und sind dann in vielen Fällen das Mittel der…

Edge-Computing: Hohe IT-Security für Echtzeit-Datenverarbeitung

Safe: Edge-Lösungen für Smart Government, Smart Industry und Smart Healthcare. Schlüsselfertig: IT-Container für den sicheren und schnellen Aufbau von Edge-Infrastrukturen. Skalierbar: Ausfallsichere Lösungen von Rittal mit Partner ABB, HPE und iNNOVO.     Cybersecurity ist auch im Jahr 2018 ein zentrales Thema für Unternehmen in allen Industriezweigen. Laut dem TÜV Rheinland (Cybersecurity Trends 2018) wird…

Vier zentrale Edge-Computing-Archetypen und ihre technischen Anforderungen

Mithilfe der Ergebnisse aus dem Forschungsbericht »Vier Edge-Computing-Archetypen und ihre technischen Anforderungen« können Anforderungen besser eingeschätzt und Infrastrukturen optimiert werden.   Im Forschungsbericht »Vier Edge-Computing-Archetypen und ihre technischen Anforderungen« werden Anwendungsfälle rund um das Thema Edge Computing untersucht, aus denen sich vier zentrale Archetypen für Edge-Anwendungen und die dafür erforderliche Technologie ableiten lassen. Experten von…

Mehr als 90 Prozent der Betreiber befürchten steigende Energiekosten für 5G und Edge

Betreiber blicken optimistisch auf die durch 5G ermöglichten Dienste. Doch Schätzungen zufolge könnte der Netzenergieverbrauch bis 2026 um bis zu 170 Prozent steigen.   Vertiv und das Technologieanalystenhaus 451 Research veröffentlichen die Ergebnisse einer Umfrage, die einen Einblick in das Zusammenspiel aus 5G und Edge Computing geben. Die Mehrheit der befragten Telekommunikationsanbieter glaubt, dass die…

Cognitive Computing: Der evolutionäre Schritt zur Automatisierung

32 Prozent im Baugewerbe, 49 Prozent im Handel und sogar 55 Prozent in der Produktion – das ist die globale Produktivitätssteigerung durch Automatisierung von 2015 bis 2030, die von Bain & Company Tage prognostiziert worden ist [1]. Naturgemäß profitiert die deutsche Wirtschaft mit ihren führenden Investitionsgüterherstellern massiv von dieser Modernisierungswelle. Branchenübergreifend liegt der Positiv-Effekt, von…

Automatisierung der IT-Infrastruktur: Automatisierung – unaufhaltsam auf dem Vormarsch

$
0
0

Die Automatisierung hat mittlerweile in der IT-Strategie einen sehr hohen Stellenwert. »Automate Everything« ist das neue Motto.

Automatisierung begleitet die IT-Infrastruktur bereits von Beginn an – angefangen von automatisch ausgehandelten Geschwindigkeiten im Netzwerk über automatische Datensicherung in Betriebssystemen bis hin zur automatischen Fehlerbehebung in Anwendungs-Clustern. Bisher betraf die Automatisierung hauptsächlich die Betriebsphase einer Lösung. In den letzten Jahren greift die Automatisierung allerdings auch in die sonst von Administratoren beherrschten Phasen der Inbetriebnahme und Außerbetriebnahme ein, neuerdings sogar in die Planung und Erprobung von Lösungen.

Der augenscheinlichste Grund für die Ausweitung der Automatisierung liegt darin, die Betriebs- beziehungsweise Entwicklungskosten zu senken. Hierbei handelt es sich jedoch nur um einen Treiber. Die Automatisierung spart nicht nur Kosten, sondern verändert auch die Reaktionszeiten und Durchführungsdauer in der IT. Gewünschte Änderungen lassen sich schneller und unabhängig von Arbeitszeiten durchführen. Last but not least ist es durch die Automatisierung möglich, die Arbeitsqualität entscheidend zu verbessern, indem die menschliche Fehlerquelle in vielen – wenn nicht sogar in allen – Schritten ausgeschlossen werden kann.

Schauen wir uns als Beispiel die Erkennung von Schadsoftware auf einem PC an. Der Aufwand für die Administratoren zur Eindämmung und Beseitigung steht hier wahrscheinlich nicht im Vordergrund, da solche Vorfälle nicht allzu oft auftreten. Entscheidend ist es hier, die Vorfälle schnell und sorgfältig zu bearbeiten – ein Kommunikationsfehler zwischen den Administratoren kann durchaus zur Störung eines unbeteiligten Systems führen.

 

Kosten, Geschwindigkeit und Qualität sind die Treiber der Automatisierung.

Kosten, Geschwindigkeit und Qualität sind die Treiber der Automatisierung.

 

Wie lässt sich der Automatisierungsgrad in der IT erhöhen? Automatisierungen werden entweder durch Herstellerlösungen oder Eigenentwicklungen bereitgestellt. In der Praxis stellen Herstellerlösungen die Basis dar und werden durch Eigenentwicklungen individuell ergänzt, um gegebenenfalls fehlende Anforderungen umzusetzen. Ein weiterer Grund für Eigenentwicklungen kann die Orchestrierung von verschiedenen Herstellerlösungen sein.

Die grundlegende Voraussetzung für Automatisierung ist die Modellierung von Prozessen. Erst nachdem die IT-Services und deren reguläre Änderungen definiert sind, ist es sinnvoll, eine technische Lösung zu etablieren und deren Arbeitsschritte zu automatisieren.

Kommen wir zum Beispiel Schadsoftware zurück: Erst nachdem die Maßnahmen bei einer Schadsoftware-Erkennung definiert sind, kann die technische Umsetzung erfolgen. Die Policy könnte hier beispielsweise eine netzwerkseitige Isolation des PCs vorschreiben, bis die Schadsoftware beseitigt ist, mit einer optionalen Benachrichtigung des betroffenen Mitarbeiters. Allerdings auf einem alternativen Weg – etwa durch Versand einer SMS auf das Mobiltelefon des Mitarbeiters. Die Telefonnummer dafür sollte im firmen-internen Adressbuch nachgeschlagen werden. Die Isolation des PCs könnte etwa durch Verschieben in ein Quarantäne-Netz erfolgen. Nach der Bereinigung wird der PC dann wieder in das reguläre Netz zurück verschoben, abschließend findet die Modellierung der technischen Umsetzung statt. Schauen wir uns dazu die Isolation des PCs genauer an. Der Virenscanner erkennt automatisch die Schadsoftware und meldet diese an das Managementsystem. Die NAC-Lösung im Netzwerk kann einen PC automatisiert in ein anderes Netzwerksegment verschieben. Es sind folglich zwei Herstellerlösungen mit Automatisierung vorhanden. Nehmen wir an, es handelt sich um zwei unterschiedliche Hersteller und beide stellen keine Integration in die jeweils andere Lösung bereit. Damit hier die Automatisierung des definierten Prozesses nicht unterbrochen wird, besteht die Möglichkeit, dass eine selbst entwickelte Software die beiden Lösungen verbindet. Diese könnte dafür das Log im Managementsystem des Virenscanners auslesen, den darin vorhanden PC-Namen auswerten, über die NAC-Lösung den Anschluss des PCs ermitteln und ebenfalls über die NAC-Lösung das Verschieben in ein Quarantänenetz anstoßen.

 

Wird ein PC mit Schadsoftware entdeckt, erfolgt die netzwerkseitige Isolation des PCs, bis die Schadsoftware beseitigt ist. Der betroffene Mitarbeiter wird durch Versand einer SMS auf das Mobiltelefon benachrichtigt. Nach der Bereinigung wird der PC dann wieder in das reguläre Netz zurück verschoben, abschließend findet die Modellierung der technischen Umsetzung statt.

Wird ein PC mit Schadsoftware entdeckt, erfolgt die netzwerkseitige Isolation des PCs, bis die Schadsoftware beseitigt ist. Der betroffene Mitarbeiter wird durch Versand einer SMS auf das Mobiltelefon benachrichtigt. Nach der Bereinigung wird der PC dann wieder in das reguläre Netz zurück verschoben, abschließend findet die Modellierung der technischen Umsetzung statt.

 

Die Herausforderungen. Bei Herstellerlösungen entstehen in Bezug auf Evaluierung, Test, Implementierung und Betrieb in der Regel keine neuen Herausforderungen dadurch, dass diese Automatisierung enthalten. Die Herausforderungen bestehen dann, wenn selbst entwickelte Lösungen diese ergänzen oder orchestrieren. Zum einen wird das notwendige Know-how bei der Entwicklung der Lösung benötigt und ist abhängig von der Aufgabenstellung. Anforderungen, die nicht sehr komplex sind, können erfahrungsgemäß ohne tiefes Wissen in Softwareentwicklung mit einfachen und leicht zu pflegenden Skripten umgesetzt werden. Im Gegensatz dazu erfordern komplexe Anforderungen meistens eine komplette Softwareentwicklung mit den dafür üblichen Methoden und Werkzeugen. Zum anderen ist es wichtig, die Pflege der entwickelten Lösung zu betrachten. Dies gilt insbesondere im Zusammenspiel mit den Herstellerlösungen. Nimmt der Hersteller Änderungen an den Schnittstellen vor, ist es notwendig, die Eigenentwicklung umgehend entsprechend anzupassen. Treten Fehler in der Kommunikation mit den Schnittstellen auf, müssen diese unter Einbeziehung des Hersteller-Supports qualifiziert gelöst werden.

Im Kontext zu unserem Beispiel der Schadsoftware könnte eine neue Version des Managementsystems vom Virenscanner die Vorfälle nicht mehr in einer Log-Datei erfassen, sondern in einer Datenbank. Alle Vorfälle werden dann über eine Rest-API ausgelesen, was allerdings eine größere Änderung an der selbst entwickelten Lösung nach sich zieht.

Automatisierung mit Strategie. Alle Hersteller investieren massiv in Automatisierung. Aber nicht nur in kostenpflichtige Lösungen, sondern auch in kostenfreie Angebote, um den Kunden einen einfachen Einstieg in die eigenentwickelte Automatisierung zu ermöglichen. Diese Angebote umfassen Dokumentationen, Foren zum Austausch der Programmierer, Sandboxes für einfache Tests der Schnittstellen oder sogar die Bereitstellung kompletter Entwicklungsumgebungen. Hier zeigt sich, welcher hohe Stellenwert der Automatisierung mittlerweile in der IT-Strategie zukommt. In zukünftigen Projekten wird ohne Frage das Motto »Automate Everything« von großer Bedeutung sein und daher entsprechende Beachtung finden.

Unabhängig davon, ob die IT-Strategie Eigenentwicklungen vorsieht oder die Automatisierung komplett durch Dritte bereitgestellt wird, ist ein kompetenter Partner in der Regel eine sinnvolle Ergänzung. Controlware bietet als Systemintegrator und IT-Dienstleister professionelle Unterstützung rund um die Automatisierung: Hilfestellung bei der Prozessdefinition, Beratung bei Herstellerlösungen, Unterstützung bei Eigenentwicklung bis hin zur kompletten Entwicklung und dem Betrieb von Lösungen. 


Korte Noack,
Senior Consultant Competence Center Network Solutions,
Controlware GmbH
www.controlware.de

 

 

Illustration: © basel 101658 /shutterstock.com

 

683 Artikel zu „Strategie Automatisierung“

Keine Automatisierungsstrategie in deutschen Büros

85 Prozent der Deutschen wünschen sich mehr Entlastung bei Routinearbeiten im Büro. »Dateiverwaltung und -dokumentation« ganz oben auf der Wunschliste. Strategie für Automatisierung fehlt im Großteil der Unternehmen. Wunsch und Wirklichkeit klaffen beim Thema Automatisierung in Unternehmen weit auseinander. Das zeigt der aktuelle Wrike Digital Work Report 2018 [1]. Unternehmen besitzen mehrheitlich keine Automatisierungsstrategie oder…

Kontoübernahmen und Identitätsdiebstahl: Neue Vertriebsstrategie im Dark Web

Combolists-as-a-Service (CaaS) ermöglicht Optimierung und Automatisierung von Kontoübernahmen und Identitätsdiebstahl. Das Konto von Anwendern zu hacken ist wie der Einbruch in ein Haus: Entweder man verschafft sich gewaltsam Zutritt oder sucht nach dem Ersatzschlüssel unter der Fußmatte. In der Cyberwelt scheint letztere Vorgehensweise so einfach wie nie. Die Zahl der exponierten Zugangsdaten im Open, Deep…

Unternehmen brauchen für künstliche Intelligenz eine klare Strategie

Unternehmen sehen KI als entscheidende Schlüsseltechnologie, haben aber häufig keine Strategie. Datenverfügbarkeit, Datenqualität und mangelnde Datenarchitektur bremsen KI-Projekte aus. Qualitäts- und Kostenziele stehen primär im Fokus der Unternehmen.   Unternehmen in Deutschland sind sich einig: künstliche Intelligenz (KI) ist die entscheidende Schlüsseltechnologie und wird bereits in den kommenden Jahren großen Einfluss auf Geschäftsmodelle und Unternehmensprozesse…

ERP-Migration: Mit der richtigen Strategie schneller am Ziel

»Never change a running system«, heißt es. Dennoch: Irgendwann steht in jedem Unternehmen die Modernisierung des ERP-Systems an. Diese Migration lässt sich auf verschiedene Weisen angehen Wer eine so kritische Anwendung wie ein ERP-System modernisiert, betritt immer auch Neuland. Wie bei einer Reise, kann dies viele neue Erkenntnisse und wertvolle Erfahrungen mit sich bringen. Schlecht…

Personalstrategie und Prozessintegration als Eckpfeiler der Digitalisierung: 5 Phasen der Transformation

Die digitale Transformation steht aus gutem Grund ganz oben auf der Agenda vieler Unternehmen. Die Welt verändert sich und sie verändert sich schnell. Laut der Boston Consulting Group ist die durchschnittliche Lebensdauer eines Großunternehmens in den letzten 50 Jahren um 75 Prozent gesunken – von 60 Jahren auf nur noch 15 Jahre. Globalisierung, der rasche…

Prozessautomatisierung schafft in der Personalabteilung mehr Zeit für Kernaufgaben

Recruiting-Strategie entwerfen statt Papierakten wälzen: Was im HR-Bereich zu kurz kommt. Neue Technologien mit künstlicher Intelligenz (KI) sind in aller Munde – auch im HR-Bereich. Es wird etwa diskutiert, wie intelligente Tools beim Recruiting helfen können. In der Praxis sind allerdings die meisten Personalabteilungen längst nicht so weit. Ein Großteil der Zeit fließt immer noch…

Neue Storage-Architekturen: Hybrid- und Multi-Cloud-Strategien beschleunigen

Auch wenn alle Welt über Daten und ihre Bedeutung für mehr Wettbewerbsfähigkeit und Flexibilität spricht, so fällt es vielen Unternehmen dennoch schwer, dieses Potenzial zu nutzen – und zwar aus einem einfachen Grund: Traditionelle Storage-Anbieter halten sie davon ab, ihr System zu modernisieren, weil sie an herkömmlichen Architekturen mit all ihrer inhärenten Komplexität und Einschränkungen…

Studie zeigt: Mitarbeiter haben keine Angst vor Automatisierung

Eine weltweite Studie zu Automatisierung, bei der rund 5.000 Entscheidungsträger und Wissensarbeiter befragt wurden, zeigt, dass die Mehrheit der Wissensarbeiter in Deutschland (81 Prozent) dazu bereit ist, sich für die Zusammenarbeit mit den »digitalen Arbeitskräften«, auch bezeichnet als Softwareroboter oder »Digital Workforce«, weiterzubilden. Weitere 74 Prozent der Wissensarbeiter gaben an, dass sie bereit wären, neue…

Für die Führungsebene: Was eine effektive Verschlüsselungsstrategie ausmacht

  Lange Jahre hat man Verschlüsselung primär aus einem Blickwinkel heraus betrachtet: dem einer Belastung für Geschäftsprozesse. Teuer, komplex und von zweifelhaftem Wert. Wie sich die Dinge doch geändert haben. Nach wenigen Jahren (und nach Hunderten von hochkarätigen Datenschutzverletzungen mit wirtschaftlichen Schäden in Billionenhöhe) lassen sich Cyberbedrohungen nicht mehr ignorieren. Das ist auch auf den…

Künstliche Intelligenz (KI) treibt die Automatisierung von SIAM voran

Neuer ISG-Anbietervergleich sagt weiteres Wachstum des deutschen Marktes voraus, zumal immer mehr mittelständische Unternehmen auf SIAM (Service Integration and Management) und ITSM (IT Service Management) setzen.   Dank Technologien der künstlichen Intelligenz (KI) wie Bots und Machine Learning (ML) sowie durch die verstärkte Nutzung von Big Data und Analytics bieten SIAM-/ITSM-Anbieter ihre Lösungen immer automatisierter…

Automatisierung: Die Fertigung wird immer intelligenter

Die Fertigungsindustrie strotzt von Beispielen an Unternehmen, die neueste technologische Entwicklungen in ihren Produktionsstätten einsetzen. Ihr Ziel: Verbesserung der Prozesse, höherer Automatisierungsgrad und Förderung des zukünftigen Unternehmenswachstums. Eine Studie von Epicor zeigt, dass sich 95 Prozent der befragten Fertigungsunternehmen in Deutschland in irgendeiner Form mit digitaler Transformation auseinandersetzen Ein Paradebeispiel ist Siemens, das mithilfe von…

Automatisierung bedroht Millionen Arbeitsplätze

18,4 Prozent aller Arbeitsplätze in Deutschland sind laut OECD Employment Outlook 2019 von Automatisierung bedroht. Damit sind Jobs gemeint, bei denen 70 Prozent der Aufgaben auch von Maschinen verrichtet werden könnten. In anderen Ländern stehen die Chancen, nicht der Automatisierung zum Opfer zu fallen, deutlich besser. In den USA sind es beispielsweise etwas mehr als…

Sicherheit in der Cloud: Herausforderungen bei Cloud-First-Strategie bewältigen

Die heutige vernetzte Welt basiert auf der Datenzugänglichkeit von überall, zu jeder Zeit und auf jedem Gerät. Die Geschwindigkeit und Agilität, die mit Hosting-Diensten und -Anwendungen in der Cloud einhergeht, sind für den Erfolg zentral. Die damit verbundenen Vorteile haben Unternehmen in den letzten Jahren gezwungen, zumindest einige und in manchen Fällen sogar alle ihre…

Datenbankmigration: So werden Legacy-Systeme performanter, agiler und effizienter

$
0
0

Es gibt viele gute Gründe, von relationalen Legacy- auf New-Technology-Datenbanken zu migrieren. Diese fünf Tipps eines NoSQL-Datenbankpioniers machen den Umstieg leichter.

Semi-strukturierte Daten, das Internet der Dinge, also OT-Applikationen, mobile Online-Devices und Big-Data-Anwendungen stellen hohe Anforderungen an klassische relationale Datenbank-Systeme, denen sie oft nicht mehr optimal gewachsen sind. Die starren Tabellenstrukturen der Systeme stammen noch aus der Mainframe- und Client-Server-Zeit. Sie lassen sich nur mühsam und mit hohem Kostenaufwand an heutige Erfordernisse anpassen. Cloud-native NoSQL-Datenbanken hängen die zuverlässigen, aber auch langsamen und unflexiblen »Dinosaurier«-Datenbanken locker ab. Sie sind performanter, agiler, skalieren leichter und können mit semi- und unstrukturierten Daten aus verteilten Quellen viel performanter und agiler umgehen. Darunter fallen zum Beispiel E-Mails, Dokumente, Formulare, Produktkataloge, Archive, Fotos und sogar Videos. NoSQL-Datenbanken unterstützen hybride Cloud-Szenarien, arbeiten nach dem Prinzip »In Memory First«, verfügen über Cross-Data-Center-Replikationsmechanismen und verwalten über Operatoren cloud-basierte Kubernetes-Services auf Amazon, Azure oder Google. Vorteile, mit denen sich alte Legacy-Systeme schwer tun.

Dabei ist es gar nicht nötig, sofort den Riesenschnitt zu wagen und komplette, alte Legacy-DBMS auf ein modernes NoSQL-Daten-Managementsystem zu migrieren. Unternehmen, die mit ihrem alten, teuren Legacy-Datenbanksystem nicht mehr zufrieden sind, sollten vielmehr in kleinen Schritten vorgehen. Datenbank-Pionier Couchbase schlägt folgende vor:

 

1)  Flaschenhälse ausfindig machen:
Produktkataloge, auf die viele Kunden mobil zugreifen, Asset-Tracking-Services, Content-Management-Dienste, Customer Management Services oder Streaming-Dienste für Videos stellen hohe Anforderungen an die Datenbank. Gibt es Applikationen im Unternehmen, die nicht performant laufen und deren Skalierbarkeit und Verfügbarkeit zu wünschen übrig lässt, dann könnte eine moderne NoSQL-Datenbank die Lösung sei.

 

2)  Big Data und hohe Arbeitslasten effizient managen:
Viele aktuelle Use Cases können von NoSQL-Datenbanken performanter und kostengünstiger bedient werden. Zu diesen Use Cases zählen Terabytes von Daten, die verteilt in mehrere Rechenzentren abgespeichert sind, semi-strukturierte JSON-Dokumente oder Caching-Services, die Hunderte von Millionen gleichzeitiger Zugriffe bewältigen müssen. NoSQL-Lösungen, die plattform-unabhängig in Containern laufen und mit Kubernetes orchestriert werden, überzeugen durch eine überlegene Flexibilität in der Architektur. Teure Zusatzinvestitionen in traditionelle Hardware-Systeme sind nicht nötig.

 

3)  Zugriffsmuster identifizieren:
Wer greift wie, wann und mit welchen Anforderungen auf die Datenbank zu? Die Architektur einer NoSQL-Datenbank kann für unterschiedliche Zugriffsmuster optimal angepasst werden. Die Daten stehen in Echtzeit zur Verfügung und können sofort weiterverarbeitet werden.

 

4)  Migration anstoßen:
Ein Daten-Migrationsplan muss die Datenmodelle des Ausgangs- und des Zielsystems exakt aufeinander abbilden. Die meisten NoSQL-Datenbanken arbeiten mit JSON-Dokumenten, die flexibler einsetzbar und erweiterbar sind als die starren relationalen Tabellen der Legacy-Systeme. Welcher Dokumententyp zum Einsatz kommt und den besseren Match zwischen relationaler Tabelle und NoSQL-Objekt liefert, hängt von der Struktur der Tabelle ab und den relationalen Verknüpfungen ab.

 

5)  Proof of Concept messen und testen:
Erfüllt der Proof of Concept alle vorgegebenen KPIs wie Performanz, Verfügbarkeit und Skalierbarkeit, dann ist neue Datenbank-Architektur reif für die Implementierung im Unternehmen.

 

»Couchbase wurde speziell für die Anforderungen moderner Web-, Mobil- und IoT-Anwendungen entwickelt«, betont Wolfgang Fresser, Country Manager DACH bei Couchbase. »Unternehmen, die den Wechsel vollziehen, sind agiler, skalieren besser, haben eine kürzere Time-to-Market für ihre Anwendungen sowie eine bessere Performanz und Verfügbarkeit. Couchbase bietet das alles zu wesentlich geringeren Entwicklungs- und Betriebskosten«.

 

NoSQL-Datenbanken massiv auf dem Vormarsch

In der Folge der digitalen Transformation ergeben sich in vielen Unternehmen und Organiationen vielfältige Herausforderungen, etwa in den Bereichen Data Management, Data-as-a-Service und Echtzeitanalytik. In der sich zeitgleich weiterentwickelnden Welt der Geschäftsanwendungen und Datenbanken setzen Unternehmen zunehmend auf NoSQL-Datenbanken. Drei Aspekte prägen nach Meinung von Roland Stritt, Director Channels EMEA bei Rubrik, den Markt und…

Best-of-Suite oder Best-of-Breed? Lösungen im Datenmanagement

Bei der Implementierung externer Dienstleistungen stehen Unternehmen nicht selten vor der Frage, ob sie ihre Software und Technologien von einem Anbieter beziehen oder verschiedene Experten zu Rate ziehen. Best-of-Suite meint alle Anwendungen aus einer Hand zu nutzen, also quasi eine All-in-One-Lösung, Best-of-Breed bedeutet für jede individuelle Leistung das Beste auf dem Markt zu verwenden. Unternehmen…

Sensible Daten aufspüren und schützen: Best Practices für strukturierte und unstrukturierte Daten

Daten gehören zu den wertvollsten Rohstoffen des 21. Jahrhunderts. Doch immer größere Mengen an sensiblen Informationen gegen Cyberangriffe zu schützen, ist für Unternehmen eine Herausforderung. Viele Sicherheitsstrategien konzentrieren sich auf den Schutz strukturierter Daten in Datenbanken. Jedoch fehlen häufig Maßnahmen für die ebenso sensiblen, aber oft schwieriger zu schützenden unstrukturierten Daten, beispielsweise in E-Mails oder…

Unglückliche Mitarbeiter meiden die Zusammenarbeit im Team

Deutschland ist größter Befürworter von Team-Zusammenarbeit, hinkt aber dennoch bei Remote-Zusammenarbeit hinterher. Wie glücklich sind Arbeitnehmer in Deutschland, Großbritannien, Frankreich und den USA und welche Rolle spielt dabei die Zusammenarbeit im Team? Dies untersuchte der Arbeitsmanagement-Experte Wrike im »Happiness Index 2019« [1]. Befragt wurden die Studienteilnehmer darüber hinaus zu ihrer Meinung zu Remote-Collaboration, also der…

Schwächen beim Datenmanagement kosten Unternehmen zwei Millionen Euro jährlich

Mitarbeiter in Deutschland vertrödeln im Schnitt täglich zwei Stunden mit der Suche nach Daten. Im Gegensatz dazu, wenn Mitarbeiter schnell und effektiv mit Wunderino bonus auf Daten zugreifen können, erzielen sie mehr Erkenntnisse und treffen bessere, besser informierte Entscheidungen. Unternehmen wollen in der digitalen Wirtschaft wettbewerbsfähiger agieren, scheitern jedoch schon daran, ihre Daten effektiv zu…

Das gibt´s doch nicht: Deutsche sind glücklich und optimistisch

Glücklich sein – das ist wohl der größte Wunsch jedes Menschen. Doch gerade den Deutschen wird oft nachgesagt, sie stünden sich beim Glücklichsein selbst im Weg. Eine Studie hat Ergebnisse herausgefunden, mit denen keiner gerechnet hat. Allen Klischees zum Trotz: 2 von 3 Deutschen sagen (66 Prozent), dass sie momentan glücklich sind – immerhin jeder…

Digitale Gesundheitsversorgung erfordert durchgängiges Datenmanagement

Ob Budgetrestriktionen, politische Entwicklungen oder Personalengpässe – über die akuten und chronischen Herausforderungen für die Gesundheitseinrichtungen wurde und wird aktuell viel kritisch berichtet. Während diese Fragen natürlich wichtig sind, erscheint die Aufmerksamkeit, die den möglichen Lösungen für diese Herausforderungen gewidmet wird, wesentlich geringer zu sein. Markus Grau, Principal Systems Engineering bei Pure Storage erläutert, welch…

Ertragsoptimierung bei Cloud-Data-Warehouse-Investitionen

Immer mehr datengestützte IT-Systeme werden in die Cloud verlagert und dazu gehört auch das Data Warehouse. Neue Cloud-Data-Warehouse-Lösungen (CDW) sollen noch umfassendere Datenfunktionen, eine bessere Leistung und mehr Flexibilität als herkömmliche lokale Datenbanken bieten.   Laut einer neuen Umfrage des TDWI (The Data Warehousing Institute) im Auftrag von Talend bieten neue Cloud-Data-Warehouse-Lösungen (CDW) noch umfassendere…

Datenmanagement: Das Glück kurzer Reaktionszeiten

Ein neuer Ansatz für flexibles Datenmanagement ist gefragt. Unternehmen müssen heute kundenorientiert arbeiten und in der Lage sein, Innovationen schnell auf den Markt zu bringen. Dabei müssen Applikationen hohe Ansprüche an Verfügbarkeit und Performance erfüllen. Ausfallzeiten kann sich niemand leisten, denn die Kundenerwartungen sind hoch. All das erfordert eine flexible, skalierbare IT-Umgebung. Um den unterschiedlichen,…

Der optimale Weg zu einer hybriden IT-Infrastruktur – Tipps zum effizienten Fahrplan

$
0
0

Die erfolgreichen Unternehmen von heute nutzen das Potenzial ihrer Daten als Wettbewerbsfaktor und als Quelle wertvoller Erkenntnisse über ihre Kunden. Sie wissen auch, dass nicht alle Daten auf gleiche Weise erstellt werden. Um die modernsten IT-Umgebungen aufzubauen und den größtmöglichen Nutzen zu erzielen, wird immer häufiger erkannt, dass Datentypen unterschiedliche Anforderungen an Zugriff, Speicherung und Verwaltung haben. Dies hat nach Erfahrung von Pure Storage verschiedene Folgen.

»Die Herausforderungen bei der Einführung hybrider IT-Umgebungen bleiben dennoch bestehen, insbesondere im Bereich Storage-as-a-Service. Viele Drittanbieter dieses immer beliebter werdenden Hybrid-Cloud-Angebots haben es nicht geschafft, die gestiegenen Anforderungen an Enterprise-Bereitstellungen zu erfüllen«, erklärt Markus Grau, Principal Systems Engineer, CTO EMEA Office bei Pure Storage. »Das Verschieben von Workloads wird durch Lizenzbeschränkungen belastet, wodurch sich die Anzahl der Möglichkeiten für die IT-Abteilungen verringert. Und so hat die noch relativ junge Geschichte der Hybrid-Cloud bereits eine wichtige Erkenntnis geliefert: Für die Zukunft planen!«.

 

Unterstützung von On-Prem- und Cloud-nativen Anwendungen

Wird eine bessere Unterstützung für Unternehmensanwendungen in der Public Cloud geplant, gilt es nach Meinung von Pure Storage Folgendes sicherzustellen: Die ausgewählten Datendienste sollten nicht nur den Funktionsanforderungen des Geschäftsbetriebs entsprechen, sondern die Leistung dieser Dienste sollte auch entsprechend den Anforderungen der Anwendungen skaliert werden können. Wenn es darum geht, Dienste auszuwählen, die mit dem Storage im Rechenzentrum kompatibel sind, muss gewährleistet sein, dass APIs und Management in allen Umgebungen einheitlich sind. Erst dann sieht die Architektur eher wie eine hybride Infrastruktur aus – mit Anwendungen, die frei sind, um sich zwischen Rechenzentrum und Cloud bewegen zu können. So lassen sich sogar Umgebungen überspannen und die angestrebte, im heutigen Geschäftsumfeld äußerst wichtige Agilität erzielen.

»Wenn es darum geht, Rechenzentren auf die Unterstützung von Cloud-basierten Anwendungen vorzubereiten, dann gilt es, Containerunterstützung und Objektspeicherung hinzuzufügen. Diese Code-Portabilität ermöglicht es, Cloud-native Anwendungen in der Unternehmensumgebung auszuführen«, so Markus Grau. »Darüber hinaus können zugehörige Automatisierungstools und Self-Service-Modelle zu einem spürbaren Anstieg der Agilität führen und eine Cloud-basierte Anwendungsentwicklung unterstützen.«

Moderne IT-Umgebungen sollten nach Angaben von Pure Storage zukunftssichere Datenstrategien auf der Grundlage flexibler Verbrauchsmodelle umsetzen, die sich über lokale, gehostete und öffentliche Cloud-basierte Ressourcen erstrecken. Anwendungs-Workloads können dann flexibel der effektivsten Infrastruktur zugewiesen werden. Vor allem aber sollte die moderne IT-Umgebung harmonisch mit einer gemeinsamen Managementschnittstelle, einer 100 % unterbrechungsfreien Architektur und proaktiven/prädiktiven Support-Diensten zusammenarbeiten.

 

Schutz der digitalen Vermögenswerte

Inzwischen ist die digitale Bedrohungslandschaft zu einem Schreckgespenst für Unternehmen und Privatanwender geworden. In den letzten Jahren hat es das Thema Cybersicherheit von der IT-Abteilung in die Vorstandsetage geschafft. Je nach Geschäftsmodell müssen sich Unternehmen über Perimeterschutz, PCI-Compliance, länderübergreifende Datenschutzbestimmungen oder Disaster Recovery zunehmend Gedanken machen.

Der Aufbau einer idealen hybriden IT-Infrastruktur erfordert einen genauen Blick auf die aktuellen Sicherheitsrichtlinien und die Formulierung neuer Richtlinien für sichere Umgebung, ohne die operativen Ambitionen zu beeinträchtigen. Unternehmen sollten sich nicht scheuen, ihre gesamten Datensicherungs- und Disaster-Recovery-Prozesse neu zu bewerten, um sicherzustellen, dass alle ihre digitalen Datenbanken abgedeckt sind. Ihre Wiederherstellungsziele können sich vor oder während des Designs einer hybriden Cloud geändert haben. Infolgedessen könnte es sein, dass die zur Verfügung stehenden Wiederherstellungsoptionen nicht mehr schnell genug sind, was die Umstellung auf Flash-Speicher erforderlich macht. Viele Unternehmen müssen ihre Backup-Daten im Rahmen ihres neuen Paradigmas anderweitig verwenden. Dann sollten sie in Erwägung ziehen, ob sie langfristig Objektspeicherung nutzen sollten, um eine bessere Zugänglichkeit zu den Daten zu gewährleisten, als es mit Bandspeicherung möglich ist.

»Wie bei allen Bemühungen, bei denen man etwas Neues aufgreift, ist es oftmals ratsam, andere zuerst scheitern zu lassen. Die Hybrid-Cloud ist inzwischen jedoch so ausgereift, dass die wichtigsten Lehren bereits gezogen wurden. Einige sind gescheitert, andere waren erfolgreich, die digitale Transformation schreitet jedoch unaufhörlich voran«, fasst Markus Grau abschließend zusammen. »Moderne IT-Infrastruktur-Roadmaps können Unternehmen dorthin bringen, dass Daten für sie arbeiten und die verwertbaren Erkenntnisse liefern, die in der globalen digitalen Wirtschaft heute so relevant sind.«

 

Neue Storage-Architekturen: Hybrid- und Multi-Cloud-Strategien beschleunigen

Auch wenn alle Welt über Daten und ihre Bedeutung für mehr Wettbewerbsfähigkeit und Flexibilität spricht, so fällt es vielen Unternehmen dennoch schwer, dieses Potenzial zu nutzen – und zwar aus einem einfachen Grund: Traditionelle Storage-Anbieter halten sie davon ab, ihr System zu modernisieren, weil sie an herkömmlichen Architekturen mit all ihrer inhärenten Komplexität und Einschränkungen…

Prognosen für 2019: Storage zwischen Cloud, Container und KI

Die Anforderungen an Storage sowie Data Management steigen und verändern sich aktuell rasant. Explodierende Datenvolumina, Trends wie KI und IoT sowie die wachsende Beliebtheit von Cloud-Modellen und IoT-Anwendungen halten die Hersteller auf Trab. Für Pure Storage wagt Güner Aksoy, Regional Sales Director Central Europe, einen Blick auf die Veränderungen im kommenden Jahr.   Beseitigung der…

Hybride Cloud bietet Wettbewerbs- und Kostenvorteile

Skalierung, Business Continuity, Marktzugang, IT Security und Wettbewerbsvorteile. Cloud Computing habe in den letzten Jahren immer mehr Zuspruch gefunden, weil sich dadurch unmittelbare Wettbewerbs- und Kostenvorteile für die Wirtschaft ergeben, sagt Benjamin Schönfeld, Geschäftsführer der Leaseweb Deutschland GmbH. Vor allem hybride Cloud-Lösungen erfreuen sich nach den Erfahrungen des Cloud- und Hosting-Netzwerks bei den Unternehmen wachsender…

Ohne Business-Analyst im Unternehmen geht künftig wenig – Alles geregelt für hybride Clouds?

Unternehmen suchen vermehrt ihr Heil in Public Clouds. Auf diese Weise versprechen sie sich im Zusammenspiel mit ihrer Private Cloud eine höhere Flexibilität, niedrigere, zudem besser kalkulierbare Kosten, teils auch qualitativ hochwertigere IT-Leistungen gegenüber dem Eigenbetrieb. Demzufolge sieht der Marktanalyst Gartner bis 2020 den Markt für die Public Cloud-Varianten IaaS, Paas und SaaS Jahr für Jahr im zweistelligen Bereich wachsen.

Hybride Cloud: Rackspace lanciert Fanatical Support für Microsoft Azure Stack

Rackspace kündigte auf der Microsoft-Inspire-Konferenz in Washington D.C. Fanatical Support für Microsoft Azure Stack an. Damit wird die Hybrid-Cloud-Lösung für Unternehmen aller Größen zugänglich, unabhängig von deren Erfahrung oder Expertise mit Cloud-Lösungen. Als globaler Supportpartner von Microsoft Azure Stack wird Rackspace im Rahmen eines Rund-um-die-Uhr-Service an 365 Tagen im Jahr betriebliche Unterstützung und Expertise für…

Hybride Cloud macht das Rennen

Rund 80 Prozent der Unternehmen weltweit nutzen die Cloud und zwar meist in hybrider Form sowie maßgeschneidert auf individuelle Anforderungen. Vier von fünf Unternehmen weltweit nutzen heute die Cloud, jedoch nicht ausschließlich, sondern angepasst auf dedizierte Anforderungen, das zeigt die jüngste IBM-Cloud-Studie. Vor vier Jahren gab nur etwa ein Drittel der Unternehmen an, aktiv eine…

Studie: Branchenführer setzen auf hybride Cloud

Führende Unternehmen nutzen stärker als ihre Wettbewerber hybride Clouds. 90 Prozent nennen hybriden Ansatz als entscheidend für Strategie und Erfolg. Zwei Drittel der führenden Unternehmen gaben in der globalen IBM-Studie »Growing up Hybrid: Accelerating digital transformation« an, dass sie dank einer hybriden Cloud ihrem Wettbewerb voraus sind. Auch wollen sie mit Hilfe dieser IT-Strategie zukünftige…

Hybride Multi-Cloud-Lösungen für mehr Freiheit und Transparenz

Sollten sich Unternehmen mit einem »Eine-Cloud-für-alles«-Ansatz begnügen? Nein! Denn Unternehmen, die offene, hybride Cloud-Lösungen nutzen, haben ganz klare Wettbewerbsvorteile. Denn eine hybride Multi-Cloud-Architektur passt sich mit verschiedenen Cloud-Anbietern und Konfigurationen ideal an unterschiedliche Use-Cases an und lässt sich trotzdem einheitlich verwalten.   Mythen über Multi-Clouds Es ist ein verbreitetes Missverständnis, dass mehrere Clouds automatisch eine…

Huawei und Microsoft starten All-Flash-Azure-Stack-Lösung zur Beschleunigung hybrider Cloud Services

Auf der Huawei Eco-Connect 2018 haben Huawei und Microsoft gemeinsam eine All-Flash-Azure-Stack-Lösung vorgestellt, die Unternehmen dabei unterstützt, hybride Cloud-Services zu beschleunigen, die Datenzuverlässigkeit zu verbessern und ultimatives Erlebnis zu bieten.   Neben der Azure Stack-Software von Microsoft umfasst die gemeinsame Lösung den Huawei FusionServer 2288H V5, ES3000 V5 NVMe SSD, CloudEngine 6865 Switch (CE6865, entwickelt…

Die Cloud in Unternehmen: hybride Lösungen führend

Die meisten deutschen Unternehmen nutzen die Cloud, jedoch nicht ausschließlich. Viele Daten werden immer noch lokal gespeichert.   Nur 44,7 Prozent der deutschen Unternehmen speichern mehr als die Hälfte ihrer Daten in der Cloud. Damit ist Deutschland im europäischen Vergleich lediglich Mittelmaß, wie aus einer aktuellen Umfrage von Citrix unter IT-Entscheidern hervorgeht. Demgegenüber stehen 62,7…

Private Cloud versus Public Cloud – Keine Kompromisse, sondern Hybride

Alle sprechen von der Cloud. Dabei gibt es gar nicht DIE Cloud. Es gibt unterschiedliche Infrastrukturmodelle und eine Vielzahl an Cloud-Diensten. Als das Cloud Computing noch in den Kinderschuhen steckte, setzten die meisten Unternehmen ausschließlich auf die Private Cloud. Inzwischen werden Public-Cloud-Angebote immer populärer – besonders, weil sich viele Nutzer einen Kostenvorteil versprechen. Welchem Modell gehört nun die Zukunft? Sind es nicht viel mehr hybride Cloud-Architekturen, die alle Bedürfnisse abdecken?

Flexibilität von Container-Rechenzentren – Steigende Popularität

$
0
0

Noch sind knapp dreiviertel der realisierten Rechenzentren klassische Inhouse-Lösungen. Dazu zählen sowohl als eigenes Gebäude errichtete Datacenter als auch Raum-in-Raum- respektive Schranklösungen. Jedoch halten Containerlösungen zunehmend Einzug. Insbesondere dann, wenn sie für spezielle Anforderung gedacht sind. Ihr Hauptargument ist eine höhere Flexibilität.

Unter RZ-Verantwortlichen in allen Bereichen und Branchen ist ein Trend zu erkennen: Sie entscheiden sich immer öfter für eine Containerlösung. Container sind hinsichtlich Sicherheit mit klassischen Lösungen auf Augenhöhe – auch jene, die im Freien platziert sind. Der Feuerschutz ist mindestens identisch, da die meisten Container über eine F90-Wertigkeit verfügen. Eine Erweiterung des Feuerschutzes ist möglich. Bedenken, dass sie jederzeit zugänglich und damit angreifbar sind, müssen Verantwortliche nicht haben. Das ist auch der Tatsache geschuldet, dass Container im Außenbereich immer noch auf dem Firmengelände sind. Allerdings gilt: Da Teile der IT-Infrastruktur wie zum Beispiel die Klimatisierung außerhalb des Containers stehen, können beispielsweise Sichtschutzzäune errichtet werden. Hintergrund ist weniger der Schutz vor physikalischen Gefahren, sondern zufälligen respektive versehentlichen Beschädigungen. Das kann zum Beispiel durch einen Stapler, der gegen ein Klimagerät fährt und es beschädigt, erfolgen.

Die Überwachung und Wartung der Container sind ebenfalls nicht komplizierter, als die ihrer Inhouse-Pendants. Für Ersteres werden häufig neben Sichtschutzzäunen, die schließlich auch einen gewissen Zugriffsschutz bieten, Kameraüberwachung und Beleuchtungskonzepte durch Bewegungsmelder verwendet. Für die Kontrolle der Hardware im Inneren nutzen die meisten Kunden von Anfang an entsprechende Monitoring-Lösungen. Zur Wartung wird wie für jedes andere Rechenzentrum ein Wartungsmanagement eingesetzt. Egal welcher Typ, egal welcher Standort und egal welche Größe, alle Datacenter benötigen eine regelmäßige Wartung durch erfahrene Techniker. Nur so kann ein sicherer Betrieb gewährleistet werden. 

Überzeugend ist die Flexibilität. Warum entscheiden sich RZ-Verantwortliche also für Container? Zugegeben: Unter Umständen bieten die Räumlichkeiten oder Platzkapazitäten im Unternehmensgebäude gar keine Alternativen als die Wahl eines Containers. Manchmal entscheidet auch die Schnelligkeit bis zur Inbetriebnahme: Besondere Lösungen sind zum Beispiel infolge einer Modulbauweise in vier Monaten schlüsselfertig – das ist bis zu stolze 70 Prozent schneller als herkömmliche Inhouse-RZ. Aber, auch wenn neue Containerlösungen schneller verfügbar sind, sie müssen ebenfalls projektiert, gefertigt, vor Ort in Betrieb genommen und vom Betreiber respektive in dessen Auftrag mit Server, Switches und Co. ausgestattet werden.

Das Hauptargument ist also ein anderes: Es ist ihre Flexibilität, die Container sowohl als Primär- sowie auch als Backuplösung so populär machen. RZ-Verantwortliche entscheiden sich für Containerlösungen, weil diese standortunabhängiger sind. Natürlich rollen Container nicht auf Rädern über das Unternehmensgelände, sondern bleiben fest positioniert auf einem Platz. Das ergibt sich allein schon durch ein etwaiges Fundament sowie diverse Anschlüsse. Allerdings müssen Unternehmen auch bei Containerlösungen, meist mit Unterstützung, eine Baugenehmigung erwirken und Anbindungen für Strom und Daten sicherstellen.

Im Gegensatz zu Inhouse-Lösungen entfallen allerdings Baumaßnahmen, Veränderungen am Bestandsgebäude respektive kostspieligere Neubauten. Nicht umsonst werden immer mehr individuelle Container geplant, als Outdoor-Lösung auf der grünen Wiese errichtet oder in einer Lagerhalle untergebracht. Wie bei Inhouse-RZ planen auch bei den Containern viele Verantwortliche dann bereits zukunftsfähig, schließlich ist ein Rechenzentrum für mehrere Jahre ausgelegt. Hier unterscheiden sich dann die RZ-Typen voneinander: Klassische RZ müssen einen Platz für Wachstum berücksichtigen, Containerlösungen werden deutlich einfacher um einen zweiten Container ergänzt.

Fazit. Containerlösungen sind kein Allzweckmittel und RZ-Betreiber sollten genau prüfen, welche Lösung für Ihr Unternehmen die Geeignetste wäre. Natürlich haben klassische RZ-, Raum-in-Raum-Lösungen oder Mini-Data-Center ihre absolute Daseinsberechtigung. Auch Container setzen Genehmigungen und Bauschritte voraus und in puncto Sicherheit sind sie weder schlechter noch besser als ihre Inhouse-Pendants. Mehrwerte liegen unter Umständen in der Schnelligkeit ihrer Inbetriebnahme. Der große Vorteil liegt jedoch in der Flexibilität. Gemeint ist die Flexibilität bei der Wahl des Standorts und bei einer etwaigen Vergrößerung.


Tim Kohlhaas ist Projektleiter bei der DATA CENTER GROUP. Zu seinen Aufgaben gehört die Realisierung und Baubetreuung von Rechenzentrumsprojekten. So hat er in den letzten 10 Jahren die Errichtung von mehr als 100 RZ erfolgreich begleitet. Dazu gehört eine Vielzahl von Outdoor-Rechenzentren, die von seiner Praxiserfahrung bereits profitierten.
datacenter-group.com/de

 

 

Bilder: © DATA CENTER GROUP

 

1193 Artikel zu „DATA CENTER“

Managementanpassung in der DATA CENTER GROUP

Wie am Freitag, den 15.03. in einer Betriebsversammlung bekannt wurde, verlässt Thomas Sting die DATA CENTER GROUP als Gesellschafter und Geschäftsführer zum Ende des Monats. Ralf Siefen wird die Geschicke des Unternehmens weiter leiten.   Ralf Siefen und Thomas Sting gründeten 2005 die DATA CENTER GROUP unter dem Namen proRZ Rechenzentrumsbau GmbH und bauten sie…

Die fünf wichtigsten Kriterien für ein Next Generation Data Center

Ein Mikro-Rechenzentrum so gut wie die Cloud.   Unternehmen befinden sich an einem Wendepunkt. Sie müssen neue Wege finden, wie sie Kunden für sich gewinnen. Die Geschäftsentwicklung erfolgt heute nicht mehr linear. Stattdessen können sich Chancen jederzeit aus allen Richtungen auftun. Unternehmen brauchen die Flexibilität, um umgehend reagieren zu können. Mit einem traditionellen Rechenzentrum ist…

Notstrom im Data Center – Wie gut Rechenzentren ihre Energieversorgung im Griff haben

Strom ist der Treibstoff, der das Data Center am Leben erhält. Es gibt allerdings einige Eventualitäten, an denen die Energieversorgung scheitern kann. Um diese zu erkennen und sich für sie zu rüsten, sollten verschiedene Prozesse durchgeführt werden. Die Studie Optimized Data Center [1] hat untersucht, ob und wie gut diese Prozesse in betrieblichen und professionellen…

Data Center Group – Eine Erfolgsgeschichte made in Germany: »Wertschätzung kommt von Weitergabe des Know-hows«

Big Data, Schatten-IT, Sicherheitslücken. Das sind nur drei der aktuellen Gründe, warum sich immer mehr RZ-Entscheider dazu entschließen, ihr Rechenzentrum aus einer Hand planen, realisieren und betreiben zu lassen. Vom Geschäfts­führer eines mittelständischen Unternehmens bis zum CIO eines internationalen Konzerns erkennen sie die Vorteile einer Gewerke-übergreifenden Kooperation mit einem Spezialisten und Ansprechpartner. Schließlich muss für ein effizientes Rechenzentrum viel mehr bedacht werden als beispielsweise Kühlung oder Zutrittskontrolle.

Optimized Data Center: Große Fortschritte bei der Klimatisierungseffizienz

Die Klimatisierung im Rechenzentrum steht seit Jahren im Fokus der Optimierungsmaßnahmen im Rechenzentrum. Ansatzpunkte gibt es mehrere: Wird die richtige Methode verwendet? Kommt die kühle Luft dort an, wo sie kühlen soll? Stimmt die Temperatur und Qualität der Luft? In der Studie »Optimized Data Center« wurden diese Probleme unter die Lupe genommen, und es hat…

Datenspeicherung im Data Center – Klassisch vs. Advanced

Datenverarbeitung, -speicherung und -archivierung sind zentrale Kerndisziplinen eines Rechenzentrums. Alle Dienste verarbeiten Daten, unterscheiden sich aber sowohl im Datentyp, der Datenmenge als auch in der nötigen Verarbeitungsgeschwindigkeit maßgeblich. Vom klassischen Fileserver bis hin zu fortgeschrittenen hybriden Speichersystemen gibt es viele verschiedene Storage-Konzepte. Was aktuell in den deutschen Rechenzentren eingesetzt wird, wurde in der Studie Optimized…

Neue Hochsicherheitsarchitektur: Rechenzentrum wird zum »Stealth Data Center«

Mit dem »Stealth Data Center« präsentierte Fujitsu in diesem Jahr auf der CeBIT ein völlig neues Sicherheitskonzept. Jetzt beginnt im Wilken Rechenzentrum in Ulm der Aufbau einer derartigen Infrastruktur: Zunächst wird im Rahmen des Pilotprojekts ein Sicherheitsrack von Fujitsu installiert, das den unerlaubten physischen Zugriff auf die Systeme verhindert. Zum Schutz vor elektronischen Angriffen kommt…

Das Rechenzentrum wird »unsichtbar«: »Stealth Data Center« mit neuartiger Sicherheitsrack-Lösung

Auf der CeBIT präsentiert Fujitsu mit dem »Stealth Data Center« ein neues Sicherheitskonzept für das Rechenzentrum. Ein patentiertes Verfahren sorgt dafür, dass derzeit bekannte Angriffsmethoden ins Leere laufen. Dies gilt sowohl für Portscans als auch für gezielte Angriffe auf einzelne Dienste. Durch die neue Technologie ist das Rechenzentrum für Angreifer nicht ansprechbar und deswegen nicht…

Software Defined Data Center im Service-Rechenzentrum – Mit dem SDDC in die Cloud

Software Defined Data Center im Service-Rechenzentrum – Mit dem SDDC in die Cloud

Die Servervirtualisierung im Service-Rechenzentrum hat den Providern mehr Flexibilität und eine bessere Auslastung der Ressourcen ermöglicht. Mit dem Software Defined Data Center wird dieser Ansatz weitergedacht und um Storage- und Netzwerkvirtualisierung erweitert. Auf dieser Basis kann die Bereitstellung definierter Services innerhalb von Rechenzentren weitestgehend automatisiert werden. Provider können auf diese Weise individuelle Cloud-Leistungen in kürzester Zeit einheitlich bereitstellen.

Nächster Halt: Software Defined Data Center? – Das Abenteuer Virtualisierung geht weiter

Das Abenteuer Virtualisierung geht weiter

Software Defined Data Center (SDDC) ist zurzeit in aller Munde. Der Begriff Software Defined Data Center ist zwar griffig, aber auch vielsagend. Was verbirgt sich tatsächlich dahinter, wo kommt die Entwicklung her und wo geht sie hin? Was kann heute schon nützlich sein und für wen? Wenn es um derartige Fragen geht, hilft es, hinter die Kulissen zu schauen, um die wesentlichen Entwicklungsstränge, Abhängigkeiten und Wechselwirkungen nachvoll-ziehen zu können.


Klimagipfel: Die unterschätzte Bedeutung der Digitalisierung für die Erreichung der Klimaziele

$
0
0

Im Vorfeld des UN-Klimagipfels dreht sich die Berichterstattung meist um die 16-jährige Klima-Ikone Greta Thunberg und die bekanntesten CO2-Verursacher. Dabei wird die Rolle der Digitalbranche oft vergessen, obwohl wegen der anhaltenden Cloudisierung Handlungsbedarf besteht. Studien zeigen: Ohne die richtigen Maßnahmen aus Politik und Wirtschaft lassen sich die nationalen und globalen Klimaziele nicht erreichen.

Während der bevorstehenden UN-Klimakonferenz in New York (21. bis 23. September) möchten die Staats- und Regierungschefs – unter Beihilfe der Sprecherin und Klimaaktivistin Greta Thunberg – die konkreten Maßnahmen des Übereinkommens von Paris besprechen. Das erklärte Hauptziel, den globalen Temperaturanstieg auf 1,5° Celsius zu reduzieren, lässt sich nur über die Senkung der weltweiten CO2-Emissionen und damit korrelierend des Energiebedarfs verwirklichen.

 

Der Digital-Markt wächst rasant … und damit die CO2-Belastung

Einen erheblichen Anteil daran hat langfristig auch der Internet- und Telekommunikationssektor (kurz: ITK): Der zunehmende Daten-Tsunami und die sinkenden Kosten für Digitaltechnik sorgen für ein starkes Branchenwachstum. Dadurch steigt der Energieverbrauch: Schätzungen zufolge wird der Anteil der Digitalindustrie am weltweiten Stromverbrauch von derzeit etwa 14 auf 22,6 Prozent im Jahre 2025 anwachsen. Parallel erhöht sich auch der Elektronik-bedingte CO2-Fußabdruck: Zwischen 2013 und 2018 ist der Beitrag an den globalen Treibhausgasemissionen von 2,5 auf 3,7 Prozent um etwa die Hälfte angestiegen, 2025 werden es laut Prognose 7 Prozent sein – Tendenz steigend.

 

Im Jahre 2017 entstanden rund 19 Prozent des ITK-Stromverbrauchs durch die Datenverarbeitung in Rechenzentren, bis 2025 soll der Anteil auf 30 Prozent steigen. »Deutsche Rechenzentren verbrauchen derzeit in etwa so viel Strom wie die Stadt Berlin, über 12 Milliarden kWh im Jahr.«, merkt Dr. Roman Bansen, Referent IT-Infrastrukturen bei Bitkom e. V., dazu an. Für das Wachstum sorgt unter anderem der anhaltende Boom von Cloud-Computing: Daten werden immer öfter in der digitalen Wolke gespeichert und verarbeitet, bis 2021 könnte sich das Datenvolumen in der Cloud auf 1,3 Zettabyte mehr als verdoppeln. Neue Technologien wie das Internet der Dinge (IoT), künstliche Intelligenz, Deep Learning und autonome Fahrsysteme sowie Big-Data-Anforderungen tragen zum Trend bei. Aufgrund der steigenden Nachfrage wird sich die Zahl der Rechenzentren entsprechend erhöhen. Umso wichtiger erscheinen in diesem Zusammenhang nachhaltige Lösungen für IT-Infrastrukturen. Denn bislang wird die warme Luft von Rechenzentren überwiegend künstlich heruntergekühlt oder direkt an die Atmosphäre abgegeben.

 

Energieeffiziente Hardware und schlaue Software

Das Dresdner Green-IT-Unternehmen Cloud&Heat hat das Problem längst erkannt und setzt weltweit auf den Einsatz wassergekühlter Rechenzentren. Der Clou: Die Abwärme der Server lässt sich dank der innovativen Heißwasser-Direktkühlung zum Heizen von Gebäuden oder die Anbindung an Fern- und Nahwärmenetze nachnutzen. Auf diese Weise spart beispielsweise das von Cloud&Heat betriebene Rechenzentrum im Frankfurter Hochhaus Eurotheum jährlich bis zu 160.000 Euro für die Gebäudebeheizung sowie Serverkühlung und reduziert die CO2-Emissionen um 557 Tonnen im Jahr, was in etwa dem Gewicht eines Airbus A380 beziehungsweise der Speicherkapazität von 80 Fußballfeldern Wald entspricht.

Zum ganzheitlichen Angebot von Cloud&Heat gehört neben energieeffizienter Hardware auch intelligente Software. Aktuell beschäftigt sich das Unternehmen mit einer umfassenden Lösung zur Energieoptimierung von Rechenzentrumsnetzwerken. Die Software verteilt Rechenjobs innerhalb eines Netzwerks dorthin, wo die Ausführung am effizientesten ist. Ändern sich die Metriken, wie Wärmebedarf und Stromverfügbarkeit, während des Betriebs, werden die Anwendung voll automatisch innerhalb des Systems migriert. Künftig sollen außerdem die CO2-Emissionen eines jeden Rechenjobs erfasst und an Betreiber beziehungsweise Nutzer ausgegeben werden.

 

»Energieeffiziente Rechenzentren sind essenziell für den Klimaschutz«

»Die Nachfrage nach Cloud-Services und neuen Technologien mit hohem Speicher- und Rechenaufwand nimmt weiterhin zu und angesichts des rasanten Wachstums des gesamten IT-Sektors wird voraussichtlich auch der Energiebedarf trotz stetiger Effizienzsteigerungen weiter steigen«, ergänzt Bansen. »Gleichzeitig droht eine Knappheit bei der Fernwärmeversorgung, wenn hierzulande die Kohlekraftwerke abgeschaltet und durch CO2-freie Alternativen ersetzt werden sollen. Somit sind für die Klimapolitik energieeffiziente Rechenzentren, deren Abwärme nachgenutzt werden kann, ein essenzieller Faktor, um die Energie- und Wärmewende erfolgreich zu gestalten.«

 

1073 Artikel zu „Energie RZ“

Aus Abwärme Strom erzeugen – Potenziale der Energierückführung für die Industrie

In den Produktionsprozessen industrieller Unternehmen entsteht eine Menge Abwärme. Wie die Industrie diese ungenutzte Energie in Strom umwandeln kann, zeigt der neue Film des VDI Zentrum Ressourceneffizienz (VDI ZRE) anhand von zwei Unternehmensbeispielen aus der Metallverarbeitung und der Baustoffindustrie. © VDI ZRE 200 Millionen Megawattstunden Wärmeenergie – also etwa der gesamte Energieverbrauch des Bundeslands Hessen…

Die disruptive Kraft von autonomen Fahrzeugen revolutioniert die Automobilindustrie

Wie stark werden autonome Autos die Autoindustrie verändern? Disruption durch autonome Fahrzeuge. Wie Städte smart werden / Sustainability. Ganzheitliche Mobilitätskonzepte/ Mobility as a Service (MaaS).   Würde man die globale Automobilindustrie als eigenständige Volkswirtschaft betrachten, wäre sie die sechstgrößte der Welt. Smart-City-Konzepte werden autonome Fahrzeuge und Elektroautos integrierte Transportlösungen liefern, die diese Industrie von Grund…

Der Bot: KI ist die Zukunft des Energiehandels

Künstliche Intelligenz ist eine der meistdiskutierten Trends in der Energiebranche. Sie wurde bereits für unterschiedliche Anwendungen implementiert: Von der Optimierung der Netzleistung über die Steigerung der Energieeffizienz von Gebäuden bis hin zur präventiven Wartung, um Ausfälle zu vermeiden, noch bevor sie auftreten. Aber ist KI im Energiehandel wirklich notwendig?   Bislang waren Energiehändler mit aus…

Nutzfahrzeuge mit Plug-in-Hybrid-Antrieb sind eine praxisorientierte Lösung für bessere Luft in Städten

Drei Monate nach der Einführung der »Ultra Low Emissions Zone« (ULEZ) in London zeigt eine Studie das Potenzial von Plug-in-Hybrid-Nutzfahrzeugen bezüglich der Verbesserung der Luftqualität in Großstädten. Unternehmen wie Heathrow Airport, Sky, Transport for London und Vodafone haben an der 12-monatigen Teststudie teilgenommen, bei der insgesamt 20 Plug-in-Hybrid-Nutzfahrzeuge von Ford zum Einsatz kamen. Bei dem…

Schwarzes Loch im Daten-Universum: 52 Prozent der Informationen in Unternehmen sind »Dark Data«

Trotz zunehmender Sicherheitsvorfälle und strenger Datenschutzbestimmungen sind mehr als die Hälfte der Unternehmensdaten nicht klassifiziert. Unternehmen weltweit ziehen unwissentlich Cyberkriminelle an. Grund dafür sind die sogenannten »Dark Data«, also Informationen, deren Inhalt und Geschäftswert unbekannt sind. Das ergab eine aktuelle Erhebung von Veritas Technologies. Im Rahmen der Value-of-Data-Studie hatte Vanson Bourne im Auftrag von Veritas…

Ist Blockchain ein kurzlebiger Trend?

Die Hälfte der deutschen Unternehmen sehen die Blockchain nicht als »Game Changer«. Rund 50 Prozent aller hierzulande im Zuge einer Erhebung Befragten glauben, dass die Blockchain-Technologie keinen tiefgreifenden Umbruch mit sich bringen wird. Dementsprechend schleppend läuft auch die Umsetzung zugehöriger Projekte: Zwei Drittel der Studienteilnehmer in Deutschland gaben an, dass ihr Unternehmen noch keine relevanten…

Energieintelligenz für Speichersysteme erhöht die Wachstumschancen der Hersteller

Partnerschaften über die Wertschöpfungskette hinweg haben sich als entscheidend erwiesen, um das Potenzial zahlreicher umsatzgenerierender Möglichkeiten auszuschöpfen. Aufgrund der Einspeisevergütungs- und Netto-Messungs-Revisionen in kommerziellen Photovoltaik-(PV)-Hotspots sowie Subventionen, Steueranreizen, immer erschwinglicher werdenden Lithium-Ionen-Batterien und steigenden Strompreisen hat sich der Anreiz erhöht, den Markt für gewerbliche Batteriespeicher weiter zu erschließen. Die Zunahme von Eigenverbrauchsmodellen und Digitalisierung ermutigen…

Change Management: Wenn der zweite Herzinfarkt droht

Nur einer von sieben Infarktpatienten betreibt eine erfolgreiche Veränderung seines Lebensstils.   Change Management ist kein Hexenwerk: Es gibt ein dringendes Problem, ein Bild der Zukunft ohne das Problem, und damit einen Weg, die Situation zu verbessern. »Was so deutlich scheint, wirkt laut medizinischen Studien bei Infarktpatienten überhaupt nicht«, sagt Dr. Adam Sobanski, einer der…

Cyber Resilience im Energiesektor: In fünf Schritten zur widerstandsfähigen IT-Infrastruktur

Energieversorger werden immer häufiger zum Ziel von Hackerangriffen. Sind diese erfolgreich, können große Bereiche des gesellschaftlichen Lebens zusammenbrechen. Als kritische Infrastruktur (KRITIS) ist der Energiesektor daher gesetzlich dazu verpflichtet, sich besonders gut zu schützen. Diese Herausforderung lässt sich sukzessive mit Sustainable Cyber Resilience meistern.   Dirk Schrader, CISSP, CISM, ISO/IEC 27001 Practitioner bei Greenbone Networks…

Tag des Energiesparens: Wo liegt das Potenzial?

Drei praktische Tipps für Unternehmen im Umgang mit dem Thema Energie. »Wasser sparen beim Verwenden der Waschmaschine, sparsame und umweltfreundliche Geräte im eigenen Haushalt nutzen oder regelmäßig das Raumklima durch richtiges Lüften anpassen: Im privaten Bereich stehen unterschiedliche Möglichkeiten zur Verfügung, Energie zu sparen und zum Umweltschutz beizutragen. Aber auch Unternehmen jeder Größenordnung sollten dieses…

Mehr als 90 Prozent der Betreiber befürchten steigende Energiekosten für 5G und Edge

Betreiber blicken optimistisch auf die durch 5G ermöglichten Dienste. Doch Schätzungen zufolge könnte der Netzenergieverbrauch bis 2026 um bis zu 170 Prozent steigen.   Vertiv und das Technologieanalystenhaus 451 Research veröffentlichen die Ergebnisse einer Umfrage, die einen Einblick in das Zusammenspiel aus 5G und Edge Computing geben. Die Mehrheit der befragten Telekommunikationsanbieter glaubt, dass die…

Quantencomputing für Jedermann über die Cloud

IBM Research macht erstmals einen Quantencomputer öffentlich zugänglich. Ab sofort kann jeder Interessierte mittels Desktop-Computer oder Mobilgerät über die IBM Cloud auf einen Quantenprozessor bestehend aus fünf Quantenbits (Qubits) zugreifen und Experimente durchführen. Der freie Zugang soll Innovationen hin zum praktischen Einsatz von Quantencomputern beschleunigen. Für IBM ist die Quantentechnologie die Zukunft der Informationsverarbeitung. Sie…

Anwendungsentwicklung in der Cloud

IaaS versus PaaS versus Container. Im Rahmen ihrer Cloud-Evolution gehen immer mehr Unternehmen dazu über, neben ihren Legacy-Applikationen, die sie auf eine Cloud-Infrastruktur gehoben haben, ebenfalls Cloud-Native-Anwendungen zu entwickeln. Denn insbesondere Software-as-a-Service und Web-Applikationen müssen von Grund auf neu entwickelt werden, um von den Eigenschaften einer Cloud-Umgebung zu profitieren. Hierbei stellt sich die Frage, welches…

 

 

Software Defined Networking (SDN) ergänzt klassische Netzwerke, statt sie komplett zu ersetzen

$
0
0

Neuer Anbietervergleich sieht langfristige Koexistenz von hardwarebasierten Netzwerken und SDN.

Der Markt für Software Defined Networking (SDN) wächst weiter rasant. Doch werden SD-Netzwerke die herkömmlichen Lösungen auf Basis von MPLS (Multi Protocol Label Switching) auch längerfristig nicht komplett ablösen, sondern eher ergänzen. Dies meldet der neue »ISG Provider Lens – Network – Software Defined Solutions & Services Germany 2019« von Information Services Group (ISG) [1]. Die ISG-Analysten sehen zudem unter den SDN-Providern neue Player am Markt, welche die klassischen Netzwerkanbieter herausfordern. Neben dem Servicemarkt für die SDN-Transformation untersuchte die ISG-Studie sechs weitere Marktsegmente mit insgesamt über 130 Anbietern in Deutschland.

»Die Vorteile von SDN liegen auf der Hand: größere Agilität, insgesamt geringere Kosten, besserer Kundenservice und eine größere Unabhängigkeit von einzelnen Anbietern«, sagt Johanna von Geyr, Partner bei der ISG Information Services Group DACH. »Dennoch gehen wir nicht davon aus, dass die derzeit noch dominanten MPLS-Netzwerke komplett durch SDN ersetzt werden und dadurch verschwinden. Auf absehbare Zeit werden beide Netzwerk-Generationen nicht nur parallel im Betrieb sein, sondern werden sich gegenseitig ergänzen.«

Vor allem in neuen, sehr datenintensiven Geschäftsfeldern spielt den ISG-Analysten zufolge SDN in Kombination mit den MPLS-Netzwerken seine Stärken aus. So würden derzeit zahlreiche Unternehmen von Daten aus mobilen Anwendungen wie dem Internet of Things und Social Media-Plattformen geradezu überschwemmt. Diese Daten seien meistens nicht unternehmens- und zeitkritisch und könnten durch SD-Funktionen so geroutet werden, dass sie die bestehenden Kernsysteme und -netzwerke nicht überlasten. Auf diese Weise könnten SD-WANs (WAN, Wide Area Network) die traditionellen hardwarebasierten Netzwerke optimieren. Die ISG-Studie empfiehlt Unternehmen deshalb, genau zu prüfen, welche Netzwerke welche Aufgaben übernehmen sollen. Erst dann könnten sie zielgenau entscheiden, ob klassische Managed WANs, SD-WANs oder eine Kombination aus beidem die jeweils beste Wahl darstellt.

Die ISG-Analysten weisen zudem darauf hin, dass die Nutzung von cloudbasierten Unternehmensanwendungen wie SAP HANA, Salesforce oder Office 365 sowie die Auslagerung von Applikationen auf Public-Cloud-Plattformen rasant zunehmen. Dies verlange ebenfalls einen dezentralisierten Zugang zu diesen öffentlichen Ressourcen, wie ihn SDN- und SD-WAN-Lösungen ermöglichen. Auch in diesem Fall führe SDN zu einer besseren Nutzerfahrung und einer Entlastung des Kernnetzes.

Neben den großen Telekommunikationsunternehmen und anderen Netzwerkdienstleistern besetzen laut ISG zunehmend auch klassische Systemhäuser den expandierenden SDN-Markt. »Die Anwender setzen mehr und mehr auf Anbieter, welche die gesamte Palette von SDN-Services anbieten – von der Beratung bis hin zu Implementierung und Betrieb«, sagt von Geyr. »Deshalb ist der SDN-Markt aktuell auch von zahlreichen Partnerprogrammen und Fusionen geprägt. Die Provider arbeiten vor allem daran, ihren Kunden ein komplettes SDN-Ökosystem aus Services, Spezialisten und Technologien bieten zu können.«

Der »ISG Provider Lens – Network – Software Defined Solutions & Services Germany 2019« untersuchte im Marktsegment »SDN Transformational Services« die Fähigkeiten von 24 Providern. Aktuelle Leader in diesem Markt sind Axians, Cisco, Computacenter, IBM, Orange Business Services, T-Systems und Vodafone.

 

Managed WAN Services

Klassische hardwarebasierte WAN-Lösungen bieten der Studie zufolge zwar viele Vorteile bei der Vernetzung von Standorten. Sie sind aber ein teures Medium, wenn es um die Anbindung mobiler Geräte geht, die einen schnell wachsenden, meist nicht geschäftskritischen Datenverkehr erzeugen. Dies beeinträchtigt den reibungslosen Betrieb der traditionellen WAN-Dienste und Managed Services. Dadurch wird SDN immer wichtiger, allerdings mehr als eine zusätzliche Management- und Steuerungsschicht, die über den hardwarebasierten Netzwerken liegt. Die ISG-Analysten gehen davon aus, dass dieses Zusammenspiel in den kommenden zwei Jahren bis 2021 in den meisten Unternehmen Alltag sein wird.

 

Mobile Network Additional Services

5G-Mobilfunknetze oder drahtlose Systeme ergänzen mehr und mehr die Telekommunikationsstandards der vierten Generation (4G/LTE). Bis Ende 2025 sollen rund 73 Prozent der europäischen Bevölkerung mit 5G versorgt sein. Entsprechend rechnen die ISG-Analysten auch im Unternehmenseinsatz mit Lösungen und Verfahren, die in zunehmenden Maß auf Mobilität ausgerichtet sind. Dies könnten Einzellösungen sein oder Module, die in SD-WANs integriert oder auf diese angewiesen sind.

 

SD WAN Equipment & Service Suppliers (DIY)

Viele SD-WAN-Ausrüstungen und -Services lassen sich in Eigenregie betreiben, ohne auf Managed Services zurückgreifen zu müssen. ISG sieht diese Lösungen vor allem bei Unternehmen im Einsatz, die ihre bestehenden Netzwerke um eine zusätzliche SD-Managementschicht erweitern wollen. Ziel ist es hier, den Datenverkehr per SDN zu optimieren und in flüssigere Bahnen zu lenken. Entsprechend haben in diesem Marktsegment jene Anbieter die Nase vorn, die neben einer breiten Erfahrung mit SDN auch in der Welt der hardwarebasierten Netze zu Hause sind.

 

SDN Security Services

Ein großer Vorteil in SD-Netzwerken besteht darin, dass ein SD-WAN sichere Verbindungen über alle Transportwege hinweg bereitstellt. Unterschiedliche Security-Verfahren für unterschiedliche Transportwege oder -Provider gehören damit der Vergangenheit an. Die ISG-Studie stellte fest, dass die Anbieter dieses Marktsegments Sicherheit entsprechend als bereits im Netzwerk integrierte, softwaredefinierte und programmierbare Funktion bereitstellen. Eine weitere wichtige Rolle spielten zudem cloudbasierte Sicherheitslösungen, die ein skalierbares Security Management der dezentralen Internetzugänge ermöglichen.

 

SD Network Technologies (Core)

SDN-Virtualisierungen machen viele Aufgaben bei der Segmentierung herkömmlicher Netzwerke überflüssig, zum Beispiel geroutete Subnetze oder Firewall-Zugriffslisten (ACLs). SDN-basierte Netzwerke hingegen unterstützen unter anderem die beliebige Zuweisung von IP/MAC-Adressen und automatisieren die Netzwerkkonfiguration. Als wichtigste Provider in diesem Segment führt die ISG-Studie Anbieter von SDN- und NFV-(Network Function Virtualization-)Geräten und -Services auf, die entweder von Unternehmen direkt oder über Dienstleister bezogen werden.

 

SD Network Technologies (Mobile to Edge)

Das Netzwerkmanagement lässt sich weiter verbessern, wenn SD-Technologien nicht nur im Kern von Netzwerken greifen, sondern auch in den Umgebungssystemen und -geräten. Dazu zählen insbesondere die vorhandene Ausstattung beim Kunden (CPE, Customer Premises Equipment) mit den dazugehörigen WiFi-Netzwerken, Zugangspunkten (Access Points, APs), softwaredefinierten mobilen Netzwerken (SDMN) sowie softwaredefinierten lokalen Netzwerken (SD-LAN). Zu den in der ISG-Studie untersuchten Providern dieses Marktsegments gehören alle übergreifenden SD-LAN-Produkt- und Serviceanbieter sowie Dienstleister, die auf vCPE (Virtual Customer Premise Equipment) und SDMN spezialisiert sind.

 

[1] Der »ISG Provider Lens™ – Network – Software Defined Solutions & Services Germany 2019« ist für »ISG Insights™«-Abonnenten sowie für den sofortigen Einzelkauf auf dieser Website verfügbar: https://research.isg-one.com/reportaction/Quadrant-SDN-Germany-2019/Marketing.

 

173 Artikel zu „SDN“

Anbietervergleich zu Software-Defined Networking: Großanbieter drängen in den SDN-Markt

Die großen Telekommunikations- und Infrastruktur-Anbieter erschließen zunehmend das Geschäft mit Software-Defined Networking (SDN). In den vergangenen zwölf Monaten haben sie erkennbar damit begonnen, klassische Netzwerktechnologien durch SDN-Lösungen und -Services zu ersetzen. Dies meldet der neue große Anbietervergleich »ISG Provider Lens Germany 2018 – Software-Defined Networking and Services« des IT-Marktforschungs- und Beratungshauses ISG Information Services Group.…

Welche Vorteile bietet Software Defined Networking (SDN)?

Herkömmliche Netzwerkarchitekturen haben sich in den letzten 15 Jahren kaum verändert und sind in die Jahre gekommen. Die heute gestellten Anforderungen an Flexibilität, Schnelligkeit und Sicherheit können damit nicht erfüllt werden. In jedem einzelnen traditionellen Switch ist die Firmware implementiert – bei Änderungen oder Neuinstallation von Devices oder Anwendungen muss die Konfiguration an jeder einzelnen…

Dresdner Start-up übernimmt ehemaliges Rechenzentrum der EZB in Frankfurt, um energieeffizientes Abwärmekonzept umzusetzen

Immer mehr Unternehmen verlagern ihre Daten in die Cloud. Laut einer Studie der Bitkom setzten in 2016 bereits zwei von drei deutschen Firmen ab 20 Mitarbeitern auf Cloud Computing. In der Finanzmetropole Frankfurt wird besonders viel Rechenkapazität benötigt, entsprechend gilt die Mainmetropole mit mehreren Dutzend Rechenzentren als die Datacenter-Hauptstadt Deutschlands. Jedes von ihnen verbraucht nach…

Bye-bye ISDN – OfficeMaster Gate Advanced: die All-in-One-Lösung für die IP-Migration

Das Ende der Ära ISDN rückt näher, All-IP lautet jetzt die Devise. Für die Migration der gesamten Unternehmens-ITK sind Lösungen gefragt, die bestehende Investitionen schonen und alle Komponenten berücksichtigen. OfficeMaster Gate Advanced von Ferrari electronic ist eine Lösung, die jeden All-IP-Check besteht.

Die richtige Migrationsstrategie: Das Netzwerk sicher auf SDN & NFV umstellen

Laut Gartner können Telekommunikationsanbieter durch einen Umstieg auf SDN/NFV-Infrastrukturen 1 ihre Betriebskosten (Opex) um bis zu 60 % und die Investitionskosten (Capex) um bis zu 40 % reduzieren. Ein Umstieg ermöglicht außerdem die Einführung neuer Services wie Software Defined WAN oder die Nutzung virtueller Endgeräte. 1 SDN (Software Defined Networking) / NFV (Network Functions Virtualization)…

Software Defined Networking (SDN) – eine Revolution im Netzwerkumfeld

Nach den Virtualisierungswellen im Server- und Storage-Umfeld rollt nun die Virtualisierung des Netzwerks auf die Anwender zu. Herkömmliche Netzwerkinfrastrukturen sind in die Jahre gekommen und können die Anforderungen an Flexibilität, Schnelligkeit und Sicherheit nicht erfüllen. In jedem einzelnen traditionellen Switch ist die Software (Firmware) implementiert, bei Änderungen oder Neuinstallation von Devices oder Anwendungen muss die…

WAN Services & SDN Vendor Benchmark 2016 für Deutschland

Software Defined Networks (SDN) sind auf dem Vormarsch. SD WAN steht vor dem Durchbruch. Klassische WAN Services werden unter Druck geraten. Die Experton Group hat den »WAN Services & SDN Vendor Benchmark Deutschland 2016« vorgestellt. Dies ist die erste Ausgabe dieser unabhängigen Analyse des Marktes für Produkte und Dienstleistungen im Bereich von Software Defined Networks,…

DevOps, Container und SDI – 3 Schlüssel für eine erfolgreiche IT-Transformation

$
0
0

Illustration: Geralt Absmeier, Jarmoluk

Die digitale Transformation ist aktuell das Thema der Stunde. Es steht fest, dass Unternehmen neue Geschäftsmodelle brauchen, um kompetitiv zu bleiben. Voraussetzung dafür ist ein Wandel in den eigenen Strukturen. Doch welche sind die wichtigsten Technologien, um die erfolgreiche Transformation der eigenen IT zu erreichen? Michael Jores, Regional Director Central Europe bei SUSE, gibt dazu im Folgenden seine Einschätzung:

 

  1. DevOps reißt Silos ein

Mit DevOps soll die Anwendungsbereitstellung beschleunigt werden, indem Entwicklung und Betrieb von Software eng verzahnt zusammenarbeiten, anstatt in abgegrenzten Silos. Ziel ist es, den gesamten Software-Entwicklungsprozess zu integrieren, um den Kundenwünschen zu entsprechen und Geschäftsziele besser zu erreichen. Ein Großteil der Unternehmen (77 Prozent) erachtet es als wichtig, die DevOps-Kultur zu fördern oder befindet sich bereits in der konkreten Planung, DevOps als Teil ihrer zukünftigen Strategie zu implementieren (86 Prozent), wie eine SUSE-Umfrage zeigte [1].

Um DevOps erfolgreich zu implementieren, bedarf es aber mehr als nur der richtigen Tools und Automatisierung. Dazu muss ein Kulturwandel im Unternehmen stattfinden, der oft auch gegen jahrzehntealte, etablierte Strukturen in der IT ankämpfen muss. Doch wenn es gelingt, steht neuen innovativen Geschäftsmodellen nichts im Wege.

 

  1. Container beschleunigen Applikationsbereitstellung

Neben DevOps bietet die Nutzung von Containern einen guten Weg für Unternehmen, die unter dem Druck stehen, neue Anwendungen immer schneller liefern zu müssen. Viele Unternehmen profitieren bereits von containerisierten Anwendungen, denn neue Tools machen die Entwicklung, Orchestrierung und das Lifecycle Management von Container Workloads einfach und sicher.

Container heben die Virtualisierung auf eine neue Stufe: Anders als konventionelle, virtuelle Maschinen benötigen sie keine Hypervisor oder ein eingebettetes Betriebssystem. In einem Container befindet sich alles, was der Code braucht, um selbstständig zu laufen. Daher können sie einfach und schnell eingesetzt werden und benötigen weniger Ressourcen. Gleichzeitig sind Container hochskalierbar.

Für Unternehmen bieten Container zum einen den Vorteil, dass sie vorhandene Ressourcen besser ausnutzen können. Zum anderen zeichnet sich die Technologie durch hohe Verlässlichkeit und gute Skalierbarkeit aus.

 

  1. Die Zukunft des Rechenzentrums ist Software-definiert

Traditionelle Rechenzentren sind oft aus Architekturen aufgebaut, die zu starr und langsam sind, um mit den Anforderungen moderner Anwendungen mitzuhalten, besonders, wenn diese für die Cloud oder hybride Umgebungen entwickelt wurden. Software-definierte Infrastruktur (SDI) trennt die Ebene der Software von der physischen Hardware und schafft so sehr flexible Strukturen. Außerdem erlaubt dieser Ansatz die anbieterunabhängige Verwendung von günstiger Standardhardware und unkomplizierte Erweiterung. Wie die SUSE-Umfrage zeigte, sieht ein bedeutender Teil der Unternehmen (95 Prozent) SDI als wichtigste Zukunftstechnologie für Rechenzentren an. Dennoch verläuft die Umsetzung eher schleppend, wie die aktuelle IDC-Studie »Data Center Trends in Deutschland 2019« zeigt. Laut Studie setzen 27 % der Befragten seit mehr als 12 Monaten SDI ein, 34 % befinden sich in Evaluierung und Proof of Concept Status und 39 % haben das Thema in der Planung.

Als größte Vorteile von SDI erweisen sich laut SUSE vor allem schnellere Delivery von IT-Ressourcen, einfacheres Datenmanagement und Unterstützung moderner Ansätze wie DevOps.

 

Fazit

Die IT-Transformation kann nur gelingen, wenn alle Mitarbeiter an Bord geholt werden. Natürlich gehören dazu Entscheidungen im Vorstand, aber alle Stakeholder müssen die Maßnahmen und die Vorteile verstehen, die sich daraus ergeben. Neben einem kulturellen Wandel wird die Transformation aber auch von Technologie getrieben. Dabei sind Container und Software-definierte Infrastrukturen von großer Bedeutung, da sie es ermöglichen, agil zu arbeiten und hochskalierbare Projekte zu entwickeln. Mit Open-Source-Lösungen bleiben Unternehmen dabei unabhängig und profitieren von einer innovativen Community.

 

[1] Ergebnis einer weltweiten SUSE-Umfrage zur IT-Transformation in Unternehmen, August 2017: mailto:https://storageconsortium.de/content/sites/default/files/downloads/suse_sdi_containers_and_devops_cloud_adoption_trends_driving_it_transformatio….pdf
[2] https://www.suse.com/c/de/idc-studie-data-center-trends-2019-wie-unternehmen-ihr-rechenzentrum-fit-fuer-die-zukunft-machen/

 


Data Center Trends 2019: Wie Unternehmen ihr Rechenzentrum fit für die Zukunft machen

 

Was sind aktuell die wichtigsten Herausforderungen und Erfolgsfaktoren bei der Data Center-Modernisierung? Das wollten die Marktanalysten von IDC herausfinden und haben dazu IT- und Fachentscheider aus 210 deutschen Unternehmen befragt.

 

Höhere Produktivität, Konsolidierung von Ressourcen, verbesserte Sicherheit und Compliance – das sind für Unternehmen heute die wichtigsten Gründe, um in neue Data Center-Infrastrukturen zu investieren. Aber wie lassen sich diese Ziele in der Praxis tatsächlich erreichen? Und was muss ein modernes Rechenzentrum leisten, um die veränderten Business-Anforderungen optimal zu unterstützen?

Die Experten von IDC stellten diese Fragen insgesamt 210 Verantwortlichen aus Unternehmen mit mehr als 500 Mitarbeitern in Deutschland. Die Ergebnisse der Studie sind jetzt verfügbar und liefern interessante Einblicke in aktuelle Data-Center-Strategien und Umsetzungspläne.

 

Fünf Ratschläge für bessere Data Center

Aus den Ergebnissen der Studie leiteten die Experten konkrete Handlungsempfehlungen ab. Sie raten Unternehmen grundsätzlich, nicht auf kurzlebige Trends zu setzen, sondern neue Technologien intelligent im Data Center zu einführen. Dazu gehört auch, die Betriebsprozesse zu optimieren und die Geschäftsziele immer im Auge zu behalten.

Vor allem fünf Tipps geben die Analysten Entscheidern mit auf den Weg:

 

  1. Stellen Sie Ihre Data-Center-Strategie und Ihre IT-Architektur auf den Prüfstand: Verantwortliche sollten sich ehrlich fragen, ob die bisherige Strategie noch zum Unternehmen passt. Cloud-Plattformen, Colocation-Modelle und der Trend zum Edge Computing eröffnen viele neue Optionen für die Zukunft.
  2. Evaluieren Sie SDI: Der Virtualisierungsgrad in vielen Rechenzentren ist bereits heute sehr hoch. Häufig lohnt es sich jedoch, noch einen Schritt weiter in Richtung Software-Defined Infrastructure zu gehen und Workloads vollständig von der Hardware zu entkoppeln.
  3. Prüfen Sie einen Cloud First Approach: Traditionelle Data Center-Infrastrukturen können mit datenintensiven Anwendungen wie Analytics, Machine Learning und Business Intelligence oft nicht mehr Schritt halten. Gerade diese Bereiche eignen sich daher gut für den Einstieg in eine Cloud-First-Strategie.
  4. Automatisieren, integrieren und orchestrieren Sie Ihre IT-Landschaft umfassend: In einem modernen Data Center laufen Management-Prozesse weitgehend automatisiert ab. Verantwortliche sollten dabei über die Verwaltung der Infrastruktur hinausgehen und agile DevOps-Methoden in den Betrieb einbringen.
  5. Setzen Sie Open Source gezielt im Data Center ein: Die Studie zeigt, dass bereits mehr als drei Viertel der Befragten eine oder mehrere Open-Source-Lösungen im Data Center einsetzen. Nach Ansicht von IDC ist dies der richtige Weg: Open Source Software bildet heute in vielen Fällen die Basis für innovative Anwendungen.

 

Containertechnologien im Aufwind

Eine interessante Erkenntnis der Data Center-Studie 2019: Container-Technologien sind bereits bei 85 Prozent der Befragten im Einsatz beziehungsweise werden derzeit evaluiert. Für die IDC-Experten kommt dies nicht überraschend. Die Analysten attestieren der Container-Technologie »im Kontext von Automatisierung und im Zusammenspiel mit DevOps einen deutlichen Mehrwert«. Allerdings sei die Nutzung von Containern kein Selbstläufer – nicht alle Unternehmen verfügten bereits über eine optimale Infrastruktur für die Nutzung von Containern.

SUSE adressiert genau diese Herausforderung mit der SUSE CaaS Platform, einer Container-Verwaltungsplattform für Geschäftsanwendungen. IT- und DevOps-Experten sind damit in der Lage, Container-basierte Applikationen und Services leichter bereitzustellen, zu managen und zu skalieren. SUSE CaaS enthält Kubernetes für die automatisierte Verwaltung von containerisierten Anwendungen über ihren gesamten Lebenszyklus hinweg. Darüber hinaus bietet die Plattform zusätzliche Funktionen wie eine vollständige Container-Ausführungsumgebung und Tools zur Data Center-Integration. Damit lässt sich Kubernetes sehr einfach an neue oder bestehende Infrastrukturen, Systeme und Prozesse anschließen.

 

Wenn Sie mehr über die Data Center Trends 2019 und die IDC-Empfehlungen für eine zukunftsfähige Strategie erfahren möchten, laden Sie sich jetzt die Studie herunter. https://www.suse.com/de-de/lp/idc-datacenter-trends/

 

211 Artikel zu „Transformation RZ DC“

Erfolgreiche digitale Transformation braucht IT-Resilienz

Für den »State of IT-Resilience Report 2019« wurden weltweit 500 Führungskräfte sowohl aus der IT als auch aus anderen Geschäftsbereichen befragt [1]. Die Teilnehmer kamen aus über zehn unterschiedlichen Branchen und äußerten sich zu den derzeitigen Herausforderungen von IT-Resilienz im Rahmen der digitalen Transformation. Die Ergebnisse der Befragung geben Einblick in den Stand der Dinge…

Europäische Unternehmen signalisieren wachsende Sicherheitslücke im Zuge der digitalen Transformation

Während unzutreffende Prognosen zur digitalen Transformation langsam verblassen erreichen wir in puncto Business eine neue Ära. Weltweit, und in einem bisher beispiellosen Ausmaß haben die digitale Transformation und neue, erstmals digitalisierte Geschäftsumgebungen eine Welle von Vorteilen mit sich gebracht. Größere Effizienz, bessere Kundenerfahrung und Kundenbindung, um nur einige zu nennen.   Das ist in Europa…

Niemand ist immun! Die Ära der digitalen Transformation setzt sensible Unternehmensdaten Risiken aus

Unternehmen kämpfen mit komplexen Cloud-Umgebungen, während die für die digitale Transformation notwendigen Technologien mit den Sicherheitsanforderungen nicht Schritt halten.   Die Ergebnisse des 2019 Thales Data Threat Report – Global Edition belegen, dass die digitale Transformation vertrauliche Unternehmensdaten weltweit einem Risiko aussetzt. Unternehmen haben sich neuen Technologien wie beispielsweise Multi-Cloud-Anwendungen zugewandt, haben aber große Mühe…

Digitale Transformation: Die Netzwerksicherheit ist geschäftskritisch

So bedienen Unternehmen die Anforderungen an Konnektivität und Datensicherheit. Die digitale Transformation führt zu einem rasanten Wachstum an Netzwerkendpunkten, die es zu versorgen und zu managen gilt. Gleichzeitig steigt die Gefahr durch Cyberangriffe. Gemischte Netzwerkarchitekturen aus On-Premises- und Cloud-Lösungen sind das Mittel der Wahl.   Sicherheitsexperten gehen davon aus, dass mehrere hundert Millionen Malware-Proben im…

90 Prozent aller Unternehmen sind nicht bereit für die digitale Transformation

Anspruch und Wirklichkeit in Sachen Robustheit der IT-Systeme klaffen weit auseinander. Nur 7 Prozent der Befragten halten ihre Infrastruktur für widerstandsfähig genug, um erfolgreich zu sein. 50 Prozent aller Unternehmen könnten laut IDC ein Katastrophenereignis nicht überleben.   Im Rahmen der globalen Studie »State of IT Resilience« wurden 500 Fachkräfte aus IT und Management zu…

Die veränderte Rolle des CIO: Netzwerktransformation ist ein Schlüssel zur Geschäftstransformation

Vom heutigen Chief Information Officer (CIO) wird nicht nur erwartet, dass er Technologie integriert, sondern auch, dass er vorhersieht, wie Technologie genutzt werden kann, um das Geschäftswachstum, die Produktentwicklung, die Kundenzufriedenheit und die Mitarbeiterproduktivität zu fördern. CIOs können Veränderungen in ihrer gesamten Organisation vorantreiben und so dabei unterstützen, wettbewerbsfähig zu bleiben und zu wachsen. Der…

Strategische Geschäftsvorteile durch Automation bei der digitalen Transformation

Unternehmen in der EMEA-Region sind der Meinung, dass Netzwerkautomation Effizienz, Sicherheit und Service-Innovationen vorantreibt. Eine unabhängige Studie [1] überprüfte den Status von Projekten und Strategien zur Netzwerkautomation im Sommer 2017 und konzentrierte sich auf Deutschland, Frankreich, Italien, die Niederlande, Saudi-Arabien und Großbritannien. Die Studie von IDC im Auftrag von Juniper Networks beleuchtet die Einstellungen, Ergebnisse…

Data Center Trends 2019: Wie Unternehmen ihr Rechenzentrum fit für die Zukunft machen

$
0
0

Was sind aktuell die wichtigsten Herausforderungen und Erfolgsfaktoren bei der Data Center-Modernisierung? Das wollten die Marktanalysten von IDC herausfinden und haben dazu IT- und Fachentscheider aus 210 deutschen Unternehmen befragt.

Illustration: Geralt Absmeier

Höhere Produktivität, Konsolidierung von Ressourcen, verbesserte Sicherheit und Compliance – das sind für Unternehmen heute die wichtigsten Gründe, um in neue Data Center-Infrastrukturen zu investieren. Aber wie lassen sich diese Ziele in der Praxis tatsächlich erreichen? Und was muss ein modernes Rechenzentrum leisten, um die veränderten Business-Anforderungen optimal zu unterstützen?

Die Experten von IDC stellten diese Fragen insgesamt 210 Verantwortlichen aus Unternehmen mit mehr als 500 Mitarbeitern in Deutschland. Die Ergebnisse der Studie sind jetzt verfügbar und liefern interessante Einblicke in aktuelle Data-Center-Strategien und Umsetzungspläne.

 

Fünf Ratschläge für bessere Data Center

Aus den Ergebnissen der Studie leiteten die Experten konkrete Handlungsempfehlungen ab. Sie raten Unternehmen grundsätzlich, nicht auf kurzlebige Trends zu setzen, sondern neue Technologien intelligent im Data Center zu einführen. Dazu gehört auch, die Betriebsprozesse zu optimieren und die Geschäftsziele immer im Auge zu behalten.

Vor allem fünf Tipps geben die Analysten Entscheidern mit auf den Weg:

 

  1. Stellen Sie Ihre Data-Center-Strategie und Ihre IT-Architektur auf den Prüfstand: Verantwortliche sollten sich ehrlich fragen, ob die bisherige Strategie noch zum Unternehmen passt. Cloud-Plattformen, Colocation-Modelle und der Trend zum Edge Computing eröffnen viele neue Optionen für die Zukunft.
  2. Evaluieren Sie SDI: Der Virtualisierungsgrad in vielen Rechenzentren ist bereits heute sehr hoch. Häufig lohnt es sich jedoch, noch einen Schritt weiter in Richtung Software-Defined Infrastructure zu gehen und Workloads vollständig von der Hardware zu entkoppeln.
  3. Prüfen Sie einen Cloud First Approach: Traditionelle Data Center-Infrastrukturen können mit datenintensiven Anwendungen wie Analytics, Machine Learning und Business Intelligence oft nicht mehr Schritt halten. Gerade diese Bereiche eignen sich daher gut für den Einstieg in eine Cloud-First-Strategie.
  4. Automatisieren, integrieren und orchestrieren Sie Ihre IT-Landschaft umfassend: In einem modernen Data Center laufen Management-Prozesse weitgehend automatisiert ab. Verantwortliche sollten dabei über die Verwaltung der Infrastruktur hinausgehen und agile DevOps-Methoden in den Betrieb einbringen.
  5. Setzen Sie Open Source gezielt im Data Center ein: Die Studie zeigt, dass bereits mehr als drei Viertel der Befragten eine oder mehrere Open-Source-Lösungen im Data Center einsetzen. Nach Ansicht von IDC ist dies der richtige Weg: Open Source Software bildet heute in vielen Fällen die Basis für innovative Anwendungen.

 

 

Containertechnologien im Aufwind

Eine interessante Erkenntnis der Data Center-Studie 2019: Container-Technologien sind bereits bei 85 Prozent der Befragten im Einsatz beziehungsweise werden derzeit evaluiert. Für die IDC-Experten kommt dies nicht überraschend. Die Analysten attestieren der Container-Technologie »im Kontext von Automatisierung und im Zusammenspiel mit DevOps einen deutlichen Mehrwert«. Allerdings sei die Nutzung von Containern kein Selbstläufer – nicht alle Unternehmen verfügten bereits über eine optimale Infrastruktur für die Nutzung von Containern.

SUSE adressiert genau diese Herausforderung mit der SUSE CaaS Platform, einer Container-Verwaltungsplattform für Geschäftsanwendungen. IT- und DevOps-Experten sind damit in der Lage, Container-basierte Applikationen und Services leichter bereitzustellen, zu managen und zu skalieren. SUSE CaaS enthält Kubernetes für die automatisierte Verwaltung von containerisierten Anwendungen über ihren gesamten Lebenszyklus hinweg. Darüber hinaus bietet die Plattform zusätzliche Funktionen wie eine vollständige Container-Ausführungsumgebung und Tools zur Data Center-Integration. Damit lässt sich Kubernetes sehr einfach an neue oder bestehende Infrastrukturen, Systeme und Prozesse anschließen.

Wenn Sie mehr über die Data Center Trends 2019 und die IDC-Empfehlungen für eine zukunftsfähige Strategie erfahren möchten, laden Sie sich jetzt die Studie herunter.
https://www.suse.com/de-de/lp/idc-datacenter-trends/

 


 

DevOps, Container und SDI – 3 Schlüssel für eine erfolgreiche IT-Transformation

 

Die digitale Transformation ist aktuell das Thema der Stunde. Es steht fest, dass Unternehmen neue Geschäftsmodelle brauchen, um kompetitiv zu bleiben. Voraussetzung dafür ist ein Wandel in den eigenen Strukturen. Doch welche sind die wichtigsten Technologien, um die erfolgreiche Transformation der eigenen IT zu erreichen? Michael Jores, Regional Director Central Europe bei SUSE, gibt dazu im Folgenden seine Einschätzung:

 

  1. DevOps reißt Silos ein

Mit DevOps soll die Anwendungsbereitstellung beschleunigt werden, indem Entwicklung und Betrieb von Software eng verzahnt zusammenarbeiten, anstatt in abgegrenzten Silos. Ziel ist es, den gesamten Software-Entwicklungsprozess zu integrieren, um den Kundenwünschen zu entsprechen und Geschäftsziele besser zu erreichen. Ein Großteil der Unternehmen (77 Prozent) erachtet es als wichtig, die DevOps-Kultur zu fördern oder befindet sich bereits in der konkreten Planung, DevOps als Teil ihrer zukünftigen Strategie zu implementieren (86 Prozent), wie eine SUSE-Umfrage zeigte [1].

Um DevOps erfolgreich zu implementieren, bedarf es aber mehr als nur der richtigen Tools und Automatisierung. Dazu muss ein Kulturwandel im Unternehmen stattfinden, der oft auch gegen jahrzehntealte, etablierte Strukturen in der IT ankämpfen muss. Doch wenn es gelingt, steht neuen innovativen Geschäftsmodellen nichts im Wege.

 

  1. Container beschleunigen Applikationsbereitstellung

Neben DevOps bietet die Nutzung von Containern einen guten Weg für Unternehmen, die unter dem Druck stehen, neue Anwendungen immer schneller liefern zu müssen. Viele Unternehmen profitieren bereits von containerisierten Anwendungen, denn neue Tools machen die Entwicklung, Orchestrierung und das Lifecycle Management von Container Workloads einfach und sicher.

Container heben die Virtualisierung auf eine neue Stufe: Anders als konventionelle, virtuelle Maschinen benötigen sie keine Hypervisor oder ein eingebettetes Betriebssystem. In einem Container befindet sich alles, was der Code braucht, um selbstständig zu laufen. Daher können sie einfach und schnell eingesetzt werden und benötigen weniger Ressourcen. Gleichzeitig sind Container hochskalierbar.

Für Unternehmen bieten Container zum einen den Vorteil, dass sie vorhandene Ressourcen besser ausnutzen können. Zum anderen zeichnet sich die Technologie durch hohe Verlässlichkeit und gute Skalierbarkeit aus.

 

  1. Die Zukunft des Rechenzentrums ist Software-definiert

Traditionelle Rechenzentren sind oft aus Architekturen aufgebaut, die zu starr und langsam sind, um mit den Anforderungen moderner Anwendungen mitzuhalten, besonders, wenn diese für die Cloud oder hybride Umgebungen entwickelt wurden. Software-definierte Infrastruktur (SDI) trennt die Ebene der Software von der physischen Hardware und schafft so sehr flexible Strukturen. Außerdem erlaubt dieser Ansatz die anbieterunabhängige Verwendung von günstiger Standardhardware und unkomplizierte Erweiterung. Wie die SUSE-Umfrage zeigte, sieht ein bedeutender Teil der Unternehmen (95 Prozent) SDI als wichtigste Zukunftstechnologie für Rechenzentren an. Dennoch verläuft die Umsetzung eher schleppend, wie die aktuelle IDC-Studie »Data Center Trends in Deutschland 2019« zeigt. Laut Studie setzen 27 % der Befragten seit mehr als 12 Monaten SDI ein, 34 % befinden sich in Evaluierung und Proof of Concept Status und 39 % haben das Thema in der Planung.

Als größte Vorteile von SDI erweisen sich laut SUSE vor allem schnellere Delivery von IT-Ressourcen, einfacheres Datenmanagement und Unterstützung moderner Ansätze wie DevOps.

 

Fazit

Die IT-Transformation kann nur gelingen, wenn alle Mitarbeiter an Bord geholt werden. Natürlich gehören dazu Entscheidungen im Vorstand, aber alle Stakeholder müssen die Maßnahmen und die Vorteile verstehen, die sich daraus ergeben. Neben einem kulturellen Wandel wird die Transformation aber auch von Technologie getrieben. Dabei sind Container und Software-definierte Infrastrukturen von großer Bedeutung, da sie es ermöglichen, agil zu arbeiten und hochskalierbare Projekte zu entwickeln. Mit Open-Source-Lösungen bleiben Unternehmen dabei unabhängig und profitieren von einer innovativen Community.

 

[1] Ergebnis einer weltweiten SUSE-Umfrage zur IT-Transformation in Unternehmen, August 2017: mailto:https://storageconsortium.de/content/sites/default/files/downloads/suse_sdi_containers_and_devops_cloud_adoption_trends_driving_it_transformatio….pdf
[2] https://www.suse.com/c/de/idc-studie-data-center-trends-2019-wie-unternehmen-ihr-rechenzentrum-fit-fuer-die-zukunft-machen/

 

211 Artikel zu „Transformation RZ DC“

Erfolgreiche digitale Transformation braucht IT-Resilienz

Für den »State of IT-Resilience Report 2019« wurden weltweit 500 Führungskräfte sowohl aus der IT als auch aus anderen Geschäftsbereichen befragt [1]. Die Teilnehmer kamen aus über zehn unterschiedlichen Branchen und äußerten sich zu den derzeitigen Herausforderungen von IT-Resilienz im Rahmen der digitalen Transformation. Die Ergebnisse der Befragung geben Einblick in den Stand der Dinge…

Europäische Unternehmen signalisieren wachsende Sicherheitslücke im Zuge der digitalen Transformation

Während unzutreffende Prognosen zur digitalen Transformation langsam verblassen erreichen wir in puncto Business eine neue Ära. Weltweit, und in einem bisher beispiellosen Ausmaß haben die digitale Transformation und neue, erstmals digitalisierte Geschäftsumgebungen eine Welle von Vorteilen mit sich gebracht. Größere Effizienz, bessere Kundenerfahrung und Kundenbindung, um nur einige zu nennen.   Das ist in Europa…

Niemand ist immun! Die Ära der digitalen Transformation setzt sensible Unternehmensdaten Risiken aus

Unternehmen kämpfen mit komplexen Cloud-Umgebungen, während die für die digitale Transformation notwendigen Technologien mit den Sicherheitsanforderungen nicht Schritt halten.   Die Ergebnisse des 2019 Thales Data Threat Report – Global Edition belegen, dass die digitale Transformation vertrauliche Unternehmensdaten weltweit einem Risiko aussetzt. Unternehmen haben sich neuen Technologien wie beispielsweise Multi-Cloud-Anwendungen zugewandt, haben aber große Mühe…

Digitale Transformation: Die Netzwerksicherheit ist geschäftskritisch

So bedienen Unternehmen die Anforderungen an Konnektivität und Datensicherheit. Die digitale Transformation führt zu einem rasanten Wachstum an Netzwerkendpunkten, die es zu versorgen und zu managen gilt. Gleichzeitig steigt die Gefahr durch Cyberangriffe. Gemischte Netzwerkarchitekturen aus On-Premises- und Cloud-Lösungen sind das Mittel der Wahl.   Sicherheitsexperten gehen davon aus, dass mehrere hundert Millionen Malware-Proben im…

90 Prozent aller Unternehmen sind nicht bereit für die digitale Transformation

Anspruch und Wirklichkeit in Sachen Robustheit der IT-Systeme klaffen weit auseinander. Nur 7 Prozent der Befragten halten ihre Infrastruktur für widerstandsfähig genug, um erfolgreich zu sein. 50 Prozent aller Unternehmen könnten laut IDC ein Katastrophenereignis nicht überleben.   Im Rahmen der globalen Studie »State of IT Resilience« wurden 500 Fachkräfte aus IT und Management zu…

Die veränderte Rolle des CIO: Netzwerktransformation ist ein Schlüssel zur Geschäftstransformation

Vom heutigen Chief Information Officer (CIO) wird nicht nur erwartet, dass er Technologie integriert, sondern auch, dass er vorhersieht, wie Technologie genutzt werden kann, um das Geschäftswachstum, die Produktentwicklung, die Kundenzufriedenheit und die Mitarbeiterproduktivität zu fördern. CIOs können Veränderungen in ihrer gesamten Organisation vorantreiben und so dabei unterstützen, wettbewerbsfähig zu bleiben und zu wachsen. Der…

Strategische Geschäftsvorteile durch Automation bei der digitalen Transformation

Unternehmen in der EMEA-Region sind der Meinung, dass Netzwerkautomation Effizienz, Sicherheit und Service-Innovationen vorantreibt. Eine unabhängige Studie [1] überprüfte den Status von Projekten und Strategien zur Netzwerkautomation im Sommer 2017 und konzentrierte sich auf Deutschland, Frankreich, Italien, die Niederlande, Saudi-Arabien und Großbritannien. Die Studie von IDC im Auftrag von Juniper Networks beleuchtet die Einstellungen, Ergebnisse…

Prior1 RZ-Check – Das Beste aus dem Rechenzentrum herausholen

$
0
0

In den meisten Bestandsrechenzentren gib es noch erhebliche Optimierungspotenziale bei den Prozessen, der Betriebssicherheit und der Energieeffizienz.

Um den steigenden Anforderungen an eine moderne Verwaltung und hinsichtlich Industrie 4.0 gerecht zu werden, rüsten viele Rechenzentrumsbetreiber ihre Informationstechnologie im Laufe der Jahre auf. Dabei wird häufig die Optimierung der Infrastruktur, beispielsweise der Stromversorgung, Klimatisierung und Umgebungsbedingungen, aus den Augen verloren. In Gesprächen mit Betreibern stellt sich dann heraus, dass diese oftmals nicht wissen, wie hoch der Stromverbrauch des Rechenzentrums ist, wie die Klimatisierung erfolgt und wie es um die Energieeffizienz gestellt ist. Mit dem RZ-Check der Prior1 GmbH werden exakt solche Optimierungspotenziale in Bezug auf Prozesse, Betriebssicherheit und Energieeffizienz in Bestandsrechenzentren aufgedeckt.

Im Interview erklärt Oliver Fronk, Leitung Projektberatung bei Prior1, welche Anforderungen heutzutage an ein Rechenzentrum gestellt werden und wie der RZ-Check dabei helfen kann.


Wieso sollten Rechenzentren nach einiger Zeit von Fachkräften genauer unter die Lupe genommen werden?

Rechenzentren sind komplexe, dynamische Systeme, die ständigen Änderungen hinsichtlich der technischen und organisatorischen Anforderungen unterliegen. Nehmen wir als Beispiel Industrie 4.0. Immer mehr Unternehmen rüsten auf, um wettbewerbsfähig zu bleiben. Auf den ersten Blick scheinen Betreiber dabei alles richtig gemacht zu haben, doch bei genauerem Hinsehen fällt auf, dass Kleinigkeiten missachtet wurden, die einen optimalen Betrieb gefährden. Es ist eine permanente Herausforderung, ein optimales Verhältnis zwischen Technik und Organisation zu finden und gleichzeitig alle Anforderungen an Verfügbarkeit, Sicherheit und Energieeffizienz zu erfüllen. Die Erfahrung zeigt außerdem, dass es in vielen Rechenzentren große Sicherheitsrisiken und Energieeinsparungspotenziale gibt, wodurch die Kosten gesenkt und die Umwelt geschont wird. Die Erfahrung zeigt, dass trotz interner Richtlinien und Überprüfungen immer wieder Missstände auftreten, die erst bei der Besichtigung von externen und herstellerunabhängigen Spezialisten aufgedeckt werden. Erst der Blick von Außenstehenden, losgelöst von unternehmensgeprägten Vorlieben und Neigung ermöglicht eine neutrale Betrachtung und Bewertung. So werden gezielt Schwachstellen aufgedeckt und Impulse für eine Steigerung der Qualität des Rechenzentrumsbetriebs gegeben. Außerdem entspricht das Rechenzentrum dadurch dem aktuellen Stand der Technik und erfüllt die aktuellen gesetzlichen Vorgaben und Normen. 


Was ist unter einer unabhängigen Begutachtung zu verstehen?

Wir nennen die Analyse des Bestandsrechenzentrums RZ-Check und bieten diesen in Form eines 1-Tages-Audits mit einer Vor-Ort-Begehung und qualifizierten Bewertungen an. Wir vereinen in unserem Hause unterschiedliche Disziplinen und können auf einen großen Erfahrungsschatz blicken. Neben Projektingenieuren und -ingenieurinnen sowie Planern und Planerinnen haben wir Mitarbeitende, die jahrelang als RZ-Manager, IT-Leiter oder im Bereich der RZ-Zertifizierung tätig waren. Dank der unterschiedlichen Gebiete betrachten wir den Betrieb und die Organisation als ein ineinandergreifendes und voneinander abhängiges Gebilde.

 

 


Könnten Sie den Ablauf des Audits bitte etwas genauer erklären?

Ja, gerne. Unsere erfahrenen Berater und Beraterinnen führen gemeinsam mit dem Kunden den RZ-Check durch. Bei der Analyse beachten wir die individuellen Anforderungen an Verfügbarkeit und Schutz des Rechenzentrums beziehungsweise des Serverraums. Dabei betrachten und bewerten wir über 200 Einzelaspekte aus den Bereichen: Konzepte und Prozesse, Risiko und Ereignisse, Standort und Gebäudekonstruktion, Stromversorgung, Klimatisierung/Umgebungsbedingungen, Energieeffizienz, Brandgefahr und Brandschutz, Wassergefahr und Wasserschutz, Zugangs- und Einbruchschutz, Ordnung und Sauberkeit, Netzwerkverkabelung und Datenanbindung. Dafür gehen wir von Außen nach Innen vor. Das heißt, wir schauen zunächst, wo liegt das Gebäude, sind Bahntrassen in der Nähe, auf denen gefährlicher radioaktiver Müll transportiert wird usw. So arbeiten wir uns Schritt für Schritt vor, bis wir schließlich beim Stromkabel angekommen sind. Anhand der Vielzahl an Aspekten und Bereichen ist gut ersichtlich, wie komplex das Thema ist und an wie vielen Schrauben gedreht werden kann, um das Rechenzentrum zu optimieren.


Auf welcher Grundlage basiert der Check?

Wir haben den RZ-Check aus der Rechenzentrumsnorm EN 50600 abgeleitet. Diese liefert ja umfassende Vorgaben im Hinblick auf die Planung, den Neubau sowie den Betrieb von Rechenzentren. Dabei definiert sie Anforderungen an die Gewerke wie Baukonstruktion, Elektroversorgung, Klimatisierung, Verkabelung und Sicherheitssysteme. Als erste Norm in Europa hat sie eine einheitliche Regelung gebracht, die ganz klar beschreibt, wie ein Rechenzentrum sein muss. Für uns beziehungsweise unseren Kunden bietet das den Vorteil, dass es nur noch einen Standard gibt und wir das Audit danach ausrichten. Da wir im Gremium zur Erarbeitung der EN 50600 sind, wissen wir immer relativ früh, welche Überarbeitungen anstehen. Diese neuen Punkte lassen wir selbstverständlich schon in den RZ-Check einfließen, so dass der Betreiber heute schon die Überprüfung von morgen bekommt. Unser Check ist ein Tool, das lebt und ständig erweitert wird. Außerdem berücksichtigt er den BSI-Grundschutz und den Blauen Engel für energiebewussten Rechenzentrumsbetrieb. Rechenzentren, die mit dem Blauen Engel ausgezeichnet werden, stellen mit möglichst wenig Hardware eine energieeffiziente Rechenleistung bereit. Genau das ist eine Herzensangelegenheit von uns, denn wir sind in einer energieintensiven Branche tätig und tragen eine besondere Verantwortung Energieeffizienz und Klimaschutz voranzutreiben. Aus diesen Gründen ist es für uns auch so wichtig, dass Rechenzentren bestmöglich betrieben werden.


Was bekommen die Betreiber nach dem Audit an die Hand?

Nach dem 1-Tages-Audit erhält der Kunde eine ganzheitliche, neutrale und übersichtliche Bewertung der Betriebssicherheit und Energieeffizienz des Rechenzentrums. In der nutzbringenden Kurzanalyse zeigen wir gezielt Stärken und Schwächen auf, so dass anhand der Ist-Situation Optimierungspotenziale abgeleitet werden können. Viele sind einfach und kurzfristig durchführbar, aber auch längerfristige und strategische Maßnahmen resultieren aus unserem RZ-Check. Als Beispiele können hier Empfehlungen zur Verbesserung von Energieverbrauch- und kosten oder eine Entscheidungsgrundlage für Investitionen genannt werden. Abschließend lässt sich sagen, dass der RZ-Check eine sinnvolle Investition in ein langlebiges, bedarfsoptimiertes Rechenzentrum ist.


Weitere Informationen zum RZ-Check unter:
https://www.prior1.com/rz-planungberatung/rz-check/
Die Prior1 GmbH ist der Experte bei allen Fragen rund um ein betriebssicheres Rechenzentrum. Das 60 MitarbeiterInnen starke Unternehmen mit Hauptsitz in Sankt Augustin sowie weiteren Niederlassungen in Berlin, Karlsruhe, München und Westerburg, hat sich nicht nur auf die Planung, den Bau und die Ausstattung von Rechenzentren und Serverräumen spezialisiert. Vielmehr ist sie auch die erste Wahl, wenn es um Betriebsoptimierungen und Strategien bezüglich Outsourcing und Colocation geht. Netzwerkplanungen und -verkabelung, Zertifizierungen, Workshops und beispielsweise Feinstaub- und Energieeffizienzanalysen gehören ebenso in das Aufgabengebiet. Parallel dazu leistet das eigene Montage- und Serviceteam seinen Beitrag zum ausfallsicheren Betrieb der IT-Infrastruktur. Dank der jahrzehntelangen Erfahrung werden so passgenaue Lösungen ermittelt. Die Errichtung des Rechenzentrums als schlüsselfertige Umsetzung erfolgt als Generalunternehmer oder Bauherrenvertreter unter anderem für Raum-in-Raum-Systeme, Container, Klimatisierung und Brandschutz. Konform der Unternehmensmission »Prior1 strebt nach unternehmerischer Freiheit durch nachhaltiges und menschliches Wirtschaften!« nimmt neben höchster Qualität in Umsetzung und Service auch der verantwortungsvolle Umgang mit der Umwelt einen hohen Stellenwert ein. 
Prior1 ist Mitglied der Gemeinwohlökonomie und hat hier ihre erste Bilanzierung erstellt und veröffentlicht. Weitere Informationen dazu unter: https://www.prior1.com/nachhaltigkeit/
Besuchen Sie Prior1 vom 13. bis 14. November 2019 auf der Data Centre World in Frankfurt a. M.

Wird die IT verlagert, bleibt die Verantwortung

Mit dem Colo Check der PRIOR1 den richtigen Partner für eine Auslagerung der IT finden.     Die PRIOR1 ist auf dem Markt als Berater und Errichter von Rechenzentren bekannt. Herr Maier, was versteckt sich hinter dem PRIOR1 Colo Check? Stefan Maier: Seit kurzem bieten wir Unternehmen, die sich mit einer Verlagerung der IT auseinandersetzen,…

100 Artikel zu „Rechenzentrum Modernisierung“

Data Center Trends 2019: Wie Unternehmen ihr Rechenzentrum fit für die Zukunft machen

Was sind aktuell die wichtigsten Herausforderungen und Erfolgsfaktoren bei der Data Center-Modernisierung? Das wollten die Marktanalysten von IDC herausfinden und haben dazu IT- und Fachentscheider aus 210 deutschen Unternehmen befragt. Höhere Produktivität, Konsolidierung von Ressourcen, verbesserte Sicherheit und Compliance – das sind für Unternehmen heute die wichtigsten Gründe, um in neue Data Center-Infrastrukturen zu investieren.…

Rechenzentrum: Verdreifachung von Edge-Einrichtungen bis 2025

Aktuelle Prognosen deuten auf ein rasantes Edge-Wachstum und einen starken Rückgang an Fachkräften hin. Vor fünf Jahren startete Vertiv eine globale, branchenweite Umfrage bezüglich des Rechenzentrums (RZ) der Zukunft. »Data Center 2015: Exploring the Possibilities« greift die Visionen von mehr als 800 Branchenexperten auf und stellt eine gemeinsame Vision für das Rechenzentrum der nächsten Generation…

IT-Modernisierung mit der Cloud benötigt einen strategischen Ansatz

Kosten senken, die Infrastruktur besser verwalten, die Zeit zur Marktreife verkürzen und die Servicequalität verbessern: Immer mehr Unternehmen wollen ihre IT mit dem Umzug in die Cloud modernisieren und von Standardisierung und Automatisierung profitieren. Dabei investieren sie in die Cloud, ziehen ihre Altsysteme um oder greifen auf Services wie die Amazon Web Services, Google Cloud…

Services sind im Rechenzentrum essenziell – Digitale Infrastruktur erfordert technisch versierte Spezialisten

Die Entwicklungszyklen der IT werden immer kürzer. Viele Rechenzentren können mit dieser dynamischen Entwicklung nicht mithalten. Aktive und passive Komponenten müssen erweitert, respektive erneuert werden. Dabei rückt auch die Verkabelungs-Infrastruktur stärker in den Fokus. Maßgeschneiderte Servicedienstleistungen helfen, klare Strukturen zu schaffen und unterstützen die Kunden.

Generationswechsel im Rechenzentrum – das Potenzial konvergierter Infrastrukturen

Rechenzentren haben sich hinsichtlich Platzbedarf und Komplexität weiterentwickelt, aber nicht notwendigerweise auch im Hinblick auf Skalierbarkeit und Leistungsfähigkeit. Für viele kleine und mittelständische Unternehmen ist die Beschaffung und Verwaltung einer IT-Infrastruktur mitunter eine große Herausforderung. Da viele Anwendungen oft über Jahre unabhängig voneinander eingeführt werden, entstehen isolierte IT-Infrastrukturen, die alle gewartet und verwaltet werden müssen.…

14 Prozent Umsatzzuwachs durch Modernisierung von IT-Systemen

In einer aktuellen Studie wurde herausgefunden, dass Unternehmen durch die Modernisierung ihrer IT 14 Prozent mehr Umsätze erlösen können. Zusätzlich lassen sich durch die Verbesserung der IT-Systeme die Betriebskosten um mehr als 13 Prozent senken – so das Resultat der Erhebung von 800 Entscheidern weltweit [1]. Beim Studiendesign von Vanson Bourne im Auftrag von Avanade…

Drei Tipps für die Wahl eines Rechenzentrums

Analog zur zunehmenden Digitalisierung aller Branchen bis hin zu einzelnen Mitarbeitern sind auch die Anforderungen an eine fachgerechte Sicherung und Verwaltung unternehmenseigener IT gewachsen. Worauf sollten mittelständische Geschäftsführer bei der Rechenzentrumswahl achten. Industrie 4.0, Internet of Things (IoT) und Big Data – die Digitalisierung hat viele neuartige Themen geschaffen, die Unternehmen zeitnah auffordern ihre IT-Landschaft grundlegend zu…

Die Telefonie 2.0 kommt aus dem Rechenzentrum

Telefonie kann heute mehr als reine Kommunikation. Richtig gemacht, bietet die nächste Generation der Telefonie Business-Mehrwerte, eröffnet neue Funktionen per Knopfdruck und hilft beim Kosten sparen. Expertenrat: Früh reagieren, statt schlecht telefonieren. Vorteile der Cloudtelefonie aus dem Rechenzentrum. 5 schlagende Gründe für den Umstieg auf die Telefonie 2.0. Die Telekom hat die ISDN-Abschaltung für 2018…

So wird das Rechenzentrum zum Vorreiter beim Klimaschutz – Nachhaltige Digitalisierung

$
0
0

Durch den Einsatz von regenerativer Energie und effiziente Nutzung von Abwärme bei der Datenspeicherung können Unternehmen ihre CO₂-Bilanz dauerhaft optimieren.

Klimaschutz ist das Thema der Stunde – wird jedoch meist mit Verzicht gleichgesetzt. Wie es anders geht, zeigt das Beispiel eines Rechenzentrums, das ausschließlich auf Grünstrom setzt. Der Einsatz regenerativer Energiequellen kommt dabei nicht nur dem Klima zugute, sondern wirkt sich durch günstige Strompreise und Restwärmeverwertung auch wirtschaftlich positiv aus.

CO₂-Belastung durch Digitalisierung. Häufig steht der Flugverkehr in der Kritik, wenn es um den Klimaschutz geht. So denken mittlerweile auch Unternehmen über eine Einschränkung von Flügen bei Geschäftsreisen nach. Wie stark auch die Digitalisierung das Klima aufheizt, wird in der Diskussion häufig vernachlässigt. Dabei ist die Informations- und Telekommunikationstechnik (ITK) einer der größten CO₂-Verursacher. Und nicht nur private Anwendungen wie Streaming sind dafür verantwortlich – gerade Rechenzentren sind unersättliche Energieverbraucher, wie unterschiedliche Studien belegen, etwa des renommierten Wissenschaftsmagazins nature.

Bereits jetzt verursacht die ITK mehr CO₂-Emissionen als der gesamte Luftverkehr. Wäre der ITK-Sektor ein Land, hätte er bereits jetzt nach China und den USA den drittgrößten Energieverbrauch weltweit. Und nicht nur pessimistische Prognosen lassen eine deutliche Steigerung befürchten: Laut einer Studie von Greenpeace wird die ITK in 2030 mehr als 20 % des globalen Gesamtstrombedarfs verbrauchen. 

Auf der anderen Seite ist die Digitalisierung Wachstumsmotor und bietet spannende Chancen, bei einem ressourcenschonenden Einsatz das Klima sogar zu verbessern. Zukunftsmusik? Wie das bereits heute funktionieren kann, zeigt das Beispiel Windcloud.

Der richtige Standort ist entscheidend. Das junge Unternehmen aus Schleswig-Holstein hat sich auf Rechenzentrumsleistungen und Cloud Computing spezialisiert und setzt dabei konsequent auf regenerative Energiequellen. Windcloud wurde als Deutschlands erstes Rechenzentrum gegründet, das seinen Strom direkt aus einem Windpark bezieht. Der Standort in Nordfriesland ist aus drei Gründen klug gewählt: Erstens sind in Norddeutschland gewaltige Windenergiekapazitäten vorhanden, die bislang nicht komplett verwendet werden. So wurde im vergangenen Jahr Strom im Wert von mehreren 100 Millionen Euro produziert und vom Steuerzahler in Form der EEG-Umlage bezahlt – aber nicht genutzt. Damit auch bei Windstille für genügend Energie gesorgt ist, setzt Windcloud auf weitere regenerative Quellen: Neben der lokal erzeugten Windenergie stehen Speicherbatterien der Megawatt-Klasse und ein großer Photovoltaik-Park zur redundanten energetischen Absicherung der Versorgung bereit. Auch um etwaige Stromausfälle oder Engpässe bei der Versorgung müssen sich Nutzer keine Sorgen machen: Dank innovativem Microgrid-Ansatz ist Energie in industriellem Maßstab und damit zu jedem Zeitpunkt rechenzentrumsgerecht hochverfügbar. Eine ergänzende Backup-Anbindung an das öffentliche Mittelspannungsnetz sorgt zusätzlich für Ausfallsicherheit. 

Ein zweiter Standortvorteil ergibt sich durch den Anschluss an das Glasfasernetz der beiden parallel verlaufenden Skandinavien-Trassen. Mit über zwei TBit/s ist so eine schnelle, redundante Anbindung ans Internet gesichert. Damit können auch klimabewusste Unternehmen aus Süddeutschland ihre Daten nachhaltig in Nordfriesland speichern.

Windcloud nennt sein Konzept »Bunker-as-a-Service« – denn der dritte Vorteil der beiden Standorte Enge-Sande und Bramstedtlund sind 54 ausgediente Nato-Bunker. Sie waren hier in neuwertigem Zustand vorhanden und werden jetzt auf gesichertem und umzäuntem Gelände mit einem 4-Stufen-Sicherheitskonzept und moderner Zutrittskontrolle genutzt. Hier sind auch sensible Daten sicher, zumal die Daten DSGVO-konform ausschließlich am Standort Deutschland gespeichert werden. So nutzen beispielsweise auch Ärzte und Anwälte den Service von Windcloud. Kleine bis mittelgroße Rechenzentren finden in der Bunkeranlage ohnehin optimale Voraussetzungen für ihre Datenspeicherung, von Colocation-Lösungen in nahezu jeder Größenordnung bis hin zu Multi-Bunker-Konzepten mit mehreren dedizierten Brandabschnitten. 

Durchdachte Abwärmenutzung ermöglich ein CO₂-absorbierendes Rechenzentrum. Die Wärme, die Rechenzentren in hohem Maße produzieren, wird oft nicht genutzt – anders bei Windcloud. Industriepartner setzen die Abwärme gezielt für die Produktion von hochwertigen Gütern ein, beispielsweise für Algenfarmen. Algen werden stark nachgefragt, ob in der Kosmetik oder als Lebensmittel und sind daher ein attraktives Wirtschaftsgut. Zudem absorbieren Algen das CO₂ aus ihrer Umgebung, so dass das Rechenzentrum nicht nur CO₂-neutral, sondern sogar CO₂-negativ arbeitet, das heißt, im laufenden Betrieb CO₂ abbaut. Weitere Partnerschaften aus den Bereichen Indoor-Farming und Fischzucht sind in Planung. 

Durch die smarte Einbettung der digitalen Infrastruktur in andere systemkritische und energiebedürftige Sektoren wie erneuerbare Energien, Lebensmittel- und Agrarindustrie oder auch Mobilität können somit die bisher konträren Ziele wie Klimaschutz, Nachhaltigkeit und Wirtschaftlichkeit vereint werden.

Das Konzept zeigt schon jetzt Erfolge: Seitdem das erste Cloud- und Colocation-Rechenzentrum im Frühjahr 2019 online ging, haben sich bereits über 130 Kunden für ein Hosting bei Windcloud entschieden.



Thomas Reimers, Geschaftsführer der
Windcloud 4.0 GmbH
Windcloud ist ein regenerativer Cloudhoster mit eigenem Rechenzentrum. Firmensitz ist in Enge-Sande auf dem GreenTEC Campus. Hier wird das Rechenzentrum betrieben, das ausschließlich mit regenerativer Energie betrieben wird. Durch die Verwendung eines bereits bestehenden Hybridspeichers können große Mengen Windenergie gespeichert und bei Windstille für den Betrieb des Rechenzentrums eingesetzt werden. Das Unternehmen nutzt die nachhaltige Infrastruktur, um seinen Kunden die besten virtualisierten Cloud-Produkte und Services kostengünstig zur Verfügung zu stellen. Hundertprozentige Rechtssicherheit ist garantiert: Alle Daten werden ausschließlich am Standort in Deutschland gespeichert.
www.windcloud.org

 

Illustration: © Emir Simsek/shutterstock.com

 

66 Artikel zu „Rechenzentrum Nachhaltigkeit“

Grüne Energiebilanz: Mit neuem Datenmanagement zu mehr Nachhaltigkeit

Die Liberalisierung des Strommarktes bereitete das Feld für LichtBlick SE, 1998 als Ökostrompionier durchzustarten und die Energiewende voranzutreiben. Mittlerweile gilt das Unternehmen als Marktführer für Ökostrom, der 600.000 Haushalte (über eine Million Verbraucher) versorgt. Mehr als 500 Mitarbeiter sorgen dafür, dass E-Mobilität, intelligente Energieprodukte und vernetzte, digitale Lösungen Synergien und Mehrwert schaffen und grüne Energie…

Produkttransparenz fördert Nachhaltigkeit

71 Prozent der deutschen Verbraucher bevorzugen nachhaltige Produkte, wenn Händler für vollständige Transparenz sorgen. 49 Prozent wären bereit, für nachhaltige Produkte mehr zu bezahlen. inRiver hat 1.506 deutsche Verbraucher im Alter von 16 bis 44 Jahren zum Thema »Nachhaltige Produkte« befragt [1]. Dabei kam heraus, dass das Thema für viele Befragte eine wichtige Rolle spielt:…

Globale Studie: 61 Prozent aller Mitarbeiter sind der Meinung, dass Nachhaltigkeit für moderne Unternehmen verpflichtend ist

46 Prozent der Befragten weltweit möchten nur für Unternehmen arbeiten, die nachhaltige Geschäftspraktiken umsetzen; 61 Prozent sind der Meinung, dass Nachhaltigkeit in Unternehmen obligatorisch ist. 58 Prozent gaben an, dass Nachhaltigkeit der Schlüssel zur Bindung zukünftiger Mitarbeiter ist.   HP stellt eine Studie vor, die die Relevanz nachhaltiger Geschäftspraktiken bei der Rekrutierung, Einstellung und Bindung…

Bei der Beschaffung von IT-Lösungen mehr auf Nachhaltigkeit setzen

Appell: EU und IT-Branche sollen öffentliche Gelder in Höhe von 45 Milliarden Euro für nachhaltige Entwicklung einsetzen. Das Volumen der öffentlichen Aufträge in der EU wird auf rund 1,8 Billionen Euro pro Jahr geschätzt [1]; ein Teil davon sind Ausgaben für IT-Beschaffung, die bis 2021 eine Summe von 45 Milliarden Euro erreichen sollen. Dieses Investitionsvolumen,…

Services sind im Rechenzentrum essenziell – Digitale Infrastruktur erfordert technisch versierte Spezialisten

Die Entwicklungszyklen der IT werden immer kürzer. Viele Rechenzentren können mit dieser dynamischen Entwicklung nicht mithalten. Aktive und passive Komponenten müssen erweitert, respektive erneuert werden. Dabei rückt auch die Verkabelungs-Infrastruktur stärker in den Fokus. Maßgeschneiderte Servicedienstleistungen helfen, klare Strukturen zu schaffen und unterstützen die Kunden.

Backup, Archiv und DevOps: Durch die Cloud Herausforderungen im Rechenzentrum reduzieren

Die Einbindung der öffentlichen Cloud in die IT-Umgebung ist häufig sinnvoll, wobei verschiedene Aspekte zu beachten sind. Eine oft sehr schwierige Aufgabe in Rechenzentren ist die Integration neuer Technologien in altgediente Systeme. Früher oder später sind alle noch so bewährten Techniken überholt oder werden redundant. Sie stehen dann nicht mehr als überschaubare »Box« oder als…

Nachhaltige Datenspeicherung made in Nordfriesland: Ein Rechenzentrum setzt auf Windenergie

Wind gibt es in Nordfriesland reichlich – und so stellten sich Karl Rabe, Theodor Steensen und Jan-Martin Hansen Anfang 2015 aus Nordfriesland die alles entscheidende Frage: »Wenn Rechenzentren so viel Energie verbrauchen – immerhin drei Prozent des globalen Stromverbrauchs – und das mit so hohem CO2-Ausstoß verbunden ist, wieso gibt es in Nordfriesland kein Rechenzentrum,…

Dresdner Start-up übernimmt ehemaliges Rechenzentrum der EZB in Frankfurt, um energieeffizientes Abwärmekonzept umzusetzen

Immer mehr Unternehmen verlagern ihre Daten in die Cloud. Laut einer Studie der Bitkom setzten in 2016 bereits zwei von drei deutschen Firmen ab 20 Mitarbeitern auf Cloud Computing. In der Finanzmetropole Frankfurt wird besonders viel Rechenkapazität benötigt, entsprechend gilt die Mainmetropole mit mehreren Dutzend Rechenzentren als die Datacenter-Hauptstadt Deutschlands. Jedes von ihnen verbraucht nach…

Nachhaltigkeit von Rechenzentren

Die Digitalisierung führt zu einem immer höheren Bedarf an Rechenleistung. Rechenzentren sind aber wahre Stromfresser; so steigt deren Energiebedarf in Deutschland kontinuierlich und liegt derzeit bei 12,4 Milliarden kWh. Das entspricht einem Anteil von 2,3 Prozent am gesamten Stromverbrauch. In Ballungsgebieten wie Frankfurt/Main brauchen die Rechenzentren bereits mehr als 20 Prozent des gesamten Stroms. Durch…

Nachhaltigkeit von Rechenzentren: Mehr Transparenz und Zusammenarbeit notwendig

Wenn es um die Umsetzung von nachhaltigen Energiekonzepten geht, ist mehr Transparenz unter den Akteuren der IT-Branche gefragt, um gemeinsam die steigenden CO2-Emissionen bewältigen können. Im Green IT-Report für das Jahr 2017 von Greenpeace [1] mit dem Titel »Clicking Clean: Who is winning the race to build a green internet?« haben zahlreiche große Player gut…

 

160 Artikel zu „Klimaschutz „

Klimaschutz: Die Jugend fühlt sich im Stich gelassen

Die Klimaschutzbewegung Fridays for Future füllt derzeit Schlagzeilen, Talkshows sowie Fußgängerzonen und wird scheinbar von weiten Teilen der Jugendlichen unterstützt. Doch wie viele junge Menschen in Deutschland haben schon tatsächlich an einer Fridays for Future-Veranstaltung teilgenommen? Und ist die Jugend der Ansicht, dass diese Bewegung etwas bewirkt? Was tragen Jugendliche durch ihr eigenes Verhalten im…

E-Scooter sollen beim Klimaschutz helfen

Die neuen Geräte spalten die Gesellschaft, zeigt eine Bitkom-Untersuchung. Eine große Mehrheit der Jüngeren wünscht sich rasche Zulassung von Elektro-Rollern. Senioren haben Angst vor Unfällen und plädieren für ein generelles Verbot.   Im Ausland sind E-Scooter inzwischen bereits in vielen Großstädten ein alltägliches Verkehrsmittel, das man sich per Smartphone-App unkompliziert ausleihen kann. In Deutschland sind…

Ernährung und Klimaschutz: Der perfekte Speiseplan, um den Planeten zu retten

Mit der richtigen Ernährung lassen sich Krankheiten verhindern und die Zerstörung des Planeten aufhalten – so zumindest das Ergebnis einer aktuellen Studie von 37 Forscherinnen und Forschern aus 16 Ländern, über die Zeit Online berichtet. Sie entwickelten die sogenannte »planetary health diet«. Elf Millionen durch falsche Ernährung verursachte Tode könnten durch die Diät vermieden werden. Zudem leide der Planet…

Klimaschutz: Unternehmen bei der Suche nach wirkungsvollen Maßnahmen unterstützen

Für viele Betriebe stellt die Einführung einer nachhaltigen Energiewirtschaft eine große Herausforderung dar. Eine zentrale Rolle spielen in diesem Zusammenhang beispielsweise die 2016 von der Bundesregierung beschlossenen Klimaziele: Im Vergleich zum Jahr 1990 sollen die Emissionen bis 2030 um mindestens 55 Prozent sinken – bis 2050 sogar um mindestens 80 Prozent [1]. Auch wenn der…

Ernährung und Klimaschutz: Der perfekte Speiseplan, um den Planeten zu retten

Mit der richtigen Ernährung lassen sich Krankheiten verhindern und die Zerstörung des Planeten aufhalten – so zumindest das Ergebnis einer aktuellen Studie von 37 Forscherinnen und Forschern aus 16 Ländern, über die Zeit Online berichtet. Sie entwickelten die sogenannte »planetary health diet«. Elf Millionen durch falsche Ernährung verursachte Tode könnten durch die Diät vermieden werden.…

Deutschland fällt beim Klimaschutz weit zurück

Klimaschutz-Index 2019: Früherer Vorreiter rutscht weiter ab auf Rang 27 von 60 Plätzen / Emissionen steigen weltweit wieder – Kein Land tut schon genug um gefährlichen Klimawandel abzuwenden / Schweden und Marokko vorn – Schlusslichter USA und Saudi-Arabien.   Nach drei Jahren stagnierender Emissionen steigt der CO2-Ausstoß weltweit wieder an. Das Problem: Zwar setzen mehr…

Der Umwelt zuliebe: Energiesparen für den Klimaschutz

Europaweit Spitzenreiter in Sachen Strompreis für Haushalte: Mit diesem zweifelhaften Titel schmückt sich Deutschland derzeit und führt damit den kontinentalen Vergleich vor Dänemark und Belgien an. Knapp 31 Cent investieren Bewohner jeder Wohneinheit durchschnittlich in eine Kilowattstunde Strom [1]. In der Industrie zahlen Unternehmen mit etwa 17 Cent zwar deutlich weniger für dieselbe Menge, aber…

Umsteuern erforderlich: Klimaschutz im Verkehrssektor

Der Beitrag umfasst die Zusammenfassung des SRU Gutachtens »Umsteuern erforderlich: Klimaschutz im Verkehrssektor«. Berlin, November 2017. Der Sachverständigenrat für Umweltfragen (SRU) hat in seinem Sondergutachten vom 23. November die Transformation des Verkehrssektors zur Erfüllung der Klimaschutzziele vor dem Hintergrund einer sich wandelnden Gesellschaft analysiert. Das Gutachten beleuchtet den Stand des Wissens zu technisch und ökonomisch…

Gesund, smart und digital – Gesundheitsförderung und Klimaschutz für Unternehmen

Eine App für iOS und Android macht nachhaltiges Verhalten messbar und belohnt es mit Recoins, der ersten grünen digitalen Währung basierend auf CO2-Einsparung. Gesunde und engagierte Mitarbeiter erhalten? Bewegungsmotivation und Klimaschutzziele miteinander verbinden? Das betriebliche Gesundheitsmanagement digitalisieren? Das Unternehmen Blacksquared hat sich zum Ziel gesetzt jedem Menschen die Möglichkeit zu geben, selbst einen Beitrag gegen den Klimawandel zu leisten und dafür die App »CO2…

Das IKT-Potenzial zur Umsetzung des Klimaschutz-Abkommens von Paris

Der Report »The role of ICT in reducing carbon emissions in the EU« unterstreicht die zentrale Bedeutung der Informations- und Kommunikationstechnik (IKT, engl.: ICT) für die Bekämpfung des Klimawandels bei gleichzeitiger Förderung von Wachstum und Wohlstand in der Europäischen Union [1]. Der Bericht erscheint zu einem entscheidenden Zeitpunkt: Im vergangenen Dezember, während der 21. UN-Klimakonferenz…

Digitalisierung und Klimaschutz: IT kann globalen Kohlendioxid-Ausstoß senken

Im Straßenverkehr oder im Büro, in der Industrie oder im Energienetz: Digitale Technologien können in zentralen Bereichen des gesellschaftlichen und wirtschaftlichen Lebens die Effizienz erhöhen und Ressourcen schonen und damit maßgeblich zum Klimaschutz beitragen. Dieses Potenzial muss noch stärker als bisher ausgeschöpft werden, fordert der Digitalverband Bitkom. Globale CO2-Emissionen senken Wie wichtig digitale Technologien sind,…

Modernes Rechenzentrum für Strom- und Gasversorger – Energieexperte EGT AG setzt bei Neubau auf Prior1

$
0
0

Vor über 120 Jahren in Triberg im Schwarzwald gegründet, stellt die EGT AG heute die Führungsgesellschaft der EGT Unternehmensgruppe dar. Sie ist inzwischen in drei Geschäftsbereichen tätig: Dem Bereich Energieservice mit individuellen und verbrauchsoptimierten Energielieferungen sowie der Beratung und Realisierung dezentraler Energieversorgungskonzepte mit geringstmöglichen CO2-Fußabdruck, dem Bereich Energienetze mit dem Betrieb von Strom-, Gas-, Wärmenetzen und Straßenbeleuchtungsanlagen sowie Energiemessung mit Visualisierung der Verbrauchsdaten und dem Bereich Elektro- und Informationstechnische Gebäudeausrüstung mit Beratung, Ausführungsplanung, Projektmanagement und Anlagenerrichtung. Am Hauptsitz in Triberg sowie in den Niederlassungen in Eschborn, Freiburg, St. Georgen, Furtwangen und Offenburg sind insgesamt ca. 250 Mitarbeitende beschäftigt.

Foto Prior1: Das neue Rechenzentrum der EGT AG

Unabhängige Vorplanung und Eigeninitiative

Das bestehende Rechenzentrum der EGT Unternehmensgruppe ist in die Jahre gekommen. In Zeiten der zunehmenden Digitalisierung und der Möglichkeit, zeitlich und örtlich flexibel zu arbeiten, steigen außerdem die Anforderungen an die IT. Arbeitsprozesse laufen zunehmend online ab. Gründe genug also für einen Neubau des IT-Standortes bei der EGT. »Die gesamte IT läuft zentral bei der EGT Energie auf und das bisherige Rechenzentrum ist innerhalb der letzten 20 Jahre historisch gewachsen. Damals wurde noch nicht an ein großes Rechenzentrum gedacht. Das zeigt auch der Umstand, dass dafür eine Bürofläche zweckentfremdet und ein Doppelboden sowie eine Klima- und Brandlöschanlage nachgerüstet wurden«, erklärt Sebastian Otto, IT Leiter der EGT Unternehmensgruppe. Der Standort weist zudem physikalisch einige ungünstige Merkmale auf, wie z. B. eine lange Glasfront, die sich im Obergeschoss und somit unter einem Flachdach befindet. »Die Anforderungen an die professionelle IT eines Strom- und Gasbetreibers sind auch seitens des Gesetzgebers gewachsen. Das Risiko war uns mittlerweile schlichtweg zu hoch und wir brauchten eine neue Lösung«, führt Otto fort. Bereits vor fünf Jahren fragte das Unternehmen bei einem RZ-Planer an, doch das Resultat überzeugte nicht. Zeitversetzt wurde ein anderes Planungsbüro hinzugezogen, mit dem ein Anforderungskatalog erstellt und das Projekt ausgeschrieben wurde. Besonderes Augenmerk legte der Auftraggeber darauf, dass aus der Vorplanung eine maximale Objektivität bei Planer und Rechenzentrumsbauunternehmen erzielt wurde. Aus diesem Grund blieb die Ausschreibung relativ offen. Es wurden zwar Angaben hinsichtlich der geforderten Anzahl an Racks, der gewünschten konventionellen Kühlung und der TÜV Level 3 Zertifizierung gemacht, dennoch konnten und sollten die Bewerber ihre eigenen Konzeptideen einbringen, so dass auch weitere Überlegungen berücksichtigt werden konnten. Am Ende erhielt das Konzept der Prior1 GmbH aus St. Augustin den Zuschlag, da es nicht nur die gestellten Anforderungen erfüllte, sondern auch hinsichtlich der bedarfsgerechten Auslegung überzeugte.

 

Suche nach einem passenden Standort – schwieriger als gedacht

Die erste Herausforderung in der Planungs- und Ausschreibungsphase stellte bereits die Suche nach einem geeigneten Standort dar. Eine Colocation kam nicht in Frage, da die technische Anbindung aufgrund einer zu großen Entfernung nicht optimal ist und die IT weiterhin im Hause betrieben werden soll. Dafür sprach auch, dass sich das Unternehmen aus strategischen Gründen nicht in die Abhängigkeit eines RZ-Betreibers begeben wollte. Die Auslagerung an einen Außenstandort kam wegen Platzmangel nicht in Frage. Nach eingehender Recherche und genauem Abwägen entschieden sich die Verantwortlichen für ein Hochregallager, da es die Mindestanforderungen an Breite, Höhe und Tiefe erfüllte. Nach dem anschließenden Teilrückbau wurde ein Raum-in-Raum System konzipiert. »Als umgebautes Hochregallager haben wir genügend Luft nach oben, so dass wir die Kabelführung in die Decke integriert haben. So konnten wir auf einen Doppelboden verzichten und haben zwischen Technik- und Serverraum eine ebene Fläche«, erklärt der IT-Leiter Otto. Im Vorfeld hatten die Mitbewerber den favorisierten Standort geprüft und das angestrebte Kühlungskonzept mit einer konventionellen Kühlung unter Einsatz von Kühlmittel als nicht optimal bewertet. Sie schlugen andere Varianten vor. So wurde beispielsweise der direkt am Bürogebäude vorbeilaufende Bach für eine Wasserkühlung in die Planung integriert. Da der Betrieb des Rechenzentrums jedoch nur einer geringen Kühlleistung bedarf, erwies sich diese Investition als unwirtschaftlich. Stattdessen implementierte Prior1 die gewünschte Kühlung mit Kalt- und Warmgang-Einhausung; im Rechenzentrum auf den ersten Blick klar zu erkennen. Der Kaltgang, bei dem eine Temperatur von 23 Grad Celsius angestrebt wird, ist durch eine blaue LED-Leiste gekennzeichnet, während im 26 Grad Celsius warmen Warmgang rote LED-Streifen leuchten.

Der Warmgang erstrahlt in rotem Licht. Foto: Prior1

 

Maximale Redundanz

»Wir haben eine maximale Redundanz aller Geräte gefordert und setzen auf zwei modulare USV-Anlagen, die jederzeit durch zusätzliche Module nachgerüstet werden können. Es stehen ein festverbauter Dieselgenerator und bei Bedarf eine mobile Version zur Verfügung. Als Energieversorger verfügen wir naturgemäß über eine große Auswahl und unser Netzleitsystem für Strom und Gas muss 24/7 funktionieren«, unterstreicht der IT-Leiter die Anforderungen. Die Einspeisung erfolgt über zwei Stränge ins Rechenzentrum. Sollte die USV auf Seite A ausfallen, besteht die Möglichkeit, dass komplette Stromnetz über A bei B einzuspeisen. Das ist notwendig, weil Strang B die bisherige Netzleitstelle betreibt und die Bestands-USV im Einsatz ist. Um diese über Strang A überbrückungsfrei abzubauen, wird die IT mit der Netzleitstelle versorgt. Außerdem war der ausdrückliche Wunsch des Unternehmens, das Rechenzentrum so auszulegen, dass es nach TÜV-Level 3 zertifiziert werden kann. Die Gespräche im Vorfeld haben gezeigt, dass das für die Zertifizierung geforderte USV-Konzept viele RZ-Unternehmen vor eine Herausforderung stellt. Um auch für zukünftige Kapazitäten ausreichend gewappnet zu sein, setzt die EGT auf zehn Racks. Die Anbindung an den elf Kilometer entfernten Standort in St. Georgen erfolgt über Glasfaser mit zehn Gigabyte pro Sekunde, die anderen Standorte sind über VPN angebunden. Die Verkabelung innerhalb des Rechenzentrums übernahmen die Experten der Prior1, während die Elektroinstallationen außerhalb von der EGT Gebäudetechnik umgesetzt wurden, die solche Aufgaben bereits mehrfach für Rechenzentrumsbauunternehmen durchgeführt hat.

 

Sauerstoffreduzierung zur Brandvermeidung

Hinsichtlich des Brandschutzes setzt der Energieversorger auf eine aktive Brandvermeidung durch Sauerstoffreduzierung. Dabei wird dem Schutzbereich kontrolliert Stickstoff zugeführt und das Sauerstoffniveau kontinuierlich auf einem Level unterhalb der Entzündungsgrenze eines Brandes gehalten. Der Sauerstoffgehalt liegt bei der ausgewählten Risikoklasse 2 bei weniger als 15 Prozent. Arbeiten sind zwei Stunden lang mit anschließender 30-minütiger Pause möglich. »Sowohl der Planer als auch die Prior1 haben mehrfach nachgefragt, ob wir uns wirklich für diese Lösung entscheiden wollen. Aufgrund der IT-Gegebenheiten und da wir nur einen Raum haben, wollten wir diesen maximal absichern. Eine Gaslöschanlage wäre für uns nur in Frage gekommen, wenn wir zwei Räume mit einer redundant aufgebauten IT gewählt hätten. Dabei haben uns aber die Folgekosten abgeschreckt«, erklärt Otto die Entscheidung. Für den Einsatz der Sauerstoffreduzierungsanlage muss der Raum zum einen maximal dicht sein und zum anderen erforderte diese Lösung außerordentliche organisatorische Maßnahmen. Vor dem Betreten erhalten die Mitarbeiter, die das Rechenzentrum regelmäßig begehen eine Einweisung, außerdem sind wiederkehrende ärztliche Untersuchungen Pflicht. Begehungen müssen auf ein Minimum reduziert werden. Der Zutritt erfolgt über ein elektrisches Zugangssystem und wird nur Mitarbeitern gewährt, die das ärztliche Attest erhalten haben. Die Sicherheitsvorkehrungen sehen außerdem vor, dass ein Kollege aus der IT eine Mail bekommt, sobald die Tür zum Rechenzentrum geöffnet wurde.

 

Rechenzentrum, das den Namen verdient

Sebastian Otto, IT Leiter der EGT Unternehmensgruppe. Foto: Prior1

»Wir sind mit der Arbeit von Prior1 sehr zufrieden. Die Zusammenarbeit lief hervorragend und es gab während der Bauphase konstruktive Anmerkungen, zum Beispiel hinsichtlich der Optimierung der Redundanz der Elektroverkabelung. Die Idee, den Kalt- und Warmgang entsprechend zu beleuchten kam erst während der Realisierung. Auch in Zukunft werden wir gerne mit Prior1 zusammenarbeiten. Wir haben sie mit der kompletten Wartung von Elektro, USV, Klima und Brandschutz betraut. Als Energieversorger sind wir ISMS zertifiziert und können dank des neuen Rechenzentrums die Anforderungen – unter anderem an das IT-System und das Risikomanagement – jetzt leichter erfüllen. Wir sind stolz, endlich ein Rechenzentrum zu haben, das diesen Namen auch verdient«, schließt Sebastian Otto zufrieden ab. ]]

 

 

Die Prior1 GmbH ist der Experte bei allen Fragen rund um ein betriebssicheres Rechenzentrum. Das 60 MitarbeiterInnen starke Unternehmen mit Hauptsitz in Sankt Augustin sowie weiteren Niederlassungen in Berlin, Karlsruhe, München und Westerburg, hat sich nicht nur auf die Planung, den Bau und die Ausstattung von Rechenzentren und Serverräumen spezialisiert. Vielmehr ist sie auch die erste Wahl, wenn es um Betriebsoptimierungen und Strategien bezüglich Outsourcing und Colocation geht. Netzwerkplanungen und -verkabelung, Zertifizierungen, Workshops und beispielsweise Feinstaub- und Energieeffizienzanalysen gehören ebenso in das Aufgabengebiet. Parallel dazu leistet das eigene Montage- und Serviceteam seinen Beitrag zum ausfallsicheren Betrieb der IT-Infrastruktur. Dank der jahrzehntelangen Erfahrung werden so passgenaue Lösungen ermittelt. Die Errichtung des Rechenzentrums als schlüsselfertige Umsetzung erfolgt als Generalunternehmer oder Bauherrenvertreter unter anderem für Raum-in-Raum-Systeme, Container, Klimatisierung und Brandschutz. Konform der Unternehmensmission »Prior1 strebt nach unternehmerischer Freiheit durch nachhaltiges und menschliches Wirtschaften!« nimmt neben höchster Qualität in Umsetzung und Service auch der verantwortungsvolle Umgang mit der Umwelt einen hohen Stellenwert ein. Prior1 ist Mitglied der Gemeinwohlökonomie und hat hier ihre erste Bilanzierung erstellt und veröffentlicht. Weitere Informationen dazu unter:

Nachhaltigkeit


 

710 Artikel zu „Rechenzentrum Bau“

So (schwierig) geht Rechenzentrumsbau heute

Wachsender Bedarf an Datenmengen und Rechenleistung treibt Unternehmen und Systemhäuser heute um und damit die Überlegung: Investiere ich in ein eigenes Rechenzentrum oder doch lieber Outsourcen? Peter Hartl, Geschäftsführer und Gründer der HARTL-GROUP, baut derzeit an einem neuen Rechenzentrumsstandort im niederbayerischen Hofkirchen. Im Interview erklärt der Unternehmer und Bauherr, welche Hürden beim Rechenzentrumsbau überwunden werden…

Data Center Trends 2019: Wie Unternehmen ihr Rechenzentrum fit für die Zukunft machen

Was sind aktuell die wichtigsten Herausforderungen und Erfolgsfaktoren bei der Data Center-Modernisierung? Das wollten die Marktanalysten von IDC herausfinden und haben dazu IT- und Fachentscheider aus 210 deutschen Unternehmen befragt. Höhere Produktivität, Konsolidierung von Ressourcen, verbesserte Sicherheit und Compliance – das sind für Unternehmen heute die wichtigsten Gründe, um in neue Data Center-Infrastrukturen zu investieren.…

Die Abkehr von Bauchentscheidungen: Künstliche Intelligenz sorgt für Klarheit

Wenn es um wichtige Entscheidungen geht, wird oft das viel beschworene Bauchgefühl bemüht. Doch hilft es wirklich bei der Beurteilung von komplexen Sachverhalten oder sollten sich Entscheider lieber Hilfe bei innovativen Technologien basierend auf künstlicher Intelligenz (KI) holen?   Die sprichwörtliche Intelligenz des Unbewussten kommt oft ins Spiel, wenn es um wichtige Entscheidungen oder Einschätzungen…

Rechenzentrum: Verdreifachung von Edge-Einrichtungen bis 2025

Aktuelle Prognosen deuten auf ein rasantes Edge-Wachstum und einen starken Rückgang an Fachkräften hin. Vor fünf Jahren startete Vertiv eine globale, branchenweite Umfrage bezüglich des Rechenzentrums (RZ) der Zukunft. »Data Center 2015: Exploring the Possibilities« greift die Visionen von mehr als 800 Branchenexperten auf und stellt eine gemeinsame Vision für das Rechenzentrum der nächsten Generation…

Digitale Arbeitswelten verändern Bürogebäude

Nutzerzentrierte Architektur – die Antwort auf moderne Arbeitsmodelle. Die Digitalisierung von Arbeitsplätzen verändert auch die Architektur von Büroimmobilien. Gefragt ist eine nutzerzentrierte Architektur, bei der die Bedürfnisse der Fachkräfte nach kreativem und kommunikativem Arbeits- und Gestaltungsraum im Vordergrund stehen. In einer digital vernetzten Arbeitswelt wird die Immobilie 4.0 zum physischen Knotenpunkt. Planer und Architekten müssen…

Third Party Maintenance: Warum ein unabhängiger 360-Grad-Blick auf das Rechenzentrum immer wichtiger wird

Welche Alternative haben IT-Verantwortliche zur Herstellerwartung nach Ablauf der Grundgewährleistung? Third-Party-Maintenance-Anbieter (TPM) haben sich auf die Wartung von IT-Komponenten in Rechenzentren spezialisiert. Die Nachfrage nach diesen Leistungen wächst kontinuierlich und so erwarten die Analysten von Gartner bis zum Jahr 2020 ein Wachstum des TPM-Marktes bis zu 35 Prozent. In Rechenzentrum finden sich üblicherweise Komponenten ganz…


Hybride IT-Landschaften sind für die digitale Transformation unerlässlich

$
0
0

Unternehmen bewegen sich von monolithischen Legacy-Infrastrukturen hin zu modernen verteilten Hybrid-Cloud-Infrastrukturen. Gartner schätzt, dass 90 Prozent der Unternehmen bis 2020 eine Hybrid-Infrastruktur einführen werden. Da Unternehmen weiterhin Anwendungen in eine hybride Umgebung migrieren, wird nach Meinung von Rubrik die Notwendigkeit einer Cloud-basierten Datenmanagement-Plattform immer wichtiger, um aus der Cloud stammende Daten zu schützen und zu verwalten. Der Anbieter einer Plattform für Multi-Cloud Data-Control erläutert wichtige Aspekte für den Einstieg.

 

Wie und wo Daten in den heutigen Infrastrukturen gespeichert werden, entwickelt sich parallel zur digitalen Transformation. Gespeichert wird heute in der Public/Private Cloud, im IoT, am Edge und auf mobilen Geräten, auf neuen Medien, unter Verwendung neuer Protokolle. Es gibt eine neue Vielfalt von Datenstrukturen, Containern und Schnittstellen, die datengesteuerte Anwendungsfälle wie Analysen, Self-Service-Multi-Tenancy, künstliche Intelligenz und maschinelles Lernen unterstützen. Daher wird es auch 2020 neue Innovationen im Datenmanagement geben, um den Anforderungen an die Sicherung und Verwaltung von Daten in diesen neuen Hybrid-Cloud-Umgebungen gerecht zu werden.

 

Die Art und Weise, wie Daten gesichert und verwaltet werden, muss sich daher verändern und weiterentwickeln, fordert Rubrik. Dies beinhaltet den Übergang von der traditionellen Speicherverwaltung zur Datenverwaltung. Bei der traditionellen Speicherverwaltung geht es um die Verwaltung der Speicherhardware und der darin enthaltenen Daten in einem einzelnen System oder Cluster. Bei der Datenverwaltung dreht sich alles es um die Verwaltung von Daten, die nicht mit der zugrundeliegenden Infrastruktur verbunden sind.

 

Der beste Weg, sich der Hybrid-Cloud anzunähern, ist es, einen Plan aufzustellen und zur Realisierung mit einem Lösungspartner zusammenzuarbeiten. Ein flexibler Rahmen für Anwendungen und Daten vermeidet dabei, dass sich das Unternehmen in eine technologische Sackgasse begibt oder an ein bestimmtes Produkt oder eine bestimmte Dienstleistung gebunden ist.

 

Bislang haben viele Unternehmen IaaS- und SaaS-Lösungen als taktische Lösungen betrachtet. Dies hat zu Innovationsinseln geführt, bei denen jeder einzelne Anbieter unterschiedliche Tools und Fähigkeiten für den ordnungsgemäßen Betrieb benötigt. Das Ziel einer hybriden IT-Strategie ist es, Betriebs- und Servicekonsistenz in der gesamten hybriden Landschaft zu schaffen – ein Satz von Tools und Prozessen, unabhängig davon, wo sich die Anwendungen oder Daten befinden. Gute hybride IT-Implementierungen beginnen mit der Einrichtung konsistenter operativer Management-, Servicemanagement-, Automatisierungs- und Sicherheitsplattformen sowie der Umsetzung von Richtlinien. Von dort aus folgt die Bereitstellung und Verschiebung von Diensten und Daten in dieser hybriden Landschaft durch klar definierte, hoch standardisierte und vollständig automatisierte Workflows.

 

Der Schlüssel liegt nach Meinung von Rubrik in der Software, den Abstraktionsschichten, die die zugrundeliegende Komplexität der Plattformen verbergen und es Unternehmen ermöglichen, sich auf ihr Geschäft als Dienstleister zu konzentrieren. Hybrid-IT-Projekte richtig umzusetzen, wird im Zuge der digitalen Transformation zunehmend wichtiger.

 


Multi Cloud von Anfang an richtig nutzen – Ein Blick ins Wolkenmeer

Lange Zeit wurde in den deutschen Unternehmen diskutiert, ob man überhaupt Cloud Services nutzen sollte und darf, und wenn ja, welcher Anbieter der richtige ist. Diese Zeiten sind vorbei. 

Mittlerweile ist es keine Frage mehr, ob Cloud Services eingesetzt werden, sondern welche Art von Cloud Services – sei es Multi Cloud und/oder Hybrid Cloud. Amazon, Microsoft oder Google, jeder Anbieter setzt auf spezielle Services und Schwerpunkte, so dass es nicht trivial ist, den richtigen Anbieter für seine speziellen Bedürfnisse zu finden. Unabhängig vom Anbieter sind im Vorfeld unbedingt einige Punkte zu beachten, die Unternehmen durchaus vor Herausforderungen stellen können.  

Oftmals werden Multi Cloud und Hybrid Cloud in einem Atemzug genannt. Allerdings verbergen sich dahinter unterschiedliche Konzepte. Während eine Hybrid Cloud eine Private Cloud mit einer Public Cloud verbindet und damit in der Regel eine »verlängerte Werkbank« darstellt, handelt es sich bei einer Multi Cloud um eine Verbindung zu mehreren Public Clouds. Die Entscheidung, welches Modell beziehungsweise welche Kombination eingesetzt wird, hängt von den Geschäftsanforderungen und der IT-Strategie des jeweiligen Unternehmens ab. 

Ziel der Multi Cloud ist es, die Services, Anwendungen und Infrastrukturen auf den Cloud-Strukturen verschiedener Anbieter parallel zu nutzen und dadurch von einem einzelnen Provider unabhängig zu agieren. Die Services lassen sich je nach Bedarf, gewünschter Leistung und Preis vom jeweils geeignetsten Anbieter auswählen. Unternehmen setzen dabei zwangsläufig unterschiedliche Schwerpunkte. Grob sind hier zwei Vorgehensweisen zu erkennen:

  • »Best of Breed«-Ansatz
    Dabei handelt es sich um die Nutzung unterschiedlichster Services aus verschiedenen Clouds, entsprechend den Geschäftsanforderungen. IaaS-, PaaS-, SaaS- oder XaaS-Lösungen können hier in Frage kommen, die genutzt werden, um eigene Applikationen/Services oder Daten in die Cloud zu verlagern.
  • Nutzung von IaaS (Infrastructure as a Service)
    Hierunter zählen beispielsweise Storage-Kapazitäten aus verschiedenen Clouds. Ein Automatisierungstool, ein sogenannter Broker (Vermittler), entscheidet zum Zeitpunkt der Anforderung – unter Kostenaspekten – welcher Storage von welchem Public Cloud-Anbieter dem Kunden zur Verfügung gestellt wird. Dieser Vorgang ist für den Anwender völlig transparent. 

Eine Integration der beiden Modelle in eine Private Cloud ist möglich und wird als Hybrid Cloud bezeichnet.

Ist eine grundlegende Entscheidung gefallen, sind einige Vorarbeiten und Überlegungen notwendig. Ein einfaches »Lift & Shift«, das heißt die vorhandene IT-Infrastruktur 1:1 in der Public Cloud abzubilden, bringt in der Regel nicht die erhofften Vorteile und führt zudem oftmals in eine Sackgasse. Ist die Entscheidung für ein Cloud-Modell gefallen, ist es ratsam, bereits frühzeitig den zweiten Schritt, die Exit-Strategie, festzulegen. Neben der Strategie, wie Daten und Anwendungen in die Cloud kommen, sollte gleichzeitig unbedingt eine Strategie festgelegt werden, wie diese wieder aus der oder den Clouds herauskommen. Dabei geht es nicht nur um Daten, sondern auch um die weitere Nutzung der Services oder eigenentwickelten Applikationen/Services. Unternehmen, die sich erst Jahre später mit dem Thema Exit beschäftigen, nachdem viele Systeme, Daten und Services in die Public Cloud verlagert wurden, tun sich erfahrungsgemäß sehr schwer mit den nachträglichen Planungen – die Herausforderungen sind meistens sehr hoch. Doch worauf sollte bei einer guten Exit-Strategie geachtet werden? Grundsätzlich bieten sich zwei Exit-Lösungen und Vorgehensweisen an:

  • Transfer oder Migration aller Applikationen/Services und Daten zurück in die On-Premises-Umgebung, also in das eigene Rechenzentrum. Dies wird jedoch umso schwieriger, je länger Public Cloud Services genutzt werden. Der Hauptgrund besteht darin, dass Public Cloud Services nicht auf der eigenen IT-Infrastruktur abzubilden sind. 
  • Bei einer Verlagerung in die Public Cloud ist es sinnvoll, bei der Neuentwicklung oder Anpassung der benötigten Applikationen/Services unbedingt Public-Cloud-Standards zu berücksichtigen. In Abhängigkeit der zu transferierenden Anwendungen, Daten und Schnittstellen können sich erhebliche Aufwendungen im Programmierungsbereich ergeben. Hier sollte eine Prüfung erfolgen, ob der Aufwand gerechtfertigt ist oder ob neue Services aus der Cloud diese abdecken können. Bei einer Legacy-Anwendung stehen die Anpassungen meist in keinem Verhältnis zum Nutzen. Somit ist ein Verbleib On-Premises meistens die bessere Lösung.

Neben den bereits erwähnten Punkten ist es erforderlich, sich Gedanken über die Netzwerkanbindung an die einzelnen Public Clouds zu machen. Je mehr Clouds genutzt werden, desto komplexer sind die Möglichkeiten der Netzwerkanbindung. Grundsätzlich stehen drei Alternativen zur Verfügung:

  • Zugriff über das Internet (unverschlüsselt)
  • Zugriff über das Internet mit VPN-Verschlüsselung
  • Zugriff über eine direkte Verbindung (etwa Amazon AWS – Direct Connect oder MS Azure – ExpressRoute)

In Abhängigkeit von Verfügbarkeit, benötigter Bandbreite und Sicherheitsanforderungen kommen die entsprechenden Lösungen zum Einsatz. Für mobile User bietet sich in der Regel der Zugriff über eine VPN-verschlüsselte Internetverbindung an. Unternehmen, die bereits ihre IT-Infrastruktur in eine Colocation verlegt haben und Public Cloud-Dienste im großen Umfang mit entsprechenden Sicherheitsmaßnahmen nutzen, setzen vorrangig direkte Verbindungen ein, die von den verschiedenen Colocation-Anbietern zur Verfügung gestellt werden. Diese Cloud-Exchange-Knoten bieten eine direkte Verbindung in die entsprechenden Clouds und erlauben es, auch hochverfügbare Routen zu den Regionen der Cloud-Anbieter umzusetzen.

Des Weiteren sollte die Auswahl eines geeigneten Multi-Cloud-Management-Tools im Vorfeld erfolgen. Hier gibt es mehrere Lösungsanbieter am Markt, die unterschiedliche Bedürfnisse und Anforderungen abdecken. 

Controlware unterstützt die Kunden nicht nur bei der Umsetzung der Cloud-Strategie, sondern steht bereits im Vorfeld als Partner beratend zur Seite – unter anderem bei Themen wie Exit-Strategie, Netzwerkdesign und Security.


Angelika Stiehl,
Business Development Manager
Application Delivery/Data Center,
Controlware GmbH
www.controlware.de

 

 

Illustration: © kkoman /shutterstock.com

 

685 Artikel zu „Multi Cloud“

Datenmanagement in Multi-Cloud-Umgebungen: Unternehmensdaten unter Kontrolle

Der Schutz und die Integrität seiner Daten hat für ein Unternehmen höchste Priorität. Das gilt auch dann, wenn solche Informationen auf mehreren Public-Cloud-Plattformen gespeichert werden. Wer die volle Kontrolle über solche Daten behalten möchte, benötigt eine Lösung, die Multi-Cloud-Services mit einem effektiven Datenmanagement verbindet. Cloud Computing – ja gerne. Aber geschäftskritische Daten sollten dennoch unter…

Multi-Cloud-Netzwerke absichern

Cloud-basierte Rechen- und Serviceplattformen versetzen Unternehmen in die Lage, sich an die neue digitale Wirtschaft anzupassen. Die Cloud ermöglicht es ihnen, schnell Ressourcen zu bündeln, neue Anwendungen zu implementieren und in Echtzeit auf die Anforderungen von Nutzern und Verbrauchern zu reagieren. So können Sie auf dem heutigen digitalen Markt effektiv agieren und konkurrenzfähig bleiben. Doch…

Neue Storage-Architekturen: Hybrid- und Multi-Cloud-Strategien beschleunigen

Auch wenn alle Welt über Daten und ihre Bedeutung für mehr Wettbewerbsfähigkeit und Flexibilität spricht, so fällt es vielen Unternehmen dennoch schwer, dieses Potenzial zu nutzen – und zwar aus einem einfachen Grund: Traditionelle Storage-Anbieter halten sie davon ab, ihr System zu modernisieren, weil sie an herkömmlichen Architekturen mit all ihrer inhärenten Komplexität und Einschränkungen…

Multi-Cloud-Ansätze für Unternehmen – Ein Hype mit Zukunft

Die wachsenden Anforderungen an IT-Infrastrukturen bringen herkömmliche Public-, Private- und Hybrid-Cloud-Modelle zunehmend an ihre Grenzen. Ein Multi-Cloud-Ansatz kann hier Abhilfe schaffen, indem er individuelle Lösungen für spezifische Anforderungen mit hoher Flexibilität und Unabhängigkeit vereint. Eine sorgfältige Kosten-Nutzen-Abwägung bleibt jedoch auch hier das A und O.

Studie »The Future of Multi-Cloud« – Die Multi-Cloud zukunftssicher schützen

Technologien verändern sich immer schneller. So wird es für IT-Verantwortliche immer schwieriger, die richtigen zukunftsfähigen Sicherheitslösungen zu implementieren. Welche Trends in den kommenden Jahren dabei zu berücksichtigen sind, zeigt die aktuelle Studie »The Future of Multi-Cloud« (FOMC) der Foresight Factory.

Hybride Multi-Cloud-Lösungen für mehr Freiheit und Transparenz

Sollten sich Unternehmen mit einem »Eine-Cloud-für-alles«-Ansatz begnügen? Nein! Denn Unternehmen, die offene, hybride Cloud-Lösungen nutzen, haben ganz klare Wettbewerbsvorteile. Denn eine hybride Multi-Cloud-Architektur passt sich mit verschiedenen Cloud-Anbietern und Konfigurationen ideal an unterschiedliche Use-Cases an und lässt sich trotzdem einheitlich verwalten.   Mythen über Multi-Clouds Es ist ein verbreitetes Missverständnis, dass mehrere Clouds automatisch eine…

Studie hebt zunehmenden Bedarf an Flexibilität bei dem Betrieb von Multi-Cloud-Umgebungen hervor

Laut der Umfrage wägen Unternehmen mit hybriden Kombinationen aus herkömmlicher und Multi-Cloud-IT deren Vorteile wie Cloud-Agilität und Risiken wie Anbieterbindung genau ab. Flexibilität bei der Beschaffung ist für 80 Prozent der Befragten das wichtigste Vorgehen, um die Bindung an den Anbieter zu vermeiden. 48 Prozent der Befragten halten Integration und Orchestrierung für die größte Hürde…

Netzwerk-Service-Provider setzen für private On-Demand-Multicloud-Konnektivität auf Equinix Cloud Exchange Fabric

ECX Fabric etabliert sich als globaler De-facto-Standard für Cloud-Anbindungen und kommt zunehmend bei Netzwerk-Service-Providern zum Einsatz. Immer mehr Netzwerk-Service-Provider-Kunden (NSPs) nutzen Equinix Cloud Exchange Fabric (ECX Fabric), um ihren Geschäftskunden private On-Demand-Multicloud-Konnektivität bereitzustellen. Das hat Equinix (Nasdaq: EQIX), der global führende Anbieter von Interconnection- und Rechenzentrumsdienstleistungen bekanntgegeben.   ECX Fabric verschafft Netzwerken den optimierten Zugang…

Multi-Cloud- und Hybrid-IT: Intelligent Identity Platform jetzt mit verbesserter Kundenerfahrung und IT-Automation

PingFederate-, PingAccess- und PingDirectory-Updates beschleunigen die Implementierung und Bereitstellung von Multi-Cloud- und Hybrid-IT-Umgebungen. Ping Identity, Anbieter im Bereich Identity Defined Security, kündigte Updates für seine Softwareprodukte, darunter PingFederate, PingAccess und PingDirectory, an. Die neuen Versionen verbessern die Benutzererfahrung für Anwender und Administratoren. Gleichzeitig erfüllen sie die Anforderungen moderner Unternehmen, schnell und zielgerichtet zu agieren. Moderne…

Der Multi-Cloud-Trend erreicht Deutschland

Wenn Unternehmen die Herausforderungen der Digitalisierung meistern wollen, dann nimmt die Nutzung von Cloud-Technologien eine Schlüsselrolle ein. Cloud-Dienste stellen die Voraussetzung für Agilität und Innovationsfähigkeit dar. Doch noch immer nutzen längst nicht alle Firmen diese Form der IT-Infrastruktur, bei der Speicherplatz, Software und Rechenleistungen über einen Server bereitgestellt werden. »Die Nutzung von Cloud Computing bedeutet…

Concat setzt mit NetApp HCI neue Maßstäbe bei Managed Services

$
0
0

Das Servicespektrum der Concat AG reicht von Rechenzentrumsleistungen über IT-Security bis zum Aufbau und Betrieb von Cloud-Plattformen. Um das Management zu vereinfachen, sollten die Kundensysteme künftig auf einer standardisierten Plattform laufen. Dieses Projekt ging der IT-Dienstleister mit einer hyperkonvergenten Infrastruktur (HCI) von NetApp an. Denn HCI ist für alle Einsatzgebiete prädestiniert, bei denen Flexibilität, einfaches Management, Automatisierung und Skalierbarkeit gefragt sind.

Der Geschäftsbereich Cloud & Managed IT Security ist innerhalb der Concat AG das Kompetenzzentrum für Cloud-Computing und Management-IT-Security. Er betreibt in Deutschland vier Rechenzentren und bietet seinen Kunden, die überwiegend aus dem gehobenen Mittelstand stammen, unterschiedlichste gemanagte Systeme und Security-Produkte an.

 

Hyperkonvergenz fest im Blick

Für die Lösung zum segmentübergreifenden Vereinheitlichen der Dienste gab Concat NetApp die Vorgabe mit, eine hyperkonvergente Infrastruktur zu verwenden. Denn es galt, sehr viele unterschiedliche Kundensysteme, die Concat in den Rechenzentren betreibt, auf eine standardisierte Plattform zu bringen und so den Verwaltungsaufwand zu senken. »Wir haben eine Lösung gesucht, die sich im laufenden Betrieb skalieren lässt. Außerdem wollen wir den VMware-Hypervisor weiterhin einsetzen, für den die neue Plattform die Basis bilden soll«, gibt Stefan Tübinger, Geschäftsbereichsleiter der Concat AG, Einblicke in den Anforderungskatalog, der auch einen flexiblen und agilen IT-Betrieb als Ziel festschrieb. Diese Kriterien erfüllt die hyperkonvergente Lösung von NetApp. Da sie Prozessoren, Speicher und Netzwerktechnologie softwarezentriert integriert, bringt sie die geforderten Merkmale mit.

 

Hochverfügbarer und standardisierter Service über Rechenzentrumsgrenzen hinweg

Das Umstellen von dedizierten Servern auf eine voll virtualisierte Plattform nahm in rekordverdächtiger Zeit Fahrt auf: In sechs Tagen setzte NetApp einen Proof of Concept (PoC) auf, wobei die Spezialisten ihren Partner Concat dabei unterstützten, virtuelle Maschinen (VMs) für ausgewählte Kundensysteme auf die NetApp HCI zu migrieren. Der Managed Service Provider (MSP) testete ab Dezember 90 Tage lang – und bekam ein Gefühl für die Technik. Der PoC diente in dem Fall nicht bloß dem Laufenlassen produktiver Maschinen von Kundensystemen und dem Erfassen von Leistungsdaten. Es ging auch darum, zu zeigen, wie die neue Lösung ins Management- und Monitoringsystem von Concat integriert werden kann. Beim Einrichten der nötigen Schnittstellen stand NetApp Pate, sodass Concat die Daten an nachgelagerte Prozesse übergeben konnte.

Neben einigen Linux- laufen nun hauptsächlich Windows-Maschinen auf der NetApp HCI, auf der auch Sprachanwendungen in Echtzeit betrieben werden. Das integrierte System vermarktet NetApp als Hybrid Cloud Infrastructure. Es ist als mandantenfähige Cloud-Plattform aufgebaut, die redundant und skalierbar an das Internet anbindet. So ist der MSP in der Lage, in kurzer Zeit die Bandbreite zu erhöhen, wenn Bezieher von Managed Services (MS) das wünschen. Die Plattform konsolidiert wie gefordert die Kundensysteme. »Wir haben uns für diese Lösung entschieden, weil die neue NetApp HCI unseren Bedarf nach Standardisierung im Rechenzentrum am besten erfüllt«, sagt Stefan Tübinger, Geschäftsbereichsleiter von Concat. Wie wichtig hierbei das QoS-Feature ist, ergänzt der IT-Experte: »Der Vorteil ist, dass man die Lasten auf den Knoten sauber verteilen kann. Außerdem lassen sich Knoten im laufenden Betrieb zum Warten herausnehmen. Das erhöht unsere Service-Verfügbarkeit.« Soll das System erweitert werden, kann Concat Rechenleistung und Speicher unabhängig voneinander aufstocken, was gegenüber der älteren HCI-Generation Kosten spart und Überprovisionierung vermeidet.

 

Die NetApp HCI lässt sich individuell einrichten, Compute und Storage können bei Wachstum unabhängig voneinander skaliert werden (Quelle: NetApp)

 

Auch die Kunden von Concat gewinnen, zum Beispiel an Flexibilität. Sie binden sich nicht ans »Blech«, sondern beziehen MS für CPU, RAM, Storage oder Backup in unterschiedlicher Ausprägung und Konnektivität, wobei sich die Ressourcen an den Bedarf anpassen lassen. Von MS erwarten Unternehmen Datenintegrität und Datensicherheit, deren Bedeutung künftig steigen wird. Dem gerecht zu werden, legt die NetApp HCI eine solide technische Basis. Für Unternehmen, die weiterhin ihren Service im eigenen Rechenzentrum hosten wollen, bietet Concat nun die NetApp HCI als Alternative zum klassischen Setup aus Server, Speicher und Netzwerk an. Warum sich das auf mehreren Ebenen rentiert, können die IT-Spezialisten aus eigener Erfahrung berichten. Die Standardisierung im IT-Betrieb will der IT-Dienstleister auch auf die Datacenter seiner Kunden übertragen. Überzeugen dürfte in dem Kontext auch, dass Concat im ersten Quartal 2019 seine Plattform erweitern wird, um die steigende Performance-Nachfrage abzubilden, die sich bereits jetzt abzeichnet.

 

Vorteile:

  • Schnelles Bereitstellen der Infrastruktur, da alle nötigen Komponenten in einer Box virtualisiert und aufeinander abgestimmt sind
  • Einfaches Administrieren der NetApp HCI im IT-Betrieb
  • Unabhängiges Skalieren von Rechenleistung und Speicher – im laufenden Betrieb
  • Konsolidieren verschiedener Workloads auf einer Plattform
  • Quality-of-Service-Option: gezieltes Zuweisen von garantierter Performance an einzelne VMs

 

»Wir fühlen uns bei NetApp sehr gut aufgehoben und schätzen vor allem die Bereitschaft, schnell einen ausgedehnten Proof of Concept aufzusetzen. Die so erzeugte valide Datenbasis plus unsere Testeindrücke belegen, wie richtig es war und ist, in hyperkonvergente Infrastrukturlösungen zu investieren.«

Stefan Tübinger, Geschäftsbereichsleiter der Concat AG

 

Illustration: NetApp

Rechenzentrum-Trends für 2020: Was gehört auf die Trendliste für 2020?

$
0
0

Quelle Rittal GmbH & Co. KG

Wachsende Datenmengen, eine sichere europäische Cloud (Datensouveranität), eine schnelle Modernisierung von Rechenzentren sowie der steigende Energieverbrauch sind aus Sicht von Rittal die IT-/Datacenter-Trends im Jahr 2020. Etwa die Verwendung von OCP-Technologie (Open Compute Project) und Wärmerückgewinnung bieten Lösungen für die aktuellen Herausforderungen.

 

Im Jahr 2025 könnten Menschen und Maschinen bereits 175 Zettabyte an Daten erzeugen, prognostizieren die Marktforscher von IDC (International Data Corporation). Gespeichert auf herkömmliche DVDs, wären dies 23 Stapel mit Silberscheiben, die jeweils bis zum Mond reichen. Das jährliche Datenwachstum um durchschnittlich 27 Prozent sorgt auch für steigende Anforderungen an die IT-Infrastruktur.

Da es sich kaum ein Unternehmen leisten kann, die eigenen Datenspeicher jährlich um knapp ein Drittel zu erhöhen, setzen IT-Manager immer häufiger auf IT-Services aus der Cloud. Ob Storage oder Computing, der Trend hin zur Cloud ist längst in Deutschland angekommen: Eine im Sommer 2019 veröffentlichte Umfrage vom ITK-Branchenverband Bitkom und KPMG hat gezeigt, dass bereits drei von vier Unternehmen Cloud-Lösungen nutzen.

Wer Cloud-Lösungen von Drittanbietern nutzt, gibt jedoch ein Stück weit die Kontrolle über seine Unternehmensdaten ab. So ermöglicht beispielsweise der US-amerikanische Cloud-Act (Clarifying Lawful Overseas Use of Data) den Zugriff von US-Behörden auf Daten, die in der Cloud gespeichert sind – sogar wenn lokale Gesetze am Ort des Datenspeichers dies verbieten.

»Wirtschaftliche Erfolge werden in Zukunft nachhaltig sein, wenn sie Schritt halten mit vollständiger Digitalisierung und Integration. Unternehmen werden ihre Daten immer stärker wertschöpfend nutzen – zunehmend in Echtzeit, etwa im Produktionsumfeld«, sagt Dr. Karl-Ulrich Köhler, CEO von Rittal International. »Datensouveränität wird zum kritischen Erfolgsfaktor für internationale Wettbewerbsfähigkeit«, ergänzt Dr. Köhler.

 

Trend #1: Datensouveränität

Der selbstbestimmte Umgang mit Daten wird für Unternehmen somit zu einem zentralen Wettbewerbsfaktor. Dies gilt für alle Branchen, in denen Datensicherheit großgeschrieben wird und die Analyse dieser Daten entscheidend für den Geschäftserfolg ist – Gesundheitswesen, Mobilität, Banking oder Fertigungsindustrie. Unternehmen stehen vor der Frage, wie sie ihre Daten sicher und effizient verarbeiten können, und ob sie ihr eigenes Rechenzentrum modernisieren, in Edge-Infrastrukturen investieren oder die Cloud nutzen.

Das europäische Digital-Großprojekt Gaia-X, eine Initiative des Bundesministeriums für Wirtschaft und Energie (BMWi), soll im Jahr 2020 starten. Ziel ist der Aufbau einer europäischen Cloud zur sicheren Digitalisierung und Vernetzung der Industrie und als Basis für den Einsatz neuer KI-Anwendungen (Künstliche Intelligenz). Die Fraunhofer Gesellschaft hat in diesem Kontext die Initiative »International Data Spaces« geschaffen. Dieser virtuelle Datenraum ermöglicht Unternehmen den sicheren Datenaustausch. Kompatibilität einer eigenen Lösung mit etablierten (Cloud-) Plattformen (Interoperabilität) ist ebenfalls gegeben.

Das bedeutet: Geographisch verteilte kleinere Rechenzentren mit offenen Cloud-Stacks könnten eine neue Klasse von industriellen Anwendungen schaffen, die direkt am Ort der Datenentstehung eine erste Datenanalyse vornehmen und die Cloud für nachgelagerte Analysen nutzen. Eine Lösung dafür ist ONCITE. Das schlüsselfertige (Plug & Produce) Edge-Cloud-Rechenzentrum speichert und verarbeitet Daten direkt dort, wo sie anfallen, so dass die Unternehmen bei der Vernetzung entlang der gesamten Lieferkette die Datensouveränität behalten.

 

Trend #2: Standardisierung im Datacenter mit OCP

Die schnelle Modernisierung bestehender Rechenzentren wird für Unternehmen immer wichtiger, da das zu verarbeitende Datenvolumen stetig wächst. Wesentliche Anforderungen für den Ausbau sind eine standardisierte Technologie, ein kosteneffizienter Betrieb und eine hohe Skalierbarkeit der Infrastruktur. Die OCP-Technologie (Open Compute Project) mit zentraler Gleichstrom-Verteilung im IT-Rack wird für immer mehr CIOs zu einer interessanten Alternative. Denn: Mit Gleichstromkomponenten ergeben sich neue Potenziale zur Kostenoptimierung. So erfolgt die Energieversorgung aller IT-Komponenten zentral mit n+1-Netzteilen pro Rack. Somit wird eine effiziente Kühlung erreicht, da weniger Netzteile vorhanden sind. Gleichzeitig vereinfachen sich durch die hohe Standardisierung der OCP-Komponenten die Wartung und das Ersatzteilmanagement. Der Effizienzgewinn liegt durchschnittlich bei etwa fünf Prozent des Gesamtstroms.

Rittal rechnet damit, dass sich OCP im Jahr 2020 als durchgängige Systemplattform im Rechenzentrum weiter etablieren wird. Neue OCP-Produkte für die Rack-Kühlung, die Stromversorgung oder das Monitoring werden den schnellen Ausbau mit Gleichstromkomponenten ermöglichen. Außerdem werden neue Produkte das herkömmliche Konzept einer zentralen Notstromversorgung unterstützen, bei dem durch eine zentrale USV die Stromversorgung abgesichert wird. Damit wird es nicht mehr wie bisher notwendig, jedes OCP-Rack mit einer USV auf Basis von Lithium-Ionen-Batterien abzusichern. Der Vorteil: die Brandlast im OCP-Rechenzentrum wird erheblich reduziert.

 

Trend #3: Wärmerückgewinnung und direkte CPU-Kühlung

Von Rechenzentren werden hohe Energiemengen in Form von Abwärme an die Umwelt abgegeben. Mit Zunahme der Leistungsdichte im Datacenter steigen auch die Wärmemengen, die sich potenziell für andere Zwecke nutzen lassen. Bislang ist die Nutzung der Abwärme jedoch zu teuer, zum Beispiel weil sich selten Abnehmer in unmittelbarer Umgebung des Standortes finden. Auch ist eine Abwärme von 40 Grad, wie sie luftbasierte IT-Kühlsysteme erzeugen, deutlich zu niedrig, um diese wirtschaftlich sinnvoll zu verwenden.

Insbesondere im Bereich High Performance Computing (HPC) erzeugen IT-Racks hohe Wärmelasten, die häufig mehr als 50 kW betragen. Für HPC ist die direkte Prozessorkühlung mit Wasser deutlich effizienter als eine Luftkühlung, sodass Rücklauftemperaturen von 60 bis 65 Grad zur Verfügung stehen. Bei diesen Temperaturen ist beispielsweise die Erwärmung von Brauchwasser möglich oder die Nutzung von Wärmepumpen bis hin zur Einspeisung in ein Fernwärmenetz. CIOs sollten jedoch beachten, dass selbst bei einer direkten CPU-Wasserkühlung nur etwa 80 Prozent der Abwärme aus einem IT-Rack geführt werden kann. Für die restlichen 20 Prozent wird weiterhin eine IT-Kühlung für das Rack benötigt.

Auf dem Digital-Gipfel 2019 der Bundesregierung wurde in der entsprechenden Arbeitsgruppe das Thema Wärmerückgewinnung diskutiert, die hohen Handlungsbedarf aufzeigte. Daher geht Rittal davon aus, dass sich im Jahr 2020 deutlich mehr CIOs damit beschäftigten werden, wie sich die bislang ungenutzte Abwärme des Datacenters wirtschaftlich nutzen lässt.

 

Trend #4: Integration von Multi-Cloud-Umgebungen

Unternehmen benötigen die Sicherheit, dass sie ihre Cloud-Anwendungen auf gängigen Plattformen und in beliebigen Ländern betreiben können. Dafür wird eine Multi-Cloud-Strategie benötigt. Aus Sicht des Managements ist dies eine strategische Entscheidung, die auf der Erkenntnis basiert, dass sich die eigene Organisation zu einem vollständig digitalisierten Unternehmen entwickeln wird.

Exzellenz in der User Experience wird beispielsweise durch geringste Verzögerungszeit mit den entsprechenden Verfügbarkeitszonen (»Availability Zone«) vor Ort gewährleistet. Das heißt: Unternehmen wählen für ihre Dienste je nach Geschäftsanforderungen weltweit eine oder mehrere Verfügbarkeitszonen. Das Einhalten von strengen Datenschutzvorgaben erfolgt zum Beispiel über einen spezialisierten lokalen Anbieter in dem jeweiligen Zielmarkt. Eine anbieteroffene Multi-Cloud-Strategie erlaubt genau das: die Funktionsdichte und Skalierbarkeit von Hyperscalern mit der Datensicherheit von lokalen und spezialisierten Anbietern wie Innovo Cloud sinnvoll zu vereinen. Auf Knopfdruck, in einem Dashboard, mit einem Ansprechpartner, einer Rechnung und in der einen Sekunde, in der die Geschäftsentscheidung fällt.

Das macht Multi-Cloud-Strategien zu einem der Megatrends in den nächsten Jahren. Denn die Wirtschaft wird weitere Schritte der Digitalisierung gehen und mit Cloud-nativen Technologien – für die Cloud-Computing-Architektur konzipierte und entwickelte Anwendungen –, die Geschwindigkeiten der eigenen Continuous Integration (CI) und Continuous Delivery (CD)-Pipelines weiter steigern. Die Automatisierung der Integrations- und Auslieferungsprozesse ermöglicht dann schnelle, zuverlässige und wiederholbare Bereitstellung von Software (»Deployments«).

 

 

650 Artikel zu „Trends 2020“

Insight-Engines-Trends 2020: Transformationsmotor mit »Human Touch«

Die digitale Transformation stellt an jedes Unternehmen – egal welcher Größe oder in welcher Branche – hohe Anforderungen. Vor allem die Geschwindigkeit, mit der Entscheidungen getroffen werden müssen, hat sich in den letzten Jahren dramatisch erhöht. Damit genießen all jene Organisationen Wettbewerbsvorteile, die es verstehen, ihre Daten so aufzubereiten, dass sie immer und überall als…

Technologie-Trends 2020: Sechs Empfehlungen für IT-Entscheider

Von den ersten 5G-Projekten bis zu den Einsatzmöglichkeiten künstlicher Intelligenz (KI) – 2019 war für Unternehmen ebenso wie öffentliche Institutionen ein weiteres Jahr mit rasantem Technologiewandel. Aus IT-Sicht gibt es zwei wesentliche Trends, die sich auch im Jahr 2020 fortsetzen werden: On-Premises und Public Cloud nähern sich von der Relevanz an, Cloud wird zum »normalen«…

Technologietrends 2020: Auf dem Weg zu virtuellen Gesellschaften

NTT Ltd. veröffentlichte unter dem Namen »Future Disrupted: 2020« seine Prognosen zu technologischen Trends für das Jahr 2020 [1]. Mit dem Report zeigt der globale Technologiedienstleister auf, welche Technologietrends Unternehmen im nächsten Jahr kennen und welche Schritte sie einleiten müssen, um diese anzugehen, dazu gehört auch mycasino bonus code. Die Experten gehen davon aus, dass…

IT-Trends 2020: Hybrid Cloud, Predictive Data Analytics und Nachhaltigkeit bestimmen die Agenda

Zum Ende des Jahres wird es Zeit, die Technologien und Ansätze ins Auge zu fassen, die 2020 die Unternehmens-IT beeinflussen werden. Sage hat fünf Trends identifiziert, mit denen sich Entscheider und Entwickler vermehrt beschäftigen sollten, um Effizienz und Wettbewerbsstärke voranzutreiben. Hybrid Cloud, Data Analytics, DevOps, energieeffiziente Software und Security by Design sind, so Oliver Henrich,…

Cloud-Trends 2020 – Wo wohnen die Daten?

In den nächsten zwei Jahren wird es zu massiven Veränderungen in der IT-Infrastruktur kommen. Anwendungen wandern aus dem eigenen Rechenzentrum in die Cloud. Wohin genau, hängt von der konkreten Anwendung ab. Vier Gruppen lassen sich erkennen.   Welche IT-Infrastruktur kommt künftig für welche Daten und Anwendungen zum Einsatz? Welche Vorteile geben den Ausschlag, und welche…

IT-Trends 2020: CIOs und CTOs erwarten wachsende IT-Teams in den nächsten fünf Jahren

Die Konkurrenz um die besten IT-Mitarbeiter wird sich in der Schweiz in den nächsten fünf Jahren weiter verstärken. Laut einer Studie [1] gehen zwei Drittel der Schweizer CIOs und CTOs (66 %) von einem Wachstum ihrer IT-Teams um bis zu 30 % bis zum Jahr 2020 aus. Gleichzeitig glaubt ein Großteil der IT-Verantwortlichen, dass es…

Analytics reicht nicht mehr aus: Top-Trends im Big-Data-Umfeld 2020

Wide Data, DataOps, Metadaten-Kataloge, Datenkompetenz und Shazamen sind die wichtigsten Trends im kommenden Jahr. Für 2020 hat der Data-Analyst-Spezialist Qlik folgende fünf Trends im Zusammenhang mit Big Data und Analytics identifiziert:   Aus Big Data wird Wide Data Dank skalierbarer Cloud-Lösungen sind in Big-Data-Umgebungen nicht länger die Kapazitätslimits unternehmensinterner IT-Infrastrukturen ein begrenzender Faktor. Die Herausforderung…

Die Trends für Business Intelligence & Big Data 2020

Welche Trends für Business Intelligence (BI), Data & Analytics werden das Jahr 2020 prägen? Im Interview gibt BARC-Chef-Analyst Dr. Carsten Bange seine Prognosen ab. Außerdem stellt er exklusiv die Ergebnisse des BARC BI Trend Monitor 2020 vor, der 2.650 Anwender von BI-Technologie zu ihren persönlichen Trendthemen befragt hat. Dr. Carsten Bange, Gründer und Geschäftsführer von…

Gartner: 9 Top-Trends für die Digital Experience für das Jahr 2020

  Das Research- und Beratungsunternehmen Gartner hat neun Trends für die Digital Experience bestimmt, die Unternehmen im Jahr 2020 auf dem Schirm haben müssen. CIOs sollten diese Trends in ihre strategische Planung für die nächsten 12 Monate aufnehmen, da die Bandbreite der digitalen Touch Points immer größer wird.   Die Digital-Experience-Trends von Gartner lassen sich…

Automobilproduktion 2020: Die wichtigsten Digitaltrends in der Montage

Mensch und mobile Roboter arbeiten eng zusammen, ohne durch Schutzzäune getrennt zu sein. Datenbrillen und andere digitale Assistenten unterstützen den Arbeiter in Echtzeit. Durchgängiger Datenaustausch ermöglicht die synchrone Echtzeit-Abbildung aller Vorgänge in der virtuellen und realen Welt. Die Montage von Fahrzeugen ist noch weitgehend Handarbeit. Komplexe Arbeitsvorgänge haben den Automatisierungsgrad in diesem Fertigungsbereich bisher gering…

Trendstudie: 2020 vertrauen Patienten ihrem Handy mehr als Ärzten

Big Data übernimmt die Führungsrolle in Gesundheitswesen. Behandlung, Vorsorge, Optimierung findet in Netzwerken statt. Arzt und Apotheker werden zum Coach und Gesundheitskoordinator ihrer Kunden. Newcomer verdrängen etablierte Anbieter mit innovativen Produkten. Der Gesundheitskunde, seine Daten und Bedürfnisse werden in den kommenden 10 Jahren im Mittelpunkt des medizinischen Handelns und Denkens stehen. Um ihn wird sich…

Kundenbeziehungsmanagement – Trends für 2020

Big Data, Cloud, Mobile – neben diesen gesetzten Themen zeichnen sich weitere Trends ab, die das Kundenbeziehungsmanagement die nächsten Jahre beschäftigen werden. Auf Initiative der Hochschule der Medien (HdM), Stuttgart und der Messe Stuttgart führte Professor Harald Eichsteller während der CRM-expo 2014 Experteninterviews mit Ausstellern der Leitmesse für Kundenbeziehungsmanagement. Die Highlights auf die Frage nach…

Trendstudie »Versicherungen 2020«: Technologischer Wandel bringt neue Produktchancen

Das Trendforschungsinstitut »2b AHEAD ThinkTank« hat gemeinsam mit der HUK Coburg Versicherung und dem Anbieter für Kommunikationslösungen und -services Unify GmbH & Co. KG eine neue Trendstudie »Versicherungen 2020« veröffentlicht. Die qualitative Delphi-Studie basiert auf den Prognosen von 30 Innovationsentscheidern, Strategiechefs und Zukunftsexperten. Sie ist die Fortsetzung der Trendstudie »Zukunft der Versicherungen«, die bereits zum…

2020: Für Hacker wird es immer einfacher industrielle Netzwerke anzugreifen

Die Bedrohungslage für OT-Systeme, kritische Infrastrukturen und industrielle Steuerungsanlagen wird sich auch 2020 im Vergleich zu 2019 kontinuierlich weiterentwickeln. Da diese Systeme dem öffentlichen Internet immer stärker ausgesetzt sind, wird es für Hacker immer einfacher, sie anzugreifen. Dies gilt nicht nur für staatlich unterstützte beziehungsweise beauftragte Angreifer, sondern auch für Cyberkriminelle, die in erster Linie…

Cyber-Security: Sicherheitsprognosen für das Jahr 2020

  Die Sicherheitsforscher von Malwarebytes geben ihre Sicherheitsprognosen für das Jahr 2020 bekannt. Dabei prognostizieren die Experten zunehmende Gefahren für Unternehmen durch Ransomware-Angriffe, erwarten vermehrt Exploit-Kit-Aktivitäten und VPN-Skandale. Im Folgenden werden sechs Sicherheitsprognosen vorgestellt und in die Entwicklungen der jüngsten Zeit eingeordnet.   Ransomware-Angriffe auf Unternehmen und Regierungen werden dank neu gefundener Schwachstellen zunehmen. Bereits…

Genickbruch Datenmanagement – Schutz und Sicherheit im Rechenzentrum

$
0
0

Professionelle Rechenzentren bieten nicht nur die Möglichkeit, gespeicherte Daten in mehrfacher Ausführung an geografisch getrennten Orten zu lagern, sondern übernehmen beim Managed Backup sogar jegliches Datenmanagement.

Egal ob infolge von Softwarefehlern, menschlichem Versagen oder einem Hackerangriff, Gründe für einen möglichen Datenverlust in Unternehmen sind vielfältig. Doch noch immer realisieren viele nicht die Gefahr eines Datenausfalls oder -verlustes. Der IT-Sicherheitsspezialist Datarecovery aus Leipzig hat Ende 2018 in einer Studie herausgefunden, dass 29 Prozent der Unternehmen ihre Daten nicht regelmäßig sichern. Fast genauso erschreckend ist die Kenntnis, dass 15 Prozent der Unternehmen, die Backups erstellen, dies ausschließlich lokal tun. So besteht bei einem örtlichen Ausfall weiterhin das Risiko eines Gesamtverlustes der Daten. »Dabei kann es jeden treffen: Laut einer Gartner-Studie kommt es bei 25 Prozent der Computernutzer weltweit zu einem Datenverlust infolge eines Systemausfalls oder aufgrund von äußeren Faktoren, wie einem Brand, Diebstahl oder Ähnlichem. Besteht dann kein wirksamer Notfallplan, kommt es zu Ausfallzeiten und hohen Kosten«, bemerkt Torben Belz, Geschäftsführer der PLUTEX GmbH.

 

 

Daten wirksam sichern. Zunächst gilt es darüber nachzudenken, in welchen zeitlichen Abständen eine Datensicherung erfolgen soll. Bei sensiblen Daten empfiehlt sich ein tägliches, automatisiertes Backup. »Besonders für Unternehmen, die mit sensiblen Daten arbeiten, empfiehlt sich die Datenspeicherung auf einem externen Backup-System, das an einem anderen Standort lokalisiert ist. Auch die Speicherung des Backups auf speziell dafür entwickelter Storage-Hardware, wie beispielsweise Magnetbändern ist sinnvoll«, erklärt Belz. Heutzutage spielt auch das Speichern in Clouds eine große Rolle: Backups lagern dabei via verschlüsselten Netzwerkverbindungen und Zugangs- und Berechtigungssystem auf Server- und Storage-Systemen von professionellen Anbietern.

Professionelle Datensicherung. Unternehmen verfügen häufig nicht über die nötigen Ressourcen und räumlichen Möglichkeiten für eine umfassende Lagerung und Sicherung. Daher empfiehlt sich die Auslagerung an einen externen Dienstleister. »Professionelle Rechenzentren, wie PLUTEX, bieten häufig nicht nur die Möglichkeit, gespeicherte Daten in mehrfacher Ausführung an geografisch getrennten Orten zu lagern, sondern übernehmen beim Managed Backup sogar jegliches Datenmanagement«, so Belz. So konzentrieren sich Unternehmer auf ihr Kerngeschäft und müssen nicht in Storage-Hardware und den Aufbau von internem Know-how investieren. Darüber hinaus bieten Rechenzentren immer den neuesten Stand der Technik, verfügen über reichlich Speicherkapazitäten und eine hohe Standortsicherheit. »Unsere Anlage wird rund um die Uhr überwacht und durch strenge Zugangskontrollen geschützt. Zudem gibt es einen Bereitschaftsdienst, bestehend aus zwei Mitarbeitern, die jegliche Projekte des Kunden kennen. Sie verfügen innerhalb kürzester Zeit über die nötigen Mittel, um im Notfall eingreifen zu können«, ergänzt Belz. Professionelle Managed Service Provider können auch sofort auf alle Eventualitäten wie Stromausfall oder Brand reagieren. Unternehmern steht außerdem ein Bereitschaftsteam zur Verfügung, das den Betrieb der betroffenen Systeme schnellstmöglich wiederherstellt.   


Weitere Informationen unter www.plutex.de

 

Illustration: © Paolo De Gasperis/shutterstock.com

 

223 Artikel zu „Datensicherung“

RPO, RTO und Backup verstehen – Kennzahlen und Kriterien von Datensicherung

Da Unternehmen vermehrt auf geschäftskritische IT-Dienste angewiesen sind, sind Infrastruktur und Anwendungen nach Meinung von Rubrik zu wichtigen strategischen Imperativen geworden. Der junge Anbieter von Cloud Data Management fordert mehr Aufklärung.   »Ausfallzeiten und Datenverluste können enorme geschäftliche und finanzielle Auswirkungen haben, die mit einer effektiven Datensicherungsstrategie zwingend minimiert werden müssen«, erklärt Roland Stritt, Director…

D2D2T hat ausgedient: Flash-to-Flash-to-Cloud ist das neue Datensicherungsmodell

Auch wenn in den Köpfen vieler IT-Verantwortlicher aktuell noch Disk und Tape die dominierenden Medien rund um die Datensicherung – also unter anderem Backup – sind, so erwartet Pure Storage für die Zukunft hier einen Wandel hin zu neuen Speichermedien und Modellen. Konkret bedeutet dies: Flash und Cloud.   »In den letzten zehn Jahren gab…

Weiterentwicklung der Datensicherungsstrategie mittels APIs – »API first« beim Data Management

Die Art und Weise, wie Daten gespeichert, verwaltet und wiederhergestellt werden, zu ändern, ist ein Muss, um in der heutigen vernetzten Welt Geschäfte und Prozesse voranzutreiben. Auf herkömmliche Weise war bei klassischen Lösungen für Data Management die Verwaltung von Daten über GUI-Schnittstellen und in einigen Fällen über nicht sehr gut dokumentierte Kommandozeilen-Tools möglich. Da hier…

Unternehmen sehen Verantwortung für Datensicherung, Datenschutz und Compliance allein bei Cloud Service Providern

Cloud first dominiert die IT-Strategien: Organisationen investieren ein Fünftel ihres IT-Budgets der nächsten zwei Jahre in die Cloud.    Die Mehrheit der befragten Unternehmen verfolgt eine Cloud-First-Strategie, wenn sie neue Anwendungen aufsetzen oder Workloads bearbeiten wollen. Nur ein Prozent der Firmen wird die Cloud in den kommenden zwei Jahren nicht einsetzen. In Deutschland sehen sogar…

Schlankere Datensicherung in der Cloud

Druva Phoenix kombiniert Backup, Archivierung und Disaster Recovery Die Druva Deutschland GmbH baut ihre strategische Präsenz und Investitionstätigkeit in der DACH-Region mit einem Cloud-basierten Lösungsportfolio weiter aus. Mit einer All-in-One-Datenschutzlösung für Backup, Disaster Recovery und Langzeitarchivierung verschlankt Druva den Administrationsaufwand und speichert die Daten aller IT-Assets im Unternehmen — von klassischen Servern bis zu mobilen…

Kosten für Datensicherung und Anwendungsentwicklung spürbar senken

Servervirtualisierung und Netzwerkvirtualisierung sind zwei bekannte und vielfach bewährte Technologien. In den Anfangszeiten schien die praktische Umsetzung noch abwegig, aber nachdem man die Vorteile erkannte, sind sie alltäglich geworden in den IT-Abteilungen. Jetzt ist die Datenvirtualisierung, genauer, die Virtualisierung von Datenkopien an der Reihe. Actifio sieht in diesem Ansatz großes Potenzial zur Kostensenkung bei der…

Interconnection und Rechenzentren – Das digitale Tor zur Welt – Hamburgs Weg zur Smart City

$
0
0

Das Konzept »Smart City« verspricht, Städte durch vernetzte Technologien sicherer, nachhaltiger und effizienter zu machen. Viele deutsche Kommunen setzen auf dieses Konzept und arbeiten bereits heute daran, städtische Einrichtungen zu vernetzen und zu digitalisieren.

Die Smart City hält innovative Lösungsansätze für vielfältige Herausforderungen bereit, sei es im Straßenverkehr, im Energiemanagement oder dem Abfallmanagement. Technologische Grundlage ist dabei das sogenannte Internet der Dinge (»IoT«), über das Geräte, Nutzer und Anwendungen miteinander vernetzt sind und im ständigen Austausch stehen. In Deutschland zeigt die Digitalstadt Hamburg exemplarisch, welche Vorteile und Herausforderungen mit der Smart City verbunden sind und wie Partner beim Aufbau der nötigen digitalen Infrastrukturen helfen können.

Digitalstadt Hamburg. Als »Tor zur Welt« hat Hamburg seit jeher von Vernetzung und Austausch profitiert. Nun möchte die Stadt das Erfolgsrezept in Wirtschaft und Verwaltung auch in das digitale Zeitalter übertragen. Wie der aktuelle Smart City Index des Verbands Bitkom zeigt, belegt Hamburg im Index derzeit mit 79,5 von 100 möglichen Punkten den ersten Platz als digitalste Stadt Deutschlands. Schon 2015 verabschiedete der Hamburger Senat die Strategie »Digitale Stadt«, deren Ziel es ist, Hamburg bundes- und europaweit als führenden Digitalstandort zu etablieren.

Hamburg spielt in der Digitalisierung Deutschlands eine entscheidende Rolle. Dazu trägt eine zunehmend digitalisierte Wirtschaft mit E-Commerce-Unternehmen, Online-Plattformen und innovativen Industrieunternehmen bei. Zudem fördert die Stadt selbst zahlreiche Zukunftsprojekte wie den smartPort, also einen Hafen, in dem Straßen, Schienen- und Wasserwege miteinander vernetzt werden, um den Waren- und Verkehrsfluss effizienter zu gestalten. 

Auch wenn Hamburg in zahlreichen Pilotprojekten bereits erste Erfolge vermeldet, kann künftig noch großes Potenzial erschlossen werden. Eine Umfrage der Handelskammer Hamburg vermittelt einen Eindruck, welche Herausforderungen Unternehmen bei der Digitalisierung wahrnehmen: So sehen je fast 40 % Anforderungen an die IT-Sicherheit und hohe Investitionskosten als Herausforderung. Über 30 % sehen fehlende technische Standards und Schnittstellen als Hindernis. Auch eine aktuelle Marktstudie von Equinix, der Global Interconnection Index, stützt diesen Befund: So gaben im Rahmen einer Umfrage mehr als die Hälfte (54 %) der befragten deutschen IT-Führungskräfte an, dass sie veraltete IT-Infrastrukturen als das größte Hindernis für eine erfolgreiche Digitalisierung sehen. 

Herausforderung Smart City. Smart City-Lösungen sind komplex und stellen hohe Anforderung an die IT-Kapazitäten einer Stadt: 

Erstens müssen Städte in der Lage sein, enorme Datenmengen in Echtzeit zu übertragen und auszuwerten, die durch Sensoren oder Bürger entstehen. Nur so kann etwa im smarten Verkehrsmanagement sichergestellt werden, dass Verkehrsströme korrekt berechnet und Staus oder Unfälle vorhergesehen und vermieden werden können.

Zweitens müssen Akteure der Smart City Daten und Informationen auf sichere und flexible Weise miteinander teilen können. Betrachtet man das intelligente Abfallmanagement, so ist eine IoT-basierte und effiziente Entsorgung nur möglich, wenn Stadtwerke, Lkws und Gebäudeverwaltungen Daten über eine zentralen Cloud-Management-Plattform austauschen können, die über die entsprechenden Analyse-Tools verfügen, um die Müllentsorgung in Echtzeit einzuleiten. 

 

Durch Interconnection umgehen Teilnehmer des digitalen Ökosystems das Internet und tauschen Daten schnell, sicher und zuverlässig untereinander aus.

 

Das Fundament: Digitale Infrastrukturen. Diese Herausforderungen können nicht im Alleingang gemeistert werden. Viel mehr sitzen Unternehmen, die Stadt und andere Partner bei der Digitalisierung alle im selben Boot. Externe Partner können künftig dabei helfen, das Fundament der Smart City bereitzustellen: Digitale Infrastrukturen, die den reibungslosen Datenaustausch zwischen verschiedenen Teilnehmern der Stadt ermöglichen. 

Eine zentrale Rolle nehmen dabei Rechenzentren ein. Moderne Rechenzentren bieten Unternehmen nicht nur zusätzlichen Speicherplatz. Viel mehr stellen sie eine neutrale Plattform bereit, über die sich die verschiedenen Akteure der Smart City miteinander vernetzen und austauschen können. Sie bilden sogenannte digitale Ökosysteme innerhalb derer sich – im Fall der Smart City – städtische Akteure wie Notrufzentralen, Stadtwerke oder Verkehrsbetriebe mit externen Unternehmen wie Automobilherstellern, Mobilitätsdienstleistern, Softwareanbietern sowie Clouds verbinden können, um Projekte gemeinsam umzusetzen. 

Diese direkte Anbindung innerhalb der Rechenzentren wird auch Interconnection genannt. Durch Interconnection umgehen Teilnehmer des digitalen Ökosystems das Internet und tauschen Daten schnell, sicher und zuverlässig untereinander aus. Im Ökosystem werden die gesammelten Daten jedes Teilnehmers der Smart City zusammengeführt, analysiert und darauf basierende Entscheidungen an die jeweiligen Geräte zurück gesendet. Auch das Skalieren von IT-Kapazitäten ist durch den Zugang zu Cloud-Providern schnell und flexibel möglich. Die erleichtert den Ausbau von Smart-City-Lösungen deutlich.

Interconnection wird auch in Zukunft ein wichtiger Treiber der Smart City sein. Eine aktuelle Umfrage von Equinix zeigt, dass Interconnection als zuverlässige und schnelle Alternative zum öffentlichen Internet in Deutschland zunehmend an Bedeutung gewinnt. So geben 35 Prozent der befragten IT-Entscheider an, dass die Umgehung des öffentlichen Internets über Interconnection für einen erfolgreichen Geschäftsbetrieb entscheidend sei. Um auch künftig Städte bei der Vernetzung und Digitalisierung zu unterstützen, erweitern Rechenzentrumsanbieter stetig ihre Präsenz in Deutschland. In Hamburg wird Equinix beispielsweise noch in diesem Jahr einen neuen Standort eröffnen. 

Rechenzentren, Netzwerk- und Cloud-Provider leisten so einen entscheidenden Beitrag bei der Bereitstellung und Verbesserung digitaler Infrastrukturen und helfen Städten wie Hamburg, die Vision der Smart City umzusetzen.



Jens-Peter Feidner,
Managing Director Germany
bei Equinix

 

Bilder: © Equinix;
Gerckens-Photo-Hamburg/shutterstock.com;
Composing: magazinemaker.de

 

199 Artikel zu „Smart City“

Smart City Index – aber wie sicher ist »smart«

Hamburg ist die smarteste Stadt Deutschlands. Die Hansestadt rangiert mit deutlichem Abstand an der Spitze des Smart City Index, den der Digitalverband Bitkom für alle 81 deutschen Großstädte heute vorgestellt hat. Hamburg erreicht 79,5 von 100 möglichen Punkten. Dahinter liegen nahezu gleichauf Karlsruhe (69,0 Punkte) und Stuttgart (68,6) auf den Plätzen 2 und 3, dicht…

Baltimore ist »Smart City ready« – wirklich?

Der aktuelle Hackerangriff auf die Stadtverwaltung Baltimore schlägt hohe Wellen. Wieder einmal zeigt sich, dass nicht gepatchte Systeme zu den größten Sicherheitsgefahren gehören. Die Herstellung einer Cyber-Security-Hygiene mit elementaren Sicherheitsmaßnahmen darf nicht am Geld scheitern, sagt NTT Security, ansonsten wird auch die Umsetzung ambitionierter Smart-Society-Ziele am Misstrauen des Bürgers scheitern. Bei der Stadtverwaltung Baltimore haben…

Smart City und SD-WAN: Wie die digitale Transformation Städte intelligenter macht

Eine flächendeckende drahtlose Konnektivität in Städten gepaart mit IoT-Technologie – diese Kombination eröffnet neue, vielfältige Möglichkeiten für die Entwicklung intelligenter Städte, sogenannter Smart Cities. In puncto Netzwerktechnologie erfordern Smart Cities einen modernen Software-definierten Ansatz für Wide Area Networking, kurz: SD-WAN. WANs für intelligente Städte müssen mehr denn je agil, geradezu elastisch sein. Kommunen jeglicher Größe…

Sicherheit in der »Smart City« – worauf es ankommt

Technologien verändern unseren Alltag, das zeigt ein kurzer Blick auf die Kommunikation: Vom Anruf per Festnetztelefon, hin zu WhatsApp, Mail und vielen anderen Möglichkeiten. Dieser Wandel geht noch weiter: Smarte Geräte sind Standard und nicht nur unsere Telefone und Tablets, auch Fernseher, Kühlschränke und Heizungen kommunizieren mittlerweile über das Internet miteinander und mit uns. Die…

Smart City ist noch ein spanisches Dorf, weckt aber Interesse

Vor allem Energieeffizienz ist attraktiv. Selbstfahrende Autos, energiesparende Bauweise, künstliche Intelligenz – kaum ein Tag vergeht ohne die Verlautbarung von Neuerungen in diesen Bereichen. Fragt man jedoch in der Bevölkerung nach Smart City, herrscht meist Schweigen im Walde. Nur knapp jedem Fünften ist der Begriff geläufig. Doch was verbindet man damit? Und welche Optionen wecken…

Smart City – Die Stadt der Zukunft

Mit intelligenter IT die Lebensqualität in Großstädten verbessern. 2050 werden zwei Drittel der Weltbevölkerung in Städten leben. Daraus ergeben sich völlig neue Herausforderungen. Mehr Menschen in Städten benötigen mehr Energie. Der Ressourcenverbrauch stößt in völlig neue Dimensionen. Das Gebot der Stunde lautet: Effizienz. Nicht nur, um den Energieeinsatz aus Gründen des Klimaschutzes zu minimieren. Städte…

»Smart City« : Wien international auf Platz Eins – Dienstleistungsmarkt für Smart Cities bietet großes Potenzial

Neuer »Smart City Index« von Roland Berger analysiert erstmals systematisch die Strategien der weltweiten Großstädte. Das Ranking: Wien, Chicago und Singapur sind die Städte mit den besten Strategieansätzen. 87 untersuchte Städte: Alle zeigen Verbesserungspotenzial – meist fehlt eine ganzheitliche Sicht. Weltweiter Markt für Smart-City-Lösungen wird sich voraussichtlich von aktuell 13 auf 28 Milliarden Dollar im…

Ein Hauch von Smart City: Munich City App für die Münchner Kult(ur) Nacht

Am 11. September findet die Münchner Kult(ur) Nacht bereits zum neunten Mal statt – mit einem besonderen Special: Mit der Munich City App bekommen Besucher immer die besten Angebote und Events auf ihr Smartphone und verpassen keines der Highlights und Schnäppchen, die auf sie warten. Die Munich City App ist bei Google Play und im…

Intelligente Städte – Wie Stream Processing reale Smart-City-Projekte zum Leben erwecken kann

Die öffentliche Diskussion rund um 5G, Digitalisierung und das Internet der Dinge bringen ein weiteres Thema auf die Agenda: Dass Interesse für das Thema Smart City wächst stetig, und es wurden -zumeist außerhalb Europas – bereits einige spannende Technologieprojekte realisiert. Immer mehr Regierungen unternehmen ernsthafte Schritte zur Modernisierung ihrer Infrastruktur, um die Herausforderungen des Bevölkerungswachstums…

Studie: E-Government ist beliebtestes Smart-City-Angebot der Zukunft

Öffentliches WLAN, Car-Sharing, intelligente Straßenlaternen: Die Studie des Marktforschungsinstituts Splendid Research GmbH beschäftigt sich mit dem Themenkomplex der Smart City. Dazu haben sich im Juli 2018 insgesamt 1.522 Stadtbewohner im Alter von 18 bis 69 Jahren online geäußert. Es ging um die Nutzung, die Beliebtheit sowie die Bekanntheit der breiten Smart-City-Auswahl. Dabei unterscheidet die Studie…

Smart-City-Studie zeigt wichtige Lektionen aus 22 smarten Städten weltweit, darunter Berlin

Die Studie »The Smart City Playbook« zeigt auf, welche unterschiedlichen Ansätze Städte auf dem Weg zur »Smart City« verfolgen [1]. Das Playbook enthält darüber hinaus konkrete Orientierungshilfen für Entscheider in Form von erfolgreichen Strategien, mit denen andere Stadtverwaltungen ihre Städte smarter, sicherer und nachhaltiger machen. Die Studie wurde von Nokia in Auftrag gegeben, die Daten…

Trends 2020: Hyperautomation und Smart Contracts als Game Changer

Mit dem stetigen Voranschreiten der digitalen Transformation in der Wirtschaft haben neue Technologien zur Automatisierung und Prozessoptimierung erfolgreich Einzug in Unternehmen gehalten. Der erste Schritt ist somit vollzogen, es müssen jedoch weitere Blickwinkel miteinbezogen werden, um den Weg der digitalen Transformation weiter erfolgreich zu beschreiten. Die Gartner Group hat in ihrem Thesenpapier »Top 10 Strategic…

Smart Roads: Mehr Intelligenz und Sicherheit für die Verkehrsinfrastruktur

Materialermüdung macht den Straßen und Brücken in Deutschland zu schaffen. Gründe hierfür sind Schwingungen durch den permanenten Verkehr sowie Korrosion, ausgelöst durch Tausalze im Winter. Damit kein Unglück passiert, werden hierzulande Brücken flächendeckend überwacht und auf Schäden untersucht: Alle sechs Jahre findet eine Hauptprüfung statt und alle sechs Monate erfolgt eine Sichtprüfung. Beginnen Schäden jedoch…

Smart Community: Hälfte der Europäer will digitalen Zugang zu öffentlichen Dienstleistungen

Verbraucher erwarten die Zusammenarbeit von Service Providern und Regierungen, um die erfolgreiche Akzeptanz eines Smart-Community-Projekts zu gewährleisten.   Juniper Networks hat zusammen mit YouGov eine neue Marktforschung präsentiert [1]. Diese zeigt, dass Verbraucher Fähigkeiten wie Interoperabilität und Cybersecurity über technologische Fortschritte wie 5G, Cloud, IoT und Automatisierung bei der Verwirklichung von Smart Communities stellen. Smart…

Viewing all 966 articles
Browse latest View live