Quantcast
Channel: Rechenzentrum – manage it
Viewing all 966 articles
Browse latest View live

Supercomputer: Rechner »Summit« hat die Power von 78.000 Playstations

$
0
0

Die weltweit leistungsfähigsten Rechnersysteme werden als Supercomputer bezeichnet. Die meisten dieser digitalen Giganten finden ihren Einsatz in der Industrie. Hier berechnen sie u.a. komplexe Simulationen. Die Infografik zeigt die Rechenleistung der leistungsstärksten Supercomputer weltweit im November 2018. Der Rechner »Summit« vom Hersteller IBM erzielt eine Leistung von rund 143.500 TeraFLOPS (21,23 Billiarden FLOPS). FLOPS steht dabei für Floating Point Operations Per Second und bezeichnet die Anzahl der ausführbaren (Gleitkomma-) Rechenoperationen pro Sekunde. Zum Vergleich: laut Angaben von Sony erreicht die Grafikeinheit der Spielekonsole Playstation 4 eine Rechenleistung von 1,84 TeraFLOPS. Umgerechnet in Konsolen entspricht die Leistung von Summit also der von rund 78.000 Sony Playstation 4.

Als schnellstes deutsches Rechensystem ist der Rechner SuperMUC-NG erstmals unter die in der Grafik gezeigten weltweiten Top-10 eingezogen. Der deutsche Superrechner vom Hersteller Lenovo hat es dabei knapp verpasst, sich an die europäische Spitze zu setzen: Vor ihm liegt noch Piz Daint aus der Schweiz.

Die im Halbjahres-Rhythmus veröffentlichte Top-500-Liste der rechenstärksten Computer ist ein Indikator dafür, wo Forschung mit Big Data am intensivsten betrieben wird. Die meisten dieser Rechner stehen in China. Matthias Janson

https://de.statista.com/infografik/16589/rechenleistung-der-leistungsstaerksten-computer-weltweit/

 

4 search results for „Supercomputer“

Die Top-500-Liste der Supercomputer

Die aktuelle Top-500-Liste der weltweit leistungsfähigsten Supercomputer hat ein Jubiläum: In dieser Woche erschien die 50. Ausgabe. Seit 25 Jahren werden nun die Leistungen der Supercomputer am Linpack-Benchmark gemessen, und seit einigen Jahren gibt es auch eine Liste für die energieeffizientesten Höchstleistungscomputer, die Green-500-Liste. China legt zu und überholt die USA Es ist schwieriger geworden,…

Die Top 10 der Supercomputer

Lenovo ist eines der – wenn nicht sogar das – führende Unternehmen auf dem weltweiten PC-Markt. Das bedeutet Konzernchef Yang Yuanqing indes nur wenig. Er plant, den chinesischen Elektronikkonzern künftig ganz auf Supercomputer und Datencenter auszurichten. Die Grundlage für ersteres ist auf jeden Fall bereits da. 85 der aktuell 500 leistungsstärksten Supercomputer weltweit hat Lenovo…

Blockchains: Supercomputer-Leistung für die Sicherheit

Blockchains sind spezielle Datenbanken, die Transaktionsdaten ohne eine zentrale Kontroll-Instanz, ohne die Notwendigkeit gegenseitigen Vertrauens und mit vollkommener Transparenz verwalten können. Die größte und bekannteste öffentliche Blockchain ist die von Bitcoin – sie läuft auf einem Netzwerk von aktuell etwa 5600 Servern im Internet und führt am Tag über 240.000 Transaktionen durch. Das ist in…

Supercomputer im Kampf gegen Internetkriminalität

Cyber Reconnaissance and Analytics analysiert potenzielle Schwachstellen aus Angreifersicht und ermöglicht so die proaktive Erkennung und effiziente Bekämpfung von Cyberbedrohungen. Deloitte Advisory Cyber Risk Services und der Anbieter von Supercomputern, Cray bringen mit Cyber Reconnaissance and Analytics den ersten kommerziellen Service für die ultraschnelle Bedrohungsanalyse auf Grundlage von Supercomputing-Technologie auf den Markt. Der abonnementbasierte Service…

Die schnellsten Rechner der Welt: Jülicher Supercomputer weiterhin in den Top 10

Der Jülicher Supercomputer JUQUEEN belegt als schnellster deutscher Rechner den achten Platz auf der TOP500-Liste vom November 2014. Dabei handelt es sich um die halbjährlich aktualisierte Liste der schnellsten Rechner der Welt. JUQUEEN am Jülich Supercomputing Centre (JSC) erzielt mit insgesamt 458.752 Rechenkerne eine Spitzenleistung von 5,9 Petaflops oder, anders ausgedrückt, 5,9 Billiarden Rechenoperationen pro…

Datenautobahn: Wie Unternehmen Datenschätze heben, die auf der Straße liegen

Die Elektromobilität wird dazu führen, dass Fahrzeuge und Infrastrukturen riesige Datenströme generieren. In dieser Daten-Goldgrube verstecken sich viele Hinweise darauf, wie Unternehmen ihre Angebote und Produkte verbessern, aber auch die Kundenzufriedenheit steigern können. Wer den Datenschatz heben möchte, benötigt eine übergreifende Datenplattform und KI-Lösungen mit Maschine-Learning-Komponenten. In den Medien generiert das Thema Elektromobilität derzeit interessante…

Musikumsatz: The Times They Are A-Changin‘

1999 war ein extrem umsatzstarkes Jahr für die US-Musikindustrie. 21,5 Milliarden US-Dollar wurden damals erwirtschaftet – davon 89 Prozent durch CDs. Gut möglich, dass sie damals in den Chefetagen der Major Labels dachten, dass es genau so weiter gehen würde. Tatsächlich sollte es aber erstmal für mehr als ein Jahrzehnt bergab gehen für die Branche,…

FIPS 140-2-Validierung: Sicherheitszertifikat für RDX-Verschlüsselung

Overland-Tandberg, Spezialist für Datenmanagement-, Backup- und Archivierungslösungen, hat die Hardwareverschlüsselung PowerEncrypt für RDX-Wechselplatten erfolgreich nach dem bedeutenden US-Sicherheitsstandard FIPS 140-2 validieren lassen. Produkte mit der begehrten FIPS 140-2-Validierung gelten als »vertrauliche« Produkte und stehen weltweit als Ausdruck von Datensicherheit und -integrität. In Europa gewährleistet FIPS 140-2 Verschlüsselungsstandards nach EU-DSGVO.   Die FIPS 140-2-validierte Verschlüsselung ist…

KI: Revolutionäre Technologie oder alles nur ein Hype?

Aktuell erscheint kaum eine Ausgabe der großen deutschen Tageszeitungen, in der nichts von künstlicher Intelligenz zu lesen ist. Die Bundesregierung will die Erforschung und Entwicklung von AI massiv fördern und fast jedes Unternehmen will davon profitieren. Doch wie soll das genau aussehen? Ist diese Technologie überhaupt marktreif? Welche Kosten sind damit verbunden? Michael Jores, Regional…

Künstliche Intelligenz: Die meisten Menschen würden sich nicht von Robotern operieren lassen

61 Prozent der Deutschen würden OP durch menschlichen Chirurgen anstatt Roboter vorziehen. Verbraucher erkennen Potenzial von KI im Gesundheitswesen, geben aber ungern Kontrolle über ihre Daten ab.   Laut einer aktuellen Umfrage ziehen 61 Prozent der Deutschen einen menschlichen Chirurgen einem Roboter vor, selbst wenn es den anschließenden Heilungsprozess beschleunigen würde. Betrachtet man alltäglichere Szenarien,…

Die Entwicklung von Big Data zu Fast Data

Das »Warum« der Datenverarbeitung liegt auf der Hand, wenn man die große Anzahl von Sensoren, vernetzten Geräten, Websites oder mobilen Anwendungen betrachtet; oder einfach alle Daten, die sowohl von Menschen als auch von Maschinen erzeugt werden. Die immensen, rasch ansteigenden Datenberge erfordern kontinuierlich leistungsfähigere Ansätze zur Datenverarbeitung. Open Source spielt dabei nach Meinung der data…

2019, das Quanten-Jahr? Das nicht, aber das Jahr um sich darauf vorzubereiten

Vor einigen Wochen veröffentlichte die National Academies of Sciences, Engineering and Medicine einen neuen Bericht, in dem sie Fortschritte und Perspektiven – oder deren Fehlen – rund um das Thema Quantencomputer – untersucht hat [1]. Der Report skizziert verschiedene technische und finanzielle Probleme, die es zu überwinden gilt, bevor man einen funktionsfähigen Quantencomputer bauen kann.…

480 neue Bedrohungen pro Minute

IoT-Malware steigt um 73 Prozent. Krypto-Malware breitet sich weiter rasant aus. Finanzsektor erlitt 20-prozentigen Anstieg in Datenverlusten.    Der neue McAfee Labs Threats Report untersucht die Entwicklungen von Cyberangriffen des dritten Quartals 2018 [1]. Der Report verzeichnet durchschnittlich 480 neue Bedrohungen pro Minute und einen starken Anstieg jener Malware, die auf IoT-Geräte abzielt. Auch Krypto-Mining-Malware…

Deutsche Verbraucher erhoffen sich durch künstliche Intelligenz bessere Karrierechancen

44 Prozent der Deutschen glauben nicht, dass sie ihren Arbeitsplatz an künstliche Intelligenz verlieren. 38 Prozent erhoffen sich bessere Karrierechancen durch neue Technologien.   Laut einer aktuellen Umfrage glauben 44 Prozent der Deutschen nicht, dass sie aufgrund von künstlicher Intelligenz (KI) ihren Arbeitsplatz verlieren, sondern erwarten durch neue Technologien noch interessantere Karrierechancen (38 Prozent). Die…

Blick in die Sicherheits-Kristallkugel für 2019

  Der Schutz von Kundendaten sollte an oberster Stelle stehen. Händler müssen grundlegende Sicherheitsmaßnahmen, wie Verschlüsselung an jedem Kontaktpunkt einsetzen, innerhalb der gesamten Lieferkette, am Einkaufsort und am Bestimmungsort. Für Unternehmen ist es unerlässlich, sich auf Kryptographie-Ansätze für das Zeitalter der Quantenrechner und die Post-Quantum-Welt zu vorzubereiten. 2019 könnte der Höhepunkt im Hype-Zyklus um Blockchain…


Cybersicherheit und Container – So funktioniert die Umstellung auf DevSecOps

$
0
0

Illustration: Absmeier, Pixel2013

Die schnelle Einführung von Containern im Unternehmen sind eine einzigartige Gelegenheit dar, die generelle Sicherheitsstrategie zu verändern. Container stellen eine gute Möglichkeit dar, die Kluft zwischen Entwicklungs- und Sicherheitsteams zu überbrücken. Ist es möglich, dass Container das Unternehmen einen Schritt näher an DevSecOps heranbringen? Palo Alto Networks nimmt das Thema unter die Lupe.

Computing hat mehrere Entwicklungen durchlaufen. Die erste Welle war der Client-Server, der auf Bare Metal mit einem einzigen Betriebssystem und typischerweise einer Anwendung läuft. Die zweite Welle kam, als VMware 2001 in den Servermarkt einstieg. Dies läutete das Zeitalter des virtualisierten Computings ein. Die dritte Welle bringt die Gegenwart mit Containern. Die Einführung von Containern steht für die Geschwindigkeit von DevOps und den Wunsch, Anwendungen mobil zu machen. Derzeit noch nicht weit verbreitet im Unternehmen ist die vierte Evolution: Serverless oder Function as a Service (FaaS). Dies stellt eine vollständige Abstraktion des Computings dar, wobei der Verbraucher hardware- und betriebssystemunabhängig ist. Die beiden bekanntesten Implementierungen von FaaS sind Google Cloud Functions und AWS Lambda.

 

Sicherheit aufbauen

Sicherheit in die Container-Build-Phase zu bringen, bedeutet, sich auf die physische Konstruktion zu konzentrieren. Das Erste, was vor dem Bau eines Hauses ansteht, ist festzulegen, wie der gewünschte Endzustand aussehen soll. Bei der Containersicherheit ist das nicht anders, wie Palo Alto Networks berichtet. Die Sicherheit in der Bauphase sollte sich auf die Beseitigung von Schwachstellen, Malware und unsicherem Code konzentrieren. Da Container aus Bibliotheken, Binärdateien und Anwendungscode bestehen, ist es wichtig, dass Unternehmen ein offizielles Containerregister einrichten, wenn es nicht bereits existiert. Es ist die Aufgabe des Sicherheitsteams, hier Sicherheitsstandards umzusetzen.

Das Hauptziel der Identifizierung und Erstellung einer Standard-Container-Registry ist die Erstellung vertrauenswürdiger Images. Ein Prozess muss festgelegt und automatisch durchgesetzt werden, dass kein Container aus einer nicht-vertrauenswürdigen Registry bereitgestellt wird. Mit über zwei Millionen Dockerized-Anwendungen ist Docker Hub wahrscheinlich das bekannteste Containerregister. Das bedeutet, dass es auch eine ideale Basis ist, um ein Gespräch mit den Entwicklern zu beginnen.

 

Sicherheit bereitstellen

In der Bereitstellungsphase verlagert sich der Fokus darauf, dass die Teams die Dinge richtig zusammenstellen. Es kann ein Image vorliegen, das zwar keine Schwachstellen aufweist, aber wenn es auf einem unsicher konfigurierten Kubernetes-Pod bereitgestellt wird, ist das Containerrisiko nicht ausreichend berücksichtigt. Ein Beispiel dafür ist dieser Fall: Die Bedrohungsforschung von Palo Alto Networks ergab, dass 46 Prozent der Unternehmen den Traffic zu Kubernetes-Pods von jeder Quelle akzeptieren.

In der On-Prem-Welt ist dies gleichbedeutend mit der Bereitstellung eines Servers und dem anschließenden Offenlassen des Servers für das Internet. Unternehmen würden dies vor Ort nicht tolerieren, warum aber machen genau das fast die Hälfte der Unternehmen in der Public Cloud? Die Bereitstellung einer sicheren Konfiguration kann durch die Annahme eines Sicherheitsstandards sowohl für die Orchestrierung als auch für die Container-Engine der Wahl erreicht werden. Nicht zu vergessen ist, die notwendigen Prozesse und Tools für die Automatisierung und Überwachung zu installieren. Das Center for Internet Security (CIS) hat hier hervorragende Arbeit geleistet, um Sicherheitsstandards für Docker und Kubernetes zu schaffen, was sich als Ausgangspunkt anbietet. Wenn die Sicherheit richtig umgesetzt ist, sollte nur das »Gute« es in die Runtime schaffen.

 

Runtime-Sicherheit

Bei der Laufzeitsicherheit geht es darum, neue Schwachstellen in laufenden Containern zu identifizieren und zu wissen, wie der Normalzustand aussieht. Dazu gehört auch die Untersuchung verdächtiger/anomaler Aktivitäten, die auf Zero-Day-Angriffe hinweisen könnten. Wenn das Sicherheitsteam von Anfang an dabei war (Build-Phase), ist es weitaus weniger komplex, Runtime-Sicherheit umzusetzen, anderenfalls ist es am besten, rückwärts zu arbeiten. Es ist wichtig, zu gewährleisten, dass der Endzustand sicher ist. Wenn man sich aber nur auf die Laufzeit konzentriert, werden die gleichen Probleme wahrscheinlich immer wieder auftreten. Interessanterweise stellte das IBM Systems Sciences Institute fest, dass die Kosten für die Behebung eines Fehlers während der Wartungsphase (d.h. der Laufzeit) 100-mal höher sind als bei der Konstruktion.

 

Einen Schritt näher in Richtung DevSecOps

Die schnelle Einführung von Containern im Unternehmen stellt eine einzigartige Möglichkeit dar, die Sicherheit zu verändern. Wenn Sicherheit von Anfang an in den Entwicklungszyklus integriert wird, werden sowohl das Sicherheitsteam als auch die Entwicklungsabteilung ein erhöhtes Verantwortungsbewusstsein spüren. Unternehmen können dies erreichen, indem sie ihre Sicherheitsbemühungen auf die Containersicherheitstriade Build, Deployment und Run konzentrieren. Sicherheitsteams, die dies im Rahmen einer ganzheitlichen Cloud-Sicherheitsstrategie umsetzen, werden feststellen, dass Container genau das sind, was sie brauchen, um DevSecOps einen Schritt näher zu kommen.

 

29 search results for „DevSecOps „

DevSecOps: Unternehmen müssen umdenken, um in der Softwareentwicklung erfolgreich zu sein

Hindernis für die Integration von Sicherheit in die gesamte Softwareentwicklung sei laut der weltweiten Studie die bestehende Unternehmenskultur.   Im Zentrum der weltweiten Studie »Integrating Security into the DNA of Your Software Lifecycle« von CA Technologies stand die Frage, wie sich die Kultur eines Unternehmens auf dessen Fähigkeit auswirkt, Sicherheit in den gesamten Software-Entwicklungsprozess einzubinden.…

DevSecOps: Wie sich Microservices auf die Anwendungssicherheit auswirken

Die Architektur von Software verändert sich grundlegend – Microservices sind auf dem Vormarsch. Drei zentrale Herausforderungen, die das für die Anwendungssicherheit mit sich bringt. Microservices sind im Software Development schon seit mehreren Jahren auf dem Vormarsch. Viele kleine Services anstatt einzelner monolithischer Applikationen zu entwickeln, bietet in der Tat zahlreiche Vorzüge. Eine kleine Auswahl der…

SecDevOps – Agilität braucht Sicherheit

Agiles Programmieren ist für die meisten Unternehmen und Entwickler mittlerweile Standard. Die bekanntesten Frameworks (Scrum, XP usw.) werden in vielen Entwicklungsteams angewendet und bieten für Teams, Unternehmen und Kunden eine Reihe von Vorteilen. Gleichzeitig bergen sie aber auch Risiken – gerade was die Sicherheit angeht. Unternehmen müssen hier handeln, denn ohne Sicherheit gibt es keine…

Neue Verfahren für die IT-Sicherheit: Mit Simulationen so agil werden wie die Cyberangreifer selbst

Cyberangriffe, Ransomware, Malware oder Phishing-Attacken: die Liste potenzieller Bedrohungen für die IT-Sicherheit eines Unternehmens ist lang und schier unerschöpflich. Obwohl die Angriffsmethoden immer komplexer werden und sich stetig weiterentwickeln, nutzen die meisten Unternehmen weiterhin reaktive, technologiebasierte Lösungen zum Schutz ihrer IT-Infrastruktur. Doch Endpoint-Security und Firewalls allein reichen als Schutz längst nicht mehr aus. Kontinuierliche Simulationen…

Neue Software-Exposure-Plattform für anspruchsvolle Industrie 4.0- und IoT- Umgebungen

Checkmarx bleibt auf Wachstumskurs und startet mit größerem Team in der DACH-Region durch. Checkmarx, einer der weltweit führenden Anbieter im Bereich Software-Security, verzeichnete im Geschäftsjahr 2018 ein Umsatzplus von 60 Prozent. Das Rekordergebnis geht in erster Linie auf das starke Neukundengeschäft zurück: Checkmarx gewann 2018 weltweit über 400 neue Enterprise-Kunden. Die Lösungen sind heute bei…

Musikumsatz: The Times They Are A-Changin‘

1999 war ein extrem umsatzstarkes Jahr für die US-Musikindustrie. 21,5 Milliarden US-Dollar wurden damals erwirtschaftet – davon 89 Prozent durch CDs. Gut möglich, dass sie damals in den Chefetagen der Major Labels dachten, dass es genau so weiter gehen würde. Tatsächlich sollte es aber erstmal für mehr als ein Jahrzehnt bergab gehen für die Branche,…

DevOps und der »Shift-Left -Trend in drei Schritten

Wir leben in einer agilen Zeit. Das heißt unter anderem, dass Produkte immer schneller und dabei in immer besserer Qualität zur Verfügung stehen müssen. Konventionelle Entwicklungsmodelle sind für die Anforderungen des digitalen Zeitalters ungeeignet. Sie werden nach und nach von DevOps-Konzepten abgelöst, die sich durch zahlreiche Prozessoptimierungen auszeichnen.   Bei der Softwareentwicklung ist dabei ein…

Das IT-Jahr 2019 aus Open-Source-Sicht

  Kaum hat das Jahr begonnen, schauen wir gespannt auf die IT-Trends die Unternehmen 2019 unbedingt im Blick haben sollten. Open-Source-Experte Michael Jores, verantwortlich für die Geschäfte von SUSE in Zentraleuropa, erwartet für 2019 viele beachtenswerte Entwicklungen: Die Blockchain wird immer mehr auch außerhalb der Finanzwelt eingesetzt werden: Durch Kryptowährungen ist die Blockchain eng mit…

Happy 2019: Auf was wir uns im Bereich Development freuen dürfen

Microservices und Container bestimmen die Datenbank der Zukunft. Immer mehr Entwickler nutzen Microservices für die Erstellung neuer Apps. Mit deren Hilfe können sie spezifische und auf ihre Anforderungen angepasste Komponenten nutzen, die ihren Job sehr gut erledigen. Sind sie erfolgreich, lassen sie sich schnell und problemlos skalieren. Allerdings erzeugen all diese Komponenten natürlich Daten. Und…

State of Software Security Report: Europäische Unternehmen müssen in 2019 nachrüsten

Organisationen in Europa hinken den Benchmarks für die Behebung offener Schwachstellen weit hinterher. Unternehmen mit DevSecOps-Programmen beheben Fehler mehr als 11,5-mal schneller.   Veracodes Bericht zum »State of Software Security« (SoSS) enthält vielzählige Anzeichen dafür, dass DevSecOps mehr Sicherheit und Effizienz für Unternehmen bieten. Dafür besteht in Europa allerdings noch einiges an Nachholbedarf, da die…

Das Verharren in alten Strukturen und unzureichende Security-Maßnahmen bremsen DevOps aus

Viele Unternehmen in Deutschland haben erkannt, dass die digitale Transformation mit den herkömmlichen Methoden der Softwareerstellung und Auslieferung nur unzureichend unterstützt werden kann, dennoch dominieren die klassischen, stark strukturierten und in sich geschlossenen Vorgehensweisen weiterhin. Sie bremsen die Forderungen der Fachabteilungen nach Agilität, Schnelligkeit und Flexibilität bei der Softwarebereitstellung aus. Das bringt erhebliche Risiken für…

Tipps zum Testen komplexer Microservice-Architekturen

Microservices bieten etliche Vorteile, für das Testing ergeben sich aber neue Herausforderungen, denn die Komplexität nimmt deutlich zu. Das Münchner IT-Unternehmen Consol zeigt, welche Herausforderungen bestehen und welche Maßnahmen ergriffen werden müssen, um ein effizientes Testen sicherzustellen.   Microservices entwickeln sich immer mehr zur State-of-the-Art-Systemarchitektur, da sie zahlreiche Vorteile bieten, beispielsweise hohe Agilität, Flexibilität und…

Anwendungsarchitektur ist der neue Schlüssel für Unternehmenswachstum

Deutsche Führungskräfte werden immer aktiver in puncto Softwareentscheidungen.   Deutsche Unternehmen bewerten moderne Anwendungsarchitekturen als einen wesentlichen Treiber für das Geschäftswachstum. Das ist das wichtigste Ergebnis einer globalen Umfrage unter 1 087 IT- und Geschäftsführern, davon 410 in Europa, von CA Technologies und dem Branchenanalystenunternehmen Frost & Sullivan [1]. Der auf Grundlage der Studie erstellte…

Security-Sorgenkind DevOps – wie schützen Unternehmen sich richtig?

Mittlerweile hat sich DevOps für viele Unternehmen zu einem Wettbewerbsvorteil entwickelt. Doch bereitet die Security vielen IT-Verantwortlichen noch immer Bauchschmerzen. Mit DevOps steht Unternehmen eine nützliche Methode zur Prozessverbesserung in Rahmen der Systemadministration und Softwareentwicklung zur Verfügung: Gemeinsame Tools in der Entwicklung, im IT-Betrieb und der Qualitätssicherung ermöglichen eine effizientere Zusammenarbeit. Zudem bieten sie mehr…

Quantencomputing-Effekte einfach nutzen – Digital Annealing revolutioniert Problemlösungen

$
0
0

Superposition – Zwei Zustände zur gleichen Zeit?
Mehr über Schroedingers Gedankenexperiment zur Quantenpysik
https://youtu.be/bitYXYlmT2Y

 

Quantencomputer haben zweifellos das Potenzial, die IT-Welt nachhaltig zu verändern. Denn sie bieten eine vielfach höhere Rechenleistung als konventionelle Rechner. Doch bislang sind Quantenrechner wegen ihrer komplexen Technologie meist nur in Forschungslaboren anzutreffen. Lösungen wie der Quantencomputing-inspirierte Digital Annealer machen diese Quantencomputing-Effekte für Unternehmen einfach nutzbar.

Ein Grund dafür ist, dass die Digital-Annealing-Technologie ohne aufwendige Vorkehrungen auskommt, die bei einem »echten« Quantenrechner erforderlich sind: Solche Systeme erfordern eine Kühlung des Rechners fast bis auf den absoluten Nullpunkt (-273 Grad Celsius). Außerdem müssen klassische Quantencomputer vor elektromagnetischer Strahlung und Erschütterungen geschützt werden. Ein klassisches Unternehmensrechenzentrum mit 19-Zoll-Racks kommt daher als Standort eines Quantenrechners nicht in Betracht. 

Anders bei der Digital-Annealing-Technologie von Fujitsu: Ihr Herzstück ist ein spezieller Prozessor, der in konventioneller, Silizium-basierter Halbleitertechnik hergestellt wird und in herkömmliche IT-Infrastrukturen integriert werden kann. Diese Digital Annealing Unit (DAU) simuliert aufgrund einer speziellen Prozessorarchitektur Effekte des Quantencomputings und sorgt bei bestimmten Anwendungen, wie etwa der Lösung kombinatorischer Optimierungsprobleme, für immense Beschleunigungen im Vergleich zu herkömmlichen Rechnern. Berechnungen, die bislang Minuten oder gar Stunden dauern, sind damit in Sekundenschnelle möglich. Dies eröffnet gänzlich neue Ansätze – beispielsweise bei der (Neu-)Disposition von Produktions- oder Logistikabläufen in Echtzeit.

»Glühen« auf digitaler Ebene. Die hohe Rechenleistung von Quantencomputern ist auf folgenden Faktor zurückzuführen: Klassische Rechner arbeiten mit Bits, »kennen« also nur die Zustände 0 oder 1. Quantencomputer nutzen dagegen Qubits. Sie können drei Zustände einnehmen: 0, 1 sowie einen beliebigen dazwischen – die Superposition. Dadurch ist ein solcher Rechner in der Lage, viel mehr Möglichkeiten simultan zu berechnen als ein herkömmliches System. 

Dieses Prinzip simuliert die Digital-Annealing-Technologie, weshalb Experten hierbei von »quantum-computing inspired computing« sprechen. Die technische Grundlage des Annealings ist ein Simulationsverfahren, das Eigenschaften des Quantentunnel-Effekts nutzt. »Annealing« bedeutet eigentlich »Glühen«. Es beschreibt einen Effekt, der beim Bearbeiten von Metall auftritt: Wird beispielsweise Stahl zum Glühen gebracht und anschließend auf kontrollierte Weise abgekühlt, lassen sich dem Metall bestimmte Eigenschaften »mitgeben«, etwa eine geringere Sprödigkeit. 

Einen ähnlichen Ansatz verwenden Hersteller von Quantenrechnern. Sie verwenden statt Hitze starke Magnetfelder, um die Quanten-Bits zu kontrollieren und in die Superposition zu manövrieren. Fujitsu hat beim Digital Annealing diesen Mechanismus in konventioneller Halbleitertechnologie gewissermaßen nachgebaut. Ein Digital Annealer teilt ein Problem in viele Teilaspekte auf, die simultan in einzelnen Threads bearbeitet werden. Das Ganze läuft in iterativen Schritten ab. Das heißt, in vielen parallelen Berechnungen nähert sich der Digital Annealer der optimalen Lösung für ein Problem an. Durch diesen Ansatz können Unternehmen und Forschungseinrichtungen mit einem solchen System bereits heute mit überschaubarem Aufwand Erfahrungen mit Quantencomputing-Effekten und entsprechenden Anwendungen sammeln.

Ein Klassiker: Das Problem des Handlungsreisenden. Solche Systeme sind für Berechnungen prädestiniert, in denen viele mögliche Kombinationen anfallen. Ein klassisches Beispiel ist das »Problem des Handlungsreisenden«. Ein Vertriebsmitarbeiter will Kunden in fünf Städten besuchen. Seine Vorgabe: Jeder Kunde und damit jede Stadt wird nur einmal aufgesucht. Nun soll die optimale, sprich kürzeste Reiseroute berechnet werden. 

Bereits bei der überschaubaren Zahl von fünf Orten ergeben sich 120 mögliche Routen. Bei 32 Städten ist eine exponentielle Zunahme der Optionen festzustellen – auf 2,63 x 1035 mögliche Varianten, die analysiert werden müssen. Während selbst Highend-Server für derartige Berechnungen meist Stunden benötigen, können Digital-Annealing-Systeme solche Probleme in Sekundenschnelle lösen.

Einsatzbeispiel: Optimierung von Wegen in der Logistik. Vor ähnlichen Herausforderungen wie der fiktive Handlungsreisende stehen Fachleute in Bereichen wie der Logistik. Auch dort ist es notwendig, Transportwege zu reduzieren. Ein Beispiel ist die Lagerlogistik in Fertigungsumgebungen. Die Herausforderung besteht darin, mit möglichst geringem Aufwand Material aus dem Lager zu den Fertigungssystemen zu transportieren. Dieser Faktor wird immer wichtiger, weil der Trend in Richtung individuelle Produkte geht. Das heißt, je nach Bestellung müssen an den Bearbeitungsstationen unterschiedliche Rohmaterialien angeliefert werden.

Mithilfe des Digital Annealings kann ein Unternehmen die optimale Route ermitteln, die Lagerarbeiter nehmen müssen, um die benötigen Materialien aus den Regalen zu entnehmen und zum Bearbeitungsort zu transportieren. Außerdem kann ein Quantencomputing-inspiriertes System berechnen, wo und wie die Regale am besten platziert werden müssen. Auch bei akuten Störungen lassen sich Neudispositionen in Echtzeitbedingungen umsetzen.

In Forschung und Entwicklung spielt das Digital Annealing ebenfalls seine Vorteile aus, etwa in der Chemie und Pharmazie. Dort suchen Forscher häufig nach Molekülen, die einander ähneln. Solche Arbeiten können mithilfe von Quantencomputing-inspirierten Technologien deutlich schneller durchgeführt werden. Dadurch ist es möglich, neue Medikamente und Kunststoffe wesentlich rascher und kostengünstiger als bisher zu entwickeln.

 

Das Herzstück des Digital Annealer: Die Digital Annealing Unit ist dafür ausgelegt, komplexe kombinatorische Problemstellungen zu lösen, die konventionelle Rechner überfordern. Für Unternehmen bietet es sich an, Quantencomputing-inspirierte Systeme »as a Service« in Form eines Cloud-Dienstes zu buchen. Aber auch Installa­tionen im eigenen Rechenzentrum sind eine denkbare Variante.

 

Komplexe Analysen im Finanzbereich. Zu den Branchen, die in besonderem Maße für den Einsatz von Quantencomputing oder Quantencomputing-inspirierten Lösungen prädestiniert sind, zählt der Finanzsektor. So hat Fujitsu beim britischen Finanzdienstleister NatWest ein »Proof of Concept«-Projekt (PoC) umgesetzt. Das Unternehmen nutzt die Fähigkeiten des Digital Annealers, um seinen Bestand an hochwertigen liquiden Vermögenswerten zu optimieren, etwa Bonds, Bargeld und Staatsanleihen. Das heißt, es müssen ständig Tausende von Optionen überprüft werden, um eine optimale Rendite bei einem akzeptablen Risiko zu erzielen.

Fachleute der Bank sind mit dem Digital Annealer in der Lage, komplizierte Berechnungen 300-mal schneller durchzuführen als mit Standardrechnern, und das zudem mit einer höheren Genauigkeit. Außerdem verringert der Einsatz des Systems das Risiko von menschlichen Fehlern. 

Leichter Einstieg per Cloud. Unternehmen, die eine High-Performance-Computing-Lösung wie den Digital Annealer nutzen möchten, müssen nicht zwangsläufig ein solches System im eigenen Rechenzentrum implementieren. Eine Möglichkeit besteht darin, die Ressourcen »as a Service« zu buchen, also als Cloud-Dienst. Der Digital Annealer Cloud Service wird über Application Programming Interfaces (APIs) an die Unternehmens-IT angebunden. Wichtig ist allerdings, dass Nutzer auf die Unterstützung von externen Fachleuten zurückgreifen können. Denn Quantencomputing-inspirierte Rechner erfordern ein spezielles Know-how. So müssen Problemlösungen und die damit verknüpften Fragestellungen in spezielle mathematische Modelle und Applikationen umgesetzt werden, die ein Digital Annealer verwenden kann. So ist es notwendig, die Ausgangsfragen in QUBO (Quadratic Unconstrained Binary Optimization) zu »übersetzen«. 

Hilfestellung bei solchen Aufgaben sowie bei der Implementierung und dem Betrieb eines Quantencomputing-inspirierten Rechners gibt beispielsweise der Digital Annealer Technical Service von Fujitsu. Solche Services sind auch dann hilfreich, wenn ein Unternehmen einen Digital Annealer im eigenen Rechenzentrum implementieren möchte. 

Ausblick: Mehr Rechenkapazität und höhere Präzision. Die Leistung Quantencomputing-inspirierter Systeme steigt derzeit massiv: Die im März 2019 vorgestellte zweite Generation des Digital Annealers von Fujitsu unterstützt Modelle bis zu einer Größe von 8.192 Bit, achtmal mehr als die erste Generation. Die Genauigkeit steigt von 16 Bit auf 64 Bit. Damit sind die Systeme in der Lage, noch komplexere Berechnungen durchzuführen als bislang. 

Solche Leistungssteigerungen sind alles andere als eine »technische Spielerei«. Denn eines ist klar: Herkömmliche Rechner stoßen in vielen Bereichen an ihre Leistungsgrenzen. Somit gehört die Zukunft Technologien wie dem Digital Annealing.


Christian Leutner,
Vice President and
Head of Product Sales
bei Fujitsu

 

 

 

Bilder: © Studio Barcelona/shutterstock.com, Fujitsu

 

27 search results for „Quanten Computer“

Quantum-Flagship: Gemeinsam zum europäischen Quantencomputer

Start der europäischen Forschungsinitiative »Quantum Flagship«. Mehr als 5000 Forscherinnen und Forscher aus Wissenschaft und Industrie sind daran beteiligt. Quantentechnologien in Europa vom Forschungslabor in die Alltagstechnik übersetzen: Das ist das Ziel der Forschungsinitiative »Quantum-Flagship«, die heute mit einer Auftaktveranstaltung in Wien offiziell startet. Mit einem Budget von einer Milliarde Euro und einer Laufzeit von…

Wir alle werden mit Quantencomputern arbeiten

Es ist keine Frage des »Ob«, es geht um das »Wann«. Wann werden wir den ersten Quantencomputer einsetzen und dank datenbasierter Muster präzise Vorhersagen von Kundenbedürfnissen generieren? Wann werden wir Zukunftsszenarien und Geschäftsprozesse so real simulieren können, dass sich das kommende Geschäftsjahr bereits im Hier und Jetzt abbilden lässt? Die Zahl aktiver Vorreiter wächst in…

Wissenschaftler erzielen Meilenstein in der Erforschung von praxistauglichen Quantencomputern

Wissenschaftler des IBM Thomas J. Watson Research Centers haben einen Schaltkreis aus vier, in einem quadratischen Gitter angeordneten Quantenbits erfolgreich entwickelt. Dieser entspricht der kleinsten vollständigen Einheit eines skalierbaren Quantencomputers mit Quantenfehlerkorrektur. Die IBM-Forscher konnten mit ihrer Arbeit erstmals die zwei Arten von Quantenfehlern (sogenannte Bit-flip- und Phase-flip-Fehler), die in jedem Quantencomputer auftreten können, erkennen…

Supercomputer: Rechner »Summit« hat die Power von 78.000 Playstations

Die weltweit leistungsfähigsten Rechnersysteme werden als Supercomputer bezeichnet. Die meisten dieser digitalen Giganten finden ihren Einsatz in der Industrie. Hier berechnen sie u.a. komplexe Simulationen. Die Infografik zeigt die Rechenleistung der leistungsstärksten Supercomputer weltweit im November 2018. Der Rechner »Summit« vom Hersteller IBM erzielt eine Leistung von rund 143.500 TeraFLOPS (21,23 Billiarden FLOPS). FLOPS steht…

2019, das Quanten-Jahr? Das nicht, aber das Jahr um sich darauf vorzubereiten

Vor einigen Wochen veröffentlichte die National Academies of Sciences, Engineering and Medicine einen neuen Bericht, in dem sie Fortschritte und Perspektiven – oder deren Fehlen – rund um das Thema Quantencomputer – untersucht hat [1]. Der Report skizziert verschiedene technische und finanzielle Probleme, die es zu überwinden gilt, bevor man einen funktionsfähigen Quantencomputer bauen kann.…

Ein Quantensprung für die Quantentechnologie

Im Oktober 2018 ist das Quantentechnologie-Flaggschiff der Europäischen Kommission vom Stapel gelaufen. Das Forschungsprogramm soll mit Fördergeldern im Umfang von einer Milliarde Euro über zehn Jahre hinweg die Entwicklung von Produkten fördern, die auf den Regeln der exotischen Quantenwelt beruhen. Zusätzlich wird die Bundesregierung in der laufenden Legislaturperiode rund 650 Millionen Euro beisteuern. Zu den…

Supercomputer im Kampf gegen Internetkriminalität

Cyber Reconnaissance and Analytics analysiert potenzielle Schwachstellen aus Angreifersicht und ermöglicht so die proaktive Erkennung und effiziente Bekämpfung von Cyberbedrohungen. Deloitte Advisory Cyber Risk Services und der Anbieter von Supercomputern, Cray bringen mit Cyber Reconnaissance and Analytics den ersten kommerziellen Service für die ultraschnelle Bedrohungsanalyse auf Grundlage von Supercomputing-Technologie auf den Markt. Der abonnementbasierte Service…

Quantencomputing für Jedermann über die Cloud

IBM Research macht erstmals einen Quantencomputer öffentlich zugänglich. Ab sofort kann jeder Interessierte mittels Desktop-Computer oder Mobilgerät über die IBM Cloud auf einen Quantenprozessor bestehend aus fünf Quantenbits (Qubits) zugreifen und Experimente durchführen. Der freie Zugang soll Innovationen hin zum praktischen Einsatz von Quantencomputern beschleunigen. Für IBM ist die Quantentechnologie die Zukunft der Informationsverarbeitung. Sie…

FIPS 140-2-Validierung: Sicherheitszertifikat für RDX-Verschlüsselung

Overland-Tandberg, Spezialist für Datenmanagement-, Backup- und Archivierungslösungen, hat die Hardwareverschlüsselung PowerEncrypt für RDX-Wechselplatten erfolgreich nach dem bedeutenden US-Sicherheitsstandard FIPS 140-2 validieren lassen. Produkte mit der begehrten FIPS 140-2-Validierung gelten als »vertrauliche« Produkte und stehen weltweit als Ausdruck von Datensicherheit und -integrität. In Europa gewährleistet FIPS 140-2 Verschlüsselungsstandards nach EU-DSGVO.   Die FIPS 140-2-validierte Verschlüsselung ist…

7 Fragen für einen effizienten CISO: Die Datenschutzresolution 2019

Wir schreiben das Jahr 2019. Daten sind omnipräsent und allein mit unseren Fingerspitzen agieren wir hochgradig transformativ. Das ändert, wie wir unsere Geschäftstätigkeit betrachten, macht uns produktiver und vereinfacht an vielen Stellen unser Leben. Sei es, dass wir sicher nach Hause finden, Lebensmittel online bestellen können oder entscheiden, was wir wann auf welchem Gerät ansehen.…

Verschlafen deutsche Unternehmen die Digitalisierung?

Lediglich sechs Prozent der deutschen Unternehmen haben die digitale Transformation bereits fest in ihrer DNA verankert. Der Großteil kämpft derzeit noch mit Hindernissen wie Datenschutz und Cybersicherheit. Zu diesen Ergebnissen kommt der aktuelle Digital Transformation Index von Dell Technologies.   Der Digital Transformation Index (DTI) wird von Dell Technologies in Zusammenarbeit mit Intel durchgeführt, um…

Blick in die Sicherheits-Kristallkugel für 2019

  Der Schutz von Kundendaten sollte an oberster Stelle stehen. Händler müssen grundlegende Sicherheitsmaßnahmen, wie Verschlüsselung an jedem Kontaktpunkt einsetzen, innerhalb der gesamten Lieferkette, am Einkaufsort und am Bestimmungsort. Für Unternehmen ist es unerlässlich, sich auf Kryptographie-Ansätze für das Zeitalter der Quantenrechner und die Post-Quantum-Welt zu vorzubereiten. 2019 könnte der Höhepunkt im Hype-Zyklus um Blockchain…

Langfristig sicherer Speicher für Gesundheitsdaten

Forscher der Technischen Universität Darmstadt, die im Sonderforschungsbereich CROSSING der Deutschen Forschungsgemeinschaft zusammenarbeiten, haben gemeinsam mit japanischen und kanadischen Partnern einen technologischen Prototypen entwickelt, der eine jahrzehntelange sichere Speicherung sensibler Gesundheitsdaten gewährleisten soll. Das Ergebnis der Kooperation präsentierten sie soeben während einer Fachkonferenz in Peking, China. Das System geht in den nächsten Wochen in Japan…

Blockchain bei Investoren immer beliebter

Der ganz große Kryptowährungsboom scheint langsam vorbei zu sein. Bitcoin und Co. geht die Puste aus, zumindest im Vergleich zu den Kursentwicklungen im Winter. Der aktuelle Preis liegt bei rund 6.500 US-Dollar – Ende 2017 lag die digitale Münze bei über 10.000 US-Dollar. Doch das dahintersteckende Blockchain-Prinzip, also eine kontinuierlich erweiterbare Liste an Datensätzen, lässt…

Digitalwährungen: Neue Kryptoprojekte bald so effizient wie Visa

Im Gegensatz zu Digitalwährungen wie Bitcoin, Ethereum, Dash, Litecoin, Nano und Ripple, bietet Visa als lang etabliertes Bezahlsystem energieeffiziente Transaktionen und verfügt über die größte Transaktionskapazität. Das geht aus einer Untersuchung der strategischen Unternehmensberatung LSP Digital hervor. Die hier betrachteten Krypto-Coins sind überwiegend weit davon entfernt, für Kundentransaktionen so attraktiv zu sein wie Visa. Vor…

Initial Coin Offerings: ICOs sind vor allem Selbstbeschäftigung innerhalb der Krypto-Bubble

Initial Coin Offerings (ICO) haben im Bereich von Blockchain und Kryptowährungen die »klassischen« Finanzierungswege in 2017 mit großem Abstand abgelöst. Aber worum geht es inhaltlich in diesen ICOs überhaupt? LSP Digital hat die Top 5 Kategorien von aktuell laufenden ICOs analysiert. Die Auswertung zeigt, dass es einen erheblichen Anteil an »Selbstbeschäftigung« gibt – soll heißen:…

Bitcoin-Hype: Was ist das echte Innovationspotenzial der Blockchain?

Auf die Blockchain-Technologie sind laut einer aktuellen Studie des Hasso-Plattner-Instituts (HPI) derzeit viele überzogenen Erwartungen gerichtet. Die Potsdamer Informatikwissenschaftler machen in ihrem Report »Blockchain – Hype oder Innovation?« (ISBN 978-3-86956-394-7) vor allem auf noch unzureichende Standardisierung und mangelnde Fähigkeit zur Zusammenarbeit zwischen den Blockchain-Systemen aufmerksam. Andererseits trage die zunächst für den Zahlungsverkehr mit dem virtuellen…

D2D2T hat ausgedient: Flash-to-Flash-to-Cloud ist das neue Datensicherungsmodell

$
0
0

Illustration: Absmeier

Auch wenn in den Köpfen vieler IT-Verantwortlicher aktuell noch Disk und Tape die dominierenden Medien rund um die Datensicherung – also unter anderem Backup – sind, so erwartet Pure Storage für die Zukunft hier einen Wandel hin zu neuen Speichermedien und Modellen. Konkret bedeutet dies: Flash und Cloud.

 

»In den letzten zehn Jahren gab es eine explosionsartige Zunahme von Daten. Gleichzeitig stellt die Einführung von Flash neue Leistungserwartungen an Rechenzentren. Hinzu kommt, dass Daten eine fundamentale Grundlage für das Geschäft moderner Unternehmen bilden. Diese Faktoren haben zusammengenommen dazu geführt, dass die Einführung von ambitionierten Recovery Time Objectives (RTOs), die bisher nur auf die kritischsten Workloads beschränkt waren, zum neuen Standard für die meisten Produktions-Workloads avanciert ist«, erklärt Markus Grau, Mitarbeiter im EMEA CTO Office bei Pure Storage. »Als Folge daraus können Unternehmen ihre Backup-Anforderungen nicht mehr erfüllen. Noch gravierender ist, dass die Erfolgsraten von Recovery-SLAs-Backups heute zwischen 75 und 85 Prozent liegen. Selbst wenn sie erfolgreich gesichert werden, entsprechen 20 Prozent der Backups nicht der Business-RTO.«

 

Dies liegt daran, dass die Backup-Architektur, die von den meisten Kunden eingesetzt wird, sowohl Festplatte als auch Band umfasst. Bei dieser Backup-Strategie von Festplatte zu Festplatte (oder D2D2T für Disk-to-Disk-to-Tape) wird eine Kopie der Daten zunächst auf einer plattenbasierten Backup-Appliance und dann auf Band gespeichert. Die Kopie auf Festplatte bietet eine bessere Wiederherstellungsleistung als bei der Speicherung auf Band allein. Da Festplatten teurer sind als Bänder, nutzen Backup-Appliances die Deduplizierung, um eine relativ kostengünstige plattenbasierte Backup-Lösung bereitzustellen. Selbst deduplizierte Festplatten sind immer noch nicht so günstig wie Bänder, aber die Kostendifferenz ist durch die Verbesserungen im Management mehr als gerechtfertigt. Dieser D2D2T-Ansatz ermöglichte eine schnellere Datenwiederherstellung von der Backup-Appliance, wobei Bandspeicher nur für die langfristige Aufbewahrung genutzt wird.

 

D2D2T half bei der Lösung einiger der Managementprobleme bei der Verwendung von Bändern. So müssen Backup-Administratoren nicht mehr nach den richtigen Bändern suchen, um eine Wiederherstellung durchzuführen, oder sich Gedanken machen, ob sie ein komplettes Set haben. Da Backup-Appliances die Festplatte zum Speichern von Backups verwenden, verbessern sie auch die Wiederherstellungszeiten. So können Datensätze in Terabyte-Größe in Stunden wiederhergestellt werden.

 

D2D2T hat das Backup im Vergleich zu früheren Methoden stark modernisiert, aber es brachte auch neue Herausforderungen bei der Verwaltung der Backup-Appliances mit sich. Diese lassen sich insbesondere nicht so gut skalieren. Wenn die Kapazität einer Appliance erschöpft ist, muss eine weitere angeschafft werden, und so weiter. Jede Appliance, die hinzugefügt wird, schafft jedoch eine neue Deduplizierungs- und Verwaltungszone, was zu Ineffizienzen führt.

 

Obwohl sie schneller als Bandspeicher sind, sind die meisten Backup-Appliances zudem bei der Wiederherstellung von Daten ineffizient. Sie sind so konzipiert, dass sie Backup-Daten so schnell wie möglich aufnehmen können, während die Wiederherstellungsleistung zweitrangig ist. Um eine schnellstmögliche Wiederherstellung zu ermöglichen, sollten Daten so schnell bereitgestellt werden, wie der Primärspeicher sie verbrauchen kann. Wenn sich die Festplatten der Appliance füllen, kann die Wiederherstellung noch langsamer werden, was es schwierig macht, ein effizientes System zu betreiben.

 

Warum Flash die Festplatte für Backup und Wiederherstellung ersetzt

 

Flash bietet Leistungssteigerungen gegenüber Festplatten. So können leistungsstarke Flash-Backups und -Wiederherstellungen eingesetzt werden, um die Geschwindigkeit der Wiederherstellung von All-Flash-Produktionssystemen so schnell anzupassen, wie die Produktionssysteme die Daten verbrauchen können. Flash-Backups können auch verwendet werden, um mehr gleichzeitige Server-Backups zu ermöglichen, zugunsten einer besseren Auslastung bei gleichem Umfang. Durch die Koppelung von Flash und Datenreduktion wird eine hohe Wirtschaftlichkeit und eine hervorragende Wiederherstellungsleistung erzielt. Das Backup-Modell der Zukunft ist daher Flash-to-Flash-to-Cloud.

 

Flash-to-Flash-to-Cloud für eine komplett moderne Lösung

 

Es gibt jedoch noch einen weiteren Teil des Backup-Problems. Selbst wenn Flash-Speicher verwendet wird, um Rapid-Restore-Funktionen bereitzustellen, müssen dennoch große Datenmengen außerhalb des Unternehmens gespeichert werden für Archivierungs- und Compliance-Zwecke. Hierfür wird vielerorts weiterhin Band verwendet, was nicht nur komplex und langsam ist. Der eigentliche Nachteil der Bandspeicherung ist, dass die Daten irgendwo offline »weggesperrt« werden – und keinen Wert für das Unternehmen generieren.

 

»Die Antwort ist, Bandspeicher endgültig durch kostengünstigen Cloud-Objektspeicher wie Amazon S3 zu ersetzen. Das neue Backup-Modell heißt Flash-to-Flash-to-Cloud (F2F2C)«, so Markus Grau von Pure Storage. »F2F2C wurde für die Skalierung und den Einsatz einer modernen Backup-Strategie entwickelt. Es bietet flexiblere Backup- und Wiederherstellungsoptionen sowie schnellere Wiederherstellungen zur Erfüllung anspruchsvoller RTOs. Hinzu kommen einfachere und effizientere Abläufe sowie die Kostenvorteile der Cloud. Diese Architektur nutzt lokalen Flash-Speicher für effiziente Snapshots und schnelle Wiederherstellungen.«

 

Gleichzeitig dient die kostengünstige, hochbelastbare, externe und selbstgeschützte Public Cloud für die langfristige Aufbewahrung. Entscheidend ist, dass Wiederherstellungsdaten, sobald sie sich in der Cloud befinden, einen zusätzlichen Geschäftswert liefern können. Dies ist der Fall, indem sie für andere Anwendungsfälle wie Test-Dev und Analysen zur Verfügung stehen.

 

Wie aus kalten Daten warme Daten werden

 

Der Backup-Markt befindet sich derzeit an einem Wendepunkt, an dem Flash und Cloud eine transformative Rolle spielen.

 

Wenn Backup-Daten in die Cloud transferiert werden, können sie für Migration, Entwicklung/Test, Analysen etc. wiederverwendet werden. Bei der Datensicherung geht es nicht mehr nur darum, Daten zu speichern und die Kosten für eine gute Kopie zu minimieren. Es geht um flexiblen Schutz, schnelle Wiederherstellungen und vor allem darum, wertvolle Daten für andere Anwendungen wie Test/Dev und Analysen verfügbar zu machen, die den Geschäftswert steigern.

 

»In dieser Welt des konstanten Datenflusses wird Disk-to-Disk-to-Tape nicht mehr den Anforderungen an die Datennutzung gerecht. Heute ist Flash-to-Flash-to-Cloud für den Umfang und die Anwendungsfälle der modernen Cloud-Datensicherung konzipiert und damit ein entscheidender Erfolgsfaktor für moderne Unternehmen«, fasst Markus Grau abschließend zusammen.

 

Hybrid- und All-Flash-Storage im Rechenzentrum: Es gibt kein Entweder-oder

Drei Tipps für maximale Freiheit bei der Auswahl von Hardware für Backup und Recovery

All Flash oder Hybrid-Systeme – Wettbewerbsvorteil Flash-Speicher

Bei der Beschaffung von IT-Lösungen mehr auf Nachhaltigkeit setzen

Maximale Leistung durch SDS – Immer höhere Akzeptanz von Software-defined Storage

Neue Speichertechnologien im Rechenzentrum – für höhere Energieeffizienz bei neuen KI-Anwendungsfällen

Wie die Analyse des Netzwerk-Traffics bei der Bekämpfung fortschrittlicher Bedrohungen hilft

$
0
0

Moderne Hackerangriffe werden immer komplexer und überfordern damit herkömmliche Lösungen für Endpoint- und Netzwerksicherheit. Zwar ist Ransomware die Wahl für Cyberkriminelle die schnellen Bitcoins hinterherjagen, Sicherheitsverantwortliche fürchten heute jedoch viel mehr Advanced Persistent Threats (APTs). Denn diese bleiben im schlimmsten Fall jahrelang unentdeckt und ermöglichen Cyberkriminellen über lange Zeit hinweg umfangreiche Datenmengen zu stehlen und geben ihnen dauerhaft Zugriff auf sensible Dateien wie Produktionspläne, Entwicklungsberichte, Kommunikationsdaten oder Sitzungsprotokolle. Eine ständige Analyse des Datenverkehrs im Netzwerk kann jedoch auch solche Angriffe aufdecken.

 

Kriminelle, die APTs lancieren, verwenden höchsten Aufwand darauf, dass die entscheidenden Vorgänge beim digitalen Einbruch einen legitimen Anschein haben. Dies gelingt ihnen zum Beispiel, indem sie reale Nutzernamen und Passworte von Administratoren oder Topmanagern phishen oder indem sie noch unbekannte Schwachpunkte legitimer Anwendungen missbrauchen und ihre Spurennach gelungenem Einbruch in die IT-Systeme wieder löschen.

Derzeit gängige Sicherheitslösungen erkennen solcherart getarnte Angriffe nicht oder erst viel zu spät. Nur durch eine intelligente Analyse des Netzwerk-Traffics (Network Traffic Security Analytics, NTSA), die typisches Verhalten erlernt und dadurch Abweichungen erkennt, lassen sich APTs identifizieren. NTSA ergänzt die in den meisten Unternehmen bestehenden Abwehrmaßnahmen wie Firewalling und Endpoint Security, weil sie etwas hat, das kein anderes Sicherheitstool hat: Detaillierte Kenntnisse über das typische Verhalten jedes Endpunkts im Netzwerk.

 

Der Security-GAU: Advanced Persistent Threats

Gegen welche Art von Angriffen schützt NTSA? Zum Beispiel um diesen, der Ende 2018 die weltweit größte Hotelkette Marriott erwischte: Ein APT kompromittierte rund 500 Millionen Daten von Kunden. Es handelte sich um einen mehrschichtigen Angriff. Die Cyberkriminellen verfolgten den Ansatz, langfristig Zugang auf die Daten zu erhalten und große Mengen an wertvollen, sensiblen Informationen zu sammeln. Dies stellt die ressourcenintensivste Form der Cyberkriminalität dar. Die Angreifer arbeiten in Kooperation oder im Auftrag staatlicher Stellen oder sind Teil der organisierten Kriminalität und haben in der Regel ein klar definiertes Ziel. Und obwohl sie dieses teilweise über geradezu plumpe Angriffswaffen wie Phishing anvisieren, ist das Wirkung des Angriffs oft verheerend.

Was APTs von anderen Angriffen unterscheidet, ist ihre Fähigkeit langfristig von Sicherheitslösungen unentdeckt zu bleiben, während sie unbemerkt sensible Daten exfiltrieren. Zu einigen Angriffsmethoden gehört es, die eingesetzten Sicherheitslösungen genauestens zu studieren, um erst dann Malware einzusetzen, wenn man sich sicher ist, dass sie unerkannt bleibt.

 

Alle Angriffe hinterlassen Spuren

Um solche ausgeklügelten Angriffe zu erkennen, ist eine Kombination verschiedener Sicherheitstechnologien erforderlich – aber vor allem die Analyse des Netzwerk-Traffics. Denn APTs, so gründlich sie auch konzipiert sein mögen, hinterlassen Spuren im Netzwerk, die sich anhand von Netzwerk-Metadaten nachverfolgen lassen. NTSA nutzt diese Metadaten, um detaillierte Kenntnisse über das Verhalten jedes Endpunkts im Netzwerk zu liefern und anomales Verhalten zu entlarven. Aus sicherheitstechnischer Sicht schließt die Netzwerk-Traffic-Analyse die Lücke zwischen Next-Gen-Firewalls und IDS/IPS und ergänzt Netzwerküberwachung und EDR (Endpoint Detection&Response).

 

So funktioniert die Analyse des Netzwerk-Traffics

Die wichtigste Stärke von NTSA ist es, aus den verfügbaren Netzwerk-Metadaten eine normale Verhaltensbasis für alle Geräte und Anwendungen in einem Netzwerk zu modellieren. Die Lösung nutzt dann diese Basis, um das aktuelle Verhalten abzugleichen. Weicht dieses zu sehr von der Basis ab, erkennt die Lösung eine potenziell bedrohliche Netzwerkaktivität und erzeugt einen Alarm. So kann NTSA neue Bedrohungen erkennen, die von bisherigen Lösungen nicht erkannt wurden. NTSA nutzt Künstliche Intelligenz sowie Verhaltens- und Bedrohungsanalyse, um ausgefeilte Bedrohungen zu erkennen. Sie speichert Metadaten für zur nachträglichen Erkennung von Bedrohungen, also Forensik und Compliance.

 

Die Analyse von verschlüsseltem Datenverkehr

Ein großer Teil des Datenverkehrs ist heute aus Gründen der Datensicherheit und des Datenschutzes verschlüsselt. Ein wesentlicher Vorteil der NTSA ist die Fähigkeit, Metadaten von verschlüsseltem Datenverkehr zu untersuchen, ohne die Sicherheit der Daten oder die Privatsphäre des Dateninhabers zu beeinträchtigen.

 

Weitere Vorteile von Network Traffic Analytics

NTA bietet die agentenlose Überwachung aller Ereignisse im Netzwerk jedes einzelnen Endpunkts in Echtzeit, samt detaillierter Netzwerkprotokolle. Diese detaillierte Einsicht hilft nicht nur bei der forensischen Analyse, sondern schafft auch komplette Transparenz, da jedes Gerät im Netzwerk inbegriffen ist. Somit erweitert NTSA seine Schutzwirkung auch auf Geräte, deren eigene, integrierte Sicherheit mangelhaft ist, wie es etwa oft bei BYOD- oder IoT-Szenarien vorkommt.

NTSA hilft auch in Hinsicht auf Compliance. Die DSGVO verlangt von Unternehmen, die Opfer von Datenschutzverletzungen wurden, schnell detaillierte Informationen über böswillige Aktivitäten nach einem Verstoß bereitzustellen. Auf NTSA aufbauende Lösungen unterstützen Unternehmen bei der Einhaltung von Compliance-Standards, indem sie Informationen über den Netzwerkdatenverkehr über einen längeren Zeitraum aufzeichnen. Die Aufzeichnung enthält nur Metadaten und der Zugriff lässt sich auf Berechtigte, wie den Datenschutzbeauftragten, beschränken.

Fortschrittliche Lösungen, welche die Analyse des Netzwerkverkehrs nutzen, kombinieren das Wissen über bekannte Bedrohungen außerdem mit fortgeschrittenem maschinellem Lernen und Heuristiken, um die Netzwerk-Metadaten in Echtzeit zu analysieren und Bedrohungsaktivitäten und verdächtige Verkehrsmuster genau zu erkennen. Die Analysen und Warnmeldungen können automatisiert werden. Dies vermeidet Fehlalarme und stellt einen für Menschen lesbaren Kontext her. So verkürzen die Lösungen die Zeit für Untersuchungen und die Effektivität der Security-Teams.

 

NTSA – Der Netzwerk-Detektiv im Sicherheitsportfolio

Die immer komplexer werdenden IT-Umgebungen in Unternehmen stehen heute vor vielen Bedrohungen. Erfolgreiche Angriffe können Unternehmen finanziell schwer treffen. Um diese Bedrohungen abzuwenden, benötigen Unternehmen eine proaktivere Sicherheitsarchitektur, die über Endpoint-Security hinausgeht und die Erkennung von Bedrohungen in der gesamten IT-Umgebung verbessert. Die Bekämpfung ausgeklügelter, mehrstufiger Angriffe, wie etwa APTs, erfordert auch eine mehrschichtige Verteidigung. Die Netzwerk Traffic Security Analyse kann eine bestehende Sicherheitsarchitektur um eine spezialisierte, netzwerkbasierte Verteidigungslinie ergänzen. Sie analysiert das Verhalten auf Netzwerkebene und liefert Daten, die potenziell kompromittierte Systeme und riskantes oder bösartiges Nutzerverhalten aufzeigen. Wer Daten exfiltrieren will, muss sie zu guter Letzt irgendwann im Netzwerk bewegen. Wenn ein Unternehmen diese Bewegung registriert, kann es sich schützen.

Liviu Arsene, Bitdefender

 

 

 

 

2002 search results for „Sicherheit Netzwerk“

Digitale Transformation: Die Netzwerksicherheit ist geschäftskritisch

So bedienen Unternehmen die Anforderungen an Konnektivität und Datensicherheit. Die digitale Transformation führt zu einem rasanten Wachstum an Netzwerkendpunkten, die es zu versorgen und zu managen gilt. Gleichzeitig steigt die Gefahr durch Cyberangriffe. Gemischte Netzwerkarchitekturen aus On-Premises- und Cloud-Lösungen sind das Mittel der Wahl.   Sicherheitsexperten gehen davon aus, dass mehrere hundert Millionen Malware-Proben im…

Sind Artificial Intelligence & Machine Learning die Lösung für mehr Sicherheit im Netzwerk?

Wie können Unternehmen ihre Netzwerksicherheit verbessern? Netzwerksicherheit ist und bleibt eines der brennenden Themen für IT-Verantwortliche. Jeden Tag gibt es neue Cyberangriffe, die nicht nur finanzielle Folgen haben, sondern auch dem Ruf von Unternehmen erheblich schaden können. Der Netzwerk-Edge-Bereich ist dabei der Punkt, an dem sich Unternehmens- und Kundendaten treffen, wo Benutzer interagieren, IoT-Geräte angebunden…

Netzwerksicherheit: große Herausforderungen und neue Lösungsansätze

Infografik zeigt Probleme und Lösungswege auf. Im Vorfeld der IT Security Fachmesse it-sa steht das Thema Sicherheit sogar noch stärker im Fokus vieler Unternehmen als sonst. Vor allem die Netzwerksicherheit gehört für viele IT-Verantwortliche heute zu den Top-Prioritäten, denn ohne Netzwerke findet kein Austausch von Informationen statt. Zudem bilden sie die Grundlage für die Digitalisierung…

Unternehmensnetzwerke – mit Automatisierung die Sicherheit erhöhen

Die Sicherheit zu erhöhen, ist die Top-Priorität unter den Netzwerkmaßnahmen von Unternehmen. Dafür wird es auch höchste Zeit, wie unsere Infografik, die in Zusammenarbeit mit Extreme Networks entstanden ist, zeigt. Nur knapp die Hälfte der Führungskräfte sehen ihr Unternehmen so gut wie möglich auf IT-Angriffe vorbereitet. Ein Lösungsansatz zur Erhöhung der Sicherheit können automatisierte Netzwerke…

Drastische Zunahme von privaten Endgeräten und IoT-Devices in Unternehmensnetzwerken sorgt für enorme Sicherheitsrisiken

Durchschnittlich 1.856 private Endgeräte und IoT-Devices verbinden sich in Deutschland pro Tag und Unternehmen mit dem Netzwerk der Organisation – ungemanagt von der IT. Zugleich glauben fast 90 Prozent der IT-Verantwortlichen, eine effektive Sicherheits-Policy zu haben. Infoblox, Spezialist für Netzwerksteuerung und Anbieter von Actionable Network Intelligence, veröffentlicht Ergebnisse einer neuen Studie, die besorgniserregende Sicherheitslücken durch…

Kritische Beurteilung der Ausfallsicherheit für jedes vierte Unternehmensnetzwerk

Das IT-Netzwerk ist das zentrale Nervensystem im Unternehmen – trotzdem wird es in vielen Unternehmen stiefmütterlich behandelt. Zu diesem Ergebnis kommt eine aktuelle Studie, die den Status quo und die Prozesse rund um das Netzwerkmanagement in mittelständischen und großen Unternehmen untersucht [1]. Ein Viertel der befragten IT-Verantwortlichen urteilt, dass das eigene Netzwerk sich hinsichtlich Ausfallsicherheit…

Sicherheitslücken in IP-Kameras öffnen Netzwerk für Angreifer

Unsichere IP-Kameras sind weiteres Beispiel für IoT-Geräte, deren Hersteller die Grundzüge der IT-Sicherheit vernachlässigen und so Nutzer und Netzwerke gefährden.   Der Sicherheitsanbieter F-Secure hat 18 zum Teil kritische Sicherheitslücken in IP-Kameras des Herstellers Foscam gefunden. Angreifer können aufgrund der Schwachstellen die Kontrolle über die Kameras übernehmen, auf den Video-Feed zugreifen und Daten auf den…

IFA-Trends unter der IT-Sicherheitslupe: Der Feind in meinem Netzwerk

Die IFA steht kurz bevor und dieses Jahr drehen sich viele Neuerungen rund um das große Schlagwort Vernetzung. Zwei große Trends der diesjährigen Messe, nämlich sogenannte Wearable-Technologies und Smart Homes, sollen Verbrauchern den Alltag erleichtern – könnten aber durch unzureichende Sicherheitsvorkehrungen schnell zum Einfallstor für Schadsoftware werden. Ransomware ist seit Jahren ein Dauerthema. Im zweiten…

Sicherheitspraxis: Benutzerbasierte Überwachung im Netzwerk

Lückenlose Identifizierung der Nutzer und Geräte gilt unter Sicherheitsexperten als entscheidende Komponente einer Präventionsstrategie für die Netzwerksicherheit. Mitarbeiter, Kunden und Partner verbinden sich zu unterschiedlichen Aufbewahrungsorten von Daten innerhalb des Netzwerks sowie zum Internet, um ihre Arbeit zu verrichten zu können. Diese gesamte Gruppe einschließlich ihrer vielen Geräte stellen die Nutzer des Netzwerks dar. Sicherheitsexperten…

Schwachstellenanalyse: Sicherheitslücken in Unternehmensnetzwerken

In fast 85.000 Fällen boten vor allem falsch konfigurierte Systeme und ungepatchte Software Angreifern die Möglichkeit, das Unternehmensnetzwerk zu infiltrieren. Eine im Frühjahr 2016 durchgeführte Untersuchung von Firmennetzwerken durch die finnischen Cyber-Security-Spezialisten von F-Secure identifizierte tausende von schwerwiegenden Sicherheitslücken, durch die sich Angreifer unbemerkt Zugang zu den Unternehmen verschaffen hätten können. Mit Hilfe von F-Secure…

Industrielle Steuerungssysteme: Fünf Sicherheitstipps für SCADA-Netzwerkmanagement

  Gerade im Zusammenhang von Industrie 4.0 beziehungsweise Smart Factory und Digitalisierung in der Produktion ist das SCADA-Netzwerk ein heißes Eisen für die IT-Abteilungen vieler Unternehmen. SCADA (Supervisory Control and Data Acquisition) ist ein industrielles Steuerungssystem, das in vielen Bereichen – wie etwa Fertigung, Energie, Wasser, Energie und Transport – zum Einsatz kommt. SCADA-Systeme stellen…

Automatisierung der Netzwerksicherheit erhöht Schutzlevel spürbar

Sicherheitsprofis führen gegen eine Automatisierung oft Argumente ins Feld, die auf subjektiver Wahrnehmung beruhen. IT-Sicherheitsprofis sehen sich täglich mit einer endlos scheinenden To-do-Liste konfrontiert: Regeln aktualisieren, Berichte erstellen, Schutzmaßnahmen erweitern, Ergebnisse analysieren, versteckte Bedrohungen finden, mehrere Implementierungen verwalten etc. Automation scheint die perfekte Antwort darauf zu sein. Die meisten Sicherheitsexperten sind aber hin- und hergerissen…

Netzwerksicherheit: SaaS-Anwendungen müssen sicher bereitgestellt werden

Der Bericht »Application Usage and Threat Report (AUTR)« [1], der auf der Grundlage von Daten von mehr als 7.000 Unternehmen weltweit basiert, behandelt reale Trends in der Anwendungsnutzung und kritische Entwicklungen, wie Angreifer versuchen, Unternehmen zu infizieren. Er bietet auch praktische Empfehlungen zur Verhinderung von Cyberangriffen. SaaS nimmt zu Die Ergebnisse unterstreichen die rasant wachsende…

IT-Sicherheitsgesetz hin oder her: Geschützte Prozessnetzwerke sind heute ein Muss

Vor allem kleinere Betreiber kritischer Infrastrukturen warten derzeit noch ab, ob sie wirklich unter das neue IT-Sicherheitsgesetz fallen. Das könnte sich als schwerer Fehler herausstellen. Unabhängig davon, ob das Gesetz auch für sie gilt oder nicht, sind sie einer realen Bedrohung durch Cyber-Angriffe ausgesetzt – und sollten deshalb unbedingt für ein Mindestmaß an Sicherheit sorgen.…

Tipps für bessere Netzwerksicherheit für verteilte Unternehmen

Wie die jüngsten Sicherheitsvorfälle gezeigt haben, sind die Angreifer schnell darin, Schwachstellen zu ihrem Vorteil auszunutzen, um in verteilte Umgebungen einzudringen. Sicherheitsteams müssen daher ebenso schnell sein. »Es die Effektivität und Effizienz ihrer Sicherheitsarchitektur und Überwachungsmaßnahmen auf aktuellem Stand zu halten, um Sicherheitsverletzungen zu vermeiden«, so Thorsten Henning, Senior Systems Engineering Manager Central & Eastern…

Viele Unternehmen entscheiden sich für Netzwerk-Performance statt Netzwerk-Sicherheit

Eine Studie mit dem Titel »Network Performance and Security« untersuchte die Herausforderungen, vor denen Unternehmen stehen, wenn sie die Sicherheit und gleichzeitig den optimalen Betrieb ihrer Netzwerkinfrastruktur sicherstellen sollen [1]. Die Studie zeigt, dass eine beunruhigend hohe Anzahl der 504 befragten IT-Profis erweiterte Firewall-Funktionen deaktiviert, um signifikante Einbußen bei der Netzwerk-Performance zu vermeiden. Meist betrifft…

Sicherheitsteams verdienen einen besseren Ansatz für Erkennung und Reaktion auf Cyberangriffe

Für viele Unternehmen ist das IT-Sicherheitsteam die erste Verteidigungslinie gegen alle bekannten und unbekannten Bedrohungen. Die zentrale Aufgabe solcher Teams besteht darin, Bedrohungen in ihrer gesamten digitalen Umgebung zu identifizieren, zu untersuchen und zu entschärfen. Da die Angreifer zunehmend automatisierter und komplexer vorgehen, verlassen sich Sicherheitsteams auf einen mehrschichtigen Ansatz zur Prävention, wie Palo Alto…

Wettlauf zwischen Angreifern und Verteidigern – KI und IT-Sicherheit

Die vom Bundesministerium für Bildung und Forschung (BMBF) initiierte Plattform Lernende Systeme (PLS) hat das Ziel, künstliche Intelligenz und maschinelles Lernen im Sinne der Gesellschaft zu gestalten. Im aktuellen Whitepaper »Künstliche Intelligenz und IT-Sicherheit« analysiert die Arbeitsgruppe »IT-Sicherheit, Privacy, Recht und Ethik« der PLS eines der Spannungsfelder der KI. Beigetragen haben dazu auch Experten des…

Tatort Diensthandy: Datensicherheitsrisiken bedenken

Smartphones zählen mittlerweile auch im Job zum Alltag – sei es für das Verfassen einer E-Mail zwischendurch oder zur kurzfristigen Terminabsprache. Doch spätestens seitdem die Medien darüber berichtet haben, dass einige Unternehmen Mitarbeitern die Nutzung von WhatsApp aufgrund der EU-Datenschutzgrundverordnung, kurz EU-DSGVO, verbieten, wissen viele, dass die dienstliche Nutzung von Handys datenschutzrechtliche Gefahren birgt. »Bei…

Sicherheit in der Cloud: Herausforderungen bei Cloud-First-Strategie bewältigen

$
0
0

https://pixabay.com/de/photos/

Die heutige vernetzte Welt basiert auf der Datenzugänglichkeit von überall, zu jeder Zeit und auf jedem Gerät. Die Geschwindigkeit und Agilität, die mit Hosting-Diensten und -Anwendungen in der Cloud einhergeht, sind für den Erfolg zentral. Die damit verbundenen Vorteile haben Unternehmen in den letzten Jahren gezwungen, zumindest einige und in manchen Fällen sogar alle ihre Anwendungen oder ihre Infrastrukturen in die Cloud zu migrieren. Der Anteil in der Cloud gehosteter Workloads von Unternehmen ist Experten zufolge wohl bereits höher als 80 Prozent.
Die Cloud kann zwar erhebliche Vorteile bieten, Unternehmen müssen sich bei der Planung einer Cloud-First-Strategie aber auch den besonderen Anforderungen an die Sicherheit bewusst sein. Einige dieser Herausforderungen betreffen nicht nur Datenschutz und Compliance, sondern auch operative Aspekte. So etwa die Fähigkeit, Sicherheitslösungen sowohl für lokale als auch cloudbasierte Workloads zu integrieren und konsistente Sicherheitsrichtlinien in der gesamten Cloud durchzusetzen und die Erkennung virtueller Maschinen (VM) zu automatisieren, um Transparenz und Kontrolle über dynamische Infrastrukturen zu gewährleisten.

  1. Die Balance zwischen Sicherheit und Compliance
    Eine große Herausforderung ist es, die Balance zwischen Sicherheit und Compliance zu finden. Manchmal geht es darum, Bedrohungsakteuren den Wind aus den Segeln zu nehmen, indem sie einfach nur mehr Zeit, Energie und Ressourcen investieren müssen, als sie ursprünglich für einen Angriff auf ein Unternehmen veranschlagt haben. Wenn Angreifer beispielsweise dazu gebracht werden, mehrere Ebenen der Verteidigung zu durchlaufen, wird die Chance höher, dass sie irgendwann Fehler begehen und einen Alarm auslösen.
    Compliance-Vorschriften werden in der Regel als Basis-Minimalsicherheitsoptionen behandelt. Zu einem umfassenden Schutz gehört jedoch der Einsatz mehrerer Sicherheitsebenen. Diese Ebenen sollten sowohl die IT- als auch das Sicherheitsteam bei der Optimierung der Abläufe unterstützen, die Transparenz erhöhen und die Erkennung von Bedrohungen beschleunigen.
  2. Integration von Sicherheitslösungen für Anwendungen in der Cloud und im heimischen Rechenzentrum
    Eine Sicherheitslösung zu finden, die sich sowohl on-premises, also vor Ort, als auch in der Cloud nahtlos in die Workloads integrieren lässt, ist generell schwierig. Herkömmliche Sicherheitslösungen können bestenfalls getrennte Lösungen für On-Premises- und Cloud-Workloads anbieten und erzeugen somit Probleme bei Übersicht und Management. Im schlimmsten Fall wird dieselbe traditionelle Sicherheitslösung auf allen Workloads – Cloud und lokal – eingesetzt, was zu ernsthaften Performance-Problemen für letztgenannte Workloads führt. Es ist wichtig für Unternehmen eine Sicherheitslösung zu integrieren, die so konzipiert ist, dass sie ihren Sicherheitsagenten automatisch an den jeweiligen Auftrag anpasst, je nachdem, ob der Workload vor Ort oder in der Cloud liegt, ohne die Leistung zu beeinträchtigen oder die Sicherheitsfähigkeiten zu beeinträchtigen.
  3. Implementierung konsistenter Sicherheitsrichtlinien in der gesamten Hybrid-Cloud
    Um dieser Herausforderung zu begegnen, müssen Unternehmen Sicherheitslösungen finden, die Sicherheitsagenten an die Umgebung anpassen können, in der sie eingesetzt werden. Lösungen für Cloudumgebungen müssen agil genug sein, um alle Vorteile der Cloud zu nutzen, ohne die Sicherheit zu beeinträchtigen, während sie in traditionellen, lokalen Umgebungen flexibel genug sind, um Produktivität und Mobilität zu ermöglichen. Unternehmen müssen verstehen, dass die Bereitstellung von Sicherheitsrichtlinien in hybriden Infrastrukturen problematisch sein kann, insbesondere ohne eine zentrale Sicherheitskonsole, die diese Richtlinien nahtlos über alle Endpunkte und Workloads erweitern kann. Es ist wichtig, dass Sicherheitsrichtlinien für bestimmte Gruppen automatisch auf neu hinzugekommene VMs angewendet werden, basierend auf ihrer Rolle innerhalb der Infrastruktur. Beispielsweise sollten neu erstellte virtuelle Server sofort gruppenspezifische Richtlinien einhalten, ebenso wie virtuelle Desktops. Geschieht dies nicht, könnten die Folgen katastrophal sein, weil sie sonst in Betrieb sind, ohne gegen Bedrohungen und Angreifer geschützt zu sein.
  4. Automatisierung der VM-Erkennung
    Die automatisierte Erkennung neu erstellter VMs ist der Kernpunkt einer integrierten Sicherheitsplattform, da Sicherheitsrichtlinien je nach Typ einer VM automatisch angewendet werden können. Unternehmen sollten Sicherheitslösungen einführen, die die VM-Erkennung automatisieren und Sicherheitsrichtlinien entsprechend anwenden können, ohne IT- und Sicherheitsteams zu zwingen, Richtlinien manuell auf neu eingetretene Workloads zu übertragen.
    Bei der Flexibilität der hybriden Cloud in Bezug auf Endpunkte (physisch und virtuell) und Infrastruktur (on-premises und in der Cloud) ist es wichtig, dass die Sicherheitslösung die gleiche Elastizität aufweist. Nur so ermöglicht sie Unternehmen, die Vorteile dieser Infrastrukturen voll auszuschöpfen, ohne Leistung, Benutzerfreundlichkeit oder Sicherheit zu beeinträchtigen.
  5. Sichtbarkeit und Kontrolle über dynamische Infrastrukturen
    Im Rahmen einer Cloud- oder Mobility-Strategie ist es für IT- und Sicherheitsteams immer schwieriger geworden, die Sicherheitslage eines Unternehmens zu überblicken, zumal traditionelle Sicherheitslösungen keine komplette Übersicht aller Endpunkte hinweg bieten.
    Die Integration einer kompletten Sicherheitsplattform kann IT- und Sicherheitsteams Zeit sparen und gleichzeitig Funktionen zur Automatisierung der Sicherheit bieten, die das Erkennen einer Datenschutzverletzung beschleunigen.

    Die Bewältigung der hohen Anforderungen an die Sicherheit der Cloud ist eine kontinuierliche Aufgabe für IT- und Sicherheitsteams. Sie erfordert Wachsamkeit und die richtigen Sicherheits- und Automatisierungstools. Die Zusammenarbeit der Teams bei der Suche nach den richtigen Lösungen stellt sicher, dass beide Teams das bekommen, was sie brauchen. Und die Zusammenarbeit stellt auch sicher, dass die gesamte Infrastruktur geschützt ist, unabhängig davon ob Workloads On-Premises oder in der Cloud sind.

Liviu Arsene, Leitender Bedrohungsanalyst, Bitdefender

2419 search results for „Sicherheit Cloud“

IT-Sicherheitsprognosen 2019 – Fokus auf die Cloud

Im Jahr 2019 werden Cyberkriminelle neue innovative Wege beim Ausnutzen von Sicherheitslücken finden. Sie werden weiterhin IoT-Geräte auf ihrem Radar haben und außerdem in der Cloud nach neuen Möglichkeiten suchen, um gefährdete Anwendungen angreifen zu können. Unternehmen sollten daher daran arbeiten, effektivere Sicherheitslösungen einzusetzen, die aber auch ihr Budget nicht überfordern.

Datensicherheit in der Cloud: Best Practices gegen Man-in-the-Cloud-Attacken

Das Nutzen von Cloud-Services gehört für die Mehrheit der Unternehmen längst zum festen Bestandteil der IT-Strategie. Die Möglichkeit des Datenzugriffs jederzeit und überall bringt zahlreiche Vorteile mit sich, allen voran verbesserte Flexibilität und erhöhte Produktivität. Die gestiegene Popularität dieser Dienste ist jedoch von böswilligen Akteuren nicht unbemerkt geblieben, was neue Arten von Cyberangriffen hervorgebracht hat.…

Die 5 häufigsten Bedenken hinsichtlich der Public-Cloud-Sicherheit

Wer ist eigentlich für die Sicherheit in der Public Cloud verantwortlich? Keine leichte Frage. Vor allem, weil Sicherheitsverletzungen weitreichende Folgen nach sich ziehen können. Aus Sicht von Rackspace sind dies die 5 häufigsten Bedenken von Unternehmen, wenn es um die Public-Cloud-Sicherheit geht:   1) Schützen Amazon, Microsoft und Google meine Cloud nicht? Die Cloud-Sicherheit besteht…

Europas Unternehmen haben Nachholbedarf in Sachen Cloudsicherheit

Nutzung von Cloudanwendungen deutlich gestiegen. Office 365 und AWS auf dem Vormarsch.   Eine aktuelle Studie liefert einen Überblick zur Nutzung von Cloudanwendungen in Europa [1]. Untersucht wurden dafür 20.000 Unternehmen in Deutschland, Frankreich, den Niederlanden, Italien, Spanien und Großbritannien. Während die Nutzung von Office 365 mit 65 Prozent einen neuen Rekordwert erreicht hat, lässt…

Die Vorteile ausgereifter Cloud-Sicherheitsstrategien

Ein neues Cloud-Security-Maturity-Model mit Benchmarks bietet Unternehmen Orientierung bei der Nutzung von nicht-IT-geführten Cloud-Services. Erfahrene Unternehmen haben doppelt so wahrscheinlich einen Cloud-Security-Architekten eingestellt wie andere Unternehmen.   Netskope stellt den neuen »The Maturity of Cloud Application Security Strategies«-Report vor, in dem die Enterprise Strategy Group (ESG) im Auftrag von Netskope die geschäftlichen Vorteile der Nutzung…

Analytics aus der Cloud – Datensicherheit und technologische Reife sind ausschlaggebend

Siebzig Prozent der befragten weltgrößten Unternehmen sagen, dass Analytics langsamer als andere Geschäftsanwendungen in die Cloud wechselt. Datensicherheit und leistungsschwache, unausgereifte Technologien sind größte Hindernisse.   Für die Mehrheit der größten Unternehmen der Welt (83 Prozent) ist die Cloud der beste Ort für Analytics. Dies ist das Ergebnis der Studie »The State of Analytics in…

Cloud-Sicherheit im Wandel – Unternehmen müssen umdenken

Unternehmen in der EMEA-Region haben häufig Bedenken, wenn es darum geht, Sicherheit in der Cloud umzusetzen. Doch genau dies, für Cloud-Sicherheit zu sorgen und Sicherheitsfähigkeiten aus der Cloud zu nutzen, ist unvermeidlich – und hier zeichnet sich eine Änderung der Denkweise ab. Cybersicherheitsexperten empfinden Veränderungen zu häufig als Verlust der Kontrolle, die sie wiedererlangen müssen.…

Das unsichtbare Sicherheitsnetz Cloud-Backup: Backup- und Disaster Recovery

Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als…

Digitale Technologien in Handel und Konsumgüterindustrie: IT-Sicherheit, Big-Data-Analyse und Cloud haben Priorität

Eine aktuelle Studie von Infosys mit dem Titel »Digital Outlook for the Retail and CPG Industry« zeigt, wie digitale Technologien in Unternehmen bestehende Abläufe verbessern, Probleme lösen und neue Geschäftsoptionen eröffnen. Für den Bericht wurden im Rahmen einer weltweiten Umfrage IT- und Business-Entscheider im Handel und der Konsumgüterindustrie zu den Einsatzmöglichkeiten neuer digitaler Technologien befragt.…

Bei der Cloud bleibt die Sicherheit auf der Strecke – Unternehmen setzen sich Risiken aus

Umfrage zeigt, dass mehr als die Hälfte der Unternehmen in Europa und Nahost immer noch nicht auf Cloudnutzung inklusive Cybersicherheit ausgerichtet sind. Palo Alto Networks gibt die Ergebnisse seiner neuesten Studie zur Cloudsicherheit in Europa und im Nahen Osten bekannt. Demnach ist die Mehrheit (70 Prozent) der befragten Cybersicherheitsfachkräfte der Meinung, dass beim Ansturm auf…

Effektive und kostengünstige IT-Sicherheit in der Cloud: cloud-basierte IT-Sicherheitsmodelle auf dem Vormarsch

Das Beratungsunternehmen McKinsey zeigt in seiner neuesten Studie »Making a secure transition to the public cloud« auf, dass heutige IT-Sicherheitsmodelle in Unternehmen schon bald durch Ansätze aus der Cloud ersetzt werden. Aufgrund hoher technischer Flexibilität, einfacher Skalierbarkeit und niedriger Betriebskosten erfreut sich die Public Cloud hoher Beliebtheit. Eine Vielzahl der weltweit befragten Experten aus rund…

Sichtbarkeit, Erkennung und Reaktion: SIEM-freie Architekturen für vereinfachte Cybersicherheit

$
0
0

Illustration: Absmeier

Bei der Realisierung eines guten Incident-Response-Programms gilt es, die Sichtbarkeit, Erkennung und Reaktion mit den Kosten und der Komplexität für Aufbau und Wartung eines effektiven Security-Stacks in Einklang zu bringen. Dies erweist sich vor dem Hintergrund, dass die Anzahl an Angriffen stetig zunimmt und damit auch die Menge an »Alarmmeldungen« in den Unternehmensnetzen steigt, als große Herausforderung.

 

In der Vergangenheit stand das Security Information and Event Management (SIEM) im Mittelpunkt vieler Sicherheitskonzepte. Ziel war es, damit eine breite Palette von Anwendungsfällen abzudecken, einschließlich Bedrohungserkennung, Compliance-Berichterstattung, Alarmzentralisierung sowie Bereitstellung von Analystenprozessen und Workflows.

 

Für einige Unternehmen ist SIEM ideal als zentraler Punkt für alles im Zusammenhang mit der Erkennung von Bedrohungen und Protokollen. Für andere ist die Fähigkeit, ein effektives SIEM zu managen, vor allem von der Verfügbarkeit von Fachkräften abhängig. So mangelt es nach Angaben von Vectra häufig an Fachkräften für Blue-Team-Rollen.

 

»Leider gehen mit dem SIEM häufig zusätzliche Overhead-Schichten einher, und nicht jeder Untersuchungs- oder Incident-Response-Workflow muss in einem SIEM vorhanden sein. Entscheidend ist, welche Ereignisse das höchste Signal-Rausch-Verhältnis für die Bedrohungserkennung bieten. Was nützt also ein SIEM in einer Umgebung mit beschränkten Ressourcen?«, fragt Gérard Bauer, VP EMEA bei Vectra.

 

Um diese Frage zu beantworten, gilt es, die Anforderungen an die Erkennung von Bedrohungen und die Reaktion auf Vorfälle zu definieren:

 

  • Transparenz über die Assets des Unternehmens, unabhängig davon, wo sie sich befinden. Dazu zählen Rechenzentrums- und Cloud-Workloads, firmeneigene Notebooks sowie BYOD- und IoT-Geräte.
  • Korrelation von Sicherheitsereignissen und die Fähigkeit, Beziehungen zwischen Workloads und Geräten zu identifizieren.
  • Kontext des Geschehens im Zusammenhang mit einer umsetzbaren Reaktion.
  • Wiederholbare Prozesse und Workflows, die es Junior-Analysten ermöglichen, Sicherheitskompetenzen schnell zu entwickeln, und Senior-Analysten, schnelle und schlüssige Untersuchungen durchzuführen.
  • Bedrohungserkennung und -untersuchung, die von jedem Punkt aus starten kann.

 

Während das Netzwerk der einfachste Weg ist, um größtmögliche Sichtbarkeit zu erhalten, und ein guter Ausgangspunkt, um zu wissen, wo man jagen soll, können andere Datenquellen den Kontext bereichern.

 

Die Bedrohungserkennung erfordert den Kontext von Netzwerken und Endpunkten sowie Protokolle. Jede dieser Datenquellen sollte durch spezielle Tools unterstützt werden, die speziell für die Sichtbarkeit, Erkennung und Reaktion in den jeweiligen Datentypen von Grund auf neu entwickelt wurden, um optimal zusammenzuarbeiten.

 

Es gibt eine neue Art von SIEM-loser Sicherheitsarchitektur, die es Unternehmen ermöglicht, Mitarbeiter mit allgemeiner IT-Erfahrung einzusetzen, die dann zu Sicherheitsanalysten der nächsten Generation avancieren. Diese spezialisierten Erkennungs- und Reaktionsplattformen bieten leicht verständliche, wiederholbare Prozesse als Bausteine einer effektiven Untersuchung, unabhängig von der Art der Bedrohung, der Unternehmen gerade ausgesetzt sind.

 

Die drei Schlüsselkomponenten dieser dynamischen Architektur bestehen aus Netzwerk- und Endpunkterkennung und -reaktion (NDR und EDR) in Kombination mit Sicherheitsautomatisierung und -orchestrierung, zusammengeführt im Incident Response Case Management.

 

»Die Untersuchungen können überall beginnen, egal ob bei der Netzwerk-, Endpunkt- oder Sicherheitsautomatisierung und -Orchestrierung, da wichtige Komponenten der Architektur miteinander kommunizieren«, erklärt Gérard Bauer. »Die Anreicherung von Ereignissen mit zusätzlichen Informationen und die Durchsetzung von Reaktionen werden oft durch die Sicherheitstools am Netzwerkperimeter ermöglicht, die bereits vorhanden sind.«

 

Diese Architektur wird häufig in Umgebungen beispielsweise mit einer Integration zwischen Vectra, CrowdStrike, Demisto und Palo Alto Networks eingesetzt. Solch ein Konstrukt ermöglicht eine Integration gezielter Maßnahmen, basierend auf dem Tagging der Cognito-Plattform, das Ereignisse auslöst, und der Automatisierung in Demisto. Dieser Ansatz liefert wertvolle Erkenntnisse, die es Sicherheitsteams ermöglichen, sehr effektive Blue Teams aufzubauen.

 

Mit einer besseren Datenquelle wie NDR von Vectra und EDR von CrowdStrike können Sicherheitsanalysten die Kosten und Komplexität von SIEMs reduzieren und gleichzeitig die Vorteile einer schnelleren Reaktion auf Vorfälle nutzen.

 

Die Cognito-Plattform wurde speziell für die Integration mit Endpunktschutz, Orchestrierung, Firewalls, Clouds und virtualisierter Rechenzentrumssicherheit entwickelt. Somit kann sie bestehende Workflows für die Reaktion auf Vorfälle unterstützen, angepasst an die Anforderungen des jeweiligen Unternehmens.

 

Diese Integrationen umfassen VMware, Microsoft Azure, Amazon Web Services, CrowdStrike, Carbon Black, Demisto, Splunk Phantom, Juniper, Palo Alto Networks und mehr. Auf diese Weise können Sicherheitsanalysten einfach zwischen beliebigen Plattformen oder Tools wechseln und gleichzeitig einen umfassenden Kontext über kompromittierte Hostgeräte und Bedrohungsfälle liefern.

 

Selbst wenn sich ein Unternehmen von seinem SIEM nicht trennen kann, weil es als Zentrum seiner Bedrohungsforschung wahrgenommen wird, kann dies in solch ein Konstrukt zusätzlich integriert werden.

 

227 search results for „SIEM“

Ohne Cyberleiche kein IT-Verbrechen – Fragen an die Leistungsfähigkeit des SIEM-Konzepts

Gerade zum bevorstehenden Jahreswechsel schießen die Spekulationen über kommende Entwicklungen im Bereich IT-Sicherheit ins Kraut. Dabei werden sehr häufig Produktkategorien und Technologien mit häufig unklaren Definitionen verwendet und einander gegenübergestellt. Dies gilt beispielsweise auch für die automatisierte Analyse des Netzwerkverkehrs mithilfe künstlicher Intelligenz und den Einsatz von SIEM (Security Information and Event-Management). Worin sich diese…

DSGVO und SIEM – Bedeutung für Krankenhäuser in Zeiten von Locky & Co.

Am 25. Mai 2018 ist es soweit, die Datenschutzgrundverordnung (DSGVO) wird dann in Kraft treten und muss auch bei den Krankenhäusern umgesetzt werden. Mit organisatorischen Maßnahmen zur Erhöhung des Datenschutzes und mit technischen Maßnahmen wie SIEM müssen die Gesundheitsorganisationen darauf reagieren.

Acht Praxistipps: Kosten und Performance von SIEM-Systemen optimieren

Security Information and Event Management (SIEM) ist zweifellos eine tragende Säule für die Sicherheitsstrategie von Unternehmen. Aber auch ein zweischneidiges Schwert: Denn wenn im Unternehmen immer mehr digitalisiert wird, nimmt auch die Menge der Nutzungsdaten rasant zu, die gesammelt, gespeichert und verarbeitet werden müssen – und damit auch die Kosten. Mit den Tipps von Balabit…

Wunderwaffe SIEM?

Wozu taugt die Wunderwaffe SIEM (Security Information and Event Management)? Lesen Sie in diesem Whitepaper von NCP über das Einfallstor Remote Access, SIEM und Remote Access VPN, SIEM und Network Access Control und die bessere Absicherung von VPN-Verbindungen.

SIEM-Systeme: Zwischen Gut und Böse unterscheiden lernen

Mit SIEM-Systemen verfügen Unternehmen über eine mächtige Waffe im Kampf gegen die immer weiter wachsende Zahl von Cyber-Attacken auf Unternehmensnetzwerke. Tim Cappelmann, Leiter Managed Security bei AirITSystems, über den Einsatz von neuen Sicherheitssystemen in Unternehmen. Vor wenigen Jahren waren SIEM-Systeme (Security Information and Event Management) vor allem als Hype-Thema in aller Munde. Seit dem hat…

Managed Infrastructure Services: Managed SIEM

Managed Infrastructure Services: Managed SIEM

Security Information & Event Management (SIEM) ist eines der derzeit am schnellsten wachsenden Segmente im Bereich IT-/Information-Security. Dieses Wachstum ist einerseits auf steigende Compliance-Anforderungen (SOX, PCI-DSS, IT-Grundschutz etc.) zurückzuführen und andererseits auf das Bedürfnis, sicherheitsrelevante Vorfälle zeitnah zu erkennen.

So werden die Bordnetzhersteller zu Gewinnern der CASE-Trends

Die umwälzenden Veränderungen der Automobilbranche bedrohen viele Zulieferersegmente in ihrer Existenz. Die Bordnetzhersteller dagegen können nach Ansicht von DiIT die großen Gewinner werden – wenn sie ihre Hausaufgaben machen. Connected, Autonomous, Shared & Services, Electrified – oder einfach kurz CASE. Diese vier Trends stellen die Automobilbranche auf den Kopf und werden sie für immer nachhaltig…

Automatisierung: Die Fertigung wird immer intelligenter

Die Fertigungsindustrie strotzt von Beispielen an Unternehmen, die neueste technologische Entwicklungen in ihren Produktionsstätten einsetzen. Ihr Ziel: Verbesserung der Prozesse, höherer Automatisierungsgrad und Förderung des zukünftigen Unternehmenswachstums. Eine Studie von Epicor zeigt, dass sich 95 Prozent der befragten Fertigungsunternehmen in Deutschland in irgendeiner Form mit digitaler Transformation auseinandersetzen Ein Paradebeispiel ist Siemens, das mithilfe von…

Sicherheitsteams verdienen einen besseren Ansatz für Erkennung und Reaktion auf Cyberangriffe

Für viele Unternehmen ist das IT-Sicherheitsteam die erste Verteidigungslinie gegen alle bekannten und unbekannten Bedrohungen. Die zentrale Aufgabe solcher Teams besteht darin, Bedrohungen in ihrer gesamten digitalen Umgebung zu identifizieren, zu untersuchen und zu entschärfen. Da die Angreifer zunehmend automatisierter und komplexer vorgehen, verlassen sich Sicherheitsteams auf einen mehrschichtigen Ansatz zur Prävention, wie Palo Alto…

Fachkräftemangel für IT Security steigt gravierend – was tun für mehr Sicherheit?

$
0
0

Jedes zweite Unternehmen fürchtet Probleme durch fehlende IT Security Fachkräfte. Fünf Maßnahmen helfen Schließen der Qualifikationslücken und für mehr IT-Sicherheit auf.

https://pixabay.com/de/

 

Dem Global Risks Report 2019 des Weltwirtschaftsforums zufolge, sind Datenbetrug und -diebstahl mittlerweile das drittgrößte Risiko für die Weltwirtschaft, dicht gefolgt von anderen Internetattacken. Eine Bitkom-Studie  ergab, dass in der deutschen Industrie in den vergangenen beiden Jahren, durch Sabotage, Datendiebstahl oder Spionage, ein Gesamtschaden von insgesamt 43,4 Milliarden Euro entstand. Gleichzeitig ist das Thema IT-Sicherheit einer der am stärksten von Fachkräftemangel betroffen Bereiche. In der Cybersecurity Workforce Study, 2018 der Non-Profit-Organisation (ISC)² wurde ein eklatantes Qualifikationsdefizit festgestellt, wonach bis 2022 dem IT-Sicherheitsbereich alleine in Europa mehr als 350.000 qualifizierte Arbeitnehmer fehlen werden. Über 50 Prozent der weltweit befragten Unternehmen gaben in einer Studie der ESG (Enterprise Strategy Group) an, dass sich dieses Problem auf ihr Geschäft auswirke. Aber wie können Unternehmen diesen Qualifikationsmangel angehen? Corporate Learning Spezialist Skillsoft hat fünf Maßnahmen zusammengestellt.

Anforderungen an das Management vermitteln

Einer der wesentlichen »Bremsklötze« für den Aufbau vom mehr IT-Sicherheitskompetenzen in Unternehmen ist, laut dem Bericht «Benchmarking Workforce Capacity an Response to Cyber Risk« von Frost & Sullivan, das Unverständnis für die Anforderungen und die benötigten Qualifikationen beim Management. Über 42 Prozent der Befragten weltweit und 41 Prozent der europäischen Studienteilnehmer nannten diesen Faktor an zweiter Stelle der Bremsklötze, gleich nach »schwer zu findenden Fachkräften«. Daher sollte einer der ersten Schritte für Sicherheitsinitiativen sein, das Management mit aussagekräftigen Informationen und Fakten zu überzeugen.

Qualifikationen aufbauen und Perspektiven aufzeigen

Der Mangel an qualifizierten Fachkräften wird nicht nur im oben genannten Bericht als Problem Nummer 1 genannt. Weiterbildungsmaßnahmen, um die Qualifikationslücken zu schließen, sind daher eine logische Alternative oder Ergänzung zur Suche nach IT-Sicherheitsexperten. Dieser Ansatz lässt sich sowohl bei der Kandidatensuche als auch bei vorhandenem Personal anwenden. Die (ISC)²-Umfrage ergab zum Beispiel, dass sich 48 Prozent der IT-Mitarbeiter für den Bereich IT-Sicherheit interessieren. Es empfiehlt sich also zu prüfen, welche Vorkenntnisse und Fähigkeiten Mitarbeiter und Bewerber haben, die möglicherweise mit einem überschaubaren Maß an Zusatzqualifikationen ausgebaut werden könnten. Angebote für Weiterbildung und Zertifizierungen gibt es heute auch in digitalen Formaten, die zeit- und ortsunabhängig in den Arbeitsalltag integriert werden können. Wichtig ist außerdem, den Kandidaten die Karrieremöglichkeiten für IT-Sicherheitsexperten aufzuzeigen, denn fehlende Informationen über diese Perspektiven werden von 31 Prozent der Unternehmen in der Studie von Frost & Sullivan als Hinderungsgrund genannt.

Fachkräfte entlasten und halten

Durch den Fachkräftemangel steigt zusätzlich das Risiko wichtige Mitarbeiter zu verlieren. Einerseits sind sie heiß umworben, andererseits steigt ihre Arbeitsbelastung häufig durch den zunehmenden Stress und Ressourcendruck. In vielen Unternehmen müssen wenige IT-Experten immer mehr Aufgaben erfüllen. Alleine die Aktualisierungen von Sicherheits-Updates oder das sichere Onboarding von Geräten und Komponenten in zunehmend komplexeren IT-Umgebungen ist eine nie endende Sisyphus-Aufgabe. Der Qualifikationsaufbau bei mehr Mitarbeitern kann dazu beitragen, die vorhandenen Experten zu entlasten und im Unternehmen zu halten. Ein weiterer Ansatzpunkt ist die Modernisierung der Infrastruktur und Prozesse. Hier lohnt es sich zu prüfen, ob sich die Umstellung auf (teil)automatisierte Lösungen, die Routineaufgaben wie Sicherheitsupdates ohne manuellen Aufwand umsetzen, lohnt.

Vorsorgen für die Zukunft

Vorausschauende Unternehmen denken zudem bereits an die nächste Generation von potenziellen Kandidaten. Eine Verbindung zu Bildungseinrichtungen kann auf mehrere Arten zur Rekrutierungsbasis beitragen. Einerseits bietet sich so die Möglichkeit Talente, die bereits eine entsprechende Ausbildung durchlaufen, für das eigene Unternehmen zu interessieren. Andererseits lässt sich so zusätzlich für das gesuchte Berufsprofil werben. Auch technisch versierte Millennials sind sich ihrer Karrieremöglichkeiten im Bereich der IT-Sicherheit selten bewusst. So waren, einer kürzlich veröffentlichten Studie der Enterprise Strategy Group (ECS) zufolge, nur 9 Prozent der Befragten daran interessiert, einen Beruf in diesem Bereich auszuüben. Gleichzeitig gaben aber 65 Prozent der Millennials an, dass sie On-the-Job-Schulungs- und Mentoren-Programme als sehr positiv bewerten. Das zeigt, dass entsprechende Entwicklungsprogramme für Karrieren im Bereich IT-Sicherheit ein guter Weg sind, um den Kompetenz-Pool für die Zukunft zu erhöhen.

Sensibilisierung aller Mitarbeiter

Ein weiterer Schlüsselaspekt für die IT-Sicherheit in Unternehmen ist die Sensibilisierung und Steigerung des Technologie-Bewusstseins aller Mitarbeiter. Sicherheitslücken entstehen häufig durch mangelndes Verständnis und daraus resultierender fahrlässiger Handhabung von Sicherheitsaspekten. Der Data Breach Investigation Report von Verizon zeigt beispielsweise, dass im Jahr 2017 81 Prozent der untersuchten Hacker-Angriffe auf gestohlene oder schwache Passwörter zurückzuführen waren. Die fortschreitende Öffnung von Unternehmenssystemen und die Verbreitung des Internet of Things (IoT) mit unzähligen Endgeräten, erweitert die Angriffsfläche jedes Unternehmens zusätzlich. Regelmäßige kurze Schulungen für die gesamte Belegschaft sind ein Muss, um Themen wie Passwortsicherheit oder Phishing zu erklären und die Verantwortung in Bezug auf die Sicherheit von Unternehmens- und Kundendaten zu vermitteln.

Um die Inhalte effektiv zu vermitteln und einen bleibenden Lerneffekt zu erzielen, müssen diese aktuell, relevant und möglichst ansprechend aufbereitet sein. Kurze »Lernhäppchen« – Stichwort Micro Learning – für einzelne Themen mit aktuellem Praxisbezug sind dabei vor allem für fachfremde Mitarbeiter deutlich besser zu verarbeiten als stundenlange Schulungen, die in einer Sitzung im Rundumschlag eine Vielzahl von Themen vermitteln sollen.

Abschließend lässt sich sagen: Ein ganzheitlicherer Ansatz, mit einem erweiterten Blickwinkel auf die Belegschaft, die Entwicklung neuer Bewerberpools sowie die Sensibilisierung und Schulung einer breiteren Arbeitnehmerschaft, können Unternehmen dabei helfen, Qualifikationslücken zu schließen und sicherzustellen, dass sie auch in unserer zunehmend digitalen Welt ihre Daten und ihr geistiges Eigentum schützen.

Erfahren Sie mehr auf www.skillsoft.de.

 

371 search results for „Fachkräftemangel „

Mit Security as a Service gegen den Fachkräftemangel

Managed Services als Unterstützung interner IT-Teams.   Security as a Service wird bei Großunternehmen und KMUs immer beliebter: Die sich ständig erweiternde Bedrohungslandschaft und der Mangel an Fachkräften führt zur zunehmenden Akzeptanz von IT-Sicherheit als Dienstleistung. Denn der Arbeitsmarkt bleibt angespannt, in Deutschland gibt es laut Bitkom 82.000 offene Stellen für IT-Spezialisten, und die Nachfrage…

Fachkräftemangel hausgemacht?

Arbeitgeber verlieren junge Nachwuchskräfte, die bereits im Unternehmen arbeiteten, weil sie den Kontakt verspielen. Deutsche Arbeitgeber beklagen zwar den Fachkräftemangel, vernachlässigen allerdings die Kontaktpflege zu jungen Talenten, die bereits im Unternehmen ein Praktikum geleistet haben. Das ist ein Ergebnis des aktuellen »Future Talents Report«, den die Unternehmensberatung CLEVIS Consult im Rahmen des »Future Talents Forum…

82.000 freie Jobs: IT-Fachkräftemangel spitzt sich zu

Zahl offener Stellen steigt 2018 deutlich um 49 Prozent. IT-Jobs bleiben im Schnitt fünf Monate vakant. Sechs von zehn Unternehmen erwarten künftig weitere Verschärfung.   Der Mangel an IT-Fachkräften hat einen neuen Höchststand erreicht. In Deutschland gibt es derzeit 82.000 offene Stellen für IT-Spezialisten. Das entspricht einem deutlichen Anstieg um 49 Prozent im Vergleich zum…

Fachkräftemangel bekämpfen: Das könnte helfen

Fachkräfte fehlen, vor allem in der IT-Branche. Das Institut der deutschen Wirtschaft in Köln (IW) zählte im April 2018 insgesamt 486.000 unbesetzte Stellen in den MINT-Berufen – 55.000 davon in der ITK-Branche. Laut IW sind es doppelt so viele offene Stellen wie noch vor vier Jahren. Dieser Mangel kostet deutsche Unternehmen elf Milliarden Euro im…

Kampf um Know-how: Den Auswirkungen des Fachkräftemangels entgegenwirken

Während der Anteil der Bürger im erwerbsfähigen Alter sinkt, macht sich gleichzeitig die Abwanderung potenzieller Fachkräfte immer stärker bemerkbar. Unternehmen kämpfen gegen die Auswirkungen des demografischen Wandels und suchen nach Lösungen – mit dem Fachpersonal fehlt ihnen auch das nötige Know-how. Sich allein auf die Zuwanderung neuer fachlich versierter Arbeitnehmer zu verlassen, reicht nicht. Die…

»Den Nachwuchs- und Fachkräftemangel muss jedes Unternehmen selbst lösen«

In mehr als jedem dritten Betrieb in Deutschland blieben 2017 Ausbildungsplätze unbesetzt. In rund 17.000 Unternehmen gingen überhaupt keine Bewerbungen mehr ein. Das zeigt die Untersuchung des Deutschen Industrie- und Handelskammertags »Ausbildung 2018«, die am 18. Juli 2018 in Berlin vorgestellt wurde. Sven Hennige, Senior Managing Director beim spezialisierten Personaldienstleister Robert Half, kommentiert die Ergebnisse:…

Maßnahmen gegen Fachkräftemangel: Wie aus dem »War for Talents« eine »Win-win«-Situation wird

  Schon seit langem beklagen viele Arbeitgeber einen Mangel an qualifizierten Fachkräften. Vor allem in den Bereichen Mathematik, Informatik, Naturwissenschaften und Technik sollen laut einer Analyse des Instituts der deutschen Wirtschaft Köln (IW) im April 2018 mehr als 300.000 Fachleute fehlen – eine Steigerung um 32,5 Prozent zum Vorjahr. Die Zahlen zwingen die Arbeitgeber, zu…

Smarte Lösung für IT-Fachkräftemangel und komplexe Probleme – Arbeiten mit Asperger-Autisten

Ihre Fähigkeiten sind oft außergewöhnlich – dennoch haben nur fünf Prozent von ihnen einen festen Job in der IT-Branche. Menschen im Autismus-Spektrum und insbesondere Asperger-Autisten finden sich in der Welt der Bits und Bytes hervorragend zurecht – vorausgesetzt, das Umfeld stimmt.

Fachkräftemangel auf neuem Höchststand: Weiterbildung hilft, den Fachkräftemangel zu beheben

Für Unternehmen wird es immer schwieriger, auf dem leergefegten Fachkräftemarkt qualifiziertes Personal zu finden. Um den Ressourcenengpass abzufedern, setzen sie verstärkt auf berufsbegleitende Weiterbildung. Dies geht aus der aktuellen Umfrage »Weiterbildungstrends in Deutschland 2018« unter 300 Personalverantwortlichen hervor. Die Studie zeigt: Der Fachkräftemangel hat einen neuen Spitzenwert erreicht: 70 Prozent aller befragten Unternehmen können ihren…

Smarte Lösung für IT-Fachkräftemangel und komplexe Probleme – Arbeiten mit Asperger-Autisten

Ihre Fähigkeiten sind oft außergewöhnlich – dennoch haben nur fünf Prozent von ihnen einen festen Job in der IT-Branche. Menschen im Autismus-Spektrum und insbesondere Asperger-Autisten finden sich in der Welt der Bits und Bytes hervorragend zurecht – vorausgesetzt, das Umfeld stimmt. Die Firma Auticon hat das Ziel, möglichst viele von ihnen mit einer besonderen Begabung…

Digitalisierung ausgebremst: Quo vadis, Fachkräftemangel?

Die Rufe nach mehr Digitalisierung in der Unternehmenslandschaft sind unüberhörbar: Ohne den Einsatz smarter Technologien riskieren Betriebe, langfristig den Anschluss an ihre Mitbewerber zu verlieren. Von der Entwicklung besonders betroffen ist das Herz der deutschen Wirtschaft – der Mittelstand. In zugehörigen Betrieben kranken Digitalisierungsvorhaben vor allem an zu wenig Fachpersonal und damit einhergehend am nicht…

Recruiting Trends 2018: Mit Roboter Recruiter gegen den Fachkräftemangel?

95 % der Arbeitgeber gaben 2017 an, Schwierigkeiten bei der Besetzung offener Stellen mit geeigneten Bewerbern zu haben. Bei einigen bedroht der Fachkräftemangel bereits das Geschäft. Die Unternehmen verlassen sich daher nicht mehr auf nur Stellenanzeigen und Personalberater sondern greifen zur Selbsthilfe. Das Institute for Competitive Recruiting (ICR), Heidelberg stellte die Ergebnisse der Studie Recruiting…

Cloud-Trends 2018: Fachkräftemangel, Edge Computing und Cloud-Infrastruktur

Die ungewisse politische Lage und die Vorschriftenänderungen könnten 2018 für Unternehmen zu einem unberechenbaren Jahr machen. Die richtige Mischung von pragmatischer Kreativität und Initiative zu finden wird von zentraler Bedeutung für Unternehmen sein, weil diese auch in diesem Jahr danach streben werden, flexible, bewegliche und regelkonforme Leistungsmöglichkeiten zu entwickeln. Mark Lewis, EVP Products & Development…

Fachkräftemangel weitet sich aus

Unternehmen haben immer größere Probleme, neue Mitarbeiter zu finden. Zwei von drei Arbeitsplätzen sind derzeit schwer zu besetzen. Das geht aus einer Studie des Instituts der deutschen Wirtschaft (IW) hervor [1]. Besonders angespannt ist die Situation in Süddeutschland, doch auch in Thüringen und einzelnen norddeutschen Regionen sind Fachkräfte extrem knapp.   Im Juni 2017 wurden…

Konjunkturprognose 2018: Fachkräftemangel bremst Wachstum

Die deutsche Wirtschaft kann momentan wenig aufhalten – weder die Brexit-Verhandlungen noch Donald Trump. Das Institut der deutschen Wirtschaft Köln (IW) rechnet daher mit einem robusten Wachstum von zwei Prozent im kommenden Jahr. Fehlende Fachkräfte werden aber immer mehr zu einer hausgemachten Wachstumsbremse.   Die deutsche Konjunktur läuft deutlich besser als in den ersten Monaten…


Totes Kapital beleben: Intelligente USV-Anlage senkt Kosten und erhöht gleichzeitig die Versorgungssicherheit

$
0
0

Niedrigere Investitions- und Betriebskosten für Betreiber von Rechenzentren.

 

Die Master+ macht es möglich, die Auf- und Entladung einer externen Batterie intelligent zu managen, und erlaubt so die gleichzeitige Steuerung der Netzdienstleistung sowie der Backup-Funktion. Damit kann die USV-Anlage multifunktional auch für die Bereitstellung von PRL genutzt werden. Quelle: Riello Power Systems GmbH

Im Jahr 2017 verzeichnete die Bundesnetzagentur eine durchschnittliche Versorgungsunterbrechung von lediglich 15 min je angeschlossenem Stromverbraucher. Trotz dieser geringen Dauer müssen sich Rechenzentren ganzjährig und rund um die Uhr gegen einen Stromausfall absichern, um größeren Schäden und Datenverlusten vorzubeugen. In der Folge bleiben die dafür eingesetzten USV-Anlagen nahezu ungenutzt – und sind so betriebswirtschaftlich gesehen totes Kapital.

Deswegen haben die RWE Supply & Trading GmbH und die Riello Power Systems GmbH ein Konzept entworfen, um USV-Anlagen zusätzlich zur ursprünglichen Funktion für die Bereitstellung von Netzdienstleistungen wie Primärregelleistung (PRL) zu verwenden. Hierfür hat Riello seine bewährte Master HE zur Master+ weiterentwickelt. Diese verfügt über eine Batterie mit erhöhter Speicherkapazität, mit der bei Bedarf die Netzstabilität beziehungsweise das Gleichgewicht zwischen Stromerzeugung und -abnahme wiederhergestellt werden kann. Die Vermarktung der Netzdienstleistung erfolgt durch RWE; Rechenzentrumsbetreiber profitieren durch die Beteiligung des Konzerns von geringeren Investitions- und Betriebskosten. Gleichzeitig erhöht die größer dimensionierte Premium-Batterie samt Batterie-Monitoring-System die Versorgungssicherheit.

Ohne ein Gleichgewicht zwischen Stromerzeugung und -verbrauch wäre die Systemstabilität von Stromnetzen schnell gefährdet. Deswegen müssen selbst geringe Differenzen augenblicklich mittels Regelenergie ausgeglichen werden. Diese wird vom Netzbetreiber eingespeist, um Leistungsschwankungen zu glätten. Die Primärregelung federt dabei kurzfristige Laständerungen ab – sie muss innerhalb von 30 s vollständig erbracht werden. »Für die Bereitstellung von PRL eignen sich deswegen Batterien besonders gut, da sie sehr schnell reagieren können«, erklärt Dr. Hans-Günter Schwarz, Head of Product Development on Energy Services bei der RWE Supply & Trading GmbH. »Da USV-Batterien nur selten zum Einsatz kommen, sind sie ungenutztes Kapital. So entstand die Idee, diese Infrastruktur auch zur Bereitstellung von PRL zu verwenden.«

 

Multifunktionsfähige USV-Anlage

In der Folge suchte das Unternehmen einen Partner zur Verwirklichung dieser Idee und wurde dabei auf die Riello Power Systems GmbH aufmerksam, die auf die Entwicklung und Herstellung intelligenter USV-Anlagen spezialisiert ist. Diese entwickelte daraufhin in enger Zusammenarbeit mit RWE ihre bewährte Master HE weiter. Hierbei handelt es sich um eine USV-Serie mit Online-Technologie und eingebautem IGBT-Umrichter, der die Rückspeisung der Energie ins Netz erlaubt. Die anhängende Last wird im Dauerbetrieb permanent über den Wechselrichter versorgt, der eine sinusförmige, gefilterte und in der Frequenz stabilisierte Spannung am Ausgang liefert. Ein- und Ausgangsfilter schützen die Verbraucher vor Netzstörungen wie Stromausfällen, Frequenzschwankungen, Über- und Unterspannung sowie Erd- und Kurzschluss. Zudem ist ein Trenntrafo zur galvanischen Trennung der zu versorgenden Verbraucher integriert. Mit einem hohen Wirkungsgrad von bis zu 96 Prozent und einem Doppelwandler bildet die Serie so eine gute Basis für die gewünschte Anwendung.

Die Master HE wurde in der Folge an die Richtlinie für Anschluss und Parallelbetrieb von Erzeugungsanlagen am Mittelspannungsnetz beziehungsweise an die aktuell gültige Fassung der VDE-Anwendungsregel (FNN) VDE-AR-N 4110 angepasst.

»Die nun entstandene Master+ macht es möglich, die Auf- und Entladung der Batterie in Richtung des Speisenetzes intelligent zu managen. So erlaubt sie die gleichzeitige Steuerung der Netzdienstleistung sowie der Backup-Funktion«, so Dipl.-Ing. (FH) Volker Liebenhagen, Regionalleiter Nord/West bei der Riello Power Systems GmbH. Beide Funktionen werden dabei strikt voneinander getrennt. Während die PRL über eine VPN-Verbindung von RWE abgerufen und ins Verteilnetz abgegeben wird, bleibt die USV-Funktion unangetastet. Dadurch kann gewährleistet werden, dass bei einem Stromausfall immer die geforderte USV-Leistung erbracht wird. Diese Trennung schlägt sich auch im Verbrauch nieder: Das Rechenzentrum trägt lediglich die Energiekosten für die Backup-Funktion, RWE übernimmt die Stromkosten für die Bereitstellung der PRL.

 

RWE kann mittels eines Verbindungsnetzwerks die Erbringung der PRL steuern und überwachen. Durch die virtuelle Aufteilung der Batterie in ein Back-up und ein kommerzielles Segment bleibt die Backup-Funktion der USV-Anlage unangetastet.
Quelle: RWE Supply & Trading GmbH

 

Zuverlässigkeit steigt durch ständige Überprüfung

Die Master+ verfügt über eine größer dimensionierte Premium-Batterie, da für PRL zusätzliche Speicherkapazitäten benötigt werden, sowie über ein modernes Batterie-Monitoring-System. Dieses überwacht den Zustand der Zellen und leistet auf diese Weise zusammen mit regelmäßigen Tests einen Beitrag zur Zuverlässigkeit des USV-Systems.

»Bei herkömmlichen USV-Anlagen leidet die Zuverlässigkeit der Batterien stets unter der seltenen Verwendung. Intensive Wartungskonzepte sind notwendig, sonst werden Störungen erst zu spät erkannt«, bemerkt Liebenhagen. Datenausfälle und Abschaltungen sind die Folge. »Mit unserem neuen Konzept können Rechenzentrumsbetreiber nun ohne Zusatzkosten die Sicherheit des Systems erhöhen: Eine höherwertige Batterie, die Tests und ein Remote-Monitoring stellen die Funktionsfähigkeit sicher.« Bei einem Stromausfall können Betreiber zudem die für die PRL gespeicherte Energie nutzen, sodass sich die Backup-Zeit von etwa 10 min auf bis zu 30 min verlängern lässt.

 

Betreiber profitieren durch die Beteiligung von RWE

RWE trägt dabei die volle Verantwortung für die Vermarktung und den Verkauf der PRL. Somit hat RWE ein berechtigtes Interesse an der Funktionsfähigkeit des Systems und übernimmt daher teilweise die Kosten für die Batterie, die Wartung und das Monitoring. Riello unterstützt das Projekt zusätzlich durch ein umfassendes Servicekonzept. Dadurch sinken für die Betreiber eines Rechenzentrums die Investitions- und Betriebskosten – sogar im Vergleich zu einer herkömmlichen USV-Anlage. »Die Versorgungssicherheit des Rechenzentrums zu gewährleisten, hat immer Priorität. Mit unserem Konzept können Betreiber nun die Sicherheit signifikant erhöhen – und gleichzeitig ihre Kosten senken«, fasst Liebenhagen zusammen.

 

Weitere Informationen unter: https://youtu.be/QLfdZj1kafc

 

39 search results for „Rechenzentrum USV“

In nur neun Monaten zur neuen IT-Infrastruktur – Rechenzentrums-Container von Rittal

ene‘t ist ein auf die Energiebranche spezialisiertes IT-Systemhaus. Mit einer selbst entwickelten Software und den stets aktuellen Daten zum Strom- und Gasmarkt kalkulieren Erzeuger, Netzbetreiber und Versorger die bestmöglichen Endverbraucherpreise. Das rasante Wachstum von ene‘t machte den Neubau eines Rechenzentrums in Rekordzeit notwendig.

Open Compute Projekt – Mehr Gleichstrom und offene Standards im Rechenzentrum

Die laufenden Betriebskosten im Rechenzentrum zu senken, ist für jeden CIO eine Daueraufgabe. Die Initiative »Open Compute Project« (OCP) setzt hierzu auf homogene Rechenzentren und eine zentrale Gleichstromversorgung im Rack. Neue OCP-Produkte und aktualisierte Spezifikationen zeigen, wie attraktiv das Konzept ist.

OVH: erster Ping zum deutschen Rechenzentrum erfolgreich

OVH hat beim Bau seines deutschen Datacenters in Limburg (Nähe Frankfurt) einen wichtigen Meilenstein erreicht: Der erste Ping am 27. März verlief positiv. Mit einer geringen Latenz von 13 Millisekunden zwischen Frankfurt und Roubaix war die Verbindung ein voller Erfolg. In den letzten Wochen wurde mit Hochdruck an der Installation der Elektrik sowie der Anbindung…

Wichtige Kennzahlen für den IT-Betrieb – Optimale Energieeffizienz im Rechenzentrum

Digitale Geschäftsmodelle, Cloud Computing und Big-Data-Analysen sind nur einige der vielen Treiber, die den Bedarf nach mehr Rechenleistung vorantreiben. Für IT-Manager bedeuten zusätzlich installierte Kapazitäten aber auch, dass die Energiekosten für das Rechenzentrum in den Mittelpunkt wirtschaftlicher Analysen rücken. Mit welchen Kennzahlen Unternehmen die Kosteneffizienz ihrer IT-Infrastruktur bewerten sollten, zeigt der folgende Beitrag.

Drei Tipps für die Wahl eines Rechenzentrums

Analog zur zunehmenden Digitalisierung aller Branchen bis hin zu einzelnen Mitarbeitern sind auch die Anforderungen an eine fachgerechte Sicherung und Verwaltung unternehmenseigener IT gewachsen. Worauf sollten mittelständische Geschäftsführer bei der Rechenzentrumswahl achten. Industrie 4.0, Internet of Things (IoT) und Big Data – die Digitalisierung hat viele neuartige Themen geschaffen, die Unternehmen zeitnah auffordern ihre IT-Landschaft grundlegend zu…

Sicherheit im Rechenzentrum: Verordneter IT-Schutz

Der IT-Branchenverband Bitkom schätzt, dass im Jahr 2015 gut die Hälfte aller Unternehmen in Deutschland von Datendiebstahl, Sabotage oder Spionage betroffen waren. Auch mittelständische Unternehmen müssen ihre Systeme zunehmend stärker schützen, da in Zeiten von Industrie 4.0 und mit dem Internet der Dinge die Technologie bis zu den Maschinen an der Bandstraße vordringt. Jedes zehnte…

Automatisches Feuerlöschsystem im Rechenzentrum

In den Rechenzentren herrscht ein besonders hohes Brandrisiko durch die hohe Energiedichte der installierten elektrischen Anlagen wie Server, Storages, Netzwerkkomponenten usw. sowie die damit verbundene große Abwärmemenge. Die typische Brandgefahr liegt in den Schwelbränden durch Kurzschlüsse oder technische Defekte, die oft erst entdeckt werden, wenn ein Brandschaden bereits entstanden ist. In vielen Datacentern sind unzureichende…

In Frankreich arbeitet das erste Rechenzentrum mit Energiespeicherung

Erneuerbare Energien werden mit Batteriespeichertechnologie verknüpft. Das erste Rechenzentrum arbeitet mit einem Lithium-Ionen-Batteriespeicher. Das Unternehmen Webaxys, Provider und Telekomanbieter mit Sitz in der Normandie, hat ein neues Rechenzentrum in Saint-Romain de Colbosc in der Nähe von Le Havre eingeweiht. Seit seiner Gründung verfolgt das Unternehmen eine Innovationsstrategie, die auf gesellschaftlichem Engagement und einem respektvollen Umgang…

Betriebskosten um rund ein Viertel senken – Sparen im Rechenzentrum

80 Prozent der Rechenzentren verbrauchen zu viel Energie [1]. In einer Untersuchung von über 100 Unternehmen hinsichtlich der Energieeffizienz in ihren Datacentern wurde festgestellt, dass der Power-Usage-Effectivness-Wert (PUE-Wert) im Mittel bei 1,7 liegt. Wenige Maßnahmen können die Effizienz steigern und so die Stromkosten um 20 bis 30 Prozent senken.

Sparen im Rechenzentrum

So können RZ-Verantwortliche die Betriebskosten um rund ein Viertel senken. 80 Prozent der Rechenzentren verbrauchen zu viel Energie [1]. Der Experte für sicheren und effizienten RZ-Betrieb untersuchte über 100 Unternehmen hinsichtlich der Energieeffizienz in ihren Datacentern. Dabei stellte er fest, dass der Power-Usage-Effectivness-Wert (PUE-Wert) im Mittel bei 1,7 liegt. Nach Angaben von Marc Wilkens, Senior…

Rechenzentrum in Geleen: Ein neues Geschäftsmodell geht an den Start

Am 10. Dezember 2015 eröffneten der belgische ICT-Dienstleister Cegeka und der niederländische Datacenter-Spezialist ICTroom ihr neues Rechenzentrum in Geleen/Niederlande an der deutsch-holländischen Grenze. Im Rahmen der Eröffnungsfeier wurde das neue Rechenzentrum der Öffentlichkeit jetzt vorgestellt. Eröffnungsfeier mit internationalen Gästen Gäste aus Großbritannien, Frankreich, der DACH-Region und den Benelux-Ländern waren eingeladen, einen ersten Blick auf den…

Cloud Security: Sechs Maßnahmen für effektive Cloud-Sicherheit

$
0
0

Sicherheitsverantwortung in der Cloud durch Shared-Responsibility-Modell: Unternehmen tragen als Kunden Eigenverantwortung für kritische Bereiche.

Illustration: Absmeier, Pixabay

Die zunehmende Nutzung von Public-Cloud-Ressourcen macht es erforderlich, dass Unternehmen ihre Sicherheitsverantwortung ernster nehmen. Basierend auf dem Modell der geteilten Sicherheitsverantwortung von Anbieter und Kunde ergeben sich einige entscheidende Anforderungen an zuverlässige Cloud-Sicherheit. Sechs grundlegende Maßnahmen für effektive Cloud-Sicherheit helfen das Sicherheitsniveau zu steigern.

In traditionellen lokalen Systemen sind Unternehmen für die Sicherheit verantwortlich – von den physischen Standorten über die Hardware, das Betriebssystem, das Netzwerk und die Anwendungen. In der Public Cloud – sowohl im Falle von Infrastructure- als auch Platform-as-a-Service – wird die Sicherheitsverantwortung zwischen dem Cloud-Service-Provider und dem Unternehmenskunden geteilt. Dem Anbieter obliegt die Sicherheit der physischen Schicht und der Infrastrukturaspekte der Cloud sowie der von ihm angebotenen Rechen-, Speicher-, Datenbank-, Netzwerk- und Anwendungsdienste. Der Kunde ist für die Sicherheitskonfiguration seiner eigenen Betriebssysteme, den Netzwerkverkehr und die Firewall-Einstellungen sowie alle Sicherheitseinstellungen der eigenen Systeme, die für die Verbindung zur Cloud verwendet werden, verantwortlich. Die Sicherheitsexperten von Palo Alto Networks haben daraus sechs grundlegende Maßnahmen abgeleitet.

 

  1. Klassifizierung von Anwendungen und Daten

Geschäftsführung und Sicherheitsverantwortliche sollten sich fragen, welche Anwendungen und Daten vorliegen, die für den Betrieb des Unternehmens entscheidend sind: Welche kompromittierten Anwendungen und Daten würden dazu führen, dass Führungskräfte, Aktionäre oder Kunden betroffen wären? Welche Daten könnten, wenn sie abhandenkommen, die Fähigkeit zur Geschäftstätigkeit oder die Wettbewerbsstärke beeinträchtigen? Die Offenlegung welcher Daten würden die Regulierungsbehörden auf den Plan rufen und möglicherweise zu Geldbußen oder Sanktionen zu führen? Vertrauliche Geschäftsdaten und staatlich regulierte Daten müssen als kritisch eingestuft und geschützt werden.

 

  1. Anwendungssicherheit im Auge behalten

Angreifer zielen oft auf Schwachstellen in Webanwendungen ab. Um zu gewährleisten, dass Anwendungen frei von Softwareschwachstellen sind, empfiehlt Palo Alto Networks, aktiv nach Schwachstellen zu suchen, die Sicherheitsrisiken bergen. Wenn es sich bei den Anwendungen um Open-Source- oder Standard-Anwendungen handelt, gilt es sicherzustellen, dass regelmäßig Patches durchgeführt und kritische Sicherheitsmängel sofort behoben werden. Für die Erstellung der Anwendungen sollten Entwickler in der Nutzung sicherer Codierungspraktiken geschult sein und die Anwendungen kontinuierlich auf mögliche Fehler überprüfen. Anleitungen zum Starten eines Anwendungssicherheitsprogramms liefert beispielsweise das Open Web Application Security Project (OWASP).

 

  1. Benutzeridentitäten und Zugriff unter Kontrolle bringen

Unternehmen sollten Prozesse zur Verwaltung ihrer Benutzeridentitäten bereitstellen. Dazu gehört, zu wissen, wer die Benutzer sind, welche Jobrollen sie haben und auf welche Anwendungen und Ressourcen sie zugreifen dürfen sollten. Es ist wichtig, den Zugang auf diejenigen Mitarbeiter zu beschränken, die einen angemessenen Bedarf an diesen Ressourcen haben. Wenn sich die Rollen dieser Personen ändern, gilt es entsprechend deren Zugang zu ändern. Wenn jemand aus irgendeinem Grund das Unternehmen verlässt, wird ihm der Zugang entzogen. Dies ist eine der wichtigsten Maßnahmen, um ein gutes Sicherheitsniveau aufrechtzuerhalten, aber auch einer der Bereiche, die so oft übersehen werden.

 

  1. Erstellen und Verwalten von Richtlinien und Konfigurationen

Es ist wichtig, Richtlinien für Sicherheitsprüfungen, Einstellungen und Konfigurationsebenen für alle Systeme, Workloads und Anwendungen festzulegen. Wie bei Schwachstellenüberprüfungen kommt es in erster Linie darauf an, veraltete Systeme zu finden und dann zu checken, ob die Systeme gemäß den Richtlinien konfiguriert und ausgeführt werden.

 

  1. Was automatisierbar ist, sollte automatisiert werden

Wenn es eine Sicherheitsaufgabe gibt, die durch Skripte automatisiert oder kostengünstig an einen Anbieter von Sicherheitsservices übertragen werden kann, sollte dies geschehen. Dieses E-Book bietet einige hilfreiche Tipps. Handelt es sich um ein kleineres Unternehmen, lassen sich die Empfehlungen größengerecht skalieren, aber die Regeln bleiben ähnlich.

 

  1. Reaktionsbereitschaft gewährleisten

Natürlich ist es wichtig, ständig auf der Suche nach Sicherheitsmängeln im Unternehmen zu sein, aber viele Unternehmen machen sich leider nicht die Mühe, darüber nachzudenken, was als nächstes kommt: die Behebung. Wenn Sicherheitsverantwortliche anfangen, nach Schwachstellen zu suchen, was wird das Unternehmen tun, um diese zu beheben? Wenn Verstöße gegen die Richtlinieneinhaltung festgestellt werden, wie kann diese Lücke schnell geschlossen werden? Palo Alto Networks empfiehlt Unternehmen, über diese Fragestellungen nachzudenken und zu planen, um im Ernstfall reaktionsbereit zu sein und gezielt und effektiv vorgehen zu können.

 

Diese sechs grundlegenden Aspekte der Cloud-Sicherheit sind nicht als umfassendes Maßnahmenpaket gedacht. Sie sind ein Ausgangspunkt, um die Weichen in Richtung eines effektiven Cloud-Sicherheitsprogramms zu stellen. Weitere Details hierzu werden unter anderem auf dem Cloud Security Summit in Frankfurt erläutert.

 

2448 search results for „Cloud Sicherheit“

Rohde & Schwarz Cybersecurity und Utimaco bieten hardwaregestützte Sicherheit in der Cloud

Mit der Kombination von R&S Trusted Gate des IT-Sicherheitsexperten Rohde & Schwarz Cybersecurity und dem High-Security-Modul von Utimaco bieten die beiden Unternehmen jetzt auch hardwaregestützte Sicherheit in der Cloud. Kryptografisches Material kann separat in einem Hardware-Sicherheitsmodul generiert werden. Somit steht den Kunden zukünftig auch eine zusätzliche Hardwareoption zur Einhaltung höchster Sicherheitsanforderungen mittels R&S Trusted Gate…

Sicherheit in der Cloud: Herausforderungen bei Cloud-First-Strategie bewältigen

Die heutige vernetzte Welt basiert auf der Datenzugänglichkeit von überall, zu jeder Zeit und auf jedem Gerät. Die Geschwindigkeit und Agilität, die mit Hosting-Diensten und -Anwendungen in der Cloud einhergeht, sind für den Erfolg zentral. Die damit verbundenen Vorteile haben Unternehmen in den letzten Jahren gezwungen, zumindest einige und in manchen Fällen sogar alle ihre…

IT-Sicherheitsprognosen 2019 – Fokus auf die Cloud

Im Jahr 2019 werden Cyberkriminelle neue innovative Wege beim Ausnutzen von Sicherheitslücken finden. Sie werden weiterhin IoT-Geräte auf ihrem Radar haben und außerdem in der Cloud nach neuen Möglichkeiten suchen, um gefährdete Anwendungen angreifen zu können. Unternehmen sollten daher daran arbeiten, effektivere Sicherheitslösungen einzusetzen, die aber auch ihr Budget nicht überfordern.

Datensicherheit in der Cloud: Best Practices gegen Man-in-the-Cloud-Attacken

Das Nutzen von Cloud-Services gehört für die Mehrheit der Unternehmen längst zum festen Bestandteil der IT-Strategie. Die Möglichkeit des Datenzugriffs jederzeit und überall bringt zahlreiche Vorteile mit sich, allen voran verbesserte Flexibilität und erhöhte Produktivität. Die gestiegene Popularität dieser Dienste ist jedoch von böswilligen Akteuren nicht unbemerkt geblieben, was neue Arten von Cyberangriffen hervorgebracht hat.…

Die 5 häufigsten Bedenken hinsichtlich der Public-Cloud-Sicherheit

Wer ist eigentlich für die Sicherheit in der Public Cloud verantwortlich? Keine leichte Frage. Vor allem, weil Sicherheitsverletzungen weitreichende Folgen nach sich ziehen können. Aus Sicht von Rackspace sind dies die 5 häufigsten Bedenken von Unternehmen, wenn es um die Public-Cloud-Sicherheit geht:   1) Schützen Amazon, Microsoft und Google meine Cloud nicht? Die Cloud-Sicherheit besteht…

Europas Unternehmen haben Nachholbedarf in Sachen Cloudsicherheit

Nutzung von Cloudanwendungen deutlich gestiegen. Office 365 und AWS auf dem Vormarsch.   Eine aktuelle Studie liefert einen Überblick zur Nutzung von Cloudanwendungen in Europa [1]. Untersucht wurden dafür 20.000 Unternehmen in Deutschland, Frankreich, den Niederlanden, Italien, Spanien und Großbritannien. Während die Nutzung von Office 365 mit 65 Prozent einen neuen Rekordwert erreicht hat, lässt…

Die Vorteile ausgereifter Cloud-Sicherheitsstrategien

Ein neues Cloud-Security-Maturity-Model mit Benchmarks bietet Unternehmen Orientierung bei der Nutzung von nicht-IT-geführten Cloud-Services. Erfahrene Unternehmen haben doppelt so wahrscheinlich einen Cloud-Security-Architekten eingestellt wie andere Unternehmen.   Netskope stellt den neuen »The Maturity of Cloud Application Security Strategies«-Report vor, in dem die Enterprise Strategy Group (ESG) im Auftrag von Netskope die geschäftlichen Vorteile der Nutzung…

Analytics aus der Cloud – Datensicherheit und technologische Reife sind ausschlaggebend

Siebzig Prozent der befragten weltgrößten Unternehmen sagen, dass Analytics langsamer als andere Geschäftsanwendungen in die Cloud wechselt. Datensicherheit und leistungsschwache, unausgereifte Technologien sind größte Hindernisse.   Für die Mehrheit der größten Unternehmen der Welt (83 Prozent) ist die Cloud der beste Ort für Analytics. Dies ist das Ergebnis der Studie »The State of Analytics in…

Cloud-Sicherheit im Wandel – Unternehmen müssen umdenken

Unternehmen in der EMEA-Region haben häufig Bedenken, wenn es darum geht, Sicherheit in der Cloud umzusetzen. Doch genau dies, für Cloud-Sicherheit zu sorgen und Sicherheitsfähigkeiten aus der Cloud zu nutzen, ist unvermeidlich – und hier zeichnet sich eine Änderung der Denkweise ab. Cybersicherheitsexperten empfinden Veränderungen zu häufig als Verlust der Kontrolle, die sie wiedererlangen müssen.…

Das unsichtbare Sicherheitsnetz Cloud-Backup: Backup- und Disaster Recovery

Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als…

Digitale Technologien in Handel und Konsumgüterindustrie: IT-Sicherheit, Big-Data-Analyse und Cloud haben Priorität

Eine aktuelle Studie von Infosys mit dem Titel »Digital Outlook for the Retail and CPG Industry« zeigt, wie digitale Technologien in Unternehmen bestehende Abläufe verbessern, Probleme lösen und neue Geschäftsoptionen eröffnen. Für den Bericht wurden im Rahmen einer weltweiten Umfrage IT- und Business-Entscheider im Handel und der Konsumgüterindustrie zu den Einsatzmöglichkeiten neuer digitaler Technologien befragt.…

Bei der Cloud bleibt die Sicherheit auf der Strecke – Unternehmen setzen sich Risiken aus

Umfrage zeigt, dass mehr als die Hälfte der Unternehmen in Europa und Nahost immer noch nicht auf Cloudnutzung inklusive Cybersicherheit ausgerichtet sind. Palo Alto Networks gibt die Ergebnisse seiner neuesten Studie zur Cloudsicherheit in Europa und im Nahen Osten bekannt. Demnach ist die Mehrheit (70 Prozent) der befragten Cybersicherheitsfachkräfte der Meinung, dass beim Ansturm auf…

Effektive und kostengünstige IT-Sicherheit in der Cloud: cloud-basierte IT-Sicherheitsmodelle auf dem Vormarsch

Das Beratungsunternehmen McKinsey zeigt in seiner neuesten Studie »Making a secure transition to the public cloud« auf, dass heutige IT-Sicherheitsmodelle in Unternehmen schon bald durch Ansätze aus der Cloud ersetzt werden. Aufgrund hoher technischer Flexibilität, einfacher Skalierbarkeit und niedriger Betriebskosten erfreut sich die Public Cloud hoher Beliebtheit. Eine Vielzahl der weltweit befragten Experten aus rund…

Top-Themen der Digitalwirtschaft 2018: IT-Sicherheit, Cloud Computing und Internet der Dinge

■  Schlüsseltechnologie Blockchain rückt erstmals in die Top-Ten der digitalen Trendthemen auf. ■  Künstliche Intelligenz gewinnt weiter an Bedeutung.   Die Blockchain gehört 2018 zu den wichtigsten Trendthemen für die Digitalbranche in Deutschland. Jedes vierte Unternehmen (26 Prozent) sagt, dass die Technologie zu den maßgeblichen Technologie- und Markttrends des Jahres gehört. Vor einem Jahr betrug der…

Top 10 Sicherheitstipps für die Public Cloud

Kostenfokussierte Abteilungen in Unternehmen fordern die Verlagerung in die öffentliche Cloud, während das IT-Sicherheitsteam potenzielle Sicherheitsrisiken sieht und versucht, die Kontrolle nicht zu verlieren. Palo Alto Networks hat auf der Grundlage allgemeiner Erfahrungen zehn Sicherheitstipps zusammengestellt, damit die Nutzung der öffentlichen Cloud den Anforderungen beider Gruppen gerecht wird [1]. Das Ziel von Angreifern ist es,…

Cloud: Unternehmen haben Nachholbedarf bei Sicherheit, Management und Compliance

Ein Drittel der IT-Verantwortlichen kann keine umfassende Verschlüsselung von Daten in der Cloud sicherstellen. Für über 53 % der Teilnehmer ist die IT-Verwaltung durch cloud-basierte Services komplexer geworden. Nur 32 % der Befragten fühlen sich verantwortlich für die Datensicherheit in der Cloud.   WinMagic hat gemeinsam mit dem Marktforschungsunternehmen Viga IT-Verantwortliche in Deutschland, den USA…

Datensicherheit 2018: Ransomware, RPO/RTO, Cloud und DSGVO 2018 im Trend

Intervall zwischen Ransomware-Attacken sinkt von 40 auf 14 Sekunden. Partnerschaften zwischen Datensicherheit und IT-Sicherheit gegen Ransomware. Fehler in der Datensicherung immer unternehmenskritischer bewertet. Disaster-Recovery-as-a-Service-Markt wird bis 2020 auf rund 12 Milliarden US-Dollar wachsen. Datenschutzbeauftragte und Datenschutz-Compliance im Blickpunkt. Vier Trends in Sachen Datensicherheit für das Jahr 2018 sieht Arcserve. Angesichts des wachsenden Risikos Ransomware suchen…

In 5 Schritten zum Open Source Software Defined Storage

$
0
0

Die Anforderungen für Speichersysteme sind in den letzten Jahren immer weiter gestiegen, Agilität, Flexibilität und die schnelle Bereitstellung von Ressourcen sind in einer bi-modalen IT die großen Herausforderungen. Wir haben heute mit mobilen und IoT-Geräten weitaus mehr Endpunkte, an denen Daten generiert werden, als noch vor einigen Jahren denkbar gewesen wäre. Besonders Videoinhalte verbreiten sich immer weiter und sorgen für riesige Mengen unstrukturierter Daten. Das Handelsblatt und Statista prognostizieren ein Wachstum der globalen Datenmenge von 33 Zettabyte im Jahr 2018 auf 612 ZB bis 2030 und 2.142 ZB bis zum Jahr 2035. Ein Zettabyte entspricht dabei einer Milliarde Terabyte.

 

Traditionelle Speicherkonzepte geraten angesichts der rasant wachsenden Datenmenge schon heute an ihre Grenzen und müssen ersetzt werden, gleichzeitig bestehen bei Public Clouds häufig Sicherheitsbedenken, wenn es um sensible Daten geht. Deshalb wenden sich Behörden und Unternehmen verstärkt software-definierten Lösungen zu. 2019 wird sich diese Entwicklung weiter beschleunigen, sodass laut den Prognosen von IT Brand Pulse bereits nächstes Jahr Software Defined Storage (SDS) traditionelle Enterprise-Storage-Lösungen überholen wird.

 

Warum Open Source?

Mit der Entscheidung für einen Open Source SDS vermeiden Organisationen den sogenannten Vendor-Lock-in, das heißt, die langfristige Abhängigkeit von einem spezifischen Anbieter. Die Open Source-Infrastrukturen sind zudem hochgradig skalierbar, neue Server und Nodes lassen sich individuell und je nach Bedarf hinzufügen. Open Source SDS auf Basis des Ceph-Projekts bietet eine vollkommen vereinheitlichte Block-, Objekt- und File-Lösung, die ideal für Sicherung, Compliance, Massen-Storage, große Datenvolumen und Active-Archive-Anwendungen geeignet ist.

Kein Wunder, dass sich so viele Organisationen aktuell für die neue Art des Storage interessieren. Achim Gebhardt, verantwortlich für das Storage Geschäft von SUSE in EMEA, hat fünf Schritte ausgemacht, wie der gelungene Weg zum Open Source SDS aussehen kann:

 

  1. Anfangen

Die IT-Transformation ist in vollem Gange und wie so oft wird an die Storage-Infrastruktur, sagen wir mal vorsichtig, sehr spät gedacht. Daher sollten Organisationen, die SDS-Projekte planen, mit dem richtigen Projekt beginnen. In einer Testphase können sie Kosten und Nutzen der neuen Methode evaluieren.

 

  1. Die richtigen Use Cases definieren

Ceph-basierte Storage-Lösungen eignen sich für multiple Anwendungen, neben den klassischen, wie Backup und File Ablage, sind es die dynamischen Anwendungsfälle, wie Container-, Cloud- oder auch Gaming Anwendungen. Ceph lässt sich hervorragend an wechselnde und wachsende Storage-Herausforderungen anpassen. Durch seine Robustheit und Flexibilität ist Ceph die erste Wahl bei hoch dynamischen Anwendungen.

Für Ceph-basierte Storage-Lösungen eignen sich besonders unstrukturierte Daten, wie zum Beispiel auch Videomaterial, die aufgrund ihrer großen Menge hohe Kosten verursachen. Ein weiterer prädestinierter Anwendungsbereich ist der sogenannte Tier-2-Storage, für langfristige Backups. Ceph ist hier nach Gigabytes gerechnet deutlich günstiger als proprietäre Angebote. Dennoch bleiben die Daten bei der Enterprise-Open-Source-Lösung kurzfristig abrufbar. So vermeiden Unternehmen Kosten, die bei anderen Lösungen mit Latenzzeiten von mehreren Stunden anfallen, falls Daten kurzfristig benötigt werden.

 

  1. Die Nutzung mit den eigenen Skills skalieren

Wie bei jeder neuen Technologie, müssen auch bei Ceph-Organisationen und ihre Mitarbeiter zunächst Wissen sammeln und ihre Fähigkeiten vervollständigen. Das ist auch gar kein Problem, da das Storage-Verfahren dank seiner nahezu unbegrenzten Skalierbarkeit ganz natürlich mit der Entwicklung der Skills in einem Unternehmen mitwachsen kann.

 

  1. Storage- und Datacenter-Strategien kombinieren

Nicht nur im Storage-Bereich werden Hard- und Software-Ebene getrennt. Auch software-definierte Netzwerke und Rechenzentren verbreiten sich und wir steuern einer Epoche entgegen, in der die gesamte IT von ihrer physischen Infrastruktur entkoppelt funktionieren wird. Es schadet also nicht, in größeren Maßstäben zu denken.

 

  1. Experten zu Rate ziehen

Je weiter sich ein Software-Defined-Storage-Projekt über die Zeit entwickelt, desto mehr geschäftsrelevante Vorgänge sind davon betroffen. Waren anfangs nur periphere Daten Teil des Projekts, werden später auch sensiblere Informationen einbezogen. Unternehmen sollten daher spätestens zu diesem Zeitpunkt Unterstützung bei erfahrenen Partnern suchen: Sie können bei der Auswahl und Einrichtung der passenden Lösung die richtige Unterstützung bieten.

 

73 search results for „Open Source Storage“

Mit dem Einsatz von Containern steigen die Storage-Herausforderungen

Laut einer Gartner Studie wird im Jahr 2020 über die Hälfte der Unternehmen Container-Technologien einsetzen. Kein Wunder, schließlich bieten Container bisher ungekannte Mobilität, Vereinfachung und Effizienz, damit IT-Teams neue Mikroservices und bestehende Anwendungen schnell aufsetzen und aktualisieren können. Wegen ihrer zahlreichen Vorteile werden Container in den kommenden Jahren eine immer größere Rolle in der IT…

Das IT-Jahr 2019 aus Open-Source-Sicht

  Kaum hat das Jahr begonnen, schauen wir gespannt auf die IT-Trends die Unternehmen 2019 unbedingt im Blick haben sollten. Open-Source-Experte Michael Jores, verantwortlich für die Geschäfte von SUSE in Zentraleuropa, erwartet für 2019 viele beachtenswerte Entwicklungen: Die Blockchain wird immer mehr auch außerhalb der Finanzwelt eingesetzt werden: Durch Kryptowährungen ist die Blockchain eng mit…

Standardisierte Open-Rack-Technologie treibt Energieeffizienz voran

Mit über drei Prozent des globalen Stromverbrauchs sind Datacenter ein bedeutender Treiber für den Energieverbrauch. Dieser Entwicklung begegnet die jüngst gegründete »Open19 Foundation« mit einem neuen Konzept: Standardisierte, modulare IT-Infrastrukturen sorgen für mehr Effizienz, weniger Kosten und größere Flexibilität im Datacenter. Rittal ist nun Mitglied der Foundation, um gemeinsam mit weiteren Vertretern den innovativen Ansatz…

OpenStack zeigt eine wachsende Zahl an Implementierungen, höhere Skalierungen und globale Vielfalt

Die aktuelle Nutzerumfrage verzeichnet 44 Prozent mehr Implementierungen als vor einem Jahr, davon 74 Prozent außerhalb der USA. Die Nutzerumfrage der OpenStack Foundation vom April 2017 umfasst 44 % mehr Implementierungen sowie Antworten von 22 % mehr Organisationen als bei der Umfrage vor einem Jahr. Sie zeigt den wachsenden Einsatz, eine höhere Skalierung und eine vielfältigere Basis…

SDS: Unternehmen wollen Software Defined Storage

Studie: Traditionelle Storage-Systeme bremsen Innovation in 94 Prozent der deutschen Unternehmen. Große Mehrheit überzeugt von Software Defined Storage. Traditionelle Storage-Systeme sind zu teuer und zu unflexibel, um für das exponentielle Datenwachstum der digitalen Transformation geeignet zu sein. 89 Prozent der deutschen IT-Verantwortlichen wollen deshalb wechseln, die große Mehrheit (76 %) zu Software Defined Storage (SDS).…

Mehr Zeit für Innovation, weniger Aufwand für Service –mit moderner Storage-Technologie die Produktivität der IT-Abteilung steigern

Mit einer veralteten Speicherumgebung zu arbeiten, wird immer komplexer, teurer und aufwändiger. Das kostet Unternehmen Ressourcen, die in innovationsorientierte Aktivitäten besser angelegt wären. IT-Fachkräfte in Unternehmen wenden einen großen Teil ihrer Arbeitszeit dafür auf, Serviceanfragen abzuarbeiten und Probleme zu lösen. Für Innovationen, die das Unternehmen voranbringen, bleibt hingegen kaum Zeit. Dies bestätigt eine aktuelle Studie…

OpenStack als Cloud- und NFV-Plattform

Eine aktuelle Studie untersucht den Einsatz von OpenStack durch Telekommunikationsanbieter weltweit und ihre zentrale Rolle als Innovationsplattform. Eine kürzlich von Heavy Reading durchgeführte Umfrage zeigt, dass 85,8 Prozent der Teilnehmer aus dem Bereich Telekommunikation OpenStack als wichtig oder sogar entscheidend für ihren Erfolg ansehen. Die von der OpenStack Foundation in Auftrag gegebene Untersuchung widmet sich…

OpenStack und Co. – Veni, vidi, vici

Die Mehrheit der deutschen Unternehmen hat Open-Source-Technologien auf der Agenda, gerade dann, wenn es um den Aufbau von Cloud-Computing-Infrastrukturen geht. Insbesondere OpenStack hat sich zum zentralen Baustein im Rahmen des Aufbaus von Private-Cloud-Infrastrukturen entwickelt. Für Anwender stehen dabei vor allen Dingen Kosten und Kontrolle über die eigenen Cloud-Infrastrukturen im Vordergrund. Im Windschatten der steigenden OpenStack-Adaption…

IT-Infrastruktur: Cloud und Open Source liegen vorn

Die Cloud-Adaption in Deutschland nimmt immer weiter zu. Über 85 Prozent der deutschen Unternehmen beschäftigen sich aktiv mit der Cloud. Mehr als ein Viertel der Unternehmen setzen Cloud-Services bereits als festen Bestandteil im Rahmen ihrer IT-Strategie ein. Deutschland ist ein Open-Source-Land. Für rund 80 Prozent der deutschen Unternehmen haben Open-Source-Technologien eine große Bedeutung und sind ein zentraler Bestandteil…

Storage: Einfache Verwaltung löst Performance als wichtigste Herausforderung ab

Mehr als ein Drittel nutzt noch immer manuelle Listen für die Übersichtserstellung ihrer VMs. In der Studie »Storage Status Quo 2016« (State of Storage) für virtuelle Umgebungen werden jährlich 300 IT-Profis zum Stand der Speicherindustrie befragt [1]. Die wichtigste Erkenntnis des diesjährigen Reports besteht darin, dass Performance nicht mehr die größte Herausforderung der IT-Verantwortlichen ist…

Software-defined Infrastructure mit OpenStack und OpenDaylight

Die digitale Transformation schlägt weiter um sich. Was sich für einen Großteil der Unternehmen »lediglich« auf Geschäftsmodell- und Prozessebene bemerkbar macht, bereitet Industrie-Unternehmen auch innerhalb der Produktion Kopfzerbrechen. Insbesondere die Automobilbranche hat mit einer hohen Erwartungshaltung hinsichtlich Innovationen über die gesamte Lieferkette zu kämpfen. Eine bedarfsgerechte Produktion in nahezu Echtzeit sowie eine flexible Lieferung der…

Storage in der OpenStack-Ära

Der Aufstieg von OpenStack, dem Open Source Framework für Private und Public Clouds, ist seit seinem Beginn 2010 äußerst bemerkenswert. Die Plattform ist zu einem echten Phänomen geworden und mehr als 500 Firmen, darunter einige Schwergewichte der IT, sind der OpenStack Foundation bereits beigetreten. Bereits jetzt unterstützen alle wichtigen Hypervisoren und eine große Anzahl an…

Unternehmen wollen Quantencomputing jetzt

$
0
0

https://pixabay.com/de/

 Führungskräfte fordern die Forcierung von Quantencomputing-Lösungen zur Beschleunigung des digitalen Wandels und der Erschließung entsprechender Marktchancen.

  • Nahezu 90 Prozent der weltweiten Studienteilnehmer beurteilen die derzeit verfügbaren Computing-Kapazitäten als limitierenden Faktor bei der Realisierung innovativer Businessprozesse.
  • Immerhin zwei Drittel zeigen sich in dieser Hinsicht sehr ungeduldig und hätten lieber heute als morgen konkrete Lösungen anstatt nur experimentell einsetzbarer Lösungen für ihre kritischen Geschäftsprozesse.
  • Quantencomputing-inspiriertes Digital Annealing schlägt die Brücke zum richtigen Quantencomputing – 70 Prozent der Befragten sind der Ansicht, dass es bereits jetzt ein adäquates Optimieren von Businessprozessen ermöglicht.

 

Unternehmenslenker wollen sie jetzt: Die Anwendung der Quantencomputing-Technologie verspricht enorme Disruptionspotenziale – und Vorteile im Markt, basierend auf einer entscheidenden Optimierung zentraler Prozesse. Das zeigt eine aktuelle Studie von Fujitsu, die das unabhängige Analystenhaus PAC, a teknowlogy Company, durchgeführt hat.

Der Druck auf die Anwender steigt und die Erhebung macht deutlich, dass in vielen Fällen die verfügbaren Computing-Kapazitäten einfach nicht mehr ausreichen. Umso willkommener ist vielen potenziellen Nutzern in den Unternehmen die Digital Annealing-Technologie. Sie bietet schon heute eine Art Überbrückungstechnologie zu künftigen Quantencomputing-Lösungen, die in der Lage ist, komplexe kombinatorische Optimierungsprobleme schnell zu lösen und massive Vorteile für Unternehmen zu bringen.

 

Hoffnung und Skepsis bezüglich Quantencomputing
Das eigentliche Quantencomputing steckt noch in den Kinderschuhen. Von der Mehrheit der Studienteilnehmer wird es sehnsüchtig erwartet: 81 Prozent sind sicher, dass es die bestehenden Verhältnisse entscheidend verändern und damit der wichtigste transformative Treiber sein wird. Die Unternehmensvertreter erwarten sich hierdurch große Vorteile im Wettbewerb, gerade in besonders volatilen Märkten und Segmenten.

Der Optimismus in puncto Quantentechnologie ist jedoch verhalten: Die Hälfte der Befragten glaubt nicht, dass es markt- und mainstreamfähige Lösungen innerhalb der nächsten Dekade geben wird. Gleichzeitig sind mit 89 Prozent nahezu alle der Ansicht, dass aktuelle Lösungen kaum noch ausreichen, um eine ernsthafte kombinatorische Optimierung zu realisieren – also den Prozess, der seinerseits die besten Lösungen aus einer größeren Auswahl identifiziert, um das Business wirklich nach vorne zu bringen.

Immerhin zwei Drittel suchen mittlerweile intensive nach brauchbaren Optimierungslösungen – und wollen dabei nicht mehr auf die schwer prognostizierbare Entwicklung im Quantencomputing warten. Dabei treibt die einzelnen Akteure auch und vor allem die Furcht, ihrerseits im Wettbewerb zurückzufallen, wenn die Konkurrenz in dieser Hinsicht schneller sein sollte.

 

Digital Annealer von Fujitsu schließt die Lücke zum Quantencomputing
Die Nachfrage nach radikalen Lösungsansätzen durch eine Echtzeit-Transformation komplexer Geschäftsprozesse führt zu einer stetig steigenden Bedeutung des Quantencomputing-inspirierten Fujitsu Digital Annealer. Er erlaubt den bereits heute praktikablen Einsatz von Algorithmen für eine kombinatorische Optimierung unter Echtzeit-Bedingungen – auch ohne Quantencomputer im eigentlichen Sinn. Die Studie macht deutlich, dass die Mehrheit der Unternehmen (sieben von zehn) insbesondere in der Fertigungsindustrie, dem Finanzwesen und im Handel den Digital Annealer als potenziell wirksamste Brücke in die quantendefinierte Zukunft bewerten.

Dazu Rupert Lehner, Head of Central Europe, EMEIA Products & Platform Enterprise Services bei Fujitsu: »Ob Angst oder Hoffnung: Disruption ist in aller Munde. Gerade in den Chefetagen der Unternehmen ist man sich dessen sehr bewusst und sehnt die Marktreife von Quantencomputing-Lösungen herbei – die allerdings bis zur Marktreife noch einige Zeit benötigen werden. Deshalb nutzten immer mehr die Vorteile der Digital Annealing-Technologie, denn sie bietet schon heute die Kapazitäten für die Lösung kombinatorische Optimierungsprobleme unter Echtzeit-Bedingungen. Das hat sie in der kurzen Zeit am Markt bereits in Branchen wie Automotive, Fertigung und Finanzen unter Beweis gestellt. Wer sie nutzt, profitiert schon jetzt von ihrem disruptiven Potenzial.«

 

Fujitsu Digital Annealer ist der Disruptor der Stunde
Mit dem Quanten-inspirierten Digital Annealer von Fujitsu können sich die Anwender neue Möglichkeiten und Perspektiven erschließen. Und sie können selbst zur disruptiven Kraft werden, indem sie innovative Methoden für die Identifikation der besten Kombination großer, komplexer und bis dato kaum zu bewältigender Daten-Variablen etablieren. So nutzt etwa ein großer europäischer Autohersteller den Digital Annealer für das Optimieren der Roboter in der Fertigung. Damit können mehr Autos in kürzerer Zeit hergestellt werden, da beispielsweise das Lackieren, der wohl aufwändigste und kostenintensivste Prozess der gesamten Produktion, schneller vonstattengeht.

In der Finanzindustrie nutzt ein großes britisches Finanzinstitut den Digital Annealer für die Echtzeit-Optimierung seiner Investment-Portfolios. Weitere Anwendungsbereiche sind die Maximierung des ROI bei Versorgern sowie die Identifizierung neuer Wirkstoffe und Präparate in der Pharma-Branche.

Die Liste der Anwendungsbeispiele im Bereich kombinatorische Optimierung lässt sich nahezu beliebig fortsetzen – beispielsweise im Hinblick auf die Effizienzmaximierung beim Beladen von Lkws in der Logistikbranche. Auch bei der eigenen Produktion und Logistik setzt Fujitsu den Digital Annealer ein und hat damit bereits sowohl die Produktionsausstattung optimiert als auch die von den Arbeitern im Warenlager zurückgelegten Wege um immerhin 45 Prozent verringert. Nicht zuletzt bietet sich auch Regierungen und Behörden eine Fülle von Möglichkeiten. Sie können zum Beispiel ihre Klimaziele schneller erreichen, indem sie die öffentlichen Transportsysteme unter Berücksichtigung der jeweils aktuellen Verkehrslage aktiv steuern.

 

Preise und Verfügbarkeit
Die Digital Annealing-Technologie ist für Versuche und Pilotprojekte verfügbar. Im Zusammenspiel mit den Co-creation Services des Unternehmens bietet Fujitsu Expertise und Support bei der Identifikation aktueller Einsatzbereiche des Digital Annealings beim Kunden. Dabei bietet sich dem Nutzer die Chance, in bislang unbekanntes Terrain vorzudringen. Zudem unterstützt Fujitsu die Anwender bei der Integration der Technologie in die jeweiligen Produktionsumfelder. Fujitsu stellt die Lösung als As-a-Service auf Abo-Basis zur Verfügung. Angeboten werden überdies technische and beraterische Dienstleistungen sowie die Bereitstellung von Expertise für die weitere Entwicklung spezifischer Lösungen. Den Digital Annealer gibt es in einer Coud-hosted- oder einer On-Premises-Variante. Die Preise variieren je nach Region und Konfiguration.

 

[1] Weitere Informationen zur Studie: 
Die Studie basiert auf einer Umfrage unter 300 Führungskräften großer und mittlerer Unternehmen aus sechs großen Industriesektoren (Finanzdienstleistungen, Biowissenschaften, Fertigung, Einzelhandel, Transport und Versorgungsunternehmen) in Kanada, Finnland, Deutschland, Irland, Spanien, Schweden, Großbritannien und den USA. Die Studie wurde von PAC im März und April 2019 durchgeführt. Die Studie mit den vollständigen Ergebnissen kann hier heruntergeladen werden.
Weitere Informationen zum Digital Annealer erhalten Sie über

Quantencomputing-Effekte einfach nutzen – Digital Annealing revolutioniert Problemlösungen

Superposition – Zwei Zustände zur gleichen Zeit?
Mehr über Schroedingers Gedankenexperiment zur Quantenpysik
https://youtu.be/bitYXYlmT2Y

 

Quantencomputer haben zweifellos das Potenzial, die IT-Welt nachhaltig zu verändern. Denn sie bieten eine vielfach höhere Rechenleistung als konventionelle Rechner. Doch bislang sind Quantenrechner wegen ihrer komplexen Technologie meist nur in Forschungslaboren anzutreffen. Lösungen wie der Quantencomputing-inspirierte Digital Annealer machen diese Quantencomputing-Effekte für Unternehmen einfach nutzbar.

Ein Grund dafür ist, dass die Digital-Annealing-Technologie ohne aufwendige Vorkehrungen auskommt, die bei einem »echten« Quantenrechner erforderlich sind: Solche Systeme erfordern eine Kühlung des Rechners fast bis auf den absoluten Nullpunkt (-273 Grad Celsius). Außerdem müssen klassische Quantencomputer vor elektromagnetischer Strahlung und Erschütterungen geschützt werden. Ein klassisches Unternehmensrechenzentrum mit 19-Zoll-Racks kommt daher als Standort eines Quantenrechners nicht in Betracht. 

Anders bei der Digital-Annealing-Technologie von Fujitsu: Ihr Herzstück ist ein spezieller Prozessor, der in konventioneller, Silizium-basierter Halbleitertechnik hergestellt wird und in herkömmliche IT-Infrastrukturen integriert werden kann. Diese Digital Annealing Unit (DAU) simuliert aufgrund einer speziellen Prozessorarchitektur Effekte des Quantencomputings und sorgt bei bestimmten Anwendungen, wie etwa der Lösung kombinatorischer Optimierungsprobleme, für immense Beschleunigungen im Vergleich zu herkömmlichen Rechnern. Berechnungen, die bislang Minuten oder gar Stunden dauern, sind damit in Sekundenschnelle möglich. Dies eröffnet gänzlich neue Ansätze – beispielsweise bei der (Neu-)Disposition von Produktions- oder Logistikabläufen in Echtzeit.

»Glühen« auf digitaler Ebene. Die hohe Rechenleistung von Quantencomputern ist auf folgenden Faktor zurückzuführen: Klassische Rechner arbeiten mit Bits, »kennen« also nur die Zustände 0 oder 1. Quantencomputer nutzen dagegen Qubits. Sie können drei Zustände einnehmen: 0, 1 sowie einen beliebigen dazwischen – die Superposition. Dadurch ist ein solcher Rechner in der Lage, viel mehr Möglichkeiten simultan zu berechnen als ein herkömmliches System. 

Dieses Prinzip simuliert die Digital-Annealing-Technologie, weshalb Experten hierbei von »quantum-computing inspired computing« sprechen. Die technische Grundlage des Annealings ist ein Simulationsverfahren, das Eigenschaften des Quantentunnel-Effekts nutzt. »Annealing« bedeutet eigentlich »Glühen«. Es beschreibt einen Effekt, der beim Bearbeiten von Metall auftritt: Wird beispielsweise Stahl zum Glühen gebracht und anschließend auf kontrollierte Weise abgekühlt, lassen sich dem Metall bestimmte Eigenschaften »mitgeben«, etwa eine geringere Sprödigkeit. 

Einen ähnlichen Ansatz verwenden Hersteller von Quantenrechnern. Sie verwenden statt Hitze starke Magnetfelder, um die Quanten-Bits zu kontrollieren und in die Superposition zu manövrieren. Fujitsu hat beim Digital Annealing diesen Mechanismus in konventioneller Halbleitertechnologie gewissermaßen nachgebaut. Ein Digital Annealer teilt ein Problem in viele Teilaspekte auf, die simultan in einzelnen Threads bearbeitet werden. Das Ganze läuft in iterativen Schritten ab. Das heißt, in vielen parallelen Berechnungen nähert sich der Digital Annealer der optimalen Lösung für ein Problem an. Durch diesen Ansatz können Unternehmen und Forschungseinrichtungen mit einem solchen System bereits heute mit überschaubarem Aufwand Erfahrungen mit Quantencomputing-Effekten und entsprechenden Anwendungen sammeln.

Ein Klassiker: Das Problem des Handlungsreisenden. Solche Systeme sind für Berechnungen prädestiniert, in denen viele mögliche Kombinationen anfallen. Ein klassisches Beispiel ist das »Problem des Handlungsreisenden«. Ein Vertriebsmitarbeiter will Kunden in fünf Städten besuchen. Seine Vorgabe: Jeder Kunde und damit jede Stadt wird nur einmal aufgesucht. Nun soll die optimale, sprich kürzeste Reiseroute berechnet werden. 

Bereits bei der überschaubaren Zahl von fünf Orten ergeben sich 120 mögliche Routen. Bei 32 Städten ist eine exponentielle Zunahme der Optionen festzustellen – auf 2,63 x 1035 mögliche Varianten, die analysiert werden müssen. Während selbst Highend-Server für derartige Berechnungen meist Stunden benötigen, können Digital-Annealing-Systeme solche Probleme in Sekundenschnelle lösen.

Einsatzbeispiel: Optimierung von Wegen in der Logistik. Vor ähnlichen Herausforderungen wie der fiktive Handlungsreisende stehen Fachleute in Bereichen wie der Logistik. Auch dort ist es notwendig, Transportwege zu reduzieren. Ein Beispiel ist die Lagerlogistik in Fertigungsumgebungen. Die Herausforderung besteht darin, mit möglichst geringem Aufwand Material aus dem Lager zu den Fertigungssystemen zu transportieren. Dieser Faktor wird immer wichtiger, weil der Trend in Richtung individuelle Produkte geht. Das heißt, je nach Bestellung müssen an den Bearbeitungsstationen unterschiedliche Rohmaterialien angeliefert werden.

Mithilfe des Digital Annealings kann ein Unternehmen die optimale Route ermitteln, die Lagerarbeiter nehmen müssen, um die benötigen Materialien aus den Regalen zu entnehmen und zum Bearbeitungsort zu transportieren. Außerdem kann ein Quantencomputing-inspiriertes System berechnen, wo und wie die Regale am besten platziert werden müssen. Auch bei akuten Störungen lassen sich Neudispositionen in Echtzeitbedingungen umsetzen.

In Forschung und Entwicklung spielt das Digital Annealing ebenfalls seine Vorteile aus, etwa in der Chemie und Pharmazie. Dort suchen Forscher häufig nach Molekülen, die einander ähneln. Solche Arbeiten können mithilfe von Quantencomputing-inspirierten Technologien deutlich schneller durchgeführt werden. Dadurch ist es möglich, neue Medikamente und Kunststoffe wesentlich rascher und kostengünstiger als bisher zu entwickeln.

 

Das Herzstück des Digital Annealer: Die Digital Annealing Unit ist dafür ausgelegt, komplexe kombinatorische Problemstellungen zu lösen, die konventionelle Rechner überfordern. Für Unternehmen bietet es sich an, Quantencomputing-inspirierte Systeme »as a Service« in Form eines Cloud-Dienstes zu buchen. Aber auch Installa­tionen im eigenen Rechenzentrum sind eine denkbare Variante.

 

Komplexe Analysen im Finanzbereich. Zu den Branchen, die in besonderem Maße für den Einsatz von Quantencomputing oder Quantencomputing-inspirierten Lösungen prädestiniert sind, zählt der Finanzsektor. So hat Fujitsu beim britischen Finanzdienstleister NatWest ein »Proof of Concept«-Projekt (PoC) umgesetzt. Das Unternehmen nutzt die Fähigkeiten des Digital Annealers, um seinen Bestand an hochwertigen liquiden Vermögenswerten zu optimieren, etwa Bonds, Bargeld und Staatsanleihen. Das heißt, es müssen ständig Tausende von Optionen überprüft werden, um eine optimale Rendite bei einem akzeptablen Risiko zu erzielen.

Fachleute der Bank sind mit dem Digital Annealer in der Lage, komplizierte Berechnungen 300-mal schneller durchzuführen als mit Standardrechnern, und das zudem mit einer höheren Genauigkeit. Außerdem verringert der Einsatz des Systems das Risiko von menschlichen Fehlern. 

Leichter Einstieg per Cloud. Unternehmen, die eine High-Performance-Computing-Lösung wie den Digital Annealer nutzen möchten, müssen nicht zwangsläufig ein solches System im eigenen Rechenzentrum implementieren. Eine Möglichkeit besteht darin, die Ressourcen »as a Service« zu buchen, also als Cloud-Dienst. Der Digital Annealer Cloud Service wird über Application Programming Interfaces (APIs) an die Unternehmens-IT angebunden. Wichtig ist allerdings, dass Nutzer auf die Unterstützung von externen Fachleuten zurückgreifen können. Denn Quantencomputing-inspirierte Rechner erfordern ein spezielles Know-how. So müssen Problemlösungen und die damit verknüpften Fragestellungen in spezielle mathematische Modelle und Applikationen umgesetzt werden, die ein Digital Annealer verwenden kann. So ist es notwendig, die Ausgangsfragen in QUBO (Quadratic Unconstrained Binary Optimization) zu »übersetzen«. 

Hilfestellung bei solchen Aufgaben sowie bei der Implementierung und dem Betrieb eines Quantencomputing-inspirierten Rechners gibt beispielsweise der Digital Annealer Technical Service von Fujitsu. Solche Services sind auch dann hilfreich, wenn ein Unternehmen einen Digital Annealer im eigenen Rechenzentrum implementieren möchte. 

Ausblick: Mehr Rechenkapazität und höhere Präzision. Die Leistung Quantencomputing-inspirierter Systeme steigt derzeit massiv: Die im März 2019 vorgestellte zweite Generation des Digital Annealers von Fujitsu unterstützt Modelle bis zu einer Größe von 8.192 Bit, achtmal mehr als die erste Generation. Die Genauigkeit steigt von 16 Bit auf 64 Bit. Damit sind die Systeme in der Lage, noch komplexere Berechnungen durchzuführen als bislang. 

Solche Leistungssteigerungen sind alles andere als eine »technische Spielerei«. Denn eines ist klar: Herkömmliche Rechner stoßen in vielen Bereichen an ihre Leistungsgrenzen. Somit gehört die Zukunft Technologien wie dem Digital Annealing.


Christian Leutner,
Vice President and
Head of Product Sales
bei Fujitsu

 

 

 

Bilder: © Studio Barcelona/shutterstock.com, Fujitsu

 

27 search results for „Quanten Computer“

Quantum-Flagship: Gemeinsam zum europäischen Quantencomputer

Start der europäischen Forschungsinitiative »Quantum Flagship«. Mehr als 5000 Forscherinnen und Forscher aus Wissenschaft und Industrie sind daran beteiligt. Quantentechnologien in Europa vom Forschungslabor in die Alltagstechnik übersetzen: Das ist das Ziel der Forschungsinitiative »Quantum-Flagship«, die heute mit einer Auftaktveranstaltung in Wien offiziell startet. Mit einem Budget von einer Milliarde Euro und einer Laufzeit von…

Wir alle werden mit Quantencomputern arbeiten

Es ist keine Frage des »Ob«, es geht um das »Wann«. Wann werden wir den ersten Quantencomputer einsetzen und dank datenbasierter Muster präzise Vorhersagen von Kundenbedürfnissen generieren? Wann werden wir Zukunftsszenarien und Geschäftsprozesse so real simulieren können, dass sich das kommende Geschäftsjahr bereits im Hier und Jetzt abbilden lässt? Die Zahl aktiver Vorreiter wächst in…

Wissenschaftler erzielen Meilenstein in der Erforschung von praxistauglichen Quantencomputern

Wissenschaftler des IBM Thomas J. Watson Research Centers haben einen Schaltkreis aus vier, in einem quadratischen Gitter angeordneten Quantenbits erfolgreich entwickelt. Dieser entspricht der kleinsten vollständigen Einheit eines skalierbaren Quantencomputers mit Quantenfehlerkorrektur. Die IBM-Forscher konnten mit ihrer Arbeit erstmals die zwei Arten von Quantenfehlern (sogenannte Bit-flip- und Phase-flip-Fehler), die in jedem Quantencomputer auftreten können, erkennen…

Supercomputer: Rechner »Summit« hat die Power von 78.000 Playstations

Die weltweit leistungsfähigsten Rechnersysteme werden als Supercomputer bezeichnet. Die meisten dieser digitalen Giganten finden ihren Einsatz in der Industrie. Hier berechnen sie u.a. komplexe Simulationen. Die Infografik zeigt die Rechenleistung der leistungsstärksten Supercomputer weltweit im November 2018. Der Rechner »Summit« vom Hersteller IBM erzielt eine Leistung von rund 143.500 TeraFLOPS (21,23 Billiarden FLOPS). FLOPS steht…

2019, das Quanten-Jahr? Das nicht, aber das Jahr um sich darauf vorzubereiten

Vor einigen Wochen veröffentlichte die National Academies of Sciences, Engineering and Medicine einen neuen Bericht, in dem sie Fortschritte und Perspektiven – oder deren Fehlen – rund um das Thema Quantencomputer – untersucht hat [1]. Der Report skizziert verschiedene technische und finanzielle Probleme, die es zu überwinden gilt, bevor man einen funktionsfähigen Quantencomputer bauen kann.…

Ein Quantensprung für die Quantentechnologie

Im Oktober 2018 ist das Quantentechnologie-Flaggschiff der Europäischen Kommission vom Stapel gelaufen. Das Forschungsprogramm soll mit Fördergeldern im Umfang von einer Milliarde Euro über zehn Jahre hinweg die Entwicklung von Produkten fördern, die auf den Regeln der exotischen Quantenwelt beruhen. Zusätzlich wird die Bundesregierung in der laufenden Legislaturperiode rund 650 Millionen Euro beisteuern. Zu den…

Supercomputer im Kampf gegen Internetkriminalität

Cyber Reconnaissance and Analytics analysiert potenzielle Schwachstellen aus Angreifersicht und ermöglicht so die proaktive Erkennung und effiziente Bekämpfung von Cyberbedrohungen. Deloitte Advisory Cyber Risk Services und der Anbieter von Supercomputern, Cray bringen mit Cyber Reconnaissance and Analytics den ersten kommerziellen Service für die ultraschnelle Bedrohungsanalyse auf Grundlage von Supercomputing-Technologie auf den Markt. Der abonnementbasierte Service…

Quantencomputing für Jedermann über die Cloud

IBM Research macht erstmals einen Quantencomputer öffentlich zugänglich. Ab sofort kann jeder Interessierte mittels Desktop-Computer oder Mobilgerät über die IBM Cloud auf einen Quantenprozessor bestehend aus fünf Quantenbits (Qubits) zugreifen und Experimente durchführen. Der freie Zugang soll Innovationen hin zum praktischen Einsatz von Quantencomputern beschleunigen. Für IBM ist die Quantentechnologie die Zukunft der Informationsverarbeitung. Sie…

FIPS 140-2-Validierung: Sicherheitszertifikat für RDX-Verschlüsselung

Overland-Tandberg, Spezialist für Datenmanagement-, Backup- und Archivierungslösungen, hat die Hardwareverschlüsselung PowerEncrypt für RDX-Wechselplatten erfolgreich nach dem bedeutenden US-Sicherheitsstandard FIPS 140-2 validieren lassen. Produkte mit der begehrten FIPS 140-2-Validierung gelten als »vertrauliche« Produkte und stehen weltweit als Ausdruck von Datensicherheit und -integrität. In Europa gewährleistet FIPS 140-2 Verschlüsselungsstandards nach EU-DSGVO.   Die FIPS 140-2-validierte Verschlüsselung ist…

7 Fragen für einen effizienten CISO: Die Datenschutzresolution 2019

Wir schreiben das Jahr 2019. Daten sind omnipräsent und allein mit unseren Fingerspitzen agieren wir hochgradig transformativ. Das ändert, wie wir unsere Geschäftstätigkeit betrachten, macht uns produktiver und vereinfacht an vielen Stellen unser Leben. Sei es, dass wir sicher nach Hause finden, Lebensmittel online bestellen können oder entscheiden, was wir wann auf welchem Gerät ansehen.…

Verschlafen deutsche Unternehmen die Digitalisierung?

Lediglich sechs Prozent der deutschen Unternehmen haben die digitale Transformation bereits fest in ihrer DNA verankert. Der Großteil kämpft derzeit noch mit Hindernissen wie Datenschutz und Cybersicherheit. Zu diesen Ergebnissen kommt der aktuelle Digital Transformation Index von Dell Technologies.   Der Digital Transformation Index (DTI) wird von Dell Technologies in Zusammenarbeit mit Intel durchgeführt, um…

 

 

Cloud-Repatriation – Warum migrieren Unternehmen aus der Public Cloud zurück?

$
0
0

Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend.

 

Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

Die Grundvoraussetzung dieser Entwicklung ist die vermehrte Nutzung der Hybrid Cloud. Für viele Unternehmen ist sie bereits der Standard und hat so die Sichtweise der Cloudnutzung an sich dramatisch verändert: Von einem Paradigma, dass die Public Cloud der beste Ort für alles ist, hin zu einer Strategie, Anwendungen dort zu platzieren, wo sie tatsächlich am besten passen. Und wer dank einer Hybrid Cloud die Wahl hat, kann dann von Fall zu Fall entscheiden. Aber was verursacht den Trend zur Cloud-Repatriation von Workloads und Daten aus Public Clouds in Private Clouds im Detail? Tatsächlich gibt es eine ziemlich überzeugende Liste von Faktoren.

 

  1. Das lokale Rechenzentrum hat sich zu einer Cloud-fähigen Infrastruktur entwickelt.
    Voraussetzung für den Trend ist die Verfügbarkeit von Cloud-fähigen Technologien außerhalb der Public Cloud. Diese Technologien hatten ihren Ursprung in der Public Cloud, werden jedoch mittlerweile auch im Rechenzentrum eingesetzt. Mit ihnen begannen Unternehmen hybride Clouds und Infrastruktur in ihrem Rechenzentrum zu nutzen, die »Cloud-ready« ist. So haben diese Unternehmen generell die Wahl, wo sie ihre Daten und Workloads platzieren möchten. Public-Cloud-Anbieter lösten diese Entwicklung einst durch den Aufbau von softwaredefinierten oder automatisierten IT-Services aus, indem sie eine sehr attraktive Schnittstelle für Entwickler schafften. Diese großen softwaredefinierten Fortschritte sind seitdem nicht mehr nur in der Public Cloud zu finden, sondern im gesamten IT-Spektrum: in Private Clouds, am Rande der Infrastruktur (Edge Computing), im Distributed Core oder sogar als SaaS oder Managed Services. Und da die Cloud keine Infrastruktur-, sondern eine Applikationsstrategie ist, haben Unternehmen begonnen, Cloud-fähige Technologien auf vielen Ebenen ihrer Rechenzentren einzusetzen, um die Cloud zu Hause zu emulieren. Die Einführung von Azure Stack und Amazon Outpost scheint zu bestätigen, dass die Nachfrage nach Public-Cloud-Technologien im Rechenzentrum steigt. Das Rechenzentrum hat die Public Cloud technologisch eingeholt, inklusive konsumbasierter Geschäftsmodelle, Elastizität durch softwaredefinierte Speicherung und agile Entwicklung mit Containern.
  2. Data Gravity
    Data Gravity ist ein weiterer Faktor, der sich vor allem auf die Datenspeicherung vor Ort und die damit verbundenen Kosten und Verwaltung auswirkt. Anwendungen und Daten werden voneinander angezogen, je mehr Daten es gibt, desto größer ist die gegenseitige Anziehungskraft von Anwendungen und Diensten, die mit diesen Daten verknüpft werden können. Es gibt eine lange Liste von Faktoren, die das Phänomen Data Gravity beeinflussen können, insbesondere jedoch zwei Faktoren: Netzwerkbandbreite und Netzwerklatenz. Man kann dies auch im Hinblick auf die Netzwerkeffekte weiter gefasst betrachten: Eine große Menge von Daten zieht tendenziell immer mehr Dienste an, die diese Daten nutzen. Daten gehorchen den Regeln der Physik, genauso wie Masse. Diese Realität muss bei der Planung von IoT oder anderen Systemen, die mit großen Datenmengen arbeiten, berücksichtigt werden. Auch die Dichte von Speicherlaufwerken wächst exponentiell, aber die Übertragung von Daten in die Cloud wird immer schwieriger, da die Kapazität der übertragenden Kabel nicht genauso exponentiell wächst.
    Es ist schwer zu verallgemeinern, wie viele Daten zu viel sind, um sie noch sinnvoll zu bewegen. Die Kosten für Speicherung und Übertragung von Daten sind komplex und hängen von vielen Faktoren ab. Das Senden von 2 PB über Netzwerkverbindungen in die Public Cloud, scheint bereits heute sehr teuer. Die Kosten für 5 PB in einem Jahr zu übertragen werden wohl noch unerschwinglicher und 10 bis 15 PB in zwei Jahren wird wohl jeden finanziell sinnvollen Rahmen sprengen. Selbst mit Glasfasernetzwerken würde es Jahre dauern, große Datensätze an einen anderen Ort zu migrieren. Dies führt dazu, dass Unternehmen begonnen haben ihre Daten mit Edge Computing dort zu verarbeiten, wo sie entstehen, weil sie einfach nicht mehr bewegt werden können.
  3. Kontrolle, Sicherheit und Compliance
    Ein weiterer Hauptgrund für Unternehmen, bestimmte Arten von Daten und Workloads aus der Public Cloud zu holen, ist Sicherheit. Zu Beginn des Trends zur Migration in die Public Cloud herrschte das Missverständnis vor, dass Daten in der Public Cloud zu 100 Prozent geschützt und sicher sind. In Wirklichkeit sind die Daten von Unternehmen in der Public Cloud stark gefährdet, wenn diese nicht die richtigen Sicherheits- und Datenschutzlösungen einsetzen. Unternehmen verstehen heute mehr darüber, was die Public Cloud bietet und was ihr fehlt. Die Rückführung von Daten und Workloads in das Unternehmen kann eine bessere Transparenz darüber bieten, was genau passiert, und die Kontrolle über Sicherheit und Compliance ermöglichen. GDPR zum Beispiel hat Organisationen einen Grund gegeben, ihre Daten als Maß für die Datenhoheit in der Nähe und unter ihrer Kontrolle zu speichern.
  4. Kosten
    Einer der ersten Gründe, für die Übertragung von Daten in die Public Cloud, war eine bessere Kosteneffizienz, insbesondere bei großen Datenmengen für Backup und Archivierung. Da jedoch immer mehr cloud-fähige Technologien im Rechenzentrum verfügbar sind, hat sich die Kluft zwischen beiden verringert, was wiederum die Kostenvorteile der Public Cloud reduziert. In einigen Anwendungsfällen sind Lösungen im Rechenzentrum für die meisten Workloads heute bereits kostengünstiger als die Public Cloud.

 

Fazit

Die hybride Cloud gibt Unternehmen die Möglichkeit, ihre Daten und Workloads dort zu platzieren, wo sie am besten passen – auch in ihren eigenen Rechenzentren. Diese Möglichkeit, gepaart mit steigenden Problemen über aktuelle Ausfälle, hohe Kosten, Latenzprobleme und Fragen zu Kontrolle, Sicherheit und Compliance, führt zu einem neuen Trend der Repatriation von Workloads und Daten, aus Public Clouds in Private Clouds. Ein weiterer großer Treiber hierfür ist das zunehmende Problem der Data Gravity, das die Übertragung großer Datenmengen in Zukunft, aufgrund der steigenden Kosten für Netzwerkübertragung, verhindern wird.

Vor allem aber sind Unternehmen, auf der Suche nach Flexibilität bei der Einrichtung von Lösungen und Services, die so flexibel sind, dass sie mit ihrem Unternehmen wachsen können. Diese Unternehmen, werden sich ungern auf eine der beiden Seiten festlegen wollen. Wenn Unternehmen die beste IT-Infrastruktur für ihre Workloads bewerten, wird eine hybride IT, mit einem Mix aus Public Cloud, Private Cloud und lokalen Lösungen, wohl zur Normalität werden. Da »Cloud-ready«-Anwendungen über hybride Cloud-Umgebungen verteilt sind, werden IT-Teams zukünftig Technologien, wie ein Service Mesh einsetzen müssen, das Anwendungen mit den benötigten Diensten verbindet, wo auch immer sie sich befinden.

Guntram Alffen, Avi Networks

 

592 search results for „Hybrid Cloud“

Digitalisierung: Hybrid Cloud macht den Unterschied

60 Prozent der deutschen Entscheider sehen Flexibilität und Leistungsfähigkeit der Infrastruktur als wichtigste Faktoren zur Digitalisierung ihrer Geschäftsprozesse. Interxion hat beim Marktforschungsunternehmen IDC eine Studie zur digitalen Transformation in Auftrag gegeben [1]. Die Umfrage zeigt: der digitale Wandel ist heute eine der wichtigsten Herausforderungen für deutsche Unternehmen, um sich zukünftig im Wettbewerb zu behaupten. 70…

Die Hybrid Cloud perfekt absichern

Im Rahmen einer Digitalisierungsstrategie nehmen Public-Cloud-Infrastrukturplattformen eine zentrale Rolle ein. Sie bieten die idealen Voraussetzungen für einen unkomplizierten Zugriff auf IT-Ressourcen zu jeder Zeit, von jedem Ort und das je nach Bedarf. Public Clouds sind die Brutstätte vieler neuer, zum Teil disruptiver Geschäftsmodelle. Sie bieten zahlreiche Chancen, können gut situierte Unternehmen damit aber auch zunehmend…

Hybrid Cloud bei Filesharing-Lösungen auf dem Vormarsch

Unternehmen wollen zukünftig vermehrt ihre Filesharing-Lösungen im Hybrid-Cloud-Modell betreiben. Bisher setzt erst ein Viertel der Unternehmen auf diese Cloud-Variante, zukünftig ziehen 43 Prozent diese in Betracht. Als Hauptherausforderung für den Einsatz von Filesharing-Lösungen im Unternehmen sieht ein Drittel die Gewährleistung der IT-Sicherheit. Daher überrascht, dass ebenso häufig Consumer-Lösungen zum Einsatz kommen wie Enterprise-Filesharing-Lösungen eingesetzt werden,…

Wie positionieren sich Hybrid Cloud Broker in der Schweiz?

Im Segment der Hybrid Cloud Broker werden Lösungen betrachtet, die sich um die Kernfunktionalität Cloud-Management herum weiterentwickelt haben. Ihren Ursprung haben Cloud-Management-Lösungen im Verwalten von internen virtuellen IT-Ressourcen. In der nächsten Entwicklungsstufe wurden daraus dann zunehmend Hybrid-Cloud-Management-Lösungen, die es ermöglichten, auch externe IT-Ressourcen (Private Hosted oder auch Public Cloud Services) einzubinden und zentral zu managen.…

Die Hybrid Cloud wird Realität

Unternehmen gehen davon aus, dass innerhalb der nächsten drei Jahre mehr als die Hälfte ihrer Anwendungen und Dienste in der Hybrid Cloud eingesetzt werden. Dies zeigt eine weltweit durchgeführte Studie [1]. Unternehmen jeder Größenordnung sehen die Einführung einer Hybrid Cloud als Priorität, um ihre Vorteile zu realisieren. Allerdings herrscht viel Verwirrung darüber, was genau Hybrid…

Drei zentrale Triebfedern für das KI-Zeitalter – Stream Processing kombiniert mit Datenanalytik und Hybrid-Cloud

Der Einsatz von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) wächst in rasantem Tempo, wenn auch oft noch in Test-Umgebungen. Unternehmen entwickeln parallel dazu ihre Dateninfrastruktur konsequent weiter, um von den aktuellen technologischen Entwicklungen zu profitieren und um im Wettbewerb, der von der Digitalisierung angeheizt wird, zu bestehen.   Die Verlagerung der Dateninfrastruktur und der…

Hybride Multi-Cloud-Lösungen für mehr Freiheit und Transparenz

Sollten sich Unternehmen mit einem »Eine-Cloud-für-alles«-Ansatz begnügen? Nein! Denn Unternehmen, die offene, hybride Cloud-Lösungen nutzen, haben ganz klare Wettbewerbsvorteile. Denn eine hybride Multi-Cloud-Architektur passt sich mit verschiedenen Cloud-Anbietern und Konfigurationen ideal an unterschiedliche Use-Cases an und lässt sich trotzdem einheitlich verwalten.   Mythen über Multi-Clouds Es ist ein verbreitetes Missverständnis, dass mehrere Clouds automatisch eine…

Multi-Cloud- und Hybrid-IT: Intelligent Identity Platform jetzt mit verbesserter Kundenerfahrung und IT-Automation

PingFederate-, PingAccess- und PingDirectory-Updates beschleunigen die Implementierung und Bereitstellung von Multi-Cloud- und Hybrid-IT-Umgebungen. Ping Identity, Anbieter im Bereich Identity Defined Security, kündigte Updates für seine Softwareprodukte, darunter PingFederate, PingAccess und PingDirectory, an. Die neuen Versionen verbessern die Benutzererfahrung für Anwender und Administratoren. Gleichzeitig erfüllen sie die Anforderungen moderner Unternehmen, schnell und zielgerichtet zu agieren. Moderne…

Huawei und Microsoft starten All-Flash-Azure-Stack-Lösung zur Beschleunigung hybrider Cloud Services

Auf der Huawei Eco-Connect 2018 haben Huawei und Microsoft gemeinsam eine All-Flash-Azure-Stack-Lösung vorgestellt, die Unternehmen dabei unterstützt, hybride Cloud-Services zu beschleunigen, die Datenzuverlässigkeit zu verbessern und ultimatives Erlebnis zu bieten.   Neben der Azure Stack-Software von Microsoft umfasst die gemeinsame Lösung den Huawei FusionServer 2288H V5, ES3000 V5 NVMe SSD, CloudEngine 6865 Switch (CE6865, entwickelt…

Das Maß für Hybrid- und Multi-Cloud-Fähigkeit: Hochverfügbare und frei fließende Daten

Spielen Datenmanagement, Speicherbetriebssystem und Flash perfekt zusammen, produziert eine Hybrid- oder Multi-Cloud Mehrwerte. Nötig ist es, den Datenstrom aus lokalen Speicherorten und verschiedenen Clouds hochverfügbar zu machen. Wie das gelingt, zeigen die Lösungen von NetApp.

Die Cloud in Unternehmen: hybride Lösungen führend

Die meisten deutschen Unternehmen nutzen die Cloud, jedoch nicht ausschließlich. Viele Daten werden immer noch lokal gespeichert.   Nur 44,7 Prozent der deutschen Unternehmen speichern mehr als die Hälfte ihrer Daten in der Cloud. Damit ist Deutschland im europäischen Vergleich lediglich Mittelmaß, wie aus einer aktuellen Umfrage von Citrix unter IT-Entscheidern hervorgeht. Demgegenüber stehen 62,7…

Hybride Cloud bietet Wettbewerbs- und Kostenvorteile

Skalierung, Business Continuity, Marktzugang, IT Security und Wettbewerbsvorteile. Cloud Computing habe in den letzten Jahren immer mehr Zuspruch gefunden, weil sich dadurch unmittelbare Wettbewerbs- und Kostenvorteile für die Wirtschaft ergeben, sagt Benjamin Schönfeld, Geschäftsführer der Leaseweb Deutschland GmbH. Vor allem hybride Cloud-Lösungen erfreuen sich nach den Erfahrungen des Cloud- und Hosting-Netzwerks bei den Unternehmen wachsender…

Private Cloud versus Public Cloud – Keine Kompromisse, sondern Hybride

Alle sprechen von der Cloud. Dabei gibt es gar nicht DIE Cloud. Es gibt unterschiedliche Infrastrukturmodelle und eine Vielzahl an Cloud-Diensten. Als das Cloud Computing noch in den Kinderschuhen steckte, setzten die meisten Unternehmen ausschließlich auf die Private Cloud. Inzwischen werden Public-Cloud-Angebote immer populärer – besonders, weil sich viele Nutzer einen Kostenvorteil versprechen. Welchem Modell gehört nun die Zukunft? Sind es nicht viel mehr hybride Cloud-Architekturen, die alle Bedürfnisse abdecken?

PaaS – Moderne Private Clouds und Hybrid-Lösungen: Ganz privat zu niedrigen Kosten

Public-Cloud-Angebote im »Platform as a Service«-Umfeld sind für viele Unternehmen wegen datenschutzrechtlicher Vorbehalte keine Lösung. Technisch lässt sich deren Flexibilität und Skalierbarkeit auch in Private Clouds erzielen. Jedoch galt die private Alternative lange Zeit als zu teuer und aufwändig. An den Datenschutz-Vorbehalten gegenüber der Public Cloud hat sich nichts geändert, die Alternative ist allerdings wesentlich kostenattraktiver und flexibler geworden.

Ohne Business-Analyst im Unternehmen geht künftig wenig – Alles geregelt für hybride Clouds?

Unternehmen suchen vermehrt ihr Heil in Public Clouds. Auf diese Weise versprechen sie sich im Zusammenspiel mit ihrer Private Cloud eine höhere Flexibilität, niedrigere, zudem besser kalkulierbare Kosten, teils auch qualitativ hochwertigere IT-Leistungen gegenüber dem Eigenbetrieb. Demzufolge sieht der Marktanalyst Gartner bis 2020 den Markt für die Public Cloud-Varianten IaaS, Paas und SaaS Jahr für Jahr im zweistelligen Bereich wachsen.

Für die Führungsebene: Was eine effektive Verschlüsselungsstrategie ausmacht

$
0
0

Illustration: Absmeier, Tumbledore

 

Lange Jahre hat man Verschlüsselung primär aus einem Blickwinkel heraus betrachtet: dem einer Belastung für Geschäftsprozesse. Teuer, komplex und von zweifelhaftem Wert. Wie sich die Dinge doch geändert haben. Nach wenigen Jahren (und nach Hunderten von hochkarätigen Datenschutzverletzungen mit wirtschaftlichen Schäden in Billionenhöhe) lassen sich Cyberbedrohungen nicht mehr ignorieren. Das ist auch auf den Vorstandsetagen angekommen. Neben den unmittelbaren wirtschaftlichen Folgen einer Datenschutzverletzung gibt es ein breit gefächertes Arsenal an weiteren, potenziell verheerenden Auswirkungen.

Diese reichen vom Informationsverlust über operationelle Folgen für die Geschäftstätigkeit eines Unternehmens, bis hin zum Druck seitens der Medien, einer potenziellen Rufschädigung und nicht zuletzt Auswirkungen auf die Kundenbindung oder regulatorische Konsequenzen.

Mit diesen Veränderungen hat sich die Natur der unternehmerischen Erfordernisse verändert. Unternehmensvorstände sind in zunehmendem Maße verantwortlich. Betrachtete man Dinge wie Verschlüsselung in der Vergangenheit gerne als »zu technisch« für die Führungsebene, hat sich diese Sichtweise angesichts der Verantwortlichkeit im Falle einer Datenschutzverletzung deutlich geändert.

In den letzten Jahren haben wir einen starken Anstieg bei den gemeldeten und analysierten Datenschutzverletzungen beobachtet. Dieser Anstieg ist beides zugleich: Stimulans und Symptom um Cybersicherheit einen festen Platz auf der Vorstandsagenda zu verschaffen.

Grundsätzlich ist es positiv zu bewerten, dass mehr Datenschutzverletzungen auch gemeldet werden. Er wirft aber auch ein Schlaglicht auf die Kluft zwischen dem Erkennen des Problems und dem offensichtlichen Mangel an einer befriedigenden Lösung. Sind wir der Lösung dieses Problems inzwischen ein Stück weit näher gekommen? Und wenn nicht, was hält uns davon ab?

 

Das Dilemma der digitalen Transformation

Wir erleben gerade eine Vierte Industrielle Revolution: ein weitreichender globaler Umbruch bei dem »digital werden« nicht mehr nur eine Option ist. Geschäftsmodelle sind (und werden) in einem bisher nie gekannten Ausmaß technologienbasiert, vernetzt und mobil. Wir befinden uns mitten in der digitalen Transformation. Eine Migration, die uns laut Prognosen der IDC-Analysten allein in diesem Jahr eine Summe von 1,25 Billionen Dollar kosten wird. Das sind bedeutsame Veränderungen. Parallel zu diesen Veränderungen läuft eine ebenso wichtige wie selten erzählte Geschichte im Hintergrund ab. Und die betrifft den Cybersicherheits-Imperativ auf den Vorstands- und Führungsebenen der Firmen und Konzerne.

Die Ergebnisse des 2019 Thales Data Threat Report-Global Edition legen offen, dass mit der digitalen Transformation, die in vielen Unternehmen bereits in vollem Gange ist, vertrauliche Daten häufig einem hohen Risiko ausgesetzt sind [1]. Die überwältigende Mehrheit (97 %) der im Rahmen der Studie befragten IT-Experten ist sich einig: hinsichtlich der digitalen Transformation sitzen alle im gleichen Boot. Demgegenüber setzen allerdings nur weniger als ein Drittel der Befragten (30 %) eine Verschlüsselungsstrategie in ihren Unternehmen um. Ein signifikanter Befund, denn worin besteht heutzutage das wichtigste Kapital eines Unternehmens? In Daten und Informationen. Sensible Kundendaten, vertrauliche, finanzielle Informationen und andere proprietäre Daten, die es zu schützen gilt.

In vielen Firmen kommt noch etwas anderes hinzu. Im Rahmen der digitalen Transformation wandern die Daten aus, wenn man so will »verriegelten Tresoren« in Rechenzentren, in die Cloud oder in Edge-Technologien wie mobile Endgeräte. Die Netzwerkgrenzen sind längst verschwommen. Wie einst, Sicherheitslösungen am Perimeter einzuziehen und sich dann entspannt zurückzulehnen, diese Zeiten sind endgültig vorbei.

 

Die Rolle von Verschlüsselung

Es ist schwer vorstellbar, dass es noch Unternehmen gibt, die Verschlüsselung weiterhin als zu teuer, zu komplex oder als von zweifelhaftem Wert ansehen. Tatsächlich betrachten mehr und mehr führende Hersteller Verschlüsselung demgegenüber als Herzstück ihrer Cybersicherheitsbemühungen. Oder, zum Leidwesen einiger, müssen sie einräumen, dass sie besser schon zu einem früheren Zeitpunkt in Verschlüsselung investiert hätten. Nämlich bevor eine schwerwiegende Datenschutzverletzung die Geschäftstätigkeit empfindlich getroffen hat.

Was aber macht eine effektive Verschlüsselungsstrategie aus? Sie beginnt wie so vieles damit, ein Verständnis für die Problemlage zu entwickeln. Bevor man beginnt an einem bestimmten Punkt Kontrollen einzuziehen oder Daten quasi blindlings zu verschlüsseln, sollten Unternehmen ein Risikomanagement etablieren. Im Rahmen dessen werden die Risiken untersucht, denen ein Unternehmen potenziell ausgesetzt ist und an welchen Stellen.

Hat man erst einmal ermittelt, mit welchen Risiken man es zu tun hat, kann man anschließend daran gehen die Prozesse zu identifizieren, in denen man überwiegend mit vertraulichen Daten arbeitet oder mit Daten, die am ehesten von Verlust oder Diebstahl bedroht sind. Der nächste wichtige Schritt besteht darin ein Unternehmen »secure by design« zu machen. Viel zu lange hat man Sicherheit als etwas betrachtet, was erst ganz zum Schluss berücksichtigt wird. Sozusagen als optionales »Extra«. Zukünftig wird es ganz normal sein, beim Aufbau eines Unternehmens seine Resilienz und Abwehrfähigkeit gegenüber Bedrohungen vom ersten Tag an mit zu bedenken.

Wenn Sie eine neue Anwendung entwickeln, haben Sie Sicherheit schon in der Planungsphase berücksichtigt? Stellen Sie sich vor, Ihr Unternehmen wächst. Welche Lösung haben Sie am Start um Daten zu verschlüsseln und umfassend zu schützen, auch dann, wenn die Zahl der Mitarbeiter und Systeme wächst? Wenn Ihr Unternehmen in irgendeiner Form die digitale Transformation durchläuft, haben Sie ausreichend berücksichtigt, welche Datenschutzrisiken mit diesem Umwandlungsprozess gerade für vertrauliche Daten einhergehen? Und zuletzt hängt es entscheidend davon ab, dass die Vorstands- und Führungsebene nicht zum berühmt berüchtigten Flaschenhals wird. Die besten Strategien für Verschlüsselung und Cyber-Resilienz ruhen auf gut durchdachten Prozessen und zügig erteilten Freigaben. Beides unterstützt die betreffenden Geschäftsbereiche und macht deutlich wie und warum Datenschutz diesen hohen Stellenwert für die Geschäftstätigkeit eines Unternehmens hat. Am Ende des Tages lässt sich alles auf ein Grundverständnis von Verschlüsselung und eine dementsprechende Haltung auf der Führungsebene zurückführen. Deshalb ist die Rolle der Vorstands- und Führungsebene für die Cybersicherheit so immens wichtig.

 

Verschlüsselung, der beste Freund der Vorstandsetage

Die steigende Zahl der gemeldeten Datenschutzverstöße und die stetige Weiterentwicklung von Cyberbedrohungen zeichnet für Unternehmen ein düsteres Zukunftsbild. Längst ist klar: Cybersicherheit und Verschlüsselung sind als Themen auf der Vorstandsebene angekommen und können nicht länger ignoriert werden. Externe Angreifer sind ständig damit beschäftigt, neue Wege zu testen wie sie in Systeme eindringen können. Das mindeste, das Unternehmen tun sollten, ist den Angreifern das Leben schwerer zu machen. Aus Vorstandssicht spricht aber noch etwas für den Einsatz von Verschlüsselung. Sie garantiert nämlich gleichzeitig die Lebensfähigkeit eines Unternehmens und seiner geschäftlichen Aktivitäten. Zweifelsohne gibt es für die Führungsebene noch einiges zu tun. Über allem sollte die Maßgabe stehen, die Problematik wirklich ernst zu nehmen, eine Kultur der Cyber-Resilienz im gesamten Unternehmen zu etablieren und das Thema auf eine befriedigende Art und Weise in den Griff zu bekommen. Das sind die Voraussetzungen für die Umsetzung der besagten Verschlüsselungsstrategie.

 

Der darin liegende Vorteil ist allerdings nicht zu unterschätzen: man schafft ein solides Fundament um sein Unternehmen und sämtliche Geschäftstätigkeiten umfassend vor unnötigen Bedrohungen zu schützen und gleichzeitig die Voraussetzungen für nachhaltiges Wachstum.

Simon Keates, Thales

 

[1] https://www.thalesesecurity.com/2019/data-threat-report

 

706 search results for „Verschlüsselung“

Cloud und Virtualisierung: Datenverschlüsselung bleibt fundamentaler Bestandteil der IT-Security

»Die Wolke« ist in der Unternehmens-IT deutscher Unternehmen angekommen. Auch hierzulande profitieren Firmen jeder Größe von niedrigeren Kosten bei größerer Skalierbarkeit und Zuverlässigkeit. Die Verantwortung für die Sicherheit ihrer Daten sollten Unternehmen jedoch nicht in die Hände von Cloud-Providern legen. Der Datenverschlüsselung und der Kontrolle über die Verschlüsselungs-Keys kommt in heterogenen IT-Landschaften besondere Bedeutung zu.…

FIPS 140-2-Validierung: Sicherheitszertifikat für RDX-Verschlüsselung

Overland-Tandberg, Spezialist für Datenmanagement-, Backup- und Archivierungslösungen, hat die Hardwareverschlüsselung PowerEncrypt für RDX-Wechselplatten erfolgreich nach dem bedeutenden US-Sicherheitsstandard FIPS 140-2 validieren lassen. Produkte mit der begehrten FIPS 140-2-Validierung gelten als »vertrauliche« Produkte und stehen weltweit als Ausdruck von Datensicherheit und -integrität. In Europa gewährleistet FIPS 140-2 Verschlüsselungsstandards nach EU-DSGVO.   Die FIPS 140-2-validierte Verschlüsselung ist…

IT-Sicherheitsexperte überzeugt: Mit Verschlüsselung, Vorsicht und einem IT-Sicherheitskonzept lassen sich Hackerattacken verhindern

Bereits mit völlig unkomplizierten Sicherheitsmaßnahmen lassen sich Hackerangriffe auf die Unternehmensinfrastruktur vermeiden. Davon ist IT-Sicherheitsexperte Christian Heutger überzeugt: »Hundertprozentige Sicherheit wird es kaum geben. Ein IT-Sicherheitskonzept, bei dem Verantwortlichkeiten verteilt und etwaige Notfallmaßnahmen beschlossen sind, sowie ein IT-Sicherheitsbeauftragter, der einerseits diese Maßnahmen steuert und überwacht, andererseits aber auch Mitarbeiter darin schult IT-Sicherheit umfassend im Unternehmen…

Effiziente und sichere Datenverschlüsselung

Die Verschlüsselung von Daten ist rund um den Globus zu einem zentralen Bestandteil der IT-Sicherheitsstrategie von Unternehmen geworden. Das hat unterschiedliche Gründe. Öffentlich bekannt gewordene Fälle von Datenschutzverletzungen und Datendiebstahl haben Unternehmenslenker für die Folgewirkungen sensibilisiert. Neben rechtlichen Konsequenzen können Datenschutzverletzungen und Datenverluste auch negative Folgen für den Ruf des Unternehmens haben. Und auch Compliance-Anforderungen,…

Efail: Nicht auf Ende-zu-Ende-Verschlüsselung verzichten

Einem deutsch-niederländischen Forscherteam ist es gelungen, Sicherheitslücken in den E-Mail-Verschlüsselungsverfahren S/MIME und OpenPGP auszunutzen und den Inhalt von E-Mails trotz Verschlüsselung im Klartext zu lesen. IT-Sicherheitsexperte und Geschäftsführer der PSW GROUP, Christian Heutger, beruhigt: »Efail, wie die Schwachstelle getauft wurde, betrifft nicht die Verschlüsselungsprotokolle selbst, sondern ist eine bereits länger bekannte Schwachstelle in E-Mail-Clients. Das…

Verschlüsselung ja! Aber was und wo?

Die Krux mit den Daten.   Unternehmen gehen mehr und mehr dazu über, Verschlüsselung konsistent umzusetzen. Das hat eine jüngst von Thales durchgeführte Studie, die 2018 Global Encryption Trends Study, ergeben. 43 % der im Rahmen der Studie befragten Firmen nutzten ihre Verschlüsselungsstrategie um sensible Daten vor Cyberkriminellen zu schützen, Compliance-Anforderungen zu erfüllen und menschlichen…

Hürden der E-Mail-Verschlüsselung

E-Mail-Verschlüsselung gehört verpflichtend zur DSGVO, dennoch tun sich viele Unternehmen schwer damit. Aktuelle Umfrage zeigt die Hürden auf. »Initiative Mittelstand verschlüsselt!« bietet einfache und schnell umzusetzende Lösung.   Net at Work GmbH, der Hersteller der modularen Secure-Mail-Gateway-Lösung NoSpamProxy aus Paderborn, veröffentlicht die Ergebnisse einer Umfrage zu den Hürden der E-Mail-Verschlüsselung aus Sicht der Anwenderunternehmen. Die…

Extrem schnell bei voller Verschlüsselung: USB-Stick eignet sich ideal zur Sicherung von persönlichen Daten

Für alle, die nicht nur hinsichtlich der in ein paar Wochen anstehenden Europäischen Datenschutzgrundverordnung (kurz: DSGVO) bei der Speicherung ihrer persönlichen Daten auf Nummer sicher gehen wollen, bietet iStorage mit dem neuen datAshur Personal² einen überaus effizienten und schnellen USB 3.0 Stick – mit innovativer Verschlüsselungstechnik und extrem hoher Übertragungsgeschwindigkeit. Insbesondere angesichts der fortwährenden Diskussionen…

Hemmnissen beim Einsatz elektronischer Verschlüsselung durch Vorgaben entgegenwirken

Ein Expertenkommentar zur BMWi-Studie »Einsatz von elektronischer Verschlüsselung – Hemmnisse für die Wirtschaft« [1]. Im Rahmen der Digitalen Strategie 2025 wurde vom Bundesministerium für Wirtschaft und Energie (BMWi) eine Studie zu den Hemmnissen beim Einsatz elektronischer Verschlüsselung in Auftrag gegeben. Die Ergebnisse wurden in dieser Woche vorgestellt. Zu den daraus entwickelten Handlungsempfehlungen zählen erwartungsgemäß »Awareness-Kampagnen«,…

Zypries: Neuer Kompass zur IT-Verschlüsselung sorgt für mehr Sicherheit für Unternehmen

Der Einsatz von Verschlüsselungslösungen, beispielsweise für E-Mails und Datenträger, ist ein wichtiger Faktor, um die IT-Sicherheit von Unternehmen zu erhöhen und Gefahren durch Angriffe zu minimieren. Obwohl die erforderlichen Lösungen alle auf dem Tisch zu liegen scheinen, kommt der flächendeckende Einsatz nicht recht voran. Eine Studie im Auftrag des BMWi kommt zu dem Ergebnis, dass insbesondere bei…

Warum Datenschutz und Verschlüsselung ein Thema für die Vorstandsetage ist

Was die vergangenen zwölf Jahre anbelangt, lag die Verantwortung für die Entwicklung und Umsetzung einer Verschlüsselungsstrategie zum überwiegenden Teil bei der IT-Abteilung. Das ist allerdings eine Situation, der sich laut den Ergebnissen des 2017 Global Encryption Trends Report geändert hat.   Demnach haben sich die Verantwortlichkeiten und Kräfteverhältnisse verschoben, wenn es darum geht, das Thema…

Videos, Webinare und Whitepaper: DE-CIX Academy gibt wertvolle Informationen  für die Peering-Praxis

$
0
0

DE-CIX, Betreiber des weltgrößten Internetknotens in Frankfurt am Main, hat für seine Kunden und andere Interessierte mit der DE-CIX Academy ein spezielles Schulungsprogramm aufgelegt. Dieses erfolgt weitgehend in Form von White Paper und Webinaren, an denen Zuschauer live teilnehmen oder sich die Aufnahmen im Nachgang ansehen können. Zusätzlich dazu werden Handout-Unterlagen zum Download bereitgestellt.

Wolfgang Tremmel ist als Head of DE-CIX Academy verantwortlich für das Weiterbildungsprogramm. »Netzwerkfachleute verfügen nach ihrer Ausbildung oft über ein sehr umfangreiches theoretisches Wissen, konnten aber mit der täglichen Praxis beim Routing zwischen Internet-Providern noch keine Erfahrung sammeln.
Ähnliches gilt auch für Experten, die bisher etwa ein Intranet betreut haben und nun den Job wechseln. Aus diesem Grund wurde die DE-CIX Academy ins Leben gerufen«, so Tremmel zu den Ambitionen der DE-CIX Academy.

Die Webinare, die in deutscher und englischer Sprache angeboten werden, setzen sich aus einem Präsentations- und einem Praxisteil zusammen. Die Aufnahmen der bisher gehaltenen Webinare sind auf der DE-CIX Website zu finden und die Termine der zukünftigen hier. Im letzten Jahr lag beispielsweise der Fokus auf Themen rund um das Border Gateway Protocol (BGP) in der Praxis, das umfasst etwa: eine Einführung, BGP und IPv6, BGP Security und mehr. Die wichtigsten Informationen sind auch auf Knowledge Cards in Kürze zusammengefasst.

Die DE-CIX Academy bietet außerdem Materialien, wie Studien und Artikel, zu verschiedenen Themen zum Download an. Die Themen umfassen unter anderem Informationen zu Peering und Blackholing, technische Anleitungen zur Verbindung mit verschiedenen Cloud-Dienstleistern und Marktstudien zur globalen Telekommunikationslandschaft.

 

C3 – Cloud, Connectivity und Colocation

Drei Zauberworte für die digitale Infrastruktur deutscher Unternehmen.   Eine neue Studie von 451 Research im Auftrag von Digital Realty hat die Herausforderungen untersucht, mit denen sich deutsche Unternehmen beim Auf- und Ausbau ihrer digitalen Infrastrukturen konfrontiert sehen [1]. Dabei spielen nicht nur die Verwaltung der eigenen IT, sondern auch der Zugriff auf andere Dienstleistungen…

Die neue Rolle der Internet Service Provider

Wie Gesetze zur Netzneutralität die Cybersicherheit beeinflussen. Die Netzneutralität ist eines der grundlegenden Prinzipien des Internets. Das Konzept, dass Service Provider den Datenstrom von einem Ort zum anderen weiterleiten ohne den Inhalt zu bewerten ist weitestgehend akzeptiert. Schon allein um die viel beschworene Meinungsfreiheit im Internet zu gewährleisten. Was aber passiert, wenn die fraglichen Inhalte…

Abhör-»Feature« von Hypervisor kann Daten aus der Cloud zu Nachrichtendiensten leaken

Untersuchung zeigt: Wer nicht die Kontrolle über die Hardware besitzt, besitzt nicht die Kontrolle über die Daten. Sogar eine verschlüsselte Kommunikation kann in Echtzeit entschlüsselt werden. Die Enthüllungen von Edward Snowden zu den Überwachungsmöglichkeiten der NSA und verbündeter Nachrichtendienste hat Infrastruktur-Verantwortliche, Service Provider sowie Privatanwender dazu veranlasst, Daten in vollem Umfang zu verschlüsseln. Da Forscher…

noris network AG – Erfolgreich aus IT-Leidenschaft

Mit Technikbegeisterung und Gespür für die kommerzielle Nutzung zukunftsweisender Technologien wagten Joachim Astel, Ingo Kraupa und Matthias Urlichs 1993 die Gründung des ersten Internet Service Providers Nordbayerns. Sie sind bis heute aktiv und haben mit der Nürnberger noris network AG ein expandierendes mittelständisches Unternehmen mit mehr als 150 Mitarbeitern geschaffen. Ihr Geschäftsmodell: Premium-IT-Services auf Basis eigener Hochsicherheitsrechenzentren und Infrastruktur »made in Germany«.

Weltweite Qualitätssicherung: Make or Buy?

Mobilfunk-Kunden wollen zu jeder Zeit zuverlässig höchste Dienstgüte – auch auf Reisen in aller Welt.

QoS und QoE (Quality of Service und Quality of ­Experience) sind wettbewerbsentscheidende Kriterien für Mobilfunk- und ­Internet-Anbieter. Mobilfunk-Kunden wollen zu jeder Zeit zuverlässig höchste Dienstgüte – auch auf Reisen in aller Welt. Die Testverfahren hierzu sind aufwendig und verlangen eine globale Infrastruktur. Die SIGOS GmbH ist weltweit führender Anbieter für Infrastruktur und Lösungen zur Sicherstellung von Qualität in Mobilnetzen. Beim Hosting der kritischen Systeme verlässt sich das Unternehmen auf den Nürnberger IT-Dienstleister noris network AG.

EU-Projekt Endeavour: Internet der neuen Generation

Wer Videokonferenzen abhält, per Internet Fernsehen schaut, HD- und UHD-Videos streamt oder Online-Games mit Tausenden anderer Nutzer spielt, will nur eines: Die Anwendungen sollen geschmeidig und ruckelfrei laufen, sonst ist der ganze Spaß, der ganze Nutzen dahin. Gemeinsam mit fünf europäischen Forschungseinrichtungen arbeitet DE-CIX jetzt im EU-Projekt Endeavour [1] an Werkzeugen zur Optimierung des Datenverkehrs.…

 

Mega-Cities und Super-Hubs auf dem Vormarsch

Globaler Trend zur Konzentration in Ballungsräumen Weltweit verteilte Superzentren bestimmen neue Wirtschaftsgeographie Nationalstaaten müssen Mega-Hubs unter Beobachtung halten »Es gibt einen globalen Trend zur Konzentration in Ballungsräumen, der zum Aufblühen weltweit verteilter Superzentren (Super-Hubs) führen wird«, erklärt Erika Mann, Board-Mitglied bei der Internet Corporation for Assigned Names and Numbers (ICANN), früheres Mitglied im Europäischen Parlament…

IT-Infrastruktur heute und morgen – Das Rechenzentrum und die Cloud

Wie können Unternehmen ihre IT heute betreiben? Die Bandbreite an Möglichkeiten reicht hier von eigenen Rechenzentren über das Outsourcing-Modell bis hin zur kompletten Verlagerung von Infrastruktur in die Cloud. Besonders Cloud Service Provider werben mit verlockenden Angeboten: agil, flexibel und kostengünstig könnten Unternehmen ihren IT-Infrastruktur-Bedarf aus der Cloud decken. Allerdings bestehen gerade bei deutschen Unternehmen noch Bedenken bei Datenschutz, Datensicherheit, Performance und Zuverlässigkeit und viele Kunden zögern bei der Verlagerung von IT-Infrastruktur in die Wolke.

Megatrend Digitalisierung verändert die Gesellschaft bis 2020 grundlegend

»7. Frankfurter Symposium für Digitale Infrastruktur«. Die Digitalisierung erfasst mittlerweile alle Branchen und Unternehmensgrößen. Menschen und Technik vernetzen sich, Kunden und Unternehmen begegnen sich auf Augenhöhe und neue Geschäftsmodelle schaffen innovative Wertschöpfungsketten: Wer hätte vor ein paar Jahren gedacht, dass Apple oder Google in die Entwicklung vernetzter Autos einsteigen würden? Basis für erfolgreiche Digitalisierungsstrategien und…

Eine Cloud-Manufaktur braucht den passenden Infrastrukturpartner

Die cloudKleyer Frankfurt GmbH hat ihren Firmensitz in Frankfurt am Main und setzt bewusst auf eine deutsche Cloud-Lösung. Man versteht sich als IT-Manufaktur. Kundenbedürfnisse passgenau für Cloud-Lösungen mit Individualcharakter abzubilden, steht im Vordergrund bei der Implementierung der Technologien von Kunden.

Sicheres Internet für alle: Leitfaden für Betreiber von Internet-Infrastruktur

Ob Unternehmen oder Privatpersonen, wer das Internet nutzt, ist darauf angewiesen, dass Betreiber ihre Internet-Infrastrukturen ausreichend gegen verschiedene Bedrohungen absichern. Um zu prüfen, ob und wo es in der Internet-Landschaft Gefährdungen gibt, haben Mitarbeiter der DE-CIX Management GmbH gemeinsam mit der ENISA (European Union Agency for Network and Information Security) die Studie »Threat Landscape and…

 


Wie künstliche Intelligenz Rechenzentren beeinflusst

$
0
0

Künstliche Intelligenz hat die Science-Fiction längst verlassen und ist – mehr oder weniger unbemerkt – Teil unseres Alltags geworden. Diese Entwicklung bleibt auch für Rechenzentren nicht ohne Folgen – sie könnten einerseits von KI profitieren, müssen aber andererseits andere Architekturen aufweisen. Die richtige Verkabelung spielt dabei eine entscheidende Rolle.

Schon 1968 hielt künstliche Intelligenz (KI) Einzug in Hollywood, mit HAL 9000, dem mitfühlenden Computer an Bord des Discovery One Raumschiffs in »2001: A Space Odyssee«. Auch autonome Fahrzeuge konnte man im Kino sehen, lange bevor die Tests der KI-gestützten Modelle auf der Straße begonnen haben – unter anderem in »Total Recall« von 1990. KI ist längst ein Bestandteil unseres Alltags geworden: Ohne groß nachzudenken, fragen wir das Smartphone nach dem Wetter, lassen virtuelle Assistenten die Lieblingsmusik spielen und verfolgen Neuigkeiten auf den sozialen Medien, ausgewählt nach unseren Interessen. Auch abseits des privaten Umfeldes wird auf KI gesetzt: für schnelle Übersetzungen, zur Gesichtserkennung, bei der Diagnose von Krankheiten oder im Kampf gegen den Drogenhandel. Und die Bedeutung von KI wird wachsen – Gartner sagt voraus, dass das Geschäft mit KI bis 2022 einen Wert von 3,9 Billionen US-Dollar erreicht haben wird.

Diese Entwicklung setzt riesige Datenströme voraus und produziert sie selbst. Für die Rechenzentren, die Knotenpunkte der digitalen Welt, bleibt das nicht ohne Folgen.

 

KI kann Energiekosten im Rechenzentrum senken

Wie der Mensch können auch Rechenzentren von KI – oder genauer gesagt maschinellem Lernen (ML) – profitieren. Im Jahr 2014 hat Google ein ML-Projekt gestartet, um zu prüfen, ob sich der Stromverbrauch in Rechenzentren optimieren lässt. Das Ergebnis war beeindruckend: Am Teststandort konnte der Energieverbrauch für die Kühlung um 40 Prozent verringert werden. Die sogenannte Power Usage Effectiveness (PUE), die angibt wie effizient Rechenzentren Energie nutzen, nahm in Folge dessen einen Allzeit-Bestwert an. Google setzt dieses Verfahren inzwischen auch an anderen Standorten erfolgreich ein und es dürfte nur eine Frage der Zeit sein, bis andere Technologiekonzerne folgen.

KI hat also definitiv Vorteile für Rechenzentren – aber die Datenströme stellen eine enorme Herausforderung dar. So werden allein für das Training des Chinesisch-Spracherkennungs-Modells von Baidu vier Terabyte Trainingsdaten und gleichzeitig 20 Exaflops Rechenleistung benötigt.

 

Server-Kommunikation muss auch in Ost-West-Richtung stattfinden

Man muss kein Hellseher sein, um zu wissen, dass die Datenmenge mit jedem weiteren KI-gestützten Modell wachsen wird und dies die Anforderungen an die Rechenzentrumsarchitektur verändert. So wäre es zwar durchaus möglich, ML-Modelle auf einem Rechner laufen zu lassen, aber in der Regel wird das immense Datenaufkommen auf mehrere Rechner verteilt. Dabei müssen Latenzen oder Störungen möglichst vermieden werden und die Bandbreite, mit der die verteilten Instanzen kommunizieren, muss ausreichend groß sein. Einfache Spine-and-Leaf-Architekturen, die auf verschiedenen Layern basieren, können da nicht mithalten. Traditionelle 3-Tier-Netzwerke nutzen Core, Aggregat und Edge Switching, um die verschiedenen Server innerhalb eines Rechenzentrums zu verbinden. Dieser Inter-Server-Traffic wird dabei in Nord-Süd-Richtung übertragen. Mit den hohen Anforderungen und Abhängigkeiten, die KI und ML ins Spiel bringen, werden mehr 2-Tier-Spine-Leaf-Architekturen genutzt, auf denen die Server in Ost-West-Richtung miteinander kommunizieren.

 

Verkabelung – Singlemode oder Multiplex?

Glasfaserkabel sind bereits der de facto Standard für die Datenübertragung, da sie herkömmlichen Kupferkabeln hinsichtlich Geschwindigkeit und Dichte weit überlegen sind. Doch welche Technologie kann die neuen Anforderungen durch KI am besten bewältigen?

Seit die IEEE im Jahr 2010 Übertragungsraten von 40G und 100G zugelassen hat, existiert eine Vielzahl konkurrierender Lösungen, die es den Verantwortlichen nicht immer leicht macht. Was früher eine einfache Entscheidung zwischen Short und Long Reach war, umfasst heute viel mehr Optionen: man muss sich entscheiden, ob man entweder zwei Fasern unter Verwendung von standardgenehmigten oder proprietären, nicht interoperablen WDM-Techniken und von Standards anerkannten oder Multi-Source-Vereinbarungen (MSAs) und Techniken für parallel-optische Übertragung mit acht Fasern (vier für die Übertragung, vier für den Empfang) oder 20 Fasern (10 für die Übertragung, 10 für den Empfang) nutzen möchte. Alle Varianten haben ihre Vor- und Nachteile, im KI Umfeld haben Singlemode Fasern mit parallel-optischer Übertragung die Nase vorn.

 

Drei Gründe für Singlemode-Fasern und parallel-optische Übertragung

Zunächst spielen die Faktoren Kosten und Distanz eine Rolle: Parallel-optische Lösungen dominieren den Markt, daher sind sie günstiger und schneller verfügbar als WDM-Lösungen. Sie unterstützen zudem geringere Distanzen, so dass kostenintensive Zusatzanschaffungen, um die Laser zu kühlen, nicht nötig sind. Auch wenn die Fußballfeld-großen Serverfarmen vermuten lassen, dass die Distanzen immer größer werden, zeigen Analysen, dass selbst dort die durchschnittliche Distanz 165 Meter noch nicht überschritten hat. Zudem benötigt die parallel-optische Übertragung über Singlemode-Fasern weniger Strom als eine WDM-Lösung und ist damit günstiger im laufenden Betrieb eines Rechenzentrums.

Der Hauptvorteil der parallel-optischen Übertragung liegt in der Flexibilität: Rechenzentrums-Architekten haben beispielsweise die Möglichkeit, einen 40G-Hochgeschwindigkeits-Switchport in vier 10G-Serverports zu zerlegen. Dieses Verfahren bietet große Skalierbarkeit, da so auch die Anzahl der Gehäuse und Höheneinheiten im Netzwerkschrank deutlich reduziert werden kann. Stromkosten lassen sich auf diese Weise um bis zu 30 Prozent für den Einsatz von Singlemode-Fasern senken und auch der Platzbedarf verringert sich merklich.

Auch die einfache Migration spricht für diese Variante: Die Technologie-Roadmaps der großen Switch- und Transceiver-Hersteller zeigen, dass ihre Kunden einfach auf die nächste Stufe der Datenübertragung migrieren können, wenn diese verfügbar ist, ohne die Glasfaserinfrastruktur auszutauschen. Bei einer 2-faser basierten Infrastruktur hingegen können sie nicht sicher sein, ob eine entsprechende WDM-Optik bereits verfügbar ist, wenn sie auf 100G oder höhere Geschwindigkeiten migrieren möchten. Businesschancen, die an die Leistungsfähigkeit des Rechenzentrums geknüpft sind, ziehen dann vielleicht ungenutzt vorüber.

Zusammengefasst lässt sich festhalten: KI hat das Potenzial, unsere Welt nachhaltig zu verändern – aber ohne entsprechende Rechenzentren werden viele Visionen, die manch einer aus Hollywood kennt, nie umgesetzt werden. Ein engmaschiges Glasfasernetz, verbunden mit ausreichender Bandbreite und die Kommunikation in Ost-West-Richtung stellen eine wichtige Grundlage für das zukunftsfähige Rechenzentrums-Design dar. Singlemode-Fasern und parallel-optische Übertragung bieten in einem KI-Umfeld die besten Möglichkeiten.

Tony Robinson, Corning Incorporated

 

970 search results for „Rechenzentrum“

Datenmanagement: Schutz und Sicherheit im Rechenzentrum

Egal ob infolge von Hardware- oder Softwarefehlern, menschlichem Versagen oder einem Viren- oder Hackerangriff, die Gründe für einen möglichen Datenverlust in Unternehmen sind vielfältig. Doch noch immer realisieren viele nicht die Gefahr eines Datenausfalls oder -verlustes. Der IT-Sicherheitsspezialist Datarecovery aus Leipzig hat Ende 2018 in einer Studie herausgefunden, dass 29 Prozent der Unternehmen ihre Daten…

Equinix weitet seine Interconnection- und Rechenzentrumsdienstleistungen auf Hamburg aus

Mit Kauf des Gebäudes wird die Platform Equinix zur Unterstützung der Digital-Edge-Strategie um vierten Markt in Deutschland erweitert.   Equinix, globaler Anbieter von Interconnection- und Rechenzentrumsdienstleistungen eröffnet in diesem Jahr sein erstes Rechenzentrum in Hamburg. Rund 36 Millionen US Dollar investiert Equinix in den Kauf sowie in den Um- und Ausbau des neuen Rechenzentrums »HH1«…

Vier Ansatzpunkte für den Einsatz von künstlicher Intelligenz im Rechenzentrum

Unter den vielen Möglichkeiten, wie künstliche Intelligenz (AI = Artificial Intelligence) in Rechenzentren genutzt werden kann, gibt es momentan vier Anwendungsbereiche, in denen sich der Einsatz von AI besonders anbietet: das Regulieren von Stromverbrauch und Kühlung, das Infrastrukturmanagement, die IT-Sicherheit (inklusive physischem Zugriff) sowie die IT-Automatisierung. Daher kann jedes Rechenzentrum in unterschiedlichem Maße von AI…

Services sind im Rechenzentrum essenziell – Digitale Infrastruktur erfordert technisch versierte Spezialisten

Die Entwicklungszyklen der IT werden immer kürzer. Viele Rechenzentren können mit dieser dynamischen Entwicklung nicht mithalten. Aktive und passive Komponenten müssen erweitert, respektive erneuert werden. Dabei rückt auch die Verkabelungs-Infrastruktur stärker in den Fokus. Maßgeschneiderte Servicedienstleistungen helfen, klare Strukturen zu schaffen und unterstützen die Kunden.

Generationswechsel im Rechenzentrum – das Potenzial konvergierter Infrastrukturen

Rechenzentren haben sich hinsichtlich Platzbedarf und Komplexität weiterentwickelt, aber nicht notwendigerweise auch im Hinblick auf Skalierbarkeit und Leistungsfähigkeit. Für viele kleine und mittelständische Unternehmen ist die Beschaffung und Verwaltung einer IT-Infrastruktur mitunter eine große Herausforderung. Da viele Anwendungen oft über Jahre unabhängig voneinander eingeführt werden, entstehen isolierte IT-Infrastrukturen, die alle gewartet und verwaltet werden müssen.…

Cloud Computing oder Outsourcing-Leistungen aus dem Rechenzentrum – Welches ist das beste Sourcing-Modell?

Die Cloud eignet sich für Standardleistungen mit wenig Anpassungen. Sind mehr Individualität in Anwendungen und Supporttiefe sowie branchenbezogene Betriebsvorgaben und Zertifizierungsstandards gefordert, ist Outsourcing das geeignete Modell. Es gibt jedoch jede Menge Zwischenlösungen.

Neue Speichertechnologien im Rechenzentrum – für höhere Energieeffizienz bei neuen KI-Anwendungsfällen

Die Speicherinfrastruktur im Rechenzentrum wurde jahrelang mit herkömmlicher Hardware umgestaltet. Neue, datenintensive Anwendungen für künstliche Intelligenz (KI) und maschinelles Lernen (ML) sorgen nun aber für einen stark steigenden Energiebedarf. Hier sind neue Ideen gefragt. Eine Option für deutlich effizientere, auch für High-End-Workloads geeignete Lösungen – ist All-Flash-basierter Objektspeicher. Dazu erklärt Markus Grau, Principal Systems Engineer…

Microsoft zieht endlich nach und baut eigene Rechenzentrumskapazitäten in Deutschland auf – Besser zu spät als nie

Intelligente Microsoft-Cloud-Lösungen sollen bald direkt aus Deutschland aus den Händen bzw. der Verantwortung von Microsoft lieferbar sein. Bislang ging dies nur über den Umweg der Microsoft Deutschland Cloud bzw. die Betriebshoheit von T-Systems. Microsoft investiert nun also doch noch in weitere regionale Rechenzentren, um näher an die Kunden und deren Wünsche heranzurücken. Neben Deutschland sind…

In nur neun Monaten zur neuen IT-Infrastruktur – Rechenzentrums-Container von Rittal

ene‘t ist ein auf die Energiebranche spezialisiertes IT-Systemhaus. Mit einer selbst entwickelten Software und den stets aktuellen Daten zum Strom- und Gasmarkt kalkulieren Erzeuger, Netzbetreiber und Versorger die bestmöglichen Endverbraucherpreise. Das rasante Wachstum von ene‘t machte den Neubau eines Rechenzentrums in Rekordzeit notwendig.

Hocheffizient und sicher – State-of-the-Art-Rechenzentrum im Atombunker

Ein Foto aus dem Jahre 1944 zeigt eine Bombenwüste – die Stadt nur noch Schutt und Asche. Einzige Ausnahme ein Hochbunker, unbeschädigt trotzte er den schwersten Fliegerangriffen. Damals bewahrte der achtstöckige Hochbunker menschliches Leben. Nun bewahrt er die Substanz menschlicher Geschäftstätigkeit, digitale Daten. Einblicke in die Planung zeigen: Es entstand in ihm eines der sichersten Data Center Deutschlands, wenn nicht Europas.

Infografik: Das Rechenzentrum im Wandel

Eine neue Infografik zeigt, dass der Schutz sensibler Daten ein Schlüsselfaktor bei der derzeitigen Transformation der Rechenzentren ist. Zur dieser Transformation gehören Trends wie Software Defined Datacenter und Networking (SDDC, SDN), Hyperconvergence und hybride Cloud. Laut einer Studie von Bitdefender, für die 150 deutsche IT-Entscheider in Unternehmen mit Rechenzentren und mindestens 1000 PCs befragt wurden,…

Backup, Archiv und DevOps: Durch die Cloud Herausforderungen im Rechenzentrum reduzieren

Die Einbindung der öffentlichen Cloud in die IT-Umgebung ist häufig sinnvoll, wobei verschiedene Aspekte zu beachten sind. Eine oft sehr schwierige Aufgabe in Rechenzentren ist die Integration neuer Technologien in altgediente Systeme. Früher oder später sind alle noch so bewährten Techniken überholt oder werden redundant. Sie stehen dann nicht mehr als überschaubare »Box« oder als…

Kritische Infrastrukturen – immer noch ausbaufähig

$
0
0

Nach mehr als zwei Jahren mit der KRITIS-Verordnung ist das Thema bei vielen Unternehmen mittlerweile angekommen. Weitere kommen jedoch hinzu, die sich, analog zu ihren Quasi-Vorgängern, erst jetzt des Ausmaßes bewusst werden.

Energieversorger mussten nach dem IT-Sicherheitskatalog gemäß §11 Abs. 1a EnWG bis zum 31.01.2018 zertifiziert sein. Die Branchen Wasser, Ernährung, Informationstechnik und Telekommunikation folgten dann im Mai 2018. Aktuell sind Unternehmen aus dem Bereich Gesundheit, Transport und Verkehr, Finanz- und Versicherungswesen aufgefordert, bis zum Juni 2019 einen Nachweis nach BSIG (BSI-Gesetz) § 8a, Sicherheit in der Informationstechnik Kritischer Infrastrukturen, zu erbringen. Parallel dazu erarbeiten Unternehmen, Branchen- und Betreiberverbände branchenspezifische Sicherheitsstandards, genannt B3S, die nach Anerkennung durch das BSI (Bundesamt für Sicherheit in der Informationstechnik) Unternehmen hinsichtlich der Umsetzung in Zukunft mehr Klarheit und Sicherheit geben sollen.

Diese branchenspezifischen Sicherheitsstandards sind mittlerweile vom BSI freigegeben. Im Sinne des B3S befinden sich in einer praxisbezogenen Vorabeignungsprüfung durch Unternehmen die Standards für die Branchen Ernährung, Energie, Finanz- und Versicherungswesen sowie Transport und Verkehr. Vielen betroffenen Unternehmen ist nämlich nicht klar, was genau auf sie zukommt und wie viel Zeit und Ressourcen erforderlich sein werden. Denn neben der IT sind weitere Abteilungen in diesen Prozess involviert und Prozesse müssen gesamtheitlich abgestimmt werden.

Irgendetwas mit »IT und Sicherheit« oder »die IT will da irgendetwas machen und zertifizieren«. Diese Aussage hören wir sehr häufig. Primär von Fachabteilungen die sich nicht tagtäglich mit dem Thema IT beschäftigen, wie zum Beispiel Geschäftsführung, Facility Management und TGA (Technische Gebäudeausrüstung). Doch diese und weitere Bereiche, die nicht (immer) in der Hand beziehungsweise Verantwortung der IT liegen, werden benötigt, um Sicherheit, Verfügbarkeit und die Qualität zu gewährleisten. Diese sind immerhin die Basis einer funktionierenden IT. Nur gemeinsam kann das im Sicherheitsgesetz (IT-SIG) vorgeschriebene Ziel von einem Unternehmen respektive einer Organisation überhaupt erreicht werden. Zur Erinnerung: Das übergeordnete Ziel des IT-SIG ist die Sicherstellung der Versorgung der Bundesbürger. Unter KRITIS fallen dann alle Unternehmen, die gemäß einer Faustformel circa 500.000 Menschen mit Leistungen aus einem der benannten Sektoren versorgen. Den dafür gewählten Rahmen bilden die B3S sowie oft auch die ISO 27001. Allerdings sind die Normen im Bereich der Gebäudesicherheit/-technik und der Infrastrukturen für den Rechenzentrumsbetrieb zurzeit noch etwas »dünn« aufgestellt. Das Informationssicherheitsmanagementsystem (ISMS), welches nach der ISO 27001 umzusetzen und zertifiziert nachzuweisen ist, reicht allein nicht aus, um die Anforderungen des BSI-Gesetzes zu erfüllen.

Problematisch ist zudem, dass die ISO 27001 oder auch der BSI-Grundschutz primär die Ereignis- und Geschäftsrisikoanalyse in den Fokus stellen. Das erkennen mittlerweile auch immer mehr Unternehmen. Aber: Letzten Endes ist das ISMS ein weiteres Managementsystem, das gelebt werden muss. Genau wie ein Qualitätsmanagement nach ISO 9001 oder ein Energiemanagementsystem nach ISO 50001. Einmalig ein- respektive durchgeführt, zertifiziert und dann vergessen, hilft es niemandem. Spätestens beim Überwachungsaudit folgt dann nämlich das böse Erwachen. Schließlich existieren diese Managementsysteme nicht zum Selbstzweck. Sie werden entwickelt, um Prozesse zu strukturieren, zu leben und vor allem zu verbessern (Stichwort PDCA, plan-do-check-act) und um eine gewisse Qualität und Struktur nachzuweisen – für Kunden, Partner und Gesetzgeber. 

Unternehmen wie öffentliche Einrichtungen legen bei der Wahl ihrer Zulieferer großen Wert auf ein hohes Maß an Qualität und Sicherheit der Ware. Das gilt über alle Branchen hinweg für Hardware, Software oder Dienstleistungen. Bei KRITIS ist die Lage etwas anders: Hier steht die Bevölkerung beziehungswiese deren Versorgung im Fokus. Das heißt, die Risikoanalyse oder das System muss mit einer etwas anderen, angepassten Betrachtungsweise durchgeführt werden. Für ein Unternehmen steht natürlich das Geschäftsrisiko im Fokus. Leider neigt die IT dazu, nur Ihre eigenen Plattformen im Blick zu haben: Mail-, ERP- oder Dokumentmanagementsystem. Im BSIG § 8a steht allerdings: »Vorkehrungen zur Vermeidung von Störungen der Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit ihrer informationstechnischen Systeme, Komponenten oder Prozesse zu treffen«. Das bedeutet auch, dass Netzwerkkomponenten oder Komponenten, die sich in nicht gesicherten Räumen befinden, plötzlich ebenfalls in den Fokus rücken. Sofern sie im Außenbereich stehen und den Netzwerkzugriff erlauben, ist die Authentizität oder Integrität nämlich nicht mehr sicherzustellen.

Weniger Normen, mehr Dokumentation. In vielen Organisationen fehlt es an Know-how hinsichtlich der vielen verschiedenen Normen, die im RZ-Betrieb eine Rolle spielen. Durch die Trennung von TGA und IT reden Verantwortliche oftmals aneinander vorbei oder konzentrieren sich zunächst darauf, die eigenen Vorgaben oder Gesetze zu erfüllen. Für unterschiedliche Begrifflichkeiten aus Bau- oder technischen Normen, ITIL oder ISMS fehlt es häufig an Übersetzern, die Zusammenhänge erklären und auf einen Nenner bringen können. Teilweise, wie im RZ-Bau respektive RZ-Betrieb, sind die Normen widersprüchlich beziehungsweise nicht deckungsgleich oder es sind schlichtweg zu viele Normen und Zertifizierungen vorhanden. Die Rechenzentrumsnorm EN 50600 hilft mittlerweile, hier etwas mehr Klarheit zu verschaffen.

Bei der Erstellung von Dokumentationen und Handbüchern müssen Verantwortliche abteilungsübergreifend denken und ihr Wissen zu Papier bringen. Denn: Im Fall eines Notfalls oder gar einer Krise ist der Kollege, der die Besonderheiten eines Systems kennt, nicht zwingend sofort verfügbar. Hier helfen Standards wie zum Beispiel die BSI 100-4 (Notfallmanagement), die auch Vorgaben über die Struktur eines Notfallhandbuches enthält. Im Falle jenes Notfalls sollte beispielsweise die Elektroabteilung wissen, mit wem sie einen Neustart koordinieren muss und in welcher Reihenfolge vorzugehen ist. Hier hilft dann ein komplettes, prozessorientiertes, abteilungsübergreifendes Notfallhandbuch, in dem nicht nur die eigene Abteilung die Schritte abarbeitet, sondern auch mögliche Meilensteine regelt, die mit anderen Abteilungen zu koordinieren sind.

Zwischenstand. Die Umsetzung der BSI KritisV ist im vollen Gange. Es ist noch nicht alles Gold was glänzt, aber langsam, auch durch die Hilfe der B3S, kommen alle dem Ziel etwas näher. Wie in allen Managementsystemen kehrt dann irgendwann Normalität ein.


Seit August 2018 verantwortet Andreas Schürkamp das Consulting der SECUrisk, einen Geschäftsbereich der DATA CENTER GROUP. Zu seinen Aufgaben gehört neben der fachmännischen Beratung auch der weitere Ausbau und die zukunftsorientierte Optimierung des Angebotsportfolios. Vor seiner Tätigkeit bei der DATA CENTER GROUP war er 14 Jahre als Technischer Leiter bei der DTS Systeme tätig und arbeitete an technischen und strategischen IT-Lösungen in den Bereichen Data Center, Technologie und Security.

 

 

Illustration: © Retrorocket /shutterstock.com

 

756 search results for „kritische Infrastruktur“

Ransomware nimmt kritische Infrastrukturen ins Visier – Ausfallzeiten durch Cyberangriffe

Sicherheitsexperten rechnen mit einer zunehmenden Anzahl erfolgreicher, gezielter Ransomware-Angriffe auf die OT-Umgebung (Operational Technology) verschiedener kritischer Infrastrukturen, was alleine durch die Ausfallzeiten Schäden in Millionenhöhe verursachen kann. Ernst zu nehmende Bedrohung Die Entwicklung von Ransomware-Angriffen in kritischen Infrastrukturen ist demnach recht eindeutig und wird von den Sicherheitsexperten von Palo Alto Networks als ernsthafte Bedrohung gewertet.…

Cybergefahr für kritische Infrastruktur

Eine russische Sicherheitsfirma warnt in einer umfangreichen Untersuchung vor möglichen Schwachstellen industrieller Kontrollsysteme (Industrial Control Systems, ICS) weltweit [1]. Die Gefahr ist real: Während in der Vergangenheit industrielle Systeme und kritische Infrastruktur in physisch isolierten Umgebungen betrieben wurden, ist dies in Zeiten der Industrie 4.0 nicht immer der Fall. Weltweit sind 188.019 ICS-Rechner (Hosts) über…

Kritische Infrastrukturen im Fokus: IT-Verantwortliche wollen mehr Staat

In einer Security-Studie [1] sprachen sich 86 Prozent aller IT-Verantwortlichen aus Organisationen mit kritischer Infrastruktur für eine bessere öffentlich-private Kooperation aus. 59 Prozent berichteten, dass Cyber-Attacken bei ihnen bereits zu physischen Schäden geführt haben. 86 Prozent der IT-Entscheider in Organisationen, die kritische Infrastrukturen betreiben, sehen in einer intensiveren Zusammenarbeit mit öffentlichen Stellen den Schlüssel zu…

Mehr Aufmerksamkeit für den Endpunktschutz bei kritischen Infrastrukturen

Da Cyberangriffe auf ICS- und SCADA-Systeme immer häufiger gemeldet werden, steigt der Bedarf an robustem Endpunktschutz. Das rasante Wachstum des Internets mit seiner zunehmenden Datenflut sorgt dafür, dass permanent Informationen und Daten ausgetauscht werden, in denen auch Malware versteckt werden kann. Diese »Datenvöllerei« führt dazu, dass Unternehmen Verbindungen zu Geräten in ihren Prozesskontrollnetzwerken bereitstellen müssen,…

Transformation Guide unterstützt Unternehmen beim digitalen Wandel zur Sicherung der Wettbewerbsfähigkeit

$
0
0

Digitale Transformation, Smart Factory, IoT oder Industrie 4.0 – zahlreiche Trends rund um die Digitalisierung beschäftigen den Mittelstand. Zu Recht, denn der digitale Wandel fordert auch bewährte  Geschäftsmodelle heraus. Ob Großkonzern, kleines oder mittleres Unternehmen: Strategien, Produkte und Prozesse müssen hinterfragt und dem digitalen Zeitalter angepasst werden.

Laut einer Studie der Technischen Hochschule Mittelhessen besteht im Mittelstand eine Diskrepanz zwischen verfügbaren Technologien zur Digitalisierung und der Anwendung in Unternehmen [1]. Wo größere Unternehmen mit entsprechenden Abteilungen und Forschungsprojekten technologisch am Ball bleiben, haben es insbesondere kleine und mittlere Unternehmen der verarbeitenden Industrie schwer, relevante Entwicklungen früh zu erkennen und für sich zu nutzen. Voraussetzung ist die Kenntnis des eigenen digitalen Reifegrads: Die abas Software AG bietet einen Digitalisierungstest und zeigt mit dem Transformation Guide, wie sich die Prozesse in den klassischen Bereichen eines fertigungsnahen Mittelständlers optimieren lassen.

Digitalisierung in der Produktentwicklung. In der Produktentwicklung geht es auf operativer Ebene vorrangig darum, die digitale Durchgängigkeit voranzubringen. So lassen sich der Umfrage zufolge bei fast 40 % der Unternehmen keine CAD-Stücklisten automatisiert in das ERP-System übertragen. Dabei führt dies neben der Integration von Online-Katalogen, PDM- und ERP-System zu einer deutlich verbesserten Prozessautomatisierung und -stabilisierung. Auch »Augmented Reality« / »Virtual Reality«-Anwendungen gewinnen an Bedeutung: Weltweite Entwicklungsteams können gemeinsam an einem virtuellen 3D-Modell arbeiten, was zu einer schnelleren Entwicklung und kürzeren Time-to-Market beiträgt. Ähnliches gilt für Rapid Prototyping über 3D-Druck, indem auf Basis von Konstruktionsdaten über den 3D-Drucker direkt Prototypen gedruckt werden.

Digitalisierung in der Beschaffung. Im Vergleich ist die Digitalisierung in der Beschaffung weiter fortgeschritten, den Umfrageergebnissen zufolge mit einem Mittelwert von 2,18 von vier Stufen jedoch auch nur »in geringem Maße« Realität. Startpunkt ist die Materialbedarfsplanung, die im ERP-System automatisiert erfolgt. Wichtig für die elektronische Beschaffung ist die Integration von Online-Katalogen. So können Mitarbeiter mit entsprechender Berechtigung direkt bestellen. Abgerundet wird der digitale Prozess durch die digitalisierte Rechnungsübermittlung und -weiterverarbeitung. Daraus resultiert ein Gewinn an Kosteneffizienz, Prozesssicherheit und -transparenz. 

Digitalisierung in der Logistik. In der Logistik entstehen neue Möglichkeiten der Prozessautomatisierung, Optimierung von Warenflüssen und Nachverfolgung beziehungsweise dem Monitoring von Produkten. Entlang der Lieferkette werden Prozesse durchgehend gestaltet. Fast ein Drittel der befragten Mittelständler bucht Wareneingänge noch rein manuell ein. Dadurch wird der Wareneingang nicht selten zum Engpass – die Mitarbeiter kommen mit der manuellen Erfassung und Prüfung von Mengen und Materialien nicht mehr nach. Fehlerfassungen wirken sich auf den gesamten Fertigungsprozess aus. Eine Lösung, ist die Erfassung von Wareneingängen durch mobile Barcode-Scanner: Zeitverluste bei der Datenübertragung ins ERP-System und Fehler bei der Dateneingabe werden vermieden. Ein weiterer Technologieschritt ist es, Wareneingänge sensorgestützt über RFID oder kamerabasiert zu erfassen und so den Prozess vollautomatisiert umzusetzen. Wird die RFID-Technologie bei Ladungsträgern in der gesamten Lieferkette eingesetzt, ist die Menge und Qualität der Ware während des Transports stets nachverfolgbar. Ein weiterer Schritt ist das elektronische Lieferavis: Der Lieferant übermittelt bereits bei Abfahrt des Spediteurs elektronisch die Lieferdaten, so kann sich der Empfänger auf die Lieferung vorbereiten.

Digitalisierung in der Fertigung. Sinkende Preise industrienaher Hard- und Software, Sensorik und Cloud-Technologie begünstigen den Einstieg in Industrial IoT (IIoT), die Digitalisierung der Fertigung. Dies fordert einen immensen Reifegrad in der Arbeits- und Prozessorganisation. Voraussetzung sind stabile Produktionssysteme mit klar definierten Prozessen und gepflegten Daten. ERP-Systeme bieten die nötige Integrationstiefe und Prozessausrichtung, um relevante Daten beziehungsweise Rückmeldungen zur Betriebsdatenerfassung zu verknüpfen und zu Kennzahlen zu verdichten. So können Defizite erkannt sowie Produktivität und Qualität signifikant verbessert werden. 

Vergleichsweise hoch ist bereits die Nutzung von Barcodes zur Identifikation der Aufträge und der Ansteuerung eines Maschinenprogramms. Die RFID-Technologie eignet sich hier etwa für Maschinenprogrammansteuerung, echtzeitfähige Auftragsverfolgung, smarte Montagetische und Assistenzsysteme für Mitarbeiter. Allem liegt die kontaktlose Echtzeitkommunikation zugrunde. Ferner bieten IoT-Plattformen Unterstützung: Sie sorgen für den Informationsaustausch der Systeme und bieten Tools zur Verdichtung und Analyse von Daten, auf deren Basis Prognosen (Predictive Analytics) erstellt und in Echtzeit an Maschinen wie auch das ERP-System zurückgespielt werden. Sie sind Grundlage für Produktivitätssteigerungen, durch selbstlernende Maschinen oder die Rückverfolgbarkeit von Produktmängeln bis zu den Fertigungsbedingungen.

Logistik 4.0. Bei Logistik 4.0 verhält sich der Mittelstand eher abwartend: 43 % führen sämtliche Warenausgänge ohne Scanner durch, nur 12 % haben den Warenausgang vollautomatisiert mit RFID realisiert. Jedoch tragen diese Maßnahmen zu Effizienzsteigerungen in Kommissionierung und Warenausgang bei: Kommissionierlisten mit Barcodes reduzieren Zeitaufwand und Fehlerquote, Staplerterminals sorgen mit Informationen wie Lagerplatz oder Kommissionierauftrag für Zeitersparnis durch Wegeoptimierung sowie Multi-Order-Picking und melden Entnahmen oder Umlagerungen direkt zurück an das ERP-System. Weitere Vorteile bieten optische oder akustische Assistenzsysteme und Smart Glasses. Diese führen den Mitarbeiter über Lichtsignale, visuelle oder Audio-Anweisungen durch die Kommissionier- und Versandaufgaben und bieten komfortable Möglichkeiten für die Rückmeldung an die Lagerverwaltung im ERP-System. Wie auch in der Eingangslogistik ermöglicht die sensorbasierte Ausgangslogistik per RFID die Möglichkeit zur Vollautomatisierung.

Kundenservice. Auch in Bereichen wie dem Kundenservice bietet eine digitale Durchgängigkeit einen hohen Mehrwert. Sind alle Informationen zu Serviceaufträgen transparent im ERP-System hinterlegt, hat jeder Mitarbeiter auch von unterwegs Zugriff und geleistete Servicevorgänge werden ohne Zeitverlust ins ERP-System zurückgemeldet. 

 

Link zum Digitalisierungstest:
https://abas-erp.com/de/digitalisierung-test/

 


Mark Muschelknautz
ist Innovationssexperte bei
abas Softwar e AG
https://abas-erp.com

 

 

[1] http://digdok.bib.thm.de/volltexte/2018/5281/pdf/THM_Hochschulschriften_9_Endfassung.pdf

 

 

Illustrationen: © abas

 

2089 search results for „digitale transformation“

Erfordert die digitale Transformation der Gesellschaft einen Paradigmenwechsel in der Glücksspielpolitik?

Die Glücksspielpolitik hierzulande wird besonders vonseiten der Spieler und Glücksspiel-Betreiber oftmals stark kritisiert. So gehen die Gesetzgeber nach der Meinung dieser beiden Gruppen in der Regel zu wenig auf sie ein und handeln somit nicht im Sinne von diesen. Dabei geht es allerdings bei sämtlichen Fragen und Problemen, die in Bezug auf Glücksspiele existieren, stets…

Vier Tipps für die digitale Transformation im Healthcare- und Pharmabereich

Die Gesundheitsbranche hat sich im Zuge der Digitalisierung stark verändert und Unternehmen sind darauf angewiesen, ihre Prozesse im Hinblick auf neue Wettbewerbsbedingungen zu optimieren. Die Nachfrage nach neuartigen Leistungen wie personalisierter Medizin steigt und die zunehmende Verlagerung des Geschäfts in den Consumer-Bereich hat den Konkurrenzdruck erhöht. Patienten haben heute die Wahl zwischen zahlreichen Anbietern. Wer…

Unternehmen setzen auf die digitale Transformation und vertrauen auf die Cloud

Mehr als die Hälfte der befragten Unternehmen verlagert ihre unternehmenskritischen Applikationen in die Cloud.   Zum ersten Mal verlagert die Mehrheit der Unternehmen unternehmenskritische Applikationen in die Cloud. Dies belegt die jüngste Studie, deren Ergebnisse von der Cloud Foundry Foundation, veröffentlicht wurden [1]. Die Studie zeigt, dass Unternehmen den digitalen Wandel als einen Prozess mit…

Die digitale Transformation mit Hilfe von Prozessautomatisierung vorantreiben

Eine Umfrage unter IT-Entscheidern in Deutschland, Österreich und der Schweiz verdeutlicht, dass Cloud-basierende Prozessautomatisierung ein wichtiger Unterstützer für digitale Transformationsprojekte sein kann. Nintex, Anbieter für Lösungen zur Geschäftsprozessautomatisierung, hat ein Whitepaper veröffentlicht, das die Highlights aus einer neuen Studie über die digitale Transformation herausstellt. Die Studie, die von der Hochschule der Medien Stuttgart (HdM) und…

Von analogen und digitalen Geschäftsmodellen – Wer treibt die digitale Transformation voran?

Stellen Sie sich eine mittelständische Firma vor – nennen wir sie die Tradition GmbH. Sie hat einen festen Kundenstamm, volle Auftragsbücher, hochqualifizierte Mitarbeiter und verdient mit analogen Geschäftsmodellen und -prozessen gutes Geld. Sie sitzen beim Geschäftsführer und sollen ihn von der Notwendigkeit der digitalen Transformation überzeugen.

Digitale Transformation leicht gemacht – 4 Wege der Evolution

Evolution ist für einen Organismus notwendig, damit er wachsen kann und anpassungsfähig bleibt. Auch Unternehmen sind Organismen, die auf ihr Umfeld reagieren müssen – und neuen Anforderungen gerecht werden müssen. Der technologische Fortschritt des digitalen Ökosystems ist nicht aufzuhalten, der Organismus Unternehmen muss reagieren: Mit der Digitalisierung des eigenen Betriebs. Nur so kann er flexibel…

Digitale Transformation: Die Netzwerksicherheit ist geschäftskritisch

So bedienen Unternehmen die Anforderungen an Konnektivität und Datensicherheit. Die digitale Transformation führt zu einem rasanten Wachstum an Netzwerkendpunkten, die es zu versorgen und zu managen gilt. Gleichzeitig steigt die Gefahr durch Cyberangriffe. Gemischte Netzwerkarchitekturen aus On-Premises- und Cloud-Lösungen sind das Mittel der Wahl.   Sicherheitsexperten gehen davon aus, dass mehrere hundert Millionen Malware-Proben im…

Trends 2019: Digitale Transformation krempelt Arbeitsweisen im Marketing um

Big Data wird durch automatisierte Echtzeit-Individualisierung abgelöst. Effizienz, Transparenz und Vernetzung fordern zuerst internes Umdenken. Agenda 2020 bringt Voice Commerce.   Das neue Jahr wird aufregend. Sebastian Picklum, Director Research & Development bei Canto, skizziert, welche Entwicklungen das Jahr 2019 für Marketer und Advertiser prägen werden:   Nichts geht mehr ohne digitale Nachhaltigkeit Die Digitalisierung…

Third Party Maintenance: Warum ein unabhängiger 360-Grad-Blick auf das Rechenzentrum immer wichtiger wird

$
0
0

Welche Alternative haben IT-Verantwortliche zur Herstellerwartung nach Ablauf der Grundgewährleistung? Third-Party-Maintenance-Anbieter (TPM) haben sich auf die Wartung von IT-Komponenten in Rechenzentren spezialisiert. Die Nachfrage nach diesen Leistungen wächst kontinuierlich und so erwarten die Analysten von Gartner bis zum Jahr 2020 ein Wachstum des TPM-Marktes bis zu 35 Prozent.

Quelle: Shutterstock. Illustration: Absmeier

In Rechenzentrum finden sich üblicherweise Komponenten ganz unterschiedlicher Hersteller. Schließlich möchten IT-Verantwortliche immer die Produkte einsetzen, die für die jeweiligen Aufgaben das beste Ergebnis versprechen. Ein solcher Hersteller-Mix kann im Servicefall zu einem erhöhten Aufwand führen, angefangen bei der Fehleridentifikation bis hin zu der Koordination der beteiligten Servicepartner. Allerdings benötigen IT-Verantwortliche auch eine Planbarkeit und Flexibilität, was den Service und die Weiterverwendung von RZ-Komponenten nach Ablauf der Grundgewährleistung oder des ersten Garantievertrages angeht. Anbieter für Third Party Maintenance (TPM) haben sich genau diesen Fragestellungen angenommen und bieten sehr flexibel konfigurierbare Leistungen für den Servicefall.

TPM-Anbieter sind herstellerunabhängige IT-Dienstleister, die sich speziell mit dem Thema Instandhaltung und Instandsetzung von IT-Komponenten in Rechenzentren befassen. Diese Unternehmen beschäftigen hochqualifizierte Experten und bevorraten eigene Ersatzteile, um im Fehlerfall schnell einen Schaden beheben zu können. Darüber hinaus leisten TPMs einen Multi-Vendor-Support und können so dem IT-Verantwortlichen einen Single-Point-of-Contact für alle Hardware-relevanten Störungen im Rechenzentrum bieten. Aus Sicht des IT-Leiters werden dadurch administrative Abläufe rund um die IT-Wartung vereinfacht und die Verfügbarkeit des Rechenzentrums optimiert, da Fehler schneller erkannt und behoben werden können.

 

Serviceverträge konsolidieren

Für IT-Verantwortliche nehmen die administrativen Aufgaben rund um den IT-Betrieb immer weiter zu, da neue Technologien und neue Hersteller ins Rechenzentrum drängen. Für jeden Hersteller müssen Unternehmen separate Serviceverträge abschließen und verwalten. Außerdem werden die SLAs vom Hersteller der jeweiligen Komponente vorgegeben und unterschiedlich ausgelegt. Aus Sicht eines IT-Verantwortlichen sollten jedoch harmonisierte und übergreifende SLAs vorhanden sein, die auch die Gesamtsituation des eigenen Rechenzentrums berücksichtigen. Bei diesen Anforderungen helfen TPMs dabei, bestehende Serviceverträge zu konsolidieren und SLAs herstellerübergreifend zu definieren. Für den IT-Verantwortliche heißt das: weniger Verwaltungsaufwand, eine hohe Flexibilität bei der Ausgestaltung von SLAs sowie klare Kennzahlen, für die ein zentraler Ansprechpartner verantwortlich ist.

 

Investitionen in die IT optimieren

Häufig arbeiten IT-Verantwortliche mit dem CFO gemeinsam daran, die Kosten für den IT-Betrieb und das IT-Budget insgesamt zu optimieren. Ein valider Ansatz ist es, die Nutzungsdauer bestehender Hardware über den Garantiezeitraum von typischerweise drei oder fünf Jahren hinweg zu verlängern. Während Hersteller den Kunden meist darauf drängen, nach dieser Zeit einen Hardware-Refresh im Rechenzentrum durchzuführen, haben sich TPMs darauf spezialisiert, auch nach Ablauf eines Hersteller-Servicevertrags den Betrieb von IT-Komponenten zu gewährleisten – inklusive der Ersatzteilversorgung. Anders als die Hersteller werden dabei die Wartungskosten nicht erhöht, sondern signifikant reduziert.

 

Kriterien zur Auswahl

Nach welchen Aspekten sollte sich aber ein Unternehmen für einen TPM-Anbieter entscheiden? Unabhängige Hilfe liefern beispielsweise die bekannten IT-Analystenhäuser wie Gartner über ihre sogenannten PeerInsights-Reports: hier bewerten Unternehmenskunden die Leistungen der Anbieter. Wichtige Kriterien zu Auswahl eines Anbieters sind beispielsweise Angaben zu Unternehmensgröße, Mitarbeiteranzahl, Leistungsumfang sowie die historische Entwicklung des Anbieters. Für Kunden ist es wichtig darauf zu achten, wie die Ausbildung des technischen Personals bei dem TPM-Anbieter erfolgt, aber auch welche eigenen Produkte und Dienstleistungen dieser anbietet und woher die Fachkräfte dafür stammen – also ob diese Leistungen alle mit eigenem Personal abgebildet werden können.

 

Die Qualität der Serviceleistung erkennen

Die Servicequalität ist ein zentraler Punkt, den Kunden kritisch hinterfragen sollten. Viele Kunden sind der Meinung, dass nur Techniker, die direkt vom Hersteller kommen, über das notwendige Fachwissen verfügen, um ein Fehler zu beheben oder eine Wartung vorzunehmen. Seriös arbeitende TPMs haben Schulungsprogramme entwickelt und bauen das benötigte Fachwissen selbst auf. Oftmals verfügen die TPM-Techniker über ein breites Querschnittswissen, da sie für mehrere Hersteller und vielfältige Produktgruppe geschult werden. Als Kunde sollte man sich also darüber informieren, welche Qualifikationen die TPM-Mitarbeiter vorweisen.

 

Monitoring über bekannte Tools

Viele TPM-Anbieter verwenden zudem etablierte Werkzeuge für das IT-Service-Management, um damit ein Remote-Monitoring zu realisieren und anstehende Wartungsarbeiten zu koordinieren und zu dokumentieren. Hier sollten Kunden genau hinsehen, wie automatisiert und intelligent die vom TPM-Provider eingesetzte Software ist. Typische Anbieter für IT-Service-Management-Plattformen sind beispielsweise BMC, IBM, CA oder HPE (Micro Focus).

Mit diesen Kriterien ausgestattet, sollten sich Unternehmen auf die Suche nach einem Partner machen, der die Wartung und Reparatur der IT-Infrastruktur übernimmt. Denn nur mit einem ausfallsicheren und kontinuierlich überwachten Rechenzentrum gelingt es Unternehmen, die digitale Transformation umzusetzen und sich mit neuen digitalen Geschäftsmodellen am Markt zu behaupten.

Sascha Petry, Director of Business Development Germany, Park Place Technologies

 

Quelle: Shutterstock. Illustration: Absmeier

Data center discussion (Quelle Shutterstock): TPM-Anbieter haben sich darauf spezialisiert, auch nach Ablauf eines Hersteller-Servicevertrags den Betrieb von IT-Komponenten zu gewährleisten und übernehmen dabei auch die Ersatzteilversorgung.

 

14 search results for „TPM“

Predictive Maintenance: Den Lebenszyklus von Industriebatterien im Fuhrpark intelligent verlängern

Für die Industrie sind zuverlässig funktionierende Transportfahrzeuge in der Intralogistik die Voraussetzung für wirtschaftliches Arbeiten. Da immer mehr Software, Elektronik und damit auch Batterien in den Geräte- und Maschinenpark Einzug halten, steigt der Aufwand für Wartung, Reparatur und Management der Batterien. Ein intelligentes Batteriemanagement kann dabei helfen, die Kosten und Ausfallzeiten zu verringern.   Intelligente…

Bundesamt für Sicherheit in der Informationstechnik untersucht Sicherheitseigenschaften von Windows 10

Das Betriebssystem Windows 10 sendet umfangreiche System- und Nutzungsinformationen an Microsoft. Eine Unterbindung der Erfassung und Übertragung von Telemetriedaten durch Windows ist technisch zwar möglich, für Anwender aber nur schwer umzusetzen.   Das ist das Ergebnis einer Untersuchung der zentralen Telemetriekomponente von Windows 10, die das Bundesamt für Sicherheit in der Informationstechnik (BSI) durchgeführt hat.…

APIIDA AG auf der it-sa 2018: Neue Lösungen, neue Features am Stand 329, in Halle 10.1

Europas führende Fachmesse für IT-Sicherheit, die it-sa, lockt auch in diesem Jahr Fachbesucher und Aussteller aus aller Welt nach Nürnberg. Die APIIDA AG ist das erste Mal dabei und stellt spannende Neuheiten vor.   Die APIIDA AG wird in diesem Jahr erstmals auf der it-sa in Nürnberg ausstellen. Das Unternehmen präsentiert vom 9.-11. Oktober 2018…

Schwaches Passwort in Intel AMT erlaubt Angreifern Remote-Zugriff auf Firmen-Laptops

Aufgrund unsicherer Standardeinstellungen in Intel AMT können Angreifer das Nutzer- und BIOS-Passwort sowie Bitlocker- oder TMP-Schutz umgehen und innerhalb von Sekunden Hintertüren in Firmen-Laptops einrichten. F-Secure meldet ein Sicherheitsproblem, das die meisten von Firmen ausgegebenen Laptops betrifft. Ein Angreifer mit Zugang zum Gerät kann es in weniger als einer Minute mit einer Hintertür ausstatten. Dabei…

»Security by Design« wird wichtiges Kriterium beim Datenmanagement

Cloud Data Management im Umfeld der DSGVO. Die zentrale Aufgabe von Cloud Data Management ist es, Daten unabhängig von ihrem Standort auf flexible, sichere und verantwortungsvolle Weise zu verwalten und zu nutzen. Diese Fähigkeit gewinnt mit den gesetzlichen Änderungen im Rahmen der Datenschutz-Grundverordnung (DSGVO/GDPR), die am 25. Mai 2018 in Kraft tritt, zunehmend an Bedeutung…

Hybride Wartungsmodelle für Server und Storage – Third-Party Maintenance als Alternative

»Never touch a running system« lautet ein Credo in der IT. Dem entgegen steht der Wunsch der Hersteller, Hardware alle vier Jahre zu tauschen, obwohl sie funktioniert. Druck wird über steigende Wartungskosten ausgeübt. Third-Party Maintenance (TPM) kann eine Alternative sein, um dieser Spirale zu entgehen.

Infrastruktur-Management und Migrationen bei der digitalen Transformation noch flexibler machen

Anbieter von Third-Party Maintenance erweitert herstellerunabhängige IT-Services für das End-to-End-Lifecycle-Management in Rechenzentren.   Curvature, zuvor bekannt als SMS|CURVATURE, ist heute der weltweit größte Anbieter herstellerunabhängiger Infrastrukturlösungen. Das integrierte Service-Portfolio unterstützt Unternehmen bei der Bewältigung steigender Kosten und Komplexität, die mit der Ausbreitung virtueller und Cloud-basierter Infrastrukturen einhergeht. Curvatures weltweite Support-Organisation wartet über eine halbe Million…

Notebook-Tipps für Geschäftsreisende

Worauf Business-Anwender on the road achten sollten. Geschäftsreisen mit dem Flugzeug, Mietwagen oder der Bahn gehören zum Alltag vieler Arbeitnehmer. Wer beruflich viel Zeit außerhalb des Büros verbringt, muss sich dabei stets auf sein Business-Notebook verlassen können. Daher sollte der mobile Begleiter neben einem besonders leichten Gewicht und entspiegelten Display sowie langen Akkulaufzeiten auch über…

Third Party Maintenance als Alternative für herkömmliche Support-Verträge

Maintenance-Verträge für RZ-Equipment sind ein spürbarer Kostenfaktor – und nicht selten ein Ärgernis, da Hersteller über die Wartungskosten den Absatz neuer Geräte forcieren. Third Party Maintenance (TPM) durch Drittanbieter hingegen kann den Lebenszyklus von Hardware verlängern, Ausgaben senken und Erneuerungsprozesse optimieren. Der TPM-Anbieter sollte dabei sorgfältig ausgewählt werden.

8 Tipps zur sicheren Windows-10-Implementierung

Viele Unternehmen stehen vor der Einführung des Microsoft-Betriebssystems Windows 10. Es bietet zahlreiche neue Sicherheitsfeatures, allerdings sollten auch ergänzende Sicherheitsmaßnahmen ergriffen werden, meint NTT Com Security. Der Sicherheitsexperte gibt acht konkrete Tipps. Es wird allgemein erwartet, dass der Umstieg auf Windows 10 in Unternehmen wesentlich schneller erfolgt als zum Beispiel die Ablösung von XP durch…

Risikofaktor Sicherheit: Tipps zur IT Education

Studie »Make IT Work« zeigt größte IT-Herausforderungen auf. Das richtige Equipment hilft, Sicherheitslücken zu vermeiden. Entsprechende Mitarbeiterschulungen sind essenziell. CIOs in Unternehmen sind heutzutage mit einer IT-Landschaft konfrontiert, die sich permanent weiterentwickelt. Die ständigen digitalen Neuerungen können Fluch und Segen zugleich sein. Die Toshiba Europe GmbH hat in der Studie »Make IT Work« [1] unter…

Wandel bei Beschaffung und Wartung von Rechenzentren

Mehr Herstellerunabhängigkeit und höhere Investitionen in Hardware aus Vorbesitz. Laut einer globalen Studie über Beschaffung und Wartung in Rechenzentren sagten etwa 60 Prozent der Befragten, dass sie hersteller- beziehungsweise lieferantenunabhängige Wartung (Third-Party Maintenance, TPM) nutzen wollten [1]. 53 Prozent erwerben inzwischen Hardware aus Vorbesitz. Die wichtigsten Faktoren für diesen Trend seien Kostenreduktion, bessere Support-Angebote von…

Sealed Cloud: Personaldaten sicher schützen

$
0
0

https://pixabay.com/de

In deutschen Unternehmen gibt es einen Bereich, in dem Datenverarbeitung immer gleichbedeutend mit der Verarbeitung personenbezogener Daten ist: Human Resources. Denn Personaldaten haben definitionsgemäß stets einen Personenbezug und weisen damit in den meisten Fällen einen erhöhten Schutzbedarf auf.

 

Personaldaten: DSGVO diktiert die Regeln

Selbstverständlich sind personenbezogene Daten nicht erst seit Inkrafttreten der Datenschutzgrundverordnung angemessen zu schützen. Bereits das Bundesdatenschutzgesetz (alt) formulierte konkrete Regeln für den Umgang mit personenbezogenen Daten, die auch unter der DSGVO weiter Bestand haben:

  • Rechtsgrundlage zur Datenverarbeitung ist erforderlich
  • Daten dürfen nicht unbegrenzt gespeichert werden
  • Verarbeitung der Daten darf nur für den beabsichtigten Zweck erfolgen
  • Datenschutzverletzungen sind meldepflichtig
  • Daten sind angemessen zu schützen

Doch darüber hinaus fordert die DSGVO bei Zuwiderhandlungen empfindliche Strafen – vorgesehen sind Geldbußen von bis zu 20 Millionen Euro oder vier Prozent des weltweit erzielten Jahresumsatzes [1]. Besonders heikel: Pflichtverletzungen im Datenschutzbereich können Geschäftsführer und Vorstände persönlich ersatzpflichtig machen; diese haften dann gegebenenfalls auch mit ihrem Privatvermögen [2]. In Extremfällen können sogar Gefängnisstrafen verhängt werden [3]. Viele Unternehmen setzen daher auf vermeintlich sichere Storage-Angebote wie beispielsweise digitale Datenräume.

 

Risiko: Privilegierter Zugriff

Doch selbst, wenn die üblichen »technischen und organisatorischen Maßnahmen« zum Schutz der Daten getroffen werden, bleibt ein nicht zu unterschätzendes Restrisiko. Dieses Risiko besteht selbst dann, wenn die personenbezogenen Daten in einem virtuellen Datenraum oder einer Business Cloud abgelegt sind. Denn gerade organisatorische Maßnahmen wie etwa sorgfältig durchdachte Rechte- und Rollenkonzepte lassen sich mit verhältnismäßig überschaubarem Aufwand umgehen. Darüber hinaus können sich Administratoren in der Regel privilegierten Zugriff zu den Servern verschaffen und vertrauliche Daten einsehen, manipulieren oder entwenden. Das aber bringt die Verantwortlichen in Bedrängnis, denn diese haben die Integrität der Daten sicherzustellen.

 

Abhilfe durch Technik?

Um personenbezogene Daten wie Personaldaten vor Einsicht, Manipulation oder Verlust zu schützen, braucht es eine technische Lösung, die jeglichen – auch privilegierten – Zugriff zuverlässig unterbindet. Herkömmliche Public-Cloud-Angebote können diese Anforderung in der Regel nicht erfüllen. Sogar viele Business Clouds tun sich schwer, unerwünschte Datenzugriffe wirkungsvoll zu unterbinden – die meisten klassischen Server-Infrastrukturen sehen privilegierte Admin-Zugänge vor, beispielsweise zu Wartungs- oder Monitoring-Zwecken.

Einen besseren Ansatz verfolgen betreibersichere Infrastrukturen [4]: Hier wurden die organisatorischen Schutzmaßnahmen ausnahmslos durch technische Maßnahmen ersetzt, die sich auch mit hohem Aufwand nicht umgehen lassen. Die Server sind hermetisch abgeriegelt, ein privilegierter Admin-Zugriff ist nicht vorgesehen – eine Kenntnisnahme vertraulicher Daten ist ebenso ausgeschlossen wie Diebstahl und Manipulation. Das gilt nicht nur für Administratoren, sondern für alle externen und internen Angreifer.

Unternehmen, die zur Speicherung und Verarbeitung vertraulicher und personenbezogener Daten auf betreibersichere Cloud- und Datenraum-Angebote setzen, sind damit rechtlich auf der sicheren Seite. Stehen die Server noch dazu in einem EU-Land mit besonders hohem Datenschutzniveau wie etwa Deutschland, schafft dies zusätzlich Vertrauen. Die passenden Zertifikate erleichtern den Verantwortlichen überdies die Erfüllung ihrer Rechenschaftspflichten [5].

 

________________________________________

[1] https://dsgvo-gesetz.de/art-83-dsgvo/
[2] https://www.rosepartner.de/geschaeftsfuehrerhaftung-datenschutzrecht.html
[3] https://diligent.com/wp-content/uploads/2017/11/WP0032_US_The-GDPR-Checklist-for-Directors.pdf
[4] https://de.wikipedia.org/wiki/Sealed_Cloud
[5] https://dsgvo-gesetz.de/art-5-dsgvo/
Betreibersichere Infrastrukturen sind eine noch recht junge Alternative zu herkömmlichen Cloud-Infrastrukturen und werden wegen ihres hohen Datenschutzniveaus seit einigen Jahren zunehmend im geschäftlichen Umfeld eingesetzt. Dazu zählen unter anderem die versiegelte Cloud der Deutschen Telekom und die Sealed Platform der TÜV SÜD-Tochter Uniscon GmbH.

 

Sealed Cloud – Big Data mit Datenschutz

Sealed Cloud – Big Data mit Datenschutz

Big Data verheißt Transparenz und Einsicht in Geschäftsvorgänge: Wenn Unternehmen Massendaten systematisch auswerten können, bedeutet das oft einen erheblichen Wettbewerbsvorteil. Doch wo bleibt der Datenschutz? Eine Frage, die bei Kundendaten hohe Brisanz hat. Wer darauf eine befriedigende Antwort finden will, sollte aktuellen Entwicklungen in der IT-Sicherheitstechnologie seine besondere Aufmerksamkeit schenken.

Gebrauchtsoftware: Hohes Einsparpotenzial für Unternehmen

Wie Unternehmen vom An- und Verkauf von Gebrauchtsoftware profitieren. Der Handel mit gebrauchter Software ist nicht neu. Aber immer noch muss die kostengünstigere Alternative zu Neulizenzen um Akzeptanz buhlen. Vor allem SaaS-Lösungen lassen das Thema Second Hand überholt erscheinen. Dabei spart der Einsatz von Gebrauchtsoftware Unternehmen bis zu 70 Prozent ihrer jährlichen IT-Kosten. Die Relicense…

Die zweite Stufe der Digitalisierung: Blockchain – eine der drei globalen Mega-Innovationen

Der Begriff der Blockchain zirkuliert nun schon seit mehr als zehn Jahren in der Öffentlichkeit und spätestens seit den Kurssprüngen von Bitcoin und anderen Währungen im Jahr 2017 ist das Thema auch der Masse der Bevölkerung ein Begriff. Blockchain ist so viel mehr als nur Bitcoin oder Kryptowährungen. Genauso wie das Internet mehr ist als nur Amazon. Bitcoin ist nur eine Anwendung auf der Blockchain.

Blockchain: BSI untersucht Sicherheitseigenschaften

  Spätestens der finanzielle Höhenflug der Kryptowährung Bitcoin im Jahr 2017 hat dazu geführt, dass auch außerhalb der Fachwelt über die Blockchain diskutiert wurde. Diese Technologie zur verteilten Datenhaltung bietet die Möglichkeit, durch eine dezentrale Struktur die Manipulation von Daten rein technisch zu verhindern, größtmögliche Transparenz zu bieten und Intermediäre in Geschäftsprozessen zu ersetzen. Nachdem…

Online-Zahlungsdienste: Wann ist »sicher« sicher genug?

Banken und Finanzdienstleister müssen ihre Transaktionsdienste ab September 2019 durch Verschlüsselung und Zwei-Faktor-Authentifizierung absichern. Doch um sensible Daten zuverlässig zu schützen, sollten Unternehmen mehr tun als das.   Online bezahlen war noch nie so einfach: Die EU-Richtlinie PSD2 (»Payment Services Directive 2«) mischt bereits seit Anfang 2018 die Payment-Branche auf. Sie erlaubt Unternehmen, auf Daten…

Ist Blockchain ein kurzlebiger Trend?

Die Hälfte der deutschen Unternehmen sehen die Blockchain nicht als »Game Changer«. Rund 50 Prozent aller hierzulande im Zuge einer Erhebung Befragten glauben, dass die Blockchain-Technologie keinen tiefgreifenden Umbruch mit sich bringen wird. Dementsprechend schleppend läuft auch die Umsetzung zugehöriger Projekte: Zwei Drittel der Studienteilnehmer in Deutschland gaben an, dass ihr Unternehmen noch keine relevanten…

Deutsche Wirtschaft ist Blockchain-Nachzügler

Nur zwei Prozent der für eine Bitkom-Research-Analyse befragten Unternehmen arbeiten mit Blockchain-Anwendungen – lediglich bei großen Unternehmen ab 500 Mitarbeitern wird der Anteil zweistellig. Diejenigen deutschen Unternehmen, die sich intensiv mit der Blockchain auseinandersetzen oder diese bereits einsetzen, sehen sich zwar generell als Vorreiter auf diesem Gebiet, sind aber der Meinung, dass Deutschland insgesamt ein…

Studie: Deutschland ist bei der Blockchain aktuell nur Mittelmaß

  Im internationalen Vergleich sieht jedes zweite Unternehmen Deutschland als Nachzügler. Blockchain-Technologie bietet enormes Potenzial. Bitkom veröffentlicht zur hub.berlin Studienbericht zum Blockchain-Einsatz in der deutschen Wirtschaft.   Blockchain ist eine relativ junge Technologie, die besonders in der Logistik, im Verkehrswesen oder von Banken getestet wird. Die deutsche Wirtschaft sieht sich bei der Blockchain allerdings bereits…

Die perfekte Ergänzung zur Blockchain

Alle reden von der Blockchain: Seit dem beispiellosen Boom der Kryptowährung »Bitcoin« Ende 2017 ist die Technologie in aller Munde. Doch folgt auf den Hype nun die große Ernüchterung? Nachdem Experten der Blockchain-Technologie zunächst eine schillernde Zukunft ausgemalt hatten – nicht unbedingt als Kryptowährung, sondern vielmehr als Verfahren, um etwa Transaktionen abzusichern – mehren sich…

Deloitte Technology Fast 50: Das sind Deutschlands Senkrechtstarter in Sachen Technologie

Foto: Deloitte Sie helfen Unternehmen, die richtigen Mitarbeiter zu finden, revolutionieren das Performance-Marketing oder machen die Cloud sicher – und sind dabei extrem erfolgreich. Bereits zum 16. Mal hat Deloitte die am schnellsten wachsenden Unternehmen der Tech-Branche ausgezeichnet.   Wer über erfolgreiche Tech-Unternehmen spricht, denkt heutzutage viel zu schnell ans Silicon Valley oder an Shenzhen.…

Unternehmen in der Cloud – und wo bleibt der Know-how-Schutz?

Sobald die EU-Mitgliedsstaaten die Know-how-Schutz-Richtlinie umgesetzt haben, müssen Unternehmen angemessene Maßnahmen zum Schutz von Geschäftsgeheimnissen vornehmen. Zählt dazu auch die Wahl des Cloud-Providers?   Ziel der Richtlinie 2016/943 ist ein einheitlicher Mindestschutz für Geschäftsgeheimnisse in Europa – doch was ändert sich damit? Und was hat die Wahl eines sicheren Cloud-Dienstes damit zu tun? Die Richtlinie…

Viewing all 966 articles
Browse latest View live