
Illustration Absmeier foto freepik
Für KI-Workloads optimierte All-Flash-basierte Ultra-Scale-Datenspeicherplattformen liefern ausreichenden Speicherdurchsatz und bieten weitreichende Skalierbarkeit.
Mit der zunehmenden Verbreitung von KI-Innovationen erkennen viele Unternehmen schnell den Wert, ihre bestehenden Prozesse durch Modelltraining und Inferenz zu verbessern. Dieser Trend hat die Einführung von KI-Workflows in den Bereichen Vorverarbeitung, Training, Test, Feinabstimmung und Bereitstellung vorangetrieben. Alle diese Teilbereiche der KI-Nutzung profitieren hierbei von leistungsstärkeren GPUs und größeren, multimodalen Datensätzen.
Diese Expansion hat auch neue Herausforderungen an die Infrastruktur mit sich gebracht, wie Pure Storage berichtet. Herkömmliche Speicher weisen Beschränkungen auf bei Skalierbarkeit, Checkpointing, Management und Metadatenleistung in großem Maßstab. Dies führt zu Engpässen und behindert die vollständige Nutzung teurer GPU-orientierter Infrastrukturen, wodurch Fortschritt und Innovation verlangsamt werden. Dies wiederum hat erhebliche Auswirkungen auf den aggressiven ROI-Druck der KI. Jede dafür vorgesehene Infrastruktur muss mit Höchstleistung laufen, um eine möglichst schnelle Wertschöpfung für das Training und die Inferenz von Modellen zu gewährleisten. Verlorene Zeit ist verlorenes Geld.
Diese geschäftliche Herausforderung, dass ungenutzte GPUs Zeit- und Geldverlust bedeuten, wird in großem Maßstab, zum Beispiel bei GPU-Cloud-Anbietern und KI-Laboren, aus zwei Gründen exponentiell verstärkt. Erstens ist eine massive betriebliche Effizienz in großem Maßstab für ihre Rentabilität von entscheidender Bedeutung und geht weit über das hinaus, was die meisten lokalen/internen Rechenzentren bewältigen können. Zweitens haben sich Serviceprovider dem Grundsatz verschrieben, Ressourcenleerlauf zu vermeiden. Für sie sind ungenutzte GPUs in jedem KI-Modell eine entgangene Umsatzchance, Storage-Ineffizienzen sind daher zu vermeiden.
KI-Workflows in großem Maßstab sind anspruchsvoll
Herkömmliche Hochleistungs-Speicherarchitekturen basieren auf parallelen Dateisystemen und wurden für herkömmliche, dedizierte High-Performance-Computing-Umgebungen (HPC) entwickelt und optimiert. HPC-Workloads sind vorhersehbar, sodass die parallelen Speichersysteme für eine bestimmte Leistungsskalierung optimiert werden könnten. KI-basierte Workflows und Modelle in großem Maßstab unterscheiden sich von herkömmlichen HPC-Systemen, da sie komplexer sind und viel mehr Parameter beinhalten, die auch multimodal sind, indem sie Textdateien, Bilder, Videos und mehr enthalten. All dies muss gleichzeitig von Zehntausenden von GPUs verarbeitet werden. Diese neue Dynamik zeigt schnell, wie sehr herkömmliche HPC-basierte Speicheransätze bei einer größeren Skalierung an ihre Leistungsgrenzen stoßen. Genauer gesagt wird die Leistung herkömmlicher paralleler Speichersysteme bei der Verwaltung von Metadaten und zugehörigen Daten von derselben Storage-Controller-Ebene aus problematisch.
Mit dem rasanten Anstieg der Datenmengen wird die Metadatenverwaltung zu einem kritischen Engpass. Herkömmliche Speicher haben Schwierigkeiten, Metadaten effizient zu skalieren, was zu Latenz und Leistungseinbußen führt. Dies gilt insbesondere bei KI- und HPC-Workloads, die eine extreme Parallelität erfordern. Herkömmliche Architekturen, die für sequenziellen Zugriff ausgelegt sind, können da nicht mithalten. Sie leiden oft unter Starrheit und Komplexität, was die Skalierbarkeit einschränkt. Um diese Herausforderungen zu bewältigen, ist eine Metadaten-First-Architektur erforderlich, die sich nahtlos skalieren lässt, massive Parallelität unterstützt und Engpässe beseitigt. Mit der Weiterentwicklung der KI- und HPC-Möglichkeiten werden die Herausforderungen noch größer.
Neue Speicherlösung begegnet KI-Leistungsherausforderungen in großem Maßstab
Engpässe herkömmlicher Speicherlösungen erfordern ein Umdenken beim Metadatenmanagement und bei der Optimierung des Datenzugriffs, um verschiedene Datentypen und eine hochgradige Parallelität von KI-Workloads im Serviceprovider-Maßstab zu verwalten.
Ein Metadaten-Core in einem modernen All-Flash-basiertem Unified-Fast-File-and-Object-Speicher (UFFO) hilft nach Erfahrung von Pure Storage Unternehmen dabei, anspruchsvolle KI-Trainings-, Abstimmungs- und Inferenzanforderungen zu bewältigen, indem er typische Metadaten-Herausforderungen angeht, wie zum Beispiel:
- Parallelitätsmanagement:
Effiziente Verarbeitung großer Mengen von Metadatenanfragen über mehrere Knoten hinweg. - Vermeidung von Hotspots:
Vermeidung von Engpässen bei einzelnen Metadatenservern, die die Leistung beeinträchtigen und eine fortlaufende Abstimmung und Optimierung erfordern können. - Konsistenz in großem Maßstab:
Sicherstellung der Synchronisierung über verteilte Metadatenkopien hinweg. - Effiziente Hierarchieverwaltung:
Optimierung komplexer Dateisystemvorgänge bei gleichbleibender Leistung. - Skalierbarkeit und Ausfallsicherheit:
Aufrechterhaltung einer hohen Leistung bei exponentiell wachsenden Datenmengen. - Betriebliche Effizienz:
Sicherstellen, dass Verwaltung und Overhead minimiert und automatisiert werden, um Effizienz in großem Maßstab zu unterstützen.
Der Ansatz des Unified Fast File and Object Storage hat sich das Vertrauen auf dem Markt für Unternehmens-KI und HPC erarbeitet und unterstützt Unternehmen wie Meta dabei, ihre KI-Workloads effizient zu skalieren. Der Metadaten-Core einer solchen Lösung basiert auf einer massiv verteilten Transaktionsdatenbank, und die Key-Value-Store-Technologie stellt eine hohe Metadatenverfügbarkeit und effiziente Skalierung sicher. Durch die Anwendung von Erkenntnissen von Hyperscalern und die Nutzung eines bewährten fortschrittlichen Metadaten-Cores ist es nun möglich, extrem leistungsfähigen Speicher bereitzustellen, der die Metadatenherausforderungen von KI und HPC in großem Maßstab bewältigt.
Da extreme End-to-End-KI-Workflows die Grenzen der Infrastruktur sprengen, war der Bedarf an einer Datenspeicherplattform, die dieser Größenordnung gerecht wird, noch nie so groß wie heute. Eine neue Speicherlösung erweitert nun den UFFO-Ansatz, damit große KI- und HPC-Umgebungen künftig nicht mehr durch veraltete Speicherbeschränkungen eingeschränkt werden. Diese neue Kategorie von UFFO-Speicher ist speziell für KI-Fabriken konzipiert und bietet eine massiv parallele Verarbeitungsarchitektur, die Daten und Metadaten aufschlüsselt und Engpässe und die Komplexität beseitigt, die mit veralteten parallelen Dateisystemen verbunden sind.
Dieser neue Ansatz erfüllt die Anforderungen der datenintensivsten KI-Umgebungen und unterstützt KI-Natives, Tech-Giganten, KI-gesteuerte Unternehmen, GPU-Cloud-Anbieter, HPC-Labore oder Forschungszentren. Das Design der nächsten Generation ermöglicht eine nahtlose Produktion, Inferenz und Schulung und bietet eine umfassende Datenspeicherplattform selbst für die anspruchsvollsten KI-Workloads.
Teil dieses innovativen Ansatzes war die Modifizierung der Betriebsumgebung durch Aufteilung der netzwerkbasierten I/O mit hohem Datendurchsatz in zwei diskrete Elemente:
- Ein Storage-Array speichert und verwaltet die Metadaten mit seiner branchenführenden, verteilten Key/Value-Datenbank mit horizontaler Skalierung.
- Ein Cluster von Datenknoten eines Drittanbieters ist der Ort, an dem die Datenblöcke gespeichert werden und auf den über den GPU-Cluster mit Remote Direct Memory Access (RDMA) unter Verwendung von branchenüblichen Netzwerkprotokollen mit sehr hoher Geschwindigkeit zugegriffen wird.
Diese Trennung ermöglicht einen Non-Blocking-Datenzugriff, der in HPC-Szenarien exponentiell zunimmt, in denen die Metadatenanfragen den Daten-I/O-Prozessen entsprechen oder diese sogar übertreffen können.
Bei der Trennung der Metadaten- und Datenbereitstellungsebenen lag der Schwerpunkt darauf, alle Elemente einfach zu skalieren und zu verwalten:
- Metadaten-Core:
Dieser Dienst bearbeitet alle Metadatenabfragen aus dem Rechencluster. Wenn eine Abfrage bearbeitet wird, wird der anfragende Rechenknoten zur Ausführung seiner Aufgabe an den spezifischen Datenknoten weitergeleitet. Das Array überwacht auch die Beziehung zwischen Datenknoten und Metadaten über eine Control-Plane-Verbindung, die sich hinter den Kulissen in einem eigenen Netzwerksegment befindet. - Datenknoten von Drittanbietern:
Hierbei handelt es sich um handelsübliche Standardserver, die eine breite Kompatibilität und Flexibilität gewährleisten. Die Datenblöcke befinden sich auf den NVMe-Laufwerken in diesen Servern. Auf ihnen wird ein »schlankes« Linux-basiertes Betriebssystem und ein Kernel mit Volume-Management und RDMA-Zieldiensten ausgeführt, die für die Arbeit mit den auf dem Array befindlichen Metadaten angepasst sind. - Paralleler Datenzugriff über die vorhandene Netzwerkumgebung:
Das neue Storage-Array basiert auf einem eleganten Ansatz, der ein hochverfügbares Single-Core-Netzwerk nutzt, das BGP (Border Gateway Protocol) zum Routen und Verwalten des Datenverkehrs zwischen Metadaten-, Daten- und Workload-Clients verwendet. Dieses Design ermöglicht eine nahtlose Integration in bestehende Unternehmensnetzwerke und vereinfacht die Bereitstellung hochparalleler Speicherumgebungen. Wichtig ist, dass alle genutzten Netzwerkprotokolle dem Industriestandard entsprechen; der Kommunikationsstapel enthält keine proprietären Elemente.
Pure Storage sieht wegweisend neuen Storage-Ansatz für KI
Der neue Storage-Ansatz revolutioniert die Leistung, Skalierbarkeit und Einfachheit für umfangreiche KI- und HPC-Workloads. Er durchbricht das konventionelle Denken in einem infolge des KI-Booms sehr schnell wachsenden Segments des Storage-Markts und gilt unter Experten bereits als wegweisend.
734 Artikel zu „Storage Plattform“
News | Cloud Computing | Infrastruktur
IT-Perspektiven: Moderne Storage-Ansätze ohne Kompromisse

Ende Januar 2025 fand die von Philippe Nicolas aus Frankreich organisierte IT Press Tour in San Francisco statt. Hartmut Wiehr war für »manage it« vor Ort und schaute sich vier vorgestellte Unternehmen genauer an. Nicht alle jungen Unternehmen in der IT-Branche können sofort einen schnellen Durchbruch verzeichnen. So hat auch »Hammerspace« eine kleine Vorgeschichte:…
Trends 2025 | News | Business Process Management | Cloud Computing | Trends Services | Services
Fünf Cloud-native-Trends für 2025 – Wie Kubernetes-Plattformen den Weg weisen

Kubernetes feierte in 2024 sein 10-jähriges Jubiläum, und es ist wichtig zu sehen, wie weit die Technologie gekommen ist. Von den Anfängen als Open-Source-Projekt von Google bis hin zur Entwicklung zur De-facto-Container-Orchestrierungsplattform auf dem heutigen Markt hat Kubernetes bei der Einführung in die Handhabung unternehmenskritischer Anwendungen in Unternehmen jeder Größe, von Start-ups bis hin zu…
Trends 2025 | News | Trends Cloud Computing | Cloud Computing | Digitalisierung | Effizienz | Favoriten der Redaktion | Künstliche Intelligenz
KI 2025: Offene Plattformen als Gamechanger

Künstliche Intelligenz wird auch 2025 ein entscheidender Treiber für die Innovations- und Wettbewerbsfähigkeit von Unternehmen sein. Die Dynamik dieser Technologie bringt aber nicht nur Chancen, sondern auch Herausforderungen mit sich. Aus Sicht von Markus Eisele, Developer Strategist bei Red Hat, sollten IT-Verantwortliche und Führungskräfte im Jahr 2025 auf fünf Entwicklungen achten, um ihr Unternehmen erfolgreich…
News | IT-Security | Nachhaltigkeit | Ausgabe 5-6-2024 | Security Spezial 5-6-2024
Managed Detection & Response-Services und mySOC-Plattform – Die Welt sicherer und besser machen

Das französische Sicherheitsunternehmen aDvens will die digitale Welt absichern und über einen Stiftungsfond die Welt insgesamt etwas besser machen. Im Interview erklärt Andreas Süß, CEO DACH der aDvens GmbH wie die in Europa entwickelte und gehostete mySOC-Plattform sowie eine europäische Service Delivery den Unternehmen in den DACH-Märkten helfen soll, sich vor Cyberbedrohungen zu schützen.
News | Künstliche Intelligenz | Produktmeldung
MotusAI: KI-Entwicklungsplattform für hocheffiziente GPU-Ressourcenplanung und Task-Orchestrierung

Durch eine effiziente und einheitliche GPU-Planung erzielt MotusAI eine durchschnittliche Leistungsauslastung von über 70 Prozent bei Cluster Computing. KAYTUS, ein Anbieter von IT-Infrastruktur, stell die KI-Entwicklungsplattform MotusAI vor. Die Plattform steht ab sofort weltweit für Tests zur Verfügung. MotusAI ist auf Deep Learning und KI-Entwicklung zugeschnitten. Sie integriert GPU- und Datenressourcen mit KI-Entwicklungsumgebungen, um…
News | Digitalisierung | Services
Digitale Gesundheitsberatung: Wie Online-Plattformen die Pharmazie revolutionieren

Die Pharmazie steht am Beginn einer digitalen Revolution, die das Potenzial hat, sowohl die Art und Weise, wie wir Medikamente erhalten, als auch die Beratung durch Fachpersonal grundlegend zu verändern. Digitale Gesundheitsberatungen, unterstützt durch fortschrittliche Online-Plattformen, bieten beispiellose Möglichkeiten für Patienten und medizinisches Fachpersonal. Sie verbessern nicht nur den Zugang zu wichtigen medizinischen Informationen und…
News | Business Process Management | Infrastruktur | Rechenzentrum | Services | Strategien
Storage-Management: Warum intelligente Self-Services mittelfristig unverzichtbar sind

Das Storage-Management entwickelt sich schnell weiter. Vorangetrieben durch den KI-Boom und die digitale Transformation müssen Rechenzentren ein massives Datenwachstum, beispiellose Anforderungen an die Agilität von Anwendungen, eine steigende Komplexität, einen Mangel an Fachkräften und steigende Energiekosten bewältigen. Es handelt sich weniger um einen Umbruch als um einen perfekten Sturm, was jedoch auch Chancen für Verbesserungen…
News | Trends 2024 | Trends Infrastruktur | Digitalisierung | Infrastruktur | Rechenzentrum
Der Spagat zwischen Leistung und Effizienz – Technologientrends rund um Storage und Data Management

Markus Grau, Principal Technologist bei Pure Storage, erläutert heute vier Entwicklungen, die seiner Ansicht nach die technologische Entwicklung rund um Storage und Data Management im kommenden Jahr prägen werden. Die Nachfrage nach generativen KI-Lösungen wird eine neue Welle der Container-Einführung auslösen. Der Ansturm auf die Entwicklung und Implementierung generativer KI-Lösungen führt zu einer neuen…
News | Cloud Computing | Effizienz | Infrastruktur
Object Storage: »Wir stehen am Anfang einer Welle«

Anwendungsbeispiel des ADN Partners Nugolo. Unternehmen müssen heute große Mengen an Daten speichern, vor Diebstahl oder Verschlüsselung durch Ransomware schützen, über Jahrzehnte revisionssicher aufbewahren und auf Knopfdruck Mitarbeitern, Kunden oder Behörden zur Verfügung stellen können. Diese Anforderungen lassen sich mit herkömmlichen Storage-Ansätzen nicht erfüllen und bedürfen eines kompetenten Partners mit Know-how, wie es der…
News | Cloud Computing | Infrastruktur | Strategien | Ausgabe 9-10-2023
Moderne Storage-Lösungen optimieren die Gesamtperformance, Kosteneffizienz, Nachhaltigkeit und Sicherheit

Ein an die Cloud angebundenes All-Flash-Rechenzentrum senkt die Kosten und kommt der Umwelt zugute, weil es eine bessere Energieeffizienz aufweist. Eine ganzheitliche Managementschnittstelle orchestriert die hybride Multicloud-Infrastruktur und fungiert gleichzeitig als Security-Kontrollzentrale. So kann es durch integrierte Sicherheitslösungen gegen Ransomware-Attacken schützen. Das ist die nächste Welle der Storage-Innovation.
News | Infrastruktur | Lösungen
Software-Defined Storage-Lösungen für die Automobilbranche

Große Datenmengen schnell, flexibel und aufwandsarm speichern. Automotive-Unternehmen stehen vor großen Herausforderungen, um im Wettbewerb um die Mobilität der Zukunft mitzuhalten. Diese betreffen nicht nur die Technik im Fahrzeug, sondern auch die Informationstechnologie dahinter und in diesem Zuge vor allem die enormen Datenmengen, die bei der Entwicklung erzeugt und verarbeitet werden. Automotive-Unternehmen brauchen daher…
News | Infrastruktur
Wie die Flut an unstrukturierten Daten die Anforderungen an Storage-Systeme verändert

Menschen, Maschinen und Anwendungen generieren Daten in einem immer höheren Tempo. Der größte Teil der Datenflut ist unstrukturiert und schraubt die Anforderungen an Storage-Systeme deutlich nach oben. Dell Technologies erläutert, was diese leisten müssen, um die wachsenden Datenmengen effizient zu speichern und optimal für die Nutzung bereitzustellen. Unstrukturierte Daten sind Informationen, die sich nicht…
News | Lösungen
SVA macht Cloud Storage zu einfach nutzbaren Services mit Vertrauensbonus

StorageGRID ist das Herz von S3-Objekt-Storage-as-a-Service. Der Komfort von Cloud Storage gewinnt eine persönliche Note. SVA ist einer der führenden Systemintegratoren in Deutschland. Wird Leistung ausgezeichnet, ist SVA häufig unter den Preisträgern. Als SVA hörte, dass Kunden ja zu Cloud Storage aber nein zu Public Clouds sagten, war es Zeit für eine neue Lösung. SVA…
News | Infrastruktur | Services | Strategien
Weniger Stress für IT-Teams: Bereitschaft für neue Nutzungsmodelle auch beim Storage steigt

Die vergangenen Monate waren in vielerlei Hinsicht ein harter Stresstest. Es hat Unternehmen, Arbeitnehmer, Volkswirtschaften und ganze Branchen an ihre Grenzen gebracht. Die kaskadenartigen Auswirkungen der Transformation in eine digitale Welt haben die IT-Infrastrukturen auf eine harte Probe gestellt – und die überlasteten IT-Teams, die sie betreiben, auf eine harte Probe gestellt – und sie…
News | Cloud Computing | Digitale Transformation | Lösungen | Services
Digitalisierung von der Einzelanwendung bis zum End-To-End-Lösungskonzept – Plattform, Cloud und End-to-End

Die Covid-19-Pandemie ist nicht an allem schuld. Cloud, IoT, Industrie 4.0, Künstliche Intelligenz, Digitalisierung und Digitale Transformation bestimmten schon vorher die IT-Szene. Aber die Auswirkungen und Folgen der Pandemie haben die Entwicklungen beschleunigt. Tobias Fenster, Chief Technical Officer (CTO) des Software- und Beratungshauses COSMO CONSULT, gehört zu den ausgewiesenen Experten, die diese Entwicklungen mit beeinflussen.
News | Business | Strategien | Ausgabe 11-12-2020
Zentrale Datenplattform und der Golden Record – Ohne Datenqualität kein erfolgreiches Datenmanagement

Oder muss es heißen: Ohne Datenmanagement keine Datenqualität? Es ist das Henne-Ei-Phänomen – das eine kommt ohne das andere nicht aus. Wie können Unternehmen strategisch vorgehen, um ihr Datenmanagement an den immer steigenden Anforderungen auszurichten und dabei ihre Daten in einer verlässlich hohen Qualität für belastbare Analysen zu pflegen?
News | Cloud Computing | Rechenzentrum | Ausgabe 11-12-2020
Von VDI bis SAP Hana – Performante Storage Services aus der Cloud
News | Kommunikation | Whitepaper
Whitepaper: Kollaborationsplattformen aus Sicht der Cybersicherheit – Vergleich und Best Practices

Bei der Auswahl von Kollaborationsplattformen prüfen Unternehmen Anforderungen an Datenschutz und Datensicherheit oftmals nur unzureichend. In dem von der Beratungsboutique für Cybersicherheit carmasec veröffentlichten Whitepaper Kollaborationsplattformen aus Sicht der Cybersicherheit – Vergleich und Best Practices werden die gängigsten Softwarelösungen Google G-Suite, Microsoft Office 365 und Atlassian Jira / Confluence hinsichtlich Aspekten der Cybersicherheit und des…
News | Cloud Computing | Geschäftsprozesse | Strategien
Kriterien für SAP-Erweiterungen auf der Cloud-Plattform und on-premises

Cloud oder Core: Wohin mit den Eigenentwicklungen unter SAP? Wann sollten Eigenentwicklungen im ERP-Kernsystem und wann besser auf der Cloud-Plattform umgesetzt werden? Für SAP-Verantwortliche sind diese Szenarien nicht ganz leicht zu beurteilen. Vier grundlegenden Kriterien helfen bei der Entscheidung. Viele SAP-Verantwortliche stellen sich derzeit die Frage, wo und in welcher Form Eigenentwicklungen und individuelle…
News | Trends Wirtschaft | Digitale Transformation | Digitalisierung | Trends 2020
Plattform-Experten sind in den Chefetagen Exoten

Nur fünf Prozent der Manager halten sich selbst für Plattform-Experten. Jeder vierte Manager hat noch nie etwas von digitalen Plattformen gehört. Nur die wenigsten Geschäftsführer und Vorstände in Deutschland kennen sich wirklich gut mit digitalen Plattformen aus – aber dennoch haben sie in der großen Mehrheit die Verantwortung für das Thema an sich gezogen. So…