Seit vielen Jahren befinden sich Unternehmen inmitten einer Informationsrevolution, in der die Menge der generierten, gesammelten und verarbeiteten Daten exponentiell ansteigt. Dies hat zahlreiche Chancen, aber auch große Herausforderungen mit sich gebracht.
Für Unternehmen gibt es viele Möglichkeiten, aus den von ihnen gesammelten und generierten Rohdaten wertvolle Erkenntnisse zu gewinnen. Die Suche nach den nützlichsten Informationen gleicht jedoch oft der Suche nach einer Nadel im Heuhaufen, die möglicherweise gar nicht existiert.
Unternehmensweite Datenanalysesysteme haben diese Bemühungen über die Jahre hinweg unterstützt, doch der Technologie-Stack unterliegt einem ständigen Wandel. Der Fokus sollte nun ebenso sehr auf Hardware und Infrastruktur liegen wie auf Software, wobei die ideale Lösung eine Kombination aus mehreren Ebenen darstellt, die für die Zusammenarbeit aufeinander abgestimmt sind.
Der Aufstieg der KI hat dieser komplexen Gleichung eine weitere Dimension hinzugefügt. Dadurch rückt die Leistungsfähigkeit der Speichersysteme, die Unternehmen einsetzen können, stärker in den Fokus, ebenso wie die verfügbaren Funktionen, mit denen Unternehmen die riesigen Mengen an Unternehmensdaten, die ihnen zur Verfügung stehen, optimal nutzen können – und dies bei gleichzeitiger Gewährleistung des Schutzes und der Wiederherstellbarkeit dieser Daten angesichts zunehmender Cyberbedrohungen.
Deshalb sind Zuverlässigkeit und Verlässlichkeit ebenso wichtig wie Zukunftssicherheit und die Möglichkeit, Systeme im Zuge der technologischen Weiterentwicklung mitwachsen zu lassen. Was ist das ultimative Ziel? Sicherzustellen, dass Speichersysteme mit dem sich ständig weiterentwickelnden Bereich der Unternehmens-KI Schritt halten und Unternehmen dabei unterstützen können, ihre Produktivitätsgewinne zu maximieren.
In einem Meer von Daten treiben
Als Wissenschaftler von Google erstmals die Transformer-Architektur skizzierten, die das Herzstück der heutigen Large Language Models (LLMs) bildet, betrug das weltweit erzeugte, erfasste, kopierte und verarbeitete Datenvolumen 26 ZB. Diese Menge ist bis 2025 – sieben Jahre später – auf 181 ZB angestiegen und wird laut Statista in diesem Jahr voraussichtlich noch weiter auf 221 ZB ansteigen.
Unterdessen wurde der Markt für Big-Data-Analysen im Jahr 2025 auf 348 Milliarden USD bewertet – ein deutlicher Anstieg gegenüber 307 Milliarden USD im Jahr 2023, gemäß den Angaben von Fortune Business Insights. Prognosen zufolge könnte dieser Wert bis 2032 weiter auf 924 Milliarden USD steigen, was das Potenzial dieses Bereichs nicht nur für Anbieter von Big-Data-Analyselösungen, sondern für alle Unternehmen verdeutlicht, die das Beste aus den von ihnen gespeicherten und verarbeiteten Daten herausholen möchten – insbesondere durch den Einsatz generativer KI.
Eine Studie, die letztes Jahr in der Fachzeitschrift Advances in Consumer Research veröffentlicht wurde, hob die wachsende Rolle der generativen KI in der Big-Data-Landschaft hervor. Sie kam zu dem Ergebnis, dass die Integration beider Technologien „erheblichen geschäftlichen Mehrwert schaffen und als Grundlage für eine branchenübergreifende strategische Transformation dienen kann“.
Wenn generative KI auf Basis von Big Data – bestehend aus großen Mengen strukturierter und unstrukturierter Daten – eingesetzt wird, können Unternehmen neue Inhalte, Erkenntnisse und Lösungen generieren.
Speicherung als Schlüsselfaktor im KI-Zeitalter
Speicherung ist die grundlegende Infrastruktur für KI. Ab 2026 und darüber hinaus besteht ein wesentlicher Bedarf an zuverlässiger Speicherung, sei es in Form von lokalem Speicher in einer privaten Cloud oder sogar auf den einzelnen Geräten im gesamten Unternehmen.
Herkömmliche Speichersysteme konnten einfache Befehle von mehreren Benutzern gleichzeitig verarbeiten, doch die Fortschritte in der KI haben die Anforderungen von Unternehmen an ihre Lösungen grundlegend verändert. Dazu gehören Aspekte wie agentische KI, die unzählige Befehle parallel ausführt, und Benutzer, die immer komplexere Vorgänge ausführen – was weitaus anspruchsvoller ist als die Anforderungen der Vergangenheit.
Unternehmen benötigen heute skalierbare Speicherlösungen, die einen nahtlosen und verzögerungsfreien Datenfluss zwischen verschiedenen Repositorys ermöglichen, einschließlich des Wechsels zwischen Speicher und KI-Modellen. Gleichzeitig müssen diese Lösungen eine parallele Verarbeitung und hohe Übertragungsgeschwindigkeiten zwischen den verschiedenen Komponenten gewährleisten, aus denen sich die Infrastrukturebenen zusammensetzen.
Die riesigen Datenmengen, mit denen Unternehmen heute zu kämpfen haben, erfordern zuverlässige Speicherlösungen. Nur durch die Bereitstellung zuverlässiger Speichersysteme, die sich an veränderte Geschäftsanforderungen anpassen lassen – und die skalierbar sind, wenn weitere komplexe Ebenen hinzukommen und die Menge der gesammelten und verarbeiteten Daten explosionsartig ansteigt –, können Unternehmen sicherstellen, dass sie mit der KI Schritt halten.
Genau hier spielt auch die cyberresiliente Datensicherung eine entscheidende Rolle. Da KI-Pipelines mehrere Umgebungen und Datensätze umfassen, benötigen Unternehmen Sicherheitsarchitekturen, die Trainingsdaten, Modelle und Ergebnisse vor Ransomware und anderen Bedrohungen schützen können. Sollte nach einem Angriff eine Datenwiederherstellung erforderlich sein, müssen die Tools und die Infrastruktur schnell funktionieren, damit KI-Initiativen nicht durch einen einzelnen Vorfall beeinträchtigt werden.
Zukunftssichere Speicherung
Die Speicheranforderungen werden zwangsläufig komplexer, da Unternehmen eine immer größere Vielfalt an Workloads einsetzen. Daher ist diese grundlegende Speicherebene, die Flexibilität und Effizienz bietet, entscheidend für Kosteneinsparungen in Schlüsselbereichen. Dazu können im Falle von hyperkonvergenten Infrastrukturlösungen Hardwarekäufe, Wartung, Stromversorgung, Kühlung und Softwarelizenzen gehören.
Auch die richtigen Tools sind für eine optimale Effizienzsteigerung des Betriebs unerlässlich. Manchmal ist der bloße Kauf weiterer Speichereinheiten nicht die beste Verwendung der finanziellen Mittel Ihres Unternehmens, ganz zu schweigen vom physischen Platzbedarf.
Die Reduzierung von Daten ist ein wesentlicher Bestandteil dieser Gleichung, und es ist wichtig, in Systeme zu investieren, die Modelle mit dem besten Datenreduzierungsverhältnis gewährleisten. Dies bedeutet, dass Vorgänge wie Deduplizierung, Komprimierung und Mustererkennung eingesetzt werden können, um sicherzustellen, dass die aktuell gespeicherten Daten besser verwaltet werden.
Dell Technologies PowerScale ist ein Beispiel für eine Lösung, mit der Unternehmen KI in großem Maßstab einsetzen können. Es bietet eine bis zu 220 % schnellere Datenerfassung, einen bis zu 99 % schnelleren Datenabruf und einen um bis zu 50 % geringeren Speicherbedarf als frühere Generationen.
Damit sind Unternehmen wie Subaru bestens gerüstet, um die Vorteile von KI-Workloads zu nutzen und sowohl jetzt als auch in Zukunft echte, bedeutende Gewinne zu erzielen.
„Systeme und Speichersysteme unterliegen einem ständigen Wandel“, sagte Takashi Kanai, stellvertretender Leiter des SUBARU Lab bei der Subaru Corporation.
„Dell PowerScale ist der Aufgabe gewachsen, als grundlegende Infrastruktur für die KI-Entwicklung in unserer EyeSight-Fahrerassistenz-Technologie zu dienen, sodass wir unsere KI-Initiativen zur Verbesserung des Fahrererlebnisses weiter vorantreiben können.“
Wenn Sie erfahren möchten, wie Ihr Unternehmen das Potenzial Ihrer Speichersysteme maximieren und diese für die Zukunft optimieren kann, lesen Sie den Bericht von Principled Technologies mit dem Titel „Geringere Speicherkosten und höhere Effizienz dank der überlegenen Funktionen zur Datenreduzierung von Dell PowerStore“.
Melde dich für denTechRadar Pro Newsletter an und erhalte alle Top-News, Meinungen, Features und Anleitungen, die dein Unternehmen für den Erfolg braucht!