Lesezeit: 2 Minuten

Wie Big-Data-Projekte erfolgreich werden

Die Virtualisierung von Big-Data-Anwendungen wie Hadoop bietet viele Vorteile, die weder in einer physischen Infrastruktur noch in der Cloud erreicht werden können. Durch das vereinfachte Management von Big-Data-Infrastrukturen werden schneller Ergebnisse erzielt und dadurch Kosten gesenkt.

90 Prozent der Innovationen und neuen Funktionen im Automobilbereich werden heute von der Elektronik gesteuert. Daten sind der Schlüssel zum Erfolg. Doch leider stoßen Unternehmen bei der Umsetzung von Big-Data-Projekten häufig auf Probleme. Beispiele dafür sind knappe Budgets, fehlendes IT-Know-how und das Risiko von Plattformabhängigkeiten.

Die Verarbeitung von Big-Data-Workloads unterscheidet sich von der Verarbeitung herkömmlicher Workloads von Unternehmensanwendungen. Denn Big-Data-Workloads werden parallel und nicht nacheinander verarbeitet. IT-Abteilungen priorisieren in der Regel geschäftskritische Workloads und planen die Batch-Ausführung von Aufträgen mit geringerer Priorität nachts oder bei überschüssiger Kapazität. Für Live-Analysen und -Reaktionen im Kontext von Big-Data-Analysen müssen viele Prozesse in Echtzeit ausgeführt werden. Damit ist die IT gezwungen, Rechenzentrumsrichtlinien zu ändern und sich mit neuen Tools vertraut zu machen, um diese neuen Workloads zu erstellen, zu verwalten und zu überwachen.

Plattformabhängigkeit

Unternehmen müssen die richtige Infrastruktur für die Ausführung ihrer Anwendungen und Daten auswählen. Die Hardwarebeschaffung braucht Zeit. Der Cloud-Einstieg mag für ein Proof-of-Concept großartig sein, birgt aber auch das Risiko von Plattformabhängigkeit und ist außerdem mit Sicherheitsbedenken und enormen Kosten verbunden. Unternehmen müssen sich auch für eine bestimmte Hadoop-Distribution entscheiden, wobei Cloudera, Hortonworks, MAPR und Pivotal konkurrierende (und inkompatible) Architekturen anbieten. Wurden sie erst einmal getroffen, können zahlreiche Entscheidungen später nur schwer wieder rückgängig gemacht werden. Daher schieben viele Unternehmen das Thema Big Data lieber vor sich her.

Automobil-Unternehmen können das Management Ihrer Big-Data-Infrastruktur schnell und kostengünstig umsetzen, indem Sie die VMware-Plattformen nutzen, die herkömmliche, moderne Cloud-, Mobil- sowie Big-Data-Anwendungen virtualisieren.

Hadoop im Spotlight

Die Rolle von Infrastruktur – ob physisch oder virtuell – besteht darin, Anwendungen zu unterstützen. Dazu zählen sowohl herkömmliche geschäftskritische Anwendungen als auch moderne Cloud- und Big-Data-Anwendungen sowie mobile Apps. Apache Hadoop ist eine Open-Source-Software, mit der Sie Big Data verteilt speichern und verarbeiten. Hadoop wurde von Unternehmen wie Cloudera, Hortonworks, MAPR und Pivotal in große Distributionen verpackt und integriert, um Big-Data-Workloads auszuführen. Die Virtualisierung von Big-Data-Anwendungen wie Hadoop bietet viele Vorteile, die weder in einer physischen Infrastruktur noch in der Cloud erreicht werden können. Durch das vereinfachte Management von Big-Data-Infrastrukturen werden schneller Ergebnisse erzielt und dadurch Kosten gesenkt. VMware ist nicht nur für herkömmliche Anwendungen, sondern auch für Big Data die beste Plattform.