Business Intelligence (BI) versprach in der Vergangenheit eine Entscheidungshilfe auf der Grundlage von Daten anstelle von Intuition. Anfangs dienten hauptsächlich intern strukturierte Daten im Bereich von einigen Gigabyte bis Terabyte aus wenigen Quellen als Basis für eine periodische Analyse. Nun änderte sich die Situation grundlegend mit dem Wissen, dass Daten einen großen Wert besitzen, der bis heute oft nicht genutzt wurde.

Interne und externe Daten verschiedenen Typs – ob strukturiert, unstrukturiert, semistrukturiert und polystrukturiert, von universellen Datenquellen, manchmal kontinuierlich mit hoher Geschwindigkeit generiert – liegen in großen Mengen vor. Die Ad-hoc-Analyse dieser Daten in Echtzeit, die Aufdeckung von Fakten und Erkenntnissen, die sonst im Verborgenen blieben oder die Ableitung der richtigen Prognosen und Einleitung der entsprechenden Maßnahmen können in den wettbewerbsorientierten Märkten von heute für Unternehmen ein wirkungsvolles Instrument sein.

Genau darum geht es bei großen Datenmengen, den so genannten Big Data. Ziel ist es die steigenden Datenvolumen am besten in Echtzeit bearbeiten zu können, auch wenn sich die Volumen vergrößern. Dies erfordert jedoch neue Konzepte für die Infrastruktur.

Die Verarbeitung von großen Datenmengen

Die verteilte Parallelverarbeitung verdient hier besondere Aufmerksamkeit. Sie verteilen die Ein-/Ausgabe (I/O), indem Sie Datenuntermengen auf den lokalen Speicher der Knoten eines Server-Clusters verschieben und die Rechenoperationen auf die Serverknoten verlagern, auf denen sich die Daten befinden. Alles passiert parallel, nichts wird gemeinsam genutzt; die Skalierbarkeit ist unbegrenzt. Dieses Konzept wird häufig verwendet, um Daten in eine Form umzuwandeln, die sich für Ad-hoc-Abfragen besser eignet.

Ad-hoc- und Echtzeit-Analysen lassen sich realisieren, indem die Essenz der umgewandelten Daten auf einer reaktionsschnellen In-Memory-Plattform konsolidiert werden. Mit einer In-Memory-Datenbank kann die Ein-/Ausgabe komplett eliminiert werden. Eine relationale In-Memory-Datenbank ist die Lösung erster Wahl, wenn mehrere unabhängige Anwendungen aus verschiedenen Gesichtspunkten auf die Daten zugreifen.

Alternativ kann ein In-Memory Data Grid auf die umgewandelten Daten einer Festplatte angewendet werden, selbst wenn deren Größe den insgesamt verfügbaren Arbeitsspeicher übersteigt, wodurch die Ein-/Ausgabe immens reduziert wird. Zudem kann ein In-Memory Data Grid jedes Datenobjekt verarbeiten, was üblicherweise wesentlich besser zur Anwendungssemantik passt als eine relationale Tabelle. Beide Konzepte, In-Memory-Datenbank und In-Memory Data Grid lassen sich horizontal und vertikal skalieren. Ein Complex Event Processing-Modul erlaubt die Echtzeit-Verarbeitung kontinuierlich generierter Datenströme, z. B. von Sensoren.

Bei Big Data geht es jedoch nicht nur um die Infrastruktur, es geht auch um Daten und Prozesse. Dies beinhaltet eine Reihe von Fragen, die es zu beantworten gilt:

  • Welche Datenquellen?
  • Welche Daten?
  • Worauf ist zu achten?
  • Welche Fragen sind zu stellen?
  • Was hat mit den Antworten zu geschehen?
  • Welche Hilfsmittel?
  • Wie sind diese zu verwenden?

Big Data-Lösungen von Fujitsu

Fujitsu ist der ideale Begleiter für Ihren Weg zu Big Data, sei es in Bezug auf Daten, Prozesse oder die Infrastruktur. Wir unterstützen alle relevanten Infrastrukturkonzepte und entwickeln die optimale Lösung entsprechend Ihrer Situation und Ihren geschäftlichen Erfordernissen. Weiterhin kümmern wir uns um die Implementierung und Integration. Falls Sie Support für die Gesamtlösung oder eine Betreuung Ihrer Big-Data-Infrastruktur benötigen, sind Sie auch bei uns richtig. Sie können bestimmte Big Data-Services sogar über die Fujitsu Cloud beziehen.

Unsere Big-Data-Infrastrukturlösungen basieren auf Servern und Storage-Systemen von Fujitsu. Software und Middleware sind entweder Open Source, beispielsweise Hadoop, von Fujitsu selbst oder von führenden Independent Software Vendors (ISV).

Für In-Memory Computing bieten wir die Power Appliances für SAPs In-Memory-Datenbank HANA und gebündelte In-Memory Data Grid-Lösungen an. Dies umfasst PRIMERGY Server, Terracotta BigMemory von der Software AG und Optimierungsservices für ein Höchstmaß an Anwendungsgeschwindigkeit. Beide Lösungen ermöglichen einen „sanften“ Einstieg in Echtzeit-Big-Data sowie eine schnelle Wertschöpfung.

Auf der CeBIT erleben Sie folgende Big-Data-Lösungen von Fujitsu:

  • Fujitsu Appliances for SAP HANA
  • Fujitsu Cloud for SAP HANA
  • Fujitsu Server Terracotta BigMemory
  • Hadoop-Cluster mit praktischen Beispielen für Einsatzszenarien
  • Server und Storage-Systeme für Big-Data-Lösungen

Dies alles sehen Sie im Ausstellungsbereich D von Fujitsu in Halle 7/A28. Unsere Angebote und Services für SAP HANA finden Sie auch am SAP-Stand in Halle 4. Den Fujitsu Server Terracotta BigMemory finden Sie am Stand der Software AG in Halle 4.

Darüber hinaus werden die folgenden Expert Talks angeboten:

  • Big Data – Auf die richtige Infrastruktur kommt es an
  • In-Memory-Leistung für Ihre Anwendungen mit Fujitsu Server Terracotta BigMemory
  • Hinzu kommen: mit SAP-HANA in Verbindung stehende Expert Talks

Reshaping ICT, Reshaping Business and Society! In unserem CeBIT-Blog berichten wir im Vorfeld und LIVE aus Hannover über innovative Fujitsu-Aktivitäten. Entdecken Sie mit uns Highlights rund um Big Data, Cloud, Social Business und Mobile.

CeBIT 2014