Adaptive Computing führt Big Workflow ein, um schneller Einblicke zu erhalten, die datengestützte Entscheidungen inspirieren und dem Unternehmen so einen klaren Wettbewerbsvorteil geben

26/02/2014 - 07:00 von Business Wire

Adaptive Computing führt Big Workflow ein, um schneller Einblicke zu erhalten, die datengestützte Entscheidungen inspirieren und dem Unternehmen so einen klaren Wettbewerbsvorteil gebenBig Workflow vereinheitlicht Ressourcen von Datenzentren, optimiert das Analyseverfahren und gewährleistet Services DigitalGlobe verarbeitet georäumliches Big Data innerhalb von 90 Minuten mit Big Workflow, um Notrufstellen bei Naturkatastrophen zu unterstützen 91 Prozent der Unternehmen sind der Meinung, dass eine Kombination aus Big Data, HPC oder Cloud eine bessere Big-Data-Lösung ergeben müsste.

Adaptive Computing, das Unternehmen, das mit seiner Optimierungs- und Planungssoftware Moab viele der größten privaten/hybriden Cloud- und technischen Computerumgebungen unterstützt, veröffentlicht heute Big Workflow – ein von Adaptive Computing geprägter Branchenbegriff, bei dem es um die Beschleunigung von Einblicken durch effizientere Verarbeitung arbeitsspeicherintensiver Simulationen und Big-Data-Analysen geht.

Die Moab HPC Suite und die Moab Cloud Suite von Adaptive Computing sind integraler Bestandteil der Lösung Big Workflow, die sämtliche Ressourcen von Datenzentren vereinheitlicht, das Analyseverfahren optimiert und Services gewährleistet und so die für Entdeckungen benötigte Zeit verkürzt. Die Lösung Big Workflow von Adaptive Computing trägt ihren Namen aufgrund der Fähigkeit, Aufgaben bei Big Data durch Rationalisierung des Workflow zu lösen, um so wertvolle Einblicke aus enormen Datenmengen von einer Vielzahl von Plattformen, Umgebungen und Orten zu liefern.

Während aktuelle Lösungen Big-Data-Herausforderungen entweder nur mit der Cloud oder mit HPC angehen, nutzt Adaptive sämtliche verfügbaren Ressourcen – inklusive Bare-Metal und virtueller Geräte, technischer Computing-Umgebungen (z. B. HPC, Hadoop), Cloud (öffentlich, privat und hybrid) und sogar neutraler Plattformen, die mehrere Umgebungen, wie etwa OpenStack, abdecken – als einzelnes System, das sich der Arbeitslast anpasst.

Traditionelle IT arbeitet im stabilen Zustand mit maximaler Betriebszeit und ständigem Gleichgewicht. Big Data stört dieses Gleichgewicht und erzeugt eine Blockade bei der Datenerhebung. Big Workflow optimiert dieses Analyseverfahren und liefert so einen organisierten Workflow, mit dem Datendurchlauf und Produktivität stark verbessert werden, und reduziert Kosten, Komplexität und Fehlerquote. Sogar bei den Herausforderungen von Big Data kann das Datenzentrum immer noch Services garantieren, die SLAs gewährleisten, Betriebszeiten maximieren und beweisen, dass das Erbringen von Services und die Verteilung von Ressourcen richtig vonstatten gegangen sind.

„Die Explosion im Bereich Big Data bringt in Verbindung mit den Kollisionen von HPC und Cloud die Entwicklung der Big-Data-Analyse voran“, sagte Rob Clyde, CEO von Adaptive Computing. „Ein Big-Workflow-Ansatz zu Big Data liefert Business Intelligence nicht nur schneller, akkurater und kosteneffizienter, sondern er bietet auch einen klaren Wettbewerbsvorteil. Wir sind zuversichtlich, dass Big Workflow es Unternehmen aus sämtlichen Branchen ermöglichen wird, Big Data zu nutzen, womit bahnbrechende, datengestützte Entscheidungen inspiriert werden.“

DigitalGlobe (NYSE: DGI), ein führender internationaler Anbieter von hochauflösenden Erdbeobachtungslösungen, nutzt Moab, um Ressourcen dynamisch zu verteilen, den Datendurchsatz zu maximieren und die Systemeffizienz zu überwachen, um seine archivierten Erdbeobachtungen zu analysieren, die über 4,5 Milliarden Quadratkilometer an Luftbildern umfassen. Jedes Jahr nimmt DigitalGlobe weitere zwei Petabyte unbearbeiteten Bildmaterials in seine Archive auf und verwandelt diese in acht Petabyte an neuen Produkten.

Mit Moab im Kern seines Datenzentrums konnte DigitalGlobe auf globaler Ebene mit den Zeitplänen arbeiten, die die Kunden brauchen, was durch die Aufteilung isolierter Ressourcenspeicher und die Steigerung der maximalen Workflowkapazität erreicht wurde, sodass Entscheidungsträger ein besseres Verständnis des Planeten gewinnen konnten, um Leben zu retten und Ressourcen und Zeit zu sparen.

„Moab macht uns im Katastrophenfall reaktionsfähig“, sagte Jason Bucholtz, leitender Architekt bei DigitalGlobe. „Mit Big Workflow konnten wir schneller Einblicke über unseren im Wandel befindlichen Planeten gewinnen – und das, ohne unserer bestehenden Infrastruktur neue Ressourcen hinzuzufügen.“

Adaptive Computing hat außerdem Moab 7.5 veröffentlicht, das neue Funktionen mitbringt, mit denen die Software stabiler wird, um mit sperrigem Big Data fertig zu werden und den Big Workflow durch die Vereinheitlichung von Datenzentrenressourcen, Optimierung des Datenanalyseverfahrens und Gewährleistung von Services zu verbessern. Die neuen Cloud- und HPC-Funktionen sind:

Vereinheitlichung

  • Funktionsbasierte Zugriffskontrolle – Portalbasierte Mandantenfähigkeit für sicheres Weitergeben von Ressourcen an unterschiedliche Nutzer, Abteilungen und Kunden.
  • Cray Integration – Moab lässt sich jetzt in Cray ALPS BASIL 1.3 integrieren.

Optimierung

  • Hardened Power Management – Verbesserte Richtlinien zum Power Management für wirkliches Herunterfahren zum Einsparen von Ressourcen. Außerdem entsprechen die Power Scripts jetzt den IPMI-Umweltnormen für Computer („integrated power management interface“, integriertes Power-Management-Interface).
  • Message-Bus-Kommunikation – Verbesserte Geschwindigkeit bei der Planung von Aufgaben durch Zuteilung von Kommunikation an den Message-Bus, damit Moab sich weiterhin statt auf die Kommunikation auf die Planung konzentrieren kann.

Garantie

  • Verbesserungen bei Moab Accounting Manager (MAM) – Mehrere neue Verbesserungen, darunter Nichtblockieren von Kontenaufrufen, High-Availability-Verbindung, Synchronisierung zwischen Moab und MAM-Konten und -Nutzern, diskrete Zuteilung, vereinfachte Spezifizierung von Rechnungssätzen und zusätzliche Tracking-Metriken.
  • Moab Viewpoint™ Upgrade – Zusätzlich zu verbesserten Dashboard-Benachrichtigungen und -geräten zeigt Moab Viewpoint jetzt den Lebenszyklusstatus an, damit man den Status einer Aufgabe schnell diagnostizieren kann.
  • Individuelle Kapazitäten zur Erweiterung von Berichten – Erweiterte Bericht-API mit Rechnungssdaten zum Erstellen von Abrechnungsberichten.
  • Service-Phasen-Übergang – Reduzierte Diagnosezeit für Fehlertransparenz im gesamten Lebenszyklus des Service.
  • Standardisierte Aufzeichnung – Moab-Logs sind jetzt SPLUNK-fähig in sämtlichen Komponenten von Moab und seinen Webservices.

Nach einer interaktiven Umfrage bei über 400 Leitern, Administratoren und Nutzern von Datenzentren, die Adaptive Computing kürzlich auf den Konferenzen Supercomputing, HP Discover und Gartner Data Center durchgeführt hat, sind 91 Prozent der Befragten der Ansicht, dass eine Kombination aus Big Data, HPC und Cloud eine bessere Lösung für Big Data ergeben müsste. Dieses Ergebnis unterstreicht die immer heftiger werdende Kollision zwischen Big Data, HPC und Cloud und wird gestützt durch die weltweite Studie der International Data Corporation (IDC) über HPC-Endverbraucher-Standorte.

Von den in der IDC-Studie von 2013 befragten HPC-Standorten äußerten 67 Prozent, dass sie Big-Data-Analysen auf ihren HPC-Systemen durchführen, wobei im Schnitt 30 Prozent der verfügbaren Rechenzyklen für die Analyse von Big Data genutzt werden. Außerdem stieg der Anteil der Standorte, an denen Cloud Computing genutzt wird, um Teile der HPC-Arbeitslast zu übernehmen, von 13,8 Prozent im Jahr 2011 auf 23,5 Prozent im Jahr 2013 an, wobei die Nutzung der öffentlichen und der privaten Cloud jeweils zu gleichen Anteilen vertreten sind.

„Unsere Studie von 2013 hat gezeigt, dass überraschenderweise zwei Drittel der HPC-Standorte jetzt im Rahmen ihrer HPC-Arbeitslast Big-Data-Analysen durchführen; außerdem gibt es einen Aufwärtstrend bei der kombinierten Nutzung von Cloud Computing und Supercomputing“, sagte Chirag Dekate, Ph.D., Forschungsleiter High-Performance Systems bei IDC. „Da bei den zu analysierenden Big-Data-Mengen keinerlei Mangel herrscht und sich hier auch kein Rückgang abzeichnet, wird die kombinierte Nutzung von Cloud und HPC mit höherer Frequenz erfolgen, wodurch Marktchancen für Lösungen wie Big Workflow von Adaptive entstehen.“

Mehr über Big Workflow und alle Funktionen von Moab 7.5 erfahren Sie hier: www.adaptivecomputing.com/bigworkflow.

Über Adaptive Computing

Adaptive Computing unterstützt viele der größten privaten/hybriden Cloud- und technischen Computerumgebungen der Welt mit seiner preisgekrönten Software für Moab-Optimierung und -planung. Mit Moab können große Unternehmen in den Bereichen Öl und Gas, Finanzdienstleistungen, Fertigung, Forschung und Behörden Simulationen durchführen und Big Data schneller, akkurater und besonders kosteneffizient analysieren. Moab gibt Unternehmen einen Wettbewerbsvorteil, was sie zur Entwicklung von Krebstherapien, zu Erkenntnissen über die Ursprünge des Universums, zur Senkung von Energiepreisen, zur Herstellung besserer Produkte, zur Verbesserung der Wirtschaftslandschaft und zum Verfolgen bahnbrechender Aktivitäten inspiriert. Adaptive ist Pionier in den Bereichen private/hybride Cloud, technisches Computing und Planung im großen Maßstab und hält über 30 Patente. Zu den Vorzeigeprodukten von Adaptive gehören:

Moab Cloud Suite für selbstoptimierendes Cloud-Management

Moab HPC Suite für selbstoptimierendes HPC-Arbeitslast-Management

Weitere Informationen erhalten Sie unter +1 (801) 717-3700 oder auf www.adaptivecomputing.com.

HINWEIS FÜR REDAKTEURE: Falls Sie weitere Informationen über das Unternehmen Adaptive Computing und seine Produkte erhalten wollen, besuchen Sie bitte den Adaptive Computing Newsroom unter http://www.adaptivecomputing.com/category/news/. Sämtliche angegebenen Preise sind in US-Dollar und gelten nur in den USA.

Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.

Contacts :

Adaptive Computing
Jill King, +1 801-717-3720
jking@adaptivecomputing.com
oder
Method Communications
Joshua Heath, +1 801-461-9794
joshua@methodcommunications.com


Source(s) : Adaptive Computing

Schreiben Sie einen Kommentar