Anzeige

Datacore: »SANsymphony-V 9.0.3« mit mehr Management

George Teixeira, President und CEO, Datacore Software
George Teixeira, President und CEO, Datacore Software
DataCore Software, vor allem bekannt für ihren Storage-Hypervisor »SANsymphony-V R9«, bringt ihr Kernprodukt nun in der Version 9.0.3 auf den Markt. Viele der neuen Leistungsmerkmale und Funktionen gehen laut Datacore auf direktes Kunden-Feedback und praxiserprobter Erfahrung in unterschiedlichsten Anwendungsszenarien zurück. Adressiert werden insbesondere Speichermanagementanforderungen in mittleren und großen Unternehmen: explosives Datenwachstum und der Einsatz von Multi-PByte-Storage-Volumina sowie die massive Zunahme von virtuellen Maschinen (VM), deren Bereitstellung, Partitionierung und Sicherung sowohl Personal als auch Budget strapazieren.

Herausforderungen sind laut George Teixeira, Präsident und CEO des Storage-Softwarehauses, die Integration von Flash-Technologien und SSDs zur Beschleunigung Latenz-sensitiver Workloads angesichts begrenzter Budgets und das effiziente Management unterschiedlicher Storage-Ressourcen: »Anwender wollen mehr Flexibilität von ihrer Storage-Software, außerdem soll sie über eine längere Zeit verwendbar sein.«

Sansymphony-V enthält jetzt Gruppenbefehle für das Speicher-Management

Teixeira sieht die Sansymphony-V-Plattform ohnehin schon länger als Software-Defined-Storage-Plattform an. Auch wenn EMC derzeit viel Wind um ihre ViPR-Lösung mache, die noch nicht mal lieferbar ist. »Das zeigt mir, dass sogar traditionelle Hardware-Hersteller zu kämpfen haben, weil Software-Defined Storage bei Automation, der Integration von Flash und der Austauschbarkeit der Hardware Standards gesetzt hat«, süffisiert Teixeira gegenüber speicherguide.de.

Einige der Funktionserweiterungen der neuen Version 9.0.3 untermauerten dies größtenteils:
? Assistenten zur Bereitstellung virtueller Laufwerke aus Vorlagen.
? Gruppenbefehle für das Speicher-Management für Hosts mit mehreren Applikationen.
? Storage-Profile für eine bessere Kontrolle und optimiertes Auto-Tiering über mehrere Speicherklassen mit Flash, SSD und HDD.
? Datenbank-Option, um Performance-Entwicklungen über die Zeit zu erfassen und zu analysieren.
? Optimierte Konfigurationsmöglichkeiten für die Einbindung von Server-seitiger Flash-Technologien sowie kosteneffektiven NAS-Ressourcen für das File-Serving.
? Bevorzugte Snapshot-Pools, um diese besser von der Produktivumgebung zu trennen.
? Optimierte Remote-Replikation und Konnektivität für schnellere und effizientere Performance.
? 16-Gbit/-Fibre-Channel-Support.

»Heat Maps« helfen, das Auto-Tiering anzupassen

Werkzeuge wie »Heat Maps« sollen nun dabei helfen, das Auto-Tiering anzupassen und für priorisierte Workloads weiter zu verfeinern, um einen effizienten Einsatz sicher zu stellen. Über Storage-Profile können Standard-Richtlinien (kritisch, hoch, mittel, niedrig oder Archiv) definiert und für diverse virtuelle Platten angewendet werden. Dadurch werde vermieden, dass wertvolle Ressourcen etwa von Backup-Snapshots belegt werden, während SQL, Oracle, SAP, Microsoft Exchange, Sharepoint und andere geschäftskritische Anwendungen diese Ressourcen benötigen.

Darüber hinaus wurde die asynchrone Remote-Replikation optimiert und beschleunigt, um strengere Revovery-Time-Objektives (RTO) und Recovery-Point-Objektives (RPO) einhalten zu können. Damit sollen nun auch Wide-Area-Networks mit geringeren Geschwindigkeiten für das Desaster-Recovery genutzt werden können. »Diese Kombination aus beschleunigter Replikation sowie Verschlüsselung und Kompression ergibt jetzt wirklich eine sehr schnelle Lösung«, freut sich Teixeira. Und für Geheimdienste seien die Daten damit auch unlesbar.

.
Anzeige