Freitag, 1. Dezember 2017

DataCore gewinnt den SVC Award für das "Storage-Projekt des Jahres"

Übergreifende Software-defined Storage-Plattform für sieben Rechenzentren

Erneut konnte DataCore einer Fachjury unter Beweis stellen, dass seine SANsymphony™-Software-Defined Storage-Plattform Kunden einen entscheidenden Mehrwert bei der Ausrichtung und Verwaltung ihrer IT-Infrastruktur bietet: Bei den diesjährigen SVC Awards 2017 in London wurde DataCore für das Storage-Projekt des Jahres ausgezeichnet. Grundlage der Bewertung war die erfolgreiche Durchführung eines 5-Jahres-Projekts bei Grundon Recycling, dem größten Entsorgungs- und Recycling-Unternehmen im Vereinigten Königreich.


Die SVC (Storage Virtualisation Cloud)-Awards werden jährlich von den Lesern der renommierten europäischen Fachpublikation Datacentre Solutions DCS Europe, Storage Networking Solutions SNS und Digitilisation World gewählt. Ausgezeichnet werden Produkte, Projekte und Dienstleistungen im Bereich Storage, Cloud und Digitalisierung. Die redaktionelle Jury, die eine Vorauswahl trifft, nannte drei Hauptgründe für die Entscheidung ihrer Leser:

- 20% Umsatzsteigerung durch die Konsolidierung von sieben Rechenzentren und mehreren regionalen Niederlassungen mittels der Software-defined Storage-Plattform 

- Implementierung eines nachhaltigen und ganzheitlichen Ansatzes für das HW-Management 

- Garantierte Geschäftskontinuität mit Rund-um-die-Uhr-Verfügbarkeit in der landesweit aufgestellten IT-Infrastruktur eines Großunternehmens 



Brett Denly, Neil Crispin und Lee Widdowson (alle DataCore) nehmen den SVC Award bei der Preisverleihung in London entgegen

Brett Denly, Regional Director von DataCore Software UK & Eire: “Der Award für eine langfristige Installation von SANsymphony, bei der das Hauptaugenmerk auf der Nutzung vorhandener Infrastruktur und Kosteneinsparungen liegt, ist eine großartige Bestätigung für DataCore. Wir freuen uns sehr über diese Auszeichnung.“

Grundon Recycling, ein 1929 gegründetes Großunternehmen, ist das größte in Privatbesitz befindliche Entsorgungsunternehmen in Großbritannien und bietet einen umfassenden Service für Abfallverwaltung und -entsorgung einschließlich Gefahrgut und Zuschlagstoffe. 

Zum kompletten Anwenderbericht: https://www.datacore.com/customers/grundon




Mittwoch, 8. November 2017

DataCore Anwenderkonferenz am 16.11. in München!

Diese DataCore-Veranstaltung am 16. November in München bietet Anwendern ein kostenloses Insider-Update.

Ein Expertenteam steht einen Tag lang Rede und Antwort um mit aktuelle Trends im Markt oder auch derzeitigen Herausforderungen in aktuellen Projekten zu diskutieren. Ziel ist es, Kunden dabei zu unterstützen, ihre bestehende IT-Infrastruktur noch leistungsfähiger zu gestalten und entscheidend zu verbessern.

Im Mittelpunkt steht dabei das neue PSP7 mit Neuerungen für DataCores Hyper-converged und SDS-Lösungen, sowie interessante Anwendungsszenarien für das neue Produkt MaxParallel™ für SQL Server, eine Lösung für hochperformantes paralleles Data-Processing im SQL Server Umfeld.

Die Agenda mit weiteren spannenden Details und die Anmeldemöglichkeit finden Interessenten hier.

Zeit
09:30 - 15:00 Uhr
(Die Registrierung ist ab 09:00 Uhr möglich)

Ort
Sofitel Munich Bayerpost
Bayerstrasse 12
80335 München

Donnerstag, 5. Oktober 2017

Webinar: Performance-Tuning für SQL-Serverdatenbanken


Webinar am 06.10., 10 Uhr:

Reaktionsschnell & produktiv mit parallelem Daten-Processing
Performance-Tuning für SQL-Serverdatenbanken
Langsame Datenbanken trotz reichlich Ressourcen? Admins stehen hier immer wieder vor einem Rätsel. Denn die Reaktionsfreudigkeit von SQL-Servern entscheidet maßgeblich darüber, ob Unternehmen an der Spitze mitmischen oder eine Bruchlandung hinlegen.

Nicht nur an der Supermarkt-Kasse führen Einzelwarteschlangen zu Verzögerungen und Ärger. Stehen Ihre Datenzugriffe oder Aktualisierungen in der Schlange, kann dies im schlimmsten Fall komplettes Versagen bedeuten: Lagerbestände werden fehlerhaft verwaltet, Betrugsversuche oder Störungen werden nicht erkannt und verärgerte Kunden sind vorprogrammiert.


Im diesem Webinar zeigt Alexander Best an einer konkreten Fallstudie, wie Sie Flaschenhälse bei der Verarbeitung von Transaktionen beseitigen, ihren teuer bezahlten Prozessoren Arbeit beschaffen und damit endlich den SQL-Turbo anwerfen.

Folgende Fragestellungen stehen auf der Agenda:
- Wie erreichen Sie eine höhere Benutzerdichte ohne Anpassung der Applikation?
- Wie erzielen Sie deutlich mehr Transaktionen bei gleicher Hardware?
- Wie bekommen Sie performantere Antwortzeiten bei gleicher Infrastruktur?
- Wie genau trägt die Lösung von DataCore zu einer bis zu 30% produktiveren Hochgeschwindigkeits-OLTP und Echtzeitanalyse bei?

DataCore informiert in Zusammenarbeit mit Vogel IT Medien/www.bigdata-insider.de im Webinar am 06.10., 10 Uhr aus erster Hand. Hier geht's zur Anmeldung.

Mittwoch, 4. Oktober 2017

Datacore: »MaxParallel« revolutioniert den Server-Markt

Inhalt dieses Artikels
• Datacore: »MaxParallel« revolutioniert den Server-Markt
• Max-Parallel-Einstieg mit SQL Server
• Funktionsweise von Max Parallel
• Sofort sichtbarer Leistungsgewinn
• KMUs sind die Max-Parallel-Zielgruppe

02.10.2017 (Ariane Rüdiger für speicherguide.de)

Storage-Experten kennen Datacore als Pionier der Speichervirtualisierung. Nun steigt das Software-Unternehmen mit einem völlig neuen Produkt in den Server-Markt ein und reklamiert für sich, diesen mit »MaxParallel« umwälzen zu wollen. Im Hintergrund steht aber auch hier das Thema Speicherzugriff.

Datacores Virtualisierungs-Software SAN Symphony mit ihren Hochverfügbarkeits-Fähigkeiten ist vor allem im sicherheitsbewussten deutschsprachigen Raum, aber auch in Italien und Frankreich ein Begriff. »In den USA und Asien, wo man diesbezüglich etwas anders denkt, konnten wir und damit nicht so gut etablieren«, sagt Stefan von Dreusche, der mit seiner Sales-Region EMEA/Central Europe für rund die Hälfte der Datacore-Umsätze gut ist. Sie bewegen sich schätzungsweise im mittleren zweistelligen Millionenbereich.
Nun bringt Datacore mit MaxParallel eine Lösung, die den Hersteller in neue Umsatz- und Marktdimensionen katapultieren könnte. Denn das Unternehmen steigt damit in den Servermarkt ein, genauer gesagt, in die Beschleunigung bislang nur rudimentär ausgelasteter Multicore-Systeme. »Virtualisierung hat ihre Versprechen hinsichtlich der besseren Systemauslastung nicht gehalten«, sagt von Dreusche. »VMware arbeitet mit einem ziemlich alten Software-Core und hat am entscheidenden Thema Ein-/Ausgabeoptimierung nichts getan.«


Datacore, zu dessen Mitbegründern der Parallelisierungs-Papst Ziya Aral gehörte, der kürzlich verstarb, hat bei der die Auslastung erhöhenden Parallelverarbeitung seine eigentlichen Wurzeln. NUMA (Non-Uniform Memory Access) hieß Arals Spezialität, über die er auch einschlägige Bücher schrieb, beschreibt, wie mehrere Verarbeitungseinheiten parallel auf denselben Arbeitsspeicher zugreifen können. Dieser Code steckt in der Datacore-Codebasis, konnte aber dank fehlender Multiprozessoren bisher nicht sinnvoll eingesetzt werden. Nun, mit dem Aufkommen von Architekturen, in denen Prozessoren mit acht, sechzehn oder mehr Cores rechnen, lohnt sich der Aufwand für die Parallelisierung. Das bewies Datacore schon im vergangenen Jahr, als man auf Anfrage Lenovos einschlägige Benchmarks mit Parallelisierungsroutine laufen ließ und gleich um Längen als Marktbester abschloss. So entstand die Idee zu einem Softwareprodukt, das Datenbanken und anderen Applikationen Beine macht. »Wir haben ein völlig neues Produkt entwickelt, ohne Geld aufzunehmen oder ein Spinoff zu starten«, freut sich von Dreusche.





Freitag, 29. September 2017

ZDNet: DataCore macht MS-SQL-Datenbanken Beine – ohne neue Server

von Ariane Rüdiger über ZDN.de

Wer lahme MS-SQL-Datenbanken beschleunigen will, muss oft genug die aktuelle Hardware gegen leistungsstärkere austauschen. Das neue DataCore-Produkt MaxParallel kann diesen teuren Schritt hinauszögern, indem es durch parallele Verarbeitung endlich bestehende Systeme voll auslastet.

[...]
Servervirtualisierung startete mit dem Versprechen, die notorisch zu geringe Serverauslastung endlich signifikant anzuheben. Das hat nicht wirklich funktioniert – die Auslastungsraten von Systemen liegen immer noch weit unter dem Möglichen, nämlich 90 bis 100 Prozent. Eine wichtige Ursache dafür ist, dass der Zugriff auf den Arbeitsspeicher noch immer ein Engpass ist: Bei Multicore-Prozessoren müssen Threads häufig warten, weil die Ein-/Ausgabe gerade durch einen anderen Core belegt ist. Die Folge: Rechenkapazitäten liegen brach.

Nun bringt der Virtualisierungsspezialist DataCore eine Software, um diesen Engpass endlich zu entschärfen und damit Auslastung und Leistung signifikant anzuheben. [...]


Geplant ist vorerst, Datenbank-Beschleunigungslösungen für alle wichtigen Datenbanken anzubieten. Den Anfang macht Max Parallel for MS-SQL wegen der engen Verbindungen zwischen Microsoft und DataCore. Folgen sollen schon bald weitere Versionen, etwa für Postgre, Oracle oder MySQL. [...]

Wie viel schneller eine Datenbank arbeitet, hängt damit zusammen, wie viele Systemressourcen vorhanden sind. Denn die Software greift für die Beschleunigung auf alle freigegebenen und gerade nicht ausgelasteten Processing- und Arbeitsspeicher-Ressourcen zu, was die Auslastung tatsächlich in 90-Prozent-Regionen hebt. Sie verlangt aber nicht, dass für sie selbst bestimmte Ressourcen, etwa Speicherbereiche, reserviert werden. Die Folge: Je mehr Arbeitsspeicher und Kerne, desto höher fällt der Leistungssprung wegen Überwindung des Ein-/Ausgabebottlenecks aus. DataCore spricht von Zugewinnen zwischen 30 und mehreren hundert Prozent und belegte das überzeugend durch eine Produktdemonstration vor Journalisten. [...]

Revolution des Servermarktes?
DataCore verbindet mit der Lösung große Hoffnungen. [...] Und IDC schrieb in einer Produktbewertung: „IDC glaubt, dass DataCore MaxParallel eine große Zukunft hat.“


Zum kompletten Artikel:

Donnerstag, 28. September 2017

MaxParallel™ für Microsoft® SQL Server optimiert Response-Zeiten, Transaktionsraten und Echtzeit-Analysen

Neue Produktlinie von DataCore Software beschleunigt Datenbanken

DataCore Software stellt eine neue Produktlinie zur Optimierung von Datenbanken vor: Das erste Produkt dieser Linie ist MaxParallel™ für Microsoft® SQL Server. Die Software erhöht die Transaktionsraten von Multi-Core-Servern drastisch und verkürzt damit Antwortzeiten von SQL-Datenbanken, was zum Beispiel die Erstellung von Reports und Echtzeit-Analysen um ein Vielfaches beschleunigt. MaxParallel für SQL Server ist ab sofort weltweit über autorisierte DataCore-Vertriebspartner sowie über den Azure Marketplace verfügbar. Die Plug-and-Play-Software unterstützt als intuitiv zu handhabendes Produkt on-premise und in der Cloud SQL Server 2016, 2014, 2012 und 2008.

Anwendungen wie E-Commerce, ERP, hoch frequentierte Handelsplattformen, Inventory-Optimierung und Fehler-/Gefahr-Erkennung ebenso wie IoT-Workloads profitieren von MaxParallel. Diese Datenbank-intensiven Applikationen werden in ihrem Verhalten häufig träge, wenn sie von Live-Nutzern und Echtzeit-Prozessen mit simultanen Anfragen bombardiert werden. MaxParallel für SQL Server beseitigt die Konkurrenz um Ressourcen in Multi-Core Servern, macht Online-Transaktionsprozesse (OLTP) und Online-Analyseprozesse (OLAP) bedeutend produktiver und liefert auch in Belastungsspitzen schnelle Antwortzeiten. Dabei wird keinerlei Zusatzhardware benötigt, Veränderungen an der Programmierung sind nicht notwendig.

„MaxParallel ist ein Game Changer“, sagt George Teixeira, CEO und President bei DataCore Software. „Zeit ist Geld, und parallele Transaktionen reduzieren nicht nur Kosten, sondern bieten einen unschätzbaren Mehrwert durch drastisch verkürzte Transaktionsraten, Reporterstellungen und Echtzeitanalysen, um Unternehmen schnellere Reaktionen und damit einen Wettbewerbsvorteil zu ermöglichen.“

Ergebnisse von Feldtests
In ersten Erfahrungsberichten sprechen Anwender von mindestens 20 und bis zu 300 Prozent schnelleren Antwortzeiten, 20 bis 60 Prozent höherer Transaktionsrate sowie 50 bis 200 Prozent schnellerer Erstellung von Reports.

Das deutsche Unternehmen Tyre World, ein Online-Anbieter für Fahrzeugreifen, testete die Software seit Juni 2017. „Echtzeit-Berichte über den Lagerbestand, Vorratsaufstellungen und Preisveränderungen beanspruchen mit MaxParallel für SQL Server lediglich einen Bruchteil der bisherigen Zeiten und ermöglichen uns, wettbewerbsgerechte Angebote zu offerieren“, sagt Manuel Hanke, IT-Manager bei der Tyreworld GmbH. „Die Plug-and-Play-Software macht unsere Datenbank unfassbar schnell. Sie hat das Potenzial, unsere Geschäfte über Nacht zu verändern.“

Auch Microsoft SQL Server-Vertriebspartner hatten die Gelegenheit, MaxParallel vorab zu testen. Joachim Dreher, CTO der Desk Software und Consulting GmbH und Platinum-Partner von Sage, berichtet: „Wir haben MaxParallel für SQL Server 2016 getestet und nicht viel erwartet, da sie bereits die am besten optimierte Datenbank überhaupt ist. Dann waren wir überrascht, dass die DataCore-Software die Produktivität um über 30 Prozent steigerte.“

Eigenentwicklung aus DataCores fortschrittlichen Storage-Services
Das Herzstück von MaxParallel stammt aus DataCores Speichertechnologie. Roni Putra, CTO von DataCore, erklärt: „Die MaxParallel-Software entstand auf der Grundlage unserer R&D-Aktivitäten für Applikationen mit sehr hohen Datenraten. Wir gingen das Problem zunächst speicherseitig an, entdeckten aber, dass die Hindernisse vielmehr auf der Host-Seite existieren. Schnell wurde uns klar, dass unsere Parallel-I/O-Technologie die Probleme der seriellen Datenbankzugriffe lösen kann.“

MaxParallel baut nicht auf den existierenden Storage-Produkten von DataCore auf. Es ist ein vollkommen unabhängiges Produkt. Jedoch bieten SANsymphony™ und DataCore™ Hyper-Converged Virtual SAN zentrale Storage-Dienste, die die Performance von Datenbanken und anderer Workloads zusätzlich verbessern.


Preis und Verfügbarkeit
Der Preis für Standard- und Enterprise-Editionen von MaxParallel für SQL Server liegt bei 15 Prozent der Kosten, die für entsprechende Microsoft SQL-Lizenzen anfallen. Die Software kann (auf Stundenbasis) gemietet oder gemäß der Anzahl an Cores auf dem SQL Server-Host gekauft werden. Die Raten für die stundengenaue Abrechnung können im Azure Marketplace eingesehen werden. Dort stehen auch eine 30 Tage-Testversion und interaktive Testlaufwerke bereit.
 er. 

Montag, 31. Juli 2017

Im August und September: DataCore Partner-Roadshow in acht deutschen Städten

Experten-Updates zu Software-defined Storage und Hyper-konvergenten Infrastrukturen

Von Ende August bis Ende September lädt DataCore Fachhändler, VARs und Integratoren zu seiner Partner-Roadshow 2017 ein. Die kostenlose Informationsveranstaltung führt in diesem Jahr bundesweit durch acht Städte und wendet sich an bestehende wie potenzielle Vertriebspartner. Auf der Agenda stehen Updates zu Hyper-konvergenten Infrastrukturen (HCI), Software-defined Storage (SDS) und der Parallel-I/O-Technologie aus vertrieblicher und technischer Sicht. Highlight ist der Ausblick auf ein vollkommen neues Produkt, das DataCore-Partnern neue Märkte eröffnet.

„Ziel unserer Channel-Philosophie ist, aktiv auf unsere Partner zuzugehen, verfügbar zu sein und ihnen bestmöglichen Hersteller-Support bei ihren Projekten zu bieten. Deshalb veranstalten wir diese Roadshow durch alle Regionen Deutschlands zusätzlich zu unserer zentralen, großen Partnerkonferenz. Die wachsende Beliebtheit der Roadshow zeigt uns, dass dieses Konzept aufgeht, und wir unseren Partnern vertrieblich wie technologisch wertvolle Unterstützung bieten können“, sagt Robert Thurnhofer, Senior Marketing Manager Central Europe.

Auf der Agenda stehen damit neben technischen Updates und produktspezifischen Ausblicken rund um SDS, HCI und Parallel-IO für DataCore Certified Solution Architects (DCSA) ebenso vertriebliche Sessions zum Partnerprogramm, Lizenzierung, Lead Management und Marketing-Programmen, die sich eher an DataCore Certified Professionals (DCSP) wenden. Die kostenlose Veranstaltung richtet sich ebenso an Fachhändler, VARs und Integratoren, die an einer Zusammenarbeit und Zertifizierung als DataCore-Partner interessiert sind.

Die DataCore-Roadshow macht 2017 Station in Leipzig (31.8.), Köln (5.9.), Hamburg (7.9.), Berlin (12.9.), Stuttgart (19.9.), Frankfurt (21.9.), München (26.9.) und Münster (27.9.).

Weitere Informationen zu den einzelnen Terminen und die Anmeldung unter http://info.datacore.com/mb/dcpr2017.


Mittwoch, 12. Juli 2017

DataCore erzielt Bestwerte bei der Software-defined- und Hyper-Converged-Evaluierung


DataCore ist die am höchsten eingestufte Software-defined Storage-Lösung:

WhatMatrix.com als mit Abstand beste Software-defined Storage-Lösung eingestuft. In der Kategorie der Hyper-Converged-Infrastrukturlösungen, die in der Regel nur Komplettsysteme mit Hard- und Software berücksichtigt, schaffte es die Software-only Lösung von DataCore auf den zweiten Gesamtplatz in einem Feld aus über 20 bewerteten Produkten. Die hersteller- und hardwareunabhängige Lösung DataCore™ Hyper-Converged Virtual SAN kann dabei beliebig mit Standardhardware kombiniert werden, um eine noch höhere Punktebewertung zu erzielen.

„In den Kategorien Software-defined Storage (SDS) und Hyper-Converged-Infrastrukturen (HCI) haben wir DataCore intensiv getestet“, sagt Herman Rutten, Berater bei WhatMatrix. „Beim Vergleich von annähernd 100 Kategorien hat sich DataCore als führend im Bereich SDS erwiesen, was die lange Geschichte an Innovationen in diesem Markt ausdrückt.“


WhatMatrix ist eine Vergleichsplattform für IT-Anwender. Die unabhängige Bewertung von mehr als 20 Produkten im SDS- und HCI-Markt umfasst neben DataCore Anbieter wie Atlantis, Cisco, Dell/EMC, HPE, Microsoft, Nutanix, Simplivity und VMware.

"Die volle Leistungsfähigkeit unserer Software-definierten Speicherlösungen wird oft unterschätzt, aber unsere Top-Bewertung in der Kategorie SDS/HCI bei WhatMatrix hilft Unternehmen bei der Produktwahl“, sagt Carrie Reber, Vice President Worldwide Marketing bei DataCore. „20 Jahre Markterfahrung und mehr als 10.000 Kunden sprechen für sich.“ 


Dienstag, 13. Juni 2017

Flash muss nicht überall sein - erklärt Alexander Best



Flash macht Sinn, überall wo schnelle Leistung benötigt wird – aber eben nicht überall. Auf der Flash Forward-Konferenz 2017 in München hat Michael Hülskötter vom www.it-techblog.de dieses Videointerview mit Alexander Best von DataCore Software geführt. Darin geht er der Frage nach, wie viel Flash-Speicher eigentlich sinnvoll ist, ob man eventuell gar kein Flash einsetzen sollte und wohin die Flash-Reise geht.




Donnerstag, 8. Juni 2017

Im Gespräch mit IDC - Die Zukunft von Parallel-I/O, Big Data und Cloud


DataCore arbeitet an der Zukunft der Parallel-I/O-Technologie, die heute bereits in den Storage-Software-Produkten von DataCore verfügbar ist. Welche Rolle sie rund um die digitale Transformation, Big Data und Cloud einnehmen kann, verdeutlicht Eckhardt Fischer, Research Analyst, European Server Team bei der Analystenfirma IDC, im Gespräch mit DataCore. 






Donnerstag, 1. Juni 2017

Anwenderstudie zu Software-defined Storage, Hyper-converged und Cloud-Speicher

Teilweise überraschende Befunde zu Hype-Themen:

DataCore hat zum sechsten Mal seine jährliche Anwenderstudie “State of Software-Defined Storage, Hyperconverged and Cloud Storage” veröffentlicht. 426 IT-Profis, darunter 180 aus Europa, die derzeit diese Speichertechnologien anwenden oder evaluieren, machten zum Teil überraschende Angaben zu ihren Erwartungen und praktischen Erfahrungen.

Zunächst wurden die geplanten Ausgaben für bestimmte Speichertechnologien im Jahr 2017 abgefragt, darunter Software-defined Storage (SDS), Flash, Hyper-converged Speicher, Private Cloud Storage und OpenStack. Unter diesen Technologien steht Software-defined Storage an erster Stelle. 16% der Befragten gaben an, zwischen 11-25% ihres Storage-Etats für SDS verplant zu haben, weitere 13% haben mehr als 25% dafür reserviert. Erstaunlicherweise stößt das vielbesprochene Thema OpenStack auf wenig Investitionsinteresse. 70 halten es für nicht praxistauglich.

Die Studie belegt auch die wichtigsten wirtschaftlichen Gründe für Software-defined Storage

- Vereinfachung des Managements heterogener Storage-Hardware (55%)

- eine zukunftstaugliche Infrastruktur (53%)

- Herstellerbindung an Storage-Hardware-Anbieter vermeiden (52%)

- Verlängerung der Lebensdauer der Speichergeräte (47%)

Nur 6% ziehen Software-defined Storage nicht in Erwägung. Bei der Frage nach enttäuschenden Erfahrungen bei der Einführung neuer Speichertechnologien beklagten:

- 31%, dass Cloud Storage die Speicherkosten nicht gesenkt hat

- 29%, dass das Handling von Object Storage zu komplex ist

- 16%, dass Flash die Applikationen nicht beschleunigt habe.

Nach Meinung der Befragten stellen Datenbanken und Enterprise Applikationen (ERP, CRM, etc.) die größten Herausforderungen an die Speicher-Performance. Der Bedarf an schnelleren Datenbanken und Datenanalyseprogrammen erhöhe die Anforderungen an die Technologie und erfordere optimierte Performance und Echtzeit-Reaktionen, beispielsweise bei der Analyse von Geschäftsprozessen oder dem Internet der Dinge (Internet of Things/IoT).
Weitere Befunde:

- Hyper-converged Infrastrukturen sind weniger verbreitet als vermutbar: 33% ziehen HCI-Lösungen gar nicht in Erwägung, weitere 34% taten dies, haben sich jedoch (noch) nicht dafür entschieden. 20% setzen HCI-Lösungen lediglich zu geringem Maße ein. 7% der Befragten vertrauen in größerem Umfang auf HCI, lediglich 6% setzen komplett auf Hyper-converged.

- Flash nimmt bei 60% der Befragten lediglich 10-20% der Gesamtkapazität ein. Verglichen mit dem allgemeinen Hype ein eher geringer Wert.

- Die bevorzugten Applikationen, die Anwender der Public Cloud oder hybriden Cloud-Infrastrukturen anvertrauen, sind Enterprise Applikationen wie Salesforce (33%), Data Analytics (22%) und Datenbanken (21%).

Die DataCore-Studie “State of Software-Defined Storage, Hyperconverged and Cloud Storage” 2017 wurde von Ende 2016 bis April 2017 durchgeführt. Von den weltweit 426 Befragten aus Unternehmen unterschiedlichster Größe stammen 180 aus Europa. Befragt wurden Behörden sowie Unternehmen aus den diversen Branchen wie dem Finanzsektor, dem Bildungs- und Gesundheitswesen, dem herstellenden Gewerbe und Dienstleistungsanbieter und andere. Von den befragten Unternehmen haben 44% mehr als 500 Mitarbeiter, 37% zwischen 500 und 5.000 Mitarbeiter sowie 19% mehr als 5.000 Mitarbeiter.

Die Studie steht zum kostenlosen Download bereit unter: http://info.datacore.com/sixth-annual-market-survey


Mittwoch, 31. Mai 2017

DataCore im Livestream auf der Flash Forward



Morgen, am 1. Juni tagt die Flash Forward in München. Die eintägige SSD- & Flash-Konferenz richtet sich an Storage-Verantwortliche, IT-Entscheider und CIOs. Für alle, die nicht persönlich in München dabei sein können, überträgt speicherguide.de die Konferenz live im Internet. 

Natürlich ist auch DataCore mit am Start, und zwar mit einem spannenden Referenzkundenbericht:



14:05 Uhr: Software-defined Storage in der Praxis: Referenzkundenbericht zum Thema Einführung von Flash und Speicherkonsolidierung beim Universitätsklinikum Würzburg -

Den Vortrag hält Klaus Stärk, Teamleiter Systeme / Server / Storage vom Universitätsklinikum Würzburg.

Direkt im Anschluss um 14:25 diskutiert Alexander Best, Director Technical Business Development bei DataCore mit Vertretern von Fujitsu, Virtual Instruments, Dell/EMC und MPSTOR. 

Zur Nutzung des Livestreams ist eine Registrierung nötig. Hier geht's zur Anmeldung.



Montag, 29. Mai 2017

CDP - Eine Option mehr bei Ransomware-Angriffen

Continuous Data Protection komplettiert Datenschutzkonzepte

Krypto- oder Erpressungstrojaner wie aktuell WannaCry und WannaCrypt verbreiten sich rasend schnell und nehmen ganze Unternehmen in Geiselhaft. Wer sich ausreichend schützen will, muss deshalb auf eine umfassende Backup- und Recovery-Strategie setzen. DataCores Software-Defined Storage (SDS)-Plattform SANsymphony™ integriert dafür grundlegende Technologien, die hersteller- und systemübergreifend wirken. 


Unternehmen sind darauf angewiesen, dass ihre Anwendungen rund um die Uhr unterbrechungsfrei laufen und der Zugriff auf geschäftsrelevante Informationen zu jedem beliebigen Zeitpunkt garantiert ist. Seit Mitte 2016 (damals Locky und TeslaCrypt) häufen sich jedoch aggressive Angriffe durch Krypto-Troyaner und andere Schadsoftware massiv und stellen eine ernste Bedrohung für Unternehmen dar. Bislang sind die einzigen Lösungen: Zahlung der „Lösegeldforderung“ oder Wiederherstellung eines gesunden Systemzustands per Backup.

Grundsätzlich ermöglichen SDS-Plattformen wie SANsymphony die hardware- und herstellerübergreifende Speicher-Services und sorgen für ein effizientes Datenmanagement für Hochverfügbarkeit, höchste Performance und Disaster Recovery-Szenarien. Die DataCore-Variante leistet einen transparenten Failover zwischen heterogener Hardware, integriert Flash-Speicher und Auto-Tiering zwischen Speicherklassen, Migrationen im laufenden Betrieb und vieles mehr. Integrierte Technologien für Replikation, Snapshots und Continuous Data Protection (CDP) helfen hier gegen die neuartigen Bedrohungen. 


Desaster- und Notfallpläne über Replikation 

Dazu gehört zunächst die Topologie. Die Software wird auf Standard-Servern unter Windows installiert und in der Regel in zwei Rechenzentrumsabschnitten redundant aufgesetzt. Durch synchrone Spiegelung und Auto-Failover wird so zunächst Hochverfügbarkeit hergestellt, die aber bei einem Virenbefall nicht schützt. Durch einen dritten, auch weiter entfernten Server können Notfallpläne über asynchrone Spiegelung (Replikation) kosteneffizient umgesetzt werden. Dabei kommen in der Regel Snapshots zum Einsatz.

Snapshots erfassen die zu einem bestimmten Zeitpunkt korrekten Daten, die dann für verschiedene Zwecke verwendet werden können, ohne dass langwierige Backup-Fenster eingeplant werden müssen. Diese Snapshots stellen einen guten Ausgangspunkt für Wiederherstellungen dar, um Änderungen oder die Löschung von Dateien rückgängig zu machen. Häufig werden sie auch genutzt, um neu entwickelte Softwarefunktionen zu testen, bevor diese in eine Produktionsumgebung eingeführt werden.

Sekundengenaue Datenwiederherstellung mit CDP

Unternehmen sind häufiger gezwungen, Datenänderungen rückgängig zu machen, da diese unerwünschte Konsequenzen für die geschäftlichen Aktivitäten haben. Die Änderungen können fälschlicherweise vorgenommen oder eben durch Viren oder andere Schadprogramme verursacht worden sein. Deshalb sind in moderne SDS-Lösungen wie SANsymphony weitere Funktionen integriert. Hierzu zählt das automatisierte Verfahren zur kontinuierlichen Datensicherung und -Wiederherstellung (Continuous Data Protection, kurz CDP).






DataCore SANsymphony Continuous Data Protection (CDP) gestattet es, beliebige virtuelle Laufwerke auf einen definierten vorherigen Stand zurückzusetzen und diese einem beliebigen Server zuzuweisen. Dazu werden alle Schreibvorgänge auf den Laufwerken protokolliert und bei Bedarf daraus eine virtuelle Kopie erzeugt, welche den Datenbestand zum gewünschten Zeitpunkt wiedergibt. Dies kann innerhalb von wenigen Sekunden parallel zum laufenden Betrieb geschehen. Sofern gewünscht, kann sogar das Quelllaufwerk auf den alten Stand zurückgesetzt werden. 

Über die Plattform können so Systemzustände und Daten aus einem Zeitraum von bis zu zwei Wochen sekundengenau wiederherstellt werden. Nächtliche Backups werden dadurch überflüssig und die virtuellen Festplatten können problemlos für den Zeitpunkt wiederhergestellt werden, vor dem etwaige Malware gewirkt hat oder logische Fehler bzw. Bedienirrtümer aufgetreten sind. Image-Dateien von virtuellen Disks helfen auch, spezifische Dateien oder Applikationen wiederherzustellen. 

Für Unternehmen, die im Rahmen ihrer Business-Continuity- und Disaster-Recovery-Strategie nach Alternativen zu herkömmlichen Ansätzen suchen, ist der Wechsel auf SDS daher eine attraktive Alternative.


Im Rahmen des Webcasts „CDP - Eine Option mehr bei Ransomware-Angriffen“ haben die Experten von DataCore dieses heikle wie dringliche Thema intensiv aufgearbeitet, um Ihnen wertvolle Tipps an die Hand zu geben, wie Sie Ihr Unternehmen effektiv vor den neuen Bedrohungen schützen: Eine Aufnahme des kompletten Webcasts können Sie hier ansehen

Autor: Robert Thurnhofer, Senior Marketing Manager Central Europe bei DataCore

Montag, 22. Mai 2017

DataCore ernennt Rosario Perri zum Director Strategic Partners & Alliances EMEA


DataCore Software ernennt Rosario Perri zum Director Strategic Partners & Alliances EMEA. Ab sofort verantwortet er Entwicklung, Ausbau und Pflege strategischer Partnerschaften in Europa, dem Mittleren Osten und Afrika. Mit der neu geschaffenen Position will DataCore insbesondere seine bahnbrechende Parallel-I/O-Technologie optimal in diesen Märkten positionieren.



Mit mehr als 16 Jahren Erfahrung in der Technologiebranche war Rosario Perri zuletzt bei 1E, einem Anbieter für Software-Lifecycle-Automatisierung und Microsoft Gold-Partner, tätig. Dort war er für Channel- und Allianz-Beziehungen auf EMEA-Ebene verantwortlich und sorgte für die Entwicklung und Umsetzung von Allianzstrategien. Zuvor war er in führenden Management- und Business Development-Positionen bei Nlyte Software, Touchpaper Software und Landesk (jetzt Ivanti).

"Rosario verstärkt uns in einer entscheidenden Phase der über zwanzigjährigen Geschichte von DataCore, die geprägt ist durch Innovationen“, sagt Amanda Bedborough, Senior Vice President EMEA Operations bei DataCore Software. "Unsere Parallel-I/O-Technologie erhöht die Produktivität paralleler Datenverarbeitungsprozesse von Unternehmensdatenbanken, Analyse- und Echtzeit-Applikationen und der Transaktionsverarbeitung auf Rekordniveau. Rosario wird uns mit seiner Expertise, Erfahrung und Führungskompetenz kurz vor einer wichtigen Produktneuvorstellung dabei helfen, dieses optimal am Markt zu positionieren und etablieren.“

"Dies ist eine außergewöhnliche und aufregende Gelegenheit, um die bahnbrechende Technologie für das Parallel Processing in den Markt zu bringen und damit neue Geschäftsfelder durch neue strategische Partnerschaften zu schaffen“, sagt Rosario Perri, Director Strategic Partners & Alliances EMEA. „Ich nehme diese Herausforderung an, weil ich fest davon überzeugt bin, dass DataCore SQL- und Oracle-Umgebungen revolutionieren kann. Dafür müssen wir unser Channel- und Allianz-Netzwerk ausbauen und neue Partner im Enterprise-Umfeld und der System-Integration gewinnen.“










Mittwoch, 17. Mai 2017

Flash im DataCenter: Erst die Pflicht und dann die Kür!

Bei der Planung moderner Speicherinfrastrukturen ist Flash-Speicher aktuell in aller Munde, wirft allerdings auch bei den Verantwortlichen einige Fragen auf! 

- Rechnen sich die hohen Anschaffungskosten mit dem erhofften Nutzen? 
- Wie hoch soll der Anteil von Flash-Speicher am gesamten Speicherbedarf sein? 
- Welche Anwendungen brauchen eigentlich Flash-Speicher? 


Werden diese Fragen von Flash-Herstellern beantwortet, ist deren Position klar: „Die Tendenz geht zum All-Flash-Datacenter“. Es gibt allerdings auch eine andere Sichtweise auf diese Aspekte!

Im aktuellen Teil der Webcast-Serie geht DataCore am 18. Mai von 14:00 - 15:00 Uhr genau diesen Fragen auf den Grund.

In dem interaktiven Webcast wird aufgezeigt, welche Rolle Flash-Speicher in einer professionellen SDS-Architektur spielen kann. Richtige Einsatzszenarien aus der Praxis, ein besseres Verständnis für die Technologie und sinnvolle Konzepte stehen hier im Vordergrund.

Melden Sie sich jetzt hier an.

Datum: 18. Mai 2017
Zeit: 14:00 - 15:00 Uhr 
Sprecher: Alexander Best, Director Technical Business Development
DataCore Software



Montag, 15. Mai 2017

DataCore unterstützt VMware vSphere Metro Storage Cluster

DataCore hat seine Software-Plattformen erfolgreich für VMware vSphere Metro Storage Cluster (vMSC) getestet. SANsymphony™ und das DataCore™ Hyper-converged Virtual SAN werden von VMware ab sofort als „Partner Verified and Supported Products“ (PVSP) gelistet. Über vMSC-Konfigurationen werden lokale Storage-Cluster an entfernte Standorte repliziert, um Produktionsumgebungen ausfallsicher bereitzustellen und für ein Disaster Recovery zu wappnen.

vSphere Metro Storage Cluster (vMSC) von VMware ermöglicht die Ausweitung der Speicher-Infrastruktur für virtualisierte Umgebungen über entfernte Rechenzentren hinweg. Über einen „Stretched Cluster“ können virtuelle Maschinen zwischen Standorten ausfallsicher migriert werden und für Hochverfügbarkeit und Disaster Recovery bereitgestellt werden.

DataCore ergänzt diese Szenarien mit Speicher-Services der Enterprise-Klasse, etwa mit einer Echtzeit-Synchronisierung, Active-/Active-Verfügbarkeit, dem transparenten Failover und Failback bei Ausfall einer Seite sowie der Performance-Optimierung durch High Speed Caching und Parallel-I/O-Technologie. Dabei kann die SDS-Lösung SANsymphony in SAN-Infrastrukturen über iSCSI und Fibre Channel sowie das DataCore™ Hyper-converged Virtual SAN in Umgebungen mit server-seitigem Speicher zum Einsatz kommen.

Die Hochverfügbarkeitslösungen von DataCore gewährleisten kontinuierlichen Zugriff auf Speicherressourcen in Stretched Cluster-Umgebungen mit VMware. Dabei können SANsymphony und das DataCore™ Hyper-converged Virtual SAN auch kombiniert werden. Die Software kann dabei auf dedizierten Servern in den Rechenzentrumsstandorten oder auf dem Hypervisor-Host installiert werden, um den Hardware-Aufwand gering zu halten.

"Der Datenzugriff in virtuellen Umgebungen ist essenziell, Ausfälle durch Wasser, Feuer oder andere Einwirkungen sowie technische Mängel sind absolut auszuschließen“, sagt Augie Gonzalez, Leiter Produktmarketing bei DataCore. “In unabhängigen Studien berichten DataCore-Kunden davon, dass sie sowohl geplante wie ungeplante Ausfallzeiten zu 100 Prozent eliminieren konnten und gleichzeitig bei reduzierten Speicherkosten höhere Level an Business Continuity erzielten.“

Weitere Informationen unter DataCore Metro Storage.

Zur Pressemeldung hier.

Freitag, 12. Mai 2017

DataCore erneut für den Readers' Choice Award nominiert!

Aller guten Dinge sind drei! Nachdem DataCore den Storage-Insider Readers' Choice Award in der Kategorie "Software Defined Storage" bereits zwei Mal in Folge gewonnen hat, streben wir jetzt das Triple an!



DataCore wurde erneut in der Kategorie Software Defined Storage nominiert! Die Abstimmung läuft ab sofort, und endet am 31. August 2017. 

Bitte geben Sie uns wieder zahlreich Ihre Stimme. Die Umfrage zum Award finden Sie unter www.Storage-Insider.de/award

Vielen Dank für Ihre Unterstützung!

Donnerstag, 11. Mai 2017

So profitieren Sie von Hyper-converged Infrastrukturen!


Unternehmen nutzen aktuell hyperkonvergente Lösungen zur Konsolidierung ihrer Infrastruktur. Dabei ist es aber auch kein Geheimnis, dass die I /O-Leistung der größte Engpass ist.

Mit der weltweit schnellsten hyperkonvergenten Lösung von DataCore haben Anwender das ganzheitliche Leistungsspektrum, das Sie benötigen, um Ihre Infrastruktur entscheidend zu konsolidieren und zu vereinfachen.

Am interessantesten ist die Lösung dabei für Unternehmen, die für ihre unternehmenskritischen Anwendungen eine funktionsreiche, kosteneffektive, hochverfügbare und leistungsstarke Architektur suchen.

Erfahren Sie in diesem White Paper, warum DataCore von IDC als hoch performante HCI-Lösung eingestuft wird und sich zu einer strategischen Infrastruktur im Unternehmen entwickeln kann.


Freitag, 31. März 2017

Videointerview: Stefan von Dreusche zur Lenovo DX8200D powered by DataCore



Während der CeBIT 2017 hat Michael Hülskötter, seines Zeichens ITK-Experte & professioneller Blogger (www.it-techblog.de), dieses Videointerview mit Stefan von Dreusche geführt. Herr von Dreusche ist Sales Director EMEA bei DataCore und hat diverse Fragen zur brandneuen Software-defined Storage-Appliance Lenovo DX8200D powered by DataCore beantwortet. Sehr aufschlussreiche Informationen aus erster Hand.

Ein Dankeschön geht an Michael Hülskötter für https://youtu.be/QCtVSNIyoLo

Dienstag, 14. März 2017

CeBIT 2017: Lenovo Storage DX8200D powered by DataCore



DataCore informiert auf der diesjährigen CeBIT (20. bis 24. März, Messe Hannover) in Halle 2, Stand A44 unter anderem (siehe hier) über die weltweite Kooperation mit Lenovo im Bereich Software-defined Storage-Appliances. 


Die heute (14.3.) vorgestellte Lenovo Storage DX8200D „powered by DataCore” ist eine kosteneffiziente, hoch leistungsfähige und zuverlässige Speicherplattform für die wachsenden Anforderungen in Dateninfrastrukturen mit transaktionsintensiven Datenbanken, Analysesystemen und Unternehmensanwendungen. Die DataCore SANsymphony™ Software fungiert dabei als übergreifende und skalierbare Virtualisierungs- und Storage Services-Plattform für interne und externe Speicherkapazitäten, die die Leistung, Verfügbarkeit und Nutzung der Ressourcen maximiert. Dabei nutzt DataCore Auto-Tiering, seine Parallel-I/O-Technologie und High-Speed-RAM-Caching, um Lese- / Schreibanforderungen schnell zu bedienen und die Leistung zu optimieren. Die Daten werden in Echtzeit zwischen getrennten Knoten gespiegelt, um eine ständige Verfügbarkeit trotz Ausrüstungs- und Standortausfällen aufrechtzuerhalten.

Die Lenovo Storage DX8200D „powered by DataCore” basiert auf Lenovos x3650 M5 Servern, misst zwei Höheneinheiten (2U), kann mit bis zu 32 TB HDD- und 1,6 TB SSD-Kapazität und flexibler Konnektivität (10GbE/16 Gb FC) ausgerüstet werden und in einem Verbund auf bis zu 64 Knoten für Hochverfügbarkeit und Load-Balancing konfiguriert werden. DataCores Software-defined Storage-Software virtualisiert dabei interne und externe Speicher und versieht sie mit zentralen Speicherservices wie Thin Provisioning, Auto-Tiering, Load Balancing, Komprimierung, Deduplizierung, synchrone Spiegelung, Datenmigration, Multiprotocol Support und Unterstützung für universelle VMware vSphere Virtual Volumes (VVol).

Weitere Information dazu auf der CeBIT, Messe Hannover, 20. bis 24. März, Messe Hannover) in Halle 2, Stand A44.




Donnerstag, 9. März 2017

CeBIT 2017: Hyperkonvergente Appliance-Lösungen im Fokus


DataCore Software ist auf der diesjährigen CeBIT (20. bis 24. März, Messe Hannover) erstmals mit einem eigenen Stand vertreten. In Halle 2, Stand A44 informiert der Software-Anbieter schwerpunktmäßig über Software Defined Storage (SDS) und Hyper-konvergente Infrastrukturen (HCI).

Im Fokus steht dabei die weltweite Kooperation mit Lenovo im Bereich Software-defined Storage-Appliances. Darüber hinaus informiert DataCore über sein aktuellstes Product Service Pack (PSP), Weiterentwicklungen seiner Parallel Processing Software auf Basis der Parallel-I/O-Technologie sowie über sowie sein erweitertes Produktportfolio mit neuen Bulk Storage Nodes. Diese sind speziell für die kosteneffiziente Langzeitsicherung und Archivierung selten genutzter Daten konzipiert und zu einem Bruchteil der Software-Kosten für Produktivumgebungen erhältlich.

„Auf der CeBIT 2017 sind wir erstmals mit einem eigenen Stand vertreten. Im Mittelpunkt stehen dabei die Entwicklungen rund um unsere hyperkonvergente Infrastruktursoftware. Sie steht erwiesenermaßen für die höchste Performance, das beste Preis-Leistungsverhältnis und die niedrigsten Antwortzeiten. Entsprechend attraktiv sind deshalb gemeinsame Entwicklungen mit Hardware-Partnern wie Lenovo“, sagt Stefan von Dreusche, Director Central Europe bei DataCore.

Messe-Besuchern, die vorab einen Termin mit DataCore vereinbaren, bietet DataCore kostenlose Tickets. Zudem verlost DataCore unter allen Interessenten einen kostenlosen Inhouse-Workshop zum Thema Daten-Migration. 







Dienstag, 7. März 2017

speicherguide-Special: Wie sieht moderne Datenspeicherung heute aus?


Anforderungen an Speicher immer komplexer 

von Karl Fröhlich, Chefredaktuer speicherguide.de

Wenn es heute um Datenspeicherung geht, sind nicht mehr reine Speichersysteme das Thema, vielmehr geht es heute um Verfügbarkeit. Unternehmen benötigen einen sicheren und schnellen Zugriff auf ihre Daten ohne Ausfallzeiten. Die Anforderungen sind deutlich komplexer geworden. Ein Trend, dem sich keiner entziehen kann.
[...]

Wie sieht moderne Datenspeicherung heute aus?



Grundsätzlich fallen Daten nicht einfach als lästiges Übel an, sie werden heute vielmehr generiert, sind Teil des Geschäftsprozesses und damit eine wichtige Komponente im Wertschöpfungsprozess vieler Unternehmen. »Für die Datenspeicherung bedeutet dies einerseits, dem Datenwachstum kosteneffizient zu begegnen, und andererseits höchste Performanz für Datenbanken, Big Data- und Echtzeitanalysen zu gewährleisten«, erklärt Robert Thurnhofer, Senior Marketing Manager Central Europe bei DataCore. »Dieser Spagat ist weder mit monolithischen SAN-Subsystemen noch mit hyper-konvergenten Silolösungen oder der Cloud allein zu bewältigen. Gefragt sind vielmehr Flexibilität, Mobilität und Agilität der Datenhaltung. Dies kann längst nur über Software geleistet werden: Software-defined Storage-Ansätze sollten idealerweise Cloud, hyper-konvergente, konvergente und SAN-Plattformen überspannen.«


Storage darf kein Flaschenhals sein

Ein anderer Aspekt, dem der Speicher Rechnung tragen muss: Die Rechenleistung moderner Multikern-Prozessoren hat in den letzten Jahren ungemein zugenommen. »256 Cores und mehr in einer CPU verarbeiten die serverseitigen Processing-Anfragen hunderter virtueller Maschinen parallel«, sagt Thurnhofer. »Vergessen wird dabei aber, dass die Abwicklung speicherseitiger Input/Output-Operationen (I/O) aber seriell erfolgt. Der Speicherdurchsatz wird so zum Flaschenhals für die gesamte Infrastruktur.« Dies führe zu einem Dilemma: Entweder nehme man die Verlangsamung der virtualisierten Applikationen in Kauf, oder muss die Anzahl der Server erhöhen, was den erhofften wirtschaftlichen Nutzen beschneidet.
[...]

Es ist unbestritten die Festplatte hat Konkurrenz erhalten und ihr Stellenwert sinkt, im Rechenzentrum hat sie aber nach wie vor ihren berichtigten Platz. »Zwar sinken die HDD-Verkäufe nach Stückzahlen, gleichzeitig steigen sie aber hinsichtlich der Kapazität«, argumentiert Datacore-Manager Thurnhofer. »Zudem würde die weltweite Produktionskapazität für SSD derzeit gar nicht ausreichen, um mehr als 20 Prozent des Kapazitätsbedarfs zu decken. So bleibt – vorerst – Disk das günstigere und Flash das schnelle Medium.«

Wie eine kosteneffiziente Datenspeicherung aussieht

Eine moderne Speicherlösung ist auch kein Entweder-oder, sondern basiert auf einer Dateninfrastruktur, die für eine nahtlose Integration und die intelligente Klassifizierung unterschiedlicher Technologien und Systeme sorgt. Die Daten per Auto-Tiering zu klassifizieren ist in den Rechenzentren noch kein Standard, gehört aber sicherlich zu den Funktionen, mit denen sich die IT-Abteilungen beschäftigen. »Bei uns erfolgt die Datenklassifizierung quasi stufenlos auf Block-Level und erfasst hyper-konvergente Systeme, Server-integrierten Flash-Speicher ebenso wie HDD- oder SSD-Subsysteme im SAN«, sagt Thurnhofer. Datacore setzt hier auf seine SDS-Plattformen sowie Parallel-I/O-Technologie. Ein nicht von der Hand zu weisender Unterschied ist dabei: Während Flash einzelne Systeme beschleunigt, kann eine Software-Schicht, die komplette Dateninfrastruktur optimieren.

Zum kompletten Artikel auf speicherguide.de  hier.