Freitag, 27. November 2015

IT-Director: SDS vereinfacht Storage-Management

von Redakteurin Kathrin Zieblo




ERFOLGREICHE SPEICHER-VIRTUALISIERUNG

SDS vereinfacht Storage-Management


Warum er Software-defined Storage für mehr als einen reinen Marketingzweck betrachtet, berichtet Stefan von Dreusche, Director Central Europe bei Datacore, im Interview.


IT-DIRECTOR: Herr von Dreusche, bislang gibt es keine einheitliche Definition von Software-defined Storage (SDS), was verstehen Sie unter diesem Begriff?
S. von Dreusche
: Software-defined Storage (SDS) ist das Konzept, die Intelligenz und Funktionalität einer Speicherarchitektur jenseits der Hardware anzusiedeln und auf eine übergeordnete Software-Ebene zu heben. Die zugrunde liegende Technologie ist die Speichervirtualisierung. Durch die logische Trennung von Software-Funktionalität und Speicher-Hardware erhalten Unternehmen Unabhängigkeit und Flexibilität, um Speicherarchitekturen effizienter zu gestalten und an ihre dynamischen Geschäftsziele anzupassen.
IT-DIRECTOR: Handelt es sich dabei um ein neues Paradigma in der Speicherindustrie oder um einen reinen Marketingzweck?
S. von Dreusche:
 Es gibt zwar momentan einen Hype, der auch zur Verwirrung der Anwender führt. Hardware-Anbieter wollen nach wie vor Hardware verkaufen, nur eben unter anderem Label. Neben diesem gegenwärtigen Marketing-Hype gibt es für eine tatsächlich Software-definierte Infrastruktur handfeste wirtschaftliche und technologische Argumente. SDS ist weit mehr als ein Hype, es ist ein Paradigmenwechsel: endlich wird auch Speicher-Hardware zum austauschbaren Standard, und kann effizienter und kostengünstiger genutzt werden.
IT-DIRECTOR: Wie verbreitet ist die SDS-Technologie bei deutschen Unternehmen? – Wie gut sind Kunden über diese Möglichkeit informiert, wie hoch ist die Nachfrage?
S. von Dreusche:
 Wir als Software-Anbieter für Speichervirtualisierung und SDS-Lösungen arbeiten insbesondere in Deutschland sehr erfolgreich und seit Jahren mit zweistelligen Wachstumsraten. Deutschland ist weltweit unser erfolgreichster Markt und bereits weit entwickelt. Zunehmend gewinnen wir dabei auch Großunternehmen, die wir verstärkt adressieren.
Auch Komplettlösungen und hyper-konvergente Lösungen, die wir mit Anbietern wie Fujitsu, Dell oder Huawei entwickeln, finden inzwischen großen Anklang. Die Rate der Lizenzerneuerungen bzw. –erweiterungen liegt bei über 90 Prozent. Die Kundenzufriedenheit ist also sehr hoch.
IT-DIRECTOR: Wie ausgereift sind aktuelle SDS-Lösungen?
S. von Dreusche:
 SDS-Technologien wie Datacore SANsymphony-V liegen heute in der 10. Produktgeneration vor, werden seit 16 Jahren im Produktivbetrieb eingesetzt und sind auf der Basis dieser praktischen Erfahrung stetig weiterentwickelt. Über 15.000 Kunden vertrauen heute auf die SDS-Plattform von Datacore.
IT-DIRECTOR: Storage-Anforderungen werden komplexer – die Datenmenge steigt etwa durch die Nutzung mobiler Endgeräte – welche Antwort bietet SDS darauf?
S. von Dreusche:
 Die Storage-Anforderungen steigen insbesondere durch die Virtualisierung von Server und Desktop und die einher gehende Zentralisierung. SDS bringt Hochverfügbarkeit, Flexibilität für Erweiterung nach Bedarf und eine effiziente Nutzung der Ressourcen. So können Flash-, Platten- und Cloud-Ressourcen einfach integriert und durch Auto-Tiering optimal genutzt werden.
[...]
IT-DIRECTOR: Ab welcher Größenordnung und welchem Unternehmensumfeld empfehlen Sie den Einsatz einer SDS-Lösung?
S. von Dreusche: Software-defined Storage stellt die Umsetzung eines flexiblen Unified-Storage-Konzeptes dar, das sich für kleine und mittelständische ebenso wie für große Unternehmen eignet. Grundsätzlich ist unsere Software-Lösung auch bei kleinen Unternehmen etwa ab 6 Terabyte im Einsatz, nach oben skalieren wir in den Petabyte-Bereich von Großunternehmen.
IT-DIRECTOR: Wie wird sich der Bedarf nach Speicherlösungen generell in den kommenden Jahren entwickeln? 
S. von Dreusche:
 Es findet eine große Standardisierung/Commodisierung der Hardware statt. Davon profitieren die Unternehmen, die virtuelle Rechenzentren schaffen und dabei auch Speicher virtualisieren. Das wird im Bereich der klassischen SAN-Architekturen voranschreiten, aber auch das serverseitige SAN, das Virtual SAN, wird sich weiter entwickeln. Wir verbinden beides mit Wachstumspfaden in beide Richtungen.
Derzeit ist enorme Bewegung im Markt, die einen Teil der Anwender verunsichert. Etablierte Hersteller gehen, neue Hersteller und Systeme tauchen auf. Eine SDS-Plattform wie Datacore SANsymphony-V ist eine Antwort auf diese Marktverunsicherung, denn sie stellt ein Höchstmaß an Investitionssicherheit her. SDS sorgt dafür, dass all diese Systeme integriert oder bei Bedarf auch problemlos wieder ersetzt werden können.

Donnerstag, 26. November 2015

storageconsortium.de: Mögliche I/O-Probleme beim Betrieb virtueller Maschinen vermeiden

Submitted by Storage Consortium - Technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen

Neue DataCore Parallel I/O-Software, VVOL-Support und Installationsassistent für hyperkonvergente Systeme vorgestellt…
Zum Hintergrund: Bedingt durch den Leistungszuwachs von (x86) n-core-CPUs und dem raschen Anstieg von virtuellen Maschinen (VMs) rücken die Themen "Konvergenz" und "I/O-Management" stärker in den Fokus von Anwendern und Anbietern. VM-Storage-Performanceoptimierung jedenfalls ist bei schnell wachsenden und hochgradig virtualisierten Umgebungen meist ein Thema (Stichworte: I/O-Blender, noisy neighbour...). Read- und Write-Caching auf verschiedenen Ebenen (Array, Server, Drive) sind I/O-seitig wichtige Stellschrauben, um die I/O-wait-time zu begrenzen, aber sie sind je nach Umgebung und Verfahren aufwendig (Zeit / Know-how) und auf Grund der wachsenden Komplexität nicht immer pro-aktiv, da gering automatisiert.
[...]
  • Die Neuentwicklung soll laut Anbieter die Performance in virtualisierten Systemen mit Mehrkern-Prozessoren vervielfachen und steigert damit Konsolidierungs-, Produktivitäts- und Einsparpotenziale.
  • Ferner stellte DataCore einen Installationsassistenten für hyper-konvergente Systeme mit DataCore™ Virtual SAN und vSphere vor und erweitert SANsymphony™–V um universellen Virtual Volumes (VVOL)–Support für Speicher, die VMware's vSphere–Schnittstelle nicht generisch unterstützen.
Zum kompletten Artikel auf  www.storageconsortium.de 

Mittwoch, 25. November 2015

DataCore PSP4-Update für SANsymphony-V10 - Stefan von Dreusche

DataCore kündigt für seine Storage-Management-Plattform "SANsymphony-V10" das Update PSP4 an. Stefan von Dreusche, Director Central Europe bei DataCore, erklärt speicherguide.de Redakteur Engelbert Hörmannsdorfer die neuen Funktionen von PSP4.



Dienstag, 17. November 2015

DataCore auf dem Fujitsu Forum 2015

Kundenorientierte Weiterentwicklungen der gemeinsamen Speicherlösungen von DataCore und Fujitsu

Auch in diesem Jahr präsentiert sich DataCore, Anbieter von Software-Defined Storage und hyperkonvergenten Virtual SAN-Lösungen, auf dem Fujitsu Forum (18./19. November 2015, Stand B.34). Besucher erhalten einen Ausblick auf die gemeinsam entwickelte Storage Virtualization Appliance (SVA) der zweiten Generation sowie eine neue Hyper-Converged Appliance (HCA), die Fujitsu Hardware mit der DataCore™ Virtual SAN-Software zu einer hyperkonvergenten Komplettlösung kombiniert. Darüber hinaus informiert DataCore über die Zertifizierung von SANsymphony-V für SAP HANA auf Fujitsu ETERNUS-Speicher.

„Unsere Partnerschaft mit DataCore bietet der wachsenden Zahl gemeinsamer Kunden große Vorteile. Komplettlösungen wie unsere Storage Virtualization Appliance (SVA) oder die Hyper-Converged Appliance (HCA) kombinieren die führenden Hardware-Plattformen von Fujitsu mit der innovativen Software-Defined Storage-  und Virtual  SAN-Software von DataCore und  helfen Anwendern, ihre geschäftskritischen Enterprise-Anwendungen einfach und effizient zu betreiben. Die erfolgreiche Zertifizierung bestätigt DataCores SAP HANA-Unterstützung auf Fujitsu ETERNUS Storage, der durch zusätzliche Software-Defined-Leistungsmerkmale, Performance-Beschleunigung und Hochverfügbarkeitsoptionen optimal ergänzt wird“, sagt Jörg Brünig, Senior Director Channel Managed Accounts bei Fujitsu.

Im Rahmen der Partnerschaft zwischen Fujitsu und DataCore bieten die Hersteller mit der SVA (Storage Virtualization Appliance) eine Serie von getesteten, schlüsselfertigen Appliances für die SAN-Virtualisierung mit „Call Home“-Service und effizientem Support aus einer Hand. In Ergänzung zu den bereits etablierten Varianten wird in Kürze die SVA „vNext“ vorgestellt. Sie kombiniert Fujitsus neueste PRIMERGY RX2560 M1-Servergeneration mit DataCores jüngstem Produkt-Update SANsymphony-V10 PSP4 und ist damit noch leistungsstärker im Einsatz.

Der steigenden Nachfrage nach hyperkonvergenten Systemen begegnen die beiden marktführenden Unternehmen mit der Neuentwicklung einer gemeinsamen Hyper Converged Appliance (HCA). Die Fujitsu DataCore HCA ist eine vorkonfigurierte „Ready to Run“-Appliance mit integrierter Speicherkapazität und der DataCore™ Virtual SAN-Software für Datenmanagement, Hochverfügbarkeit und optimale Performance. Die HCA ist für kleine und mittlere Unternehmen konzipiert und eignet sich als kosteneffiziente Komplettlösung für Hyper-V- und VDI-Workloads, File- und Datenbank-Services sowie als iSCSI-Speicher für externe Applikationen. Beide neuen Appliance-Lösungen sollen bis Ende des Jahres verfügbar sein.

 SANsymphony-V zertifiziert für SAP HANA auf Fujitsu ETERNUS-Speicher
SAP hat DataCores SANsymphony-V10 als erste rein Software-basierte Speichervirtualisierung für SAP HANA zertifiziert. DataCore erfüllt damit alle Anforderungen an anspruchvollste Echtzeit-Applikationen in Rechenzentren und kann für bis zu 768 aktive SAP HANA-Knoten hochverfügbaren, performanten Speicher liefern. Dabei kann SANsymphony-V mit jeder zertifizierten Speicherhardware eingesetzt werden. In den Tests im SAP Integration and Certification Center (SAP ICC) wurde die DataCore-Software zusammen mit Fujitsu ETERNUS DX-Systemen erfolgreich getestet. Durch den Software-definierten, herstellerunabhängigen Ansatz können SAP HANA-Anwender nun auch bestehende Speicher-Infrastrukturen um die Fujitsu/DataCore-Kombination erweitern, um im SAP HANA-Umfeld ein optimales Preis-Leistungs-Verhältnis mit modernster Hard- und Softwaretechnologie zu erzielen.

„Die intensive Zusammenarbeit zwischen DataCore und Fujitsu bringt führende Technologien zusammen, sodass unsere gemeinsamen Kunden getestete, vorkonfigurierte und einfach zu integrierende Lösungen mit absolut zuverlässigem Support aus einer Hand erhalten. Die SAP HANA-Zertifizierung für SANsymphony-V bietet nun insbesondere Fujitsu-Partnern und Fachhändlern die Möglichkeit, SAP HANA-Anwender mit effektiven Storage-Lösungen zu versorgen, unabhängig davon, welcher Speicher bislang dort eingesetzt wird“, sagt Stefan von Dreusche, Director Central Europe bei DataCore.

DataCores Adaptive Parallel I/O-Software
An Stand B.34 können sich Fachbesucher zudem einen Einblick in die neuartige DataCore™ Adaptive Parallel I/O Software verschaffen. Die Technologie ermöglicht erstmals eine adaptive, parallele I/O-Verarbeitung in Mehrkernprozessoren. Vor allem lastenintensive Datenverarbeitungsprozesse bei OLTP-, Echtzeitanalyse-, Business Intelligence- bzw. Data Warehouse-Systemen sowie  SQL-, SAP- und Oracle-Datenbanken profitieren von einer Performance-Vervielfachung. Gleichzeitig können virtuelle Maschinen auf hyper-konvergenten Systemen dichter gepackt und damit Einsparpotenziale auf bislang unerreichtem Niveau erzielt werden.

Das Fujitsu Forum 2015, die größte jährliche Veranstaltung des Unternehmens in Europa, findet vom 18. bis 19. November im International Congress Center München (ICM) statt. Als Technologiepartner und Sponsor stellt DataCore an Stand B.34 aus.



Freitag, 13. November 2015

Das bringt Parallel-IO:Stefan von Dreusche im Video-Interview mit speicherguide

speicherguide.de berichtet von der Cloud Expo Europe 2015:

Datacore steigert Server-Performance mit Parallel-I/O-Software

Gestern ging die »Cloud Expo Europe« in Frankfurt zu Ende. Eines der Highlights ist eine von DataCore Software angekündigte neuartige Parallel-I/O-Technologie, die die Performance in virtualisierten und hyperkonvergenten Systemen vervielfachen soll. Die Technologie ermöglicht erstmals eine adaptive, parallele I/O-Verarbeitung in Mehrkernprozessoren. Vor allem lastenintensive Datenverarbeitungsprozesse bei OLTP-, Echtzeitanalyse-, Business-Intelligence- bzw. Data Warehouse-Systemen sowie SQL-, SAP- und Oracle-Datenbanken sollen von einer Performance-Vervielfachung profitieren. [...]

Nur noch zwei statt zehn Server nötig mit Parallel-I/O-Technologie von Datacore
Gleichzeitig sollen virtuelle Maschinen (VMs) auf hyperkonvergenten Systemen dichter gepackt und damit »Einsparpotenziale auf bislang unerreichtem Niveau« erzielt werden. So könnten aufgrund der besseren Auslastung der Cores typischerweise zwei Server die gleiche Arbeit verrichten wie vorher zehn Server. »Das Einsparpotenzial ist enorm«, erläutert von Dreusche. Zum kompletten Artikel hier klicken. 




Montag, 2. November 2015

Konzepte gegen den Engpass


Alex Best im Gespräch mit den Veranstaltern der Cloud Expo Europe:

IT-Technologien machen so schnelle Fortschritte, dass die Speicherkapazitäten nicht immer mithalten können. Virtualisierung kann dieses Problem lösen, insbesondere im Zusammenspiel mit einem durchdachten Software-Defined-Storage-Konzept.

Die Datenmengen, die Unternehmen in den unterschiedlichsten Geschäftsprozessen zu verarbeiten haben, wachsen in rasantem Tempo. „Sie verdoppeln sich etwa alle zwei Jahre“, sagt Alexander Best. Der IT-Fachmann mit mehr als 20-jähriger Berufserfahrung arbeitet für die DataCore Software GmbH und ist dort zuständig für Technical Business Development Central Europe. Software Defined Storage (SDS) ist eines seiner Spezialgebiete. „SDS bedeutet mehr als nur die Virtualisierung von Speicherkapazitäten“, sagt Best. „Es ist ein konzeptioneller Schirm über alle Speichertechnologien hinweg, entwickelt und installiert von einem Software-Hersteller.“

Nach Bests Auffassung löst dieser Ansatz ein sich zuspitzendes Problem: „Prozessorleistungen, DRAM und BUS-Geschwindigkeiten, die Leistungsfähigkeit von Netzwerken – all das hat in den letzten Jahren Steigerungen um das Zehn- bis Zwanzigfache, Netzwerke sogar um das bis zu Hundertfache zu verzeichnen. Bei der Geschwindigkeit von Festplatten allerdings treten wir auf der Stelle mit Leistungszuwächsen von vielleicht 20 Prozent.“ Zu wenig, um mit den Fortschritten anderer IT-Komponenten mitzuhalten: „Bei der Leistung ist der Speicher mittlerweile der Engpass und der effektive IO pro Gigabit sinkt seit Jahren dramatisch.“

Hier setzt die Virtualisierung an, denn im virtuellen Speicher lassen sich Kapazitäten geräteunabhängig erweitern. Pooling und Provisioning – also das Gruppieren und Zuteilen freier Speicherkapazitäten einschließlich Cloud-Lösungen – sind hier wichtige Stichworte. „Software Defined Storage setzt auf die Virtualisierung auf und stellt zusätzliche Leistungsmerkmale wie Snapshots, Spiegelung, Replikation und Continuous Data Protection (CDP) herstellerübergreifend zur Verfügung. Damit entsteht ein softwaredefiniertes Konzept, das weit über die klassische Speichervirtualisierung hinausgeht“, erläutert Best.

Hier Weiterlesen...zum kompletten Interview

Vorträge mit Alex Best im "Virtualisation, Infrastructure, Storage and SDN Theatre"
Software Defined Storage - Wenn Speicher zum Service wird
Dienstag, 10. Nov. 2015, 10:30 - 10:55
Mittwoch, 11. Nov. 2015, 11:00 - 11:25

Software Defined Storage sorgt für Performance-Boost in Storage-Infrastrukturen
Dienstag: 10. Nov. 2015, 14:30 - 14:55

DataCore stellt auf der Cloud Expo Europe (10. – 11. November 2015, Messe Frankfurt, H4.1) an Stand 655 aus. 

Vereinbaren Sie einen Termin, um Alexander Best und seine Kollegen persönlich auf der Cloud Expo zu treffen: http://info.datacore.com/cee15-csm