IT & Telekommunikation

RSS Feeds  | Alle Branchen IT & Telekommunikation-Visual-101543282
26.06.2013, 13:45 Uhr | 0 |

Informationstechnik Rechenzentren im Umbruch

Die Nutzung der althergebrachten Mainframe-Systeme geht weiter zurück. Cloud-Computing, Virtualisierung und "Converged-Systems" heißen die Schlagworte, unter denen sich die IT-Infrastrukturen von Grund auf verändern. Laut einer Untersuchung werden 70 % aller Unternehmen ihre IT in den nächsten drei Jahren grundlegend modernisieren.

Rechenzentrum
Á

In den großen Rechenzentren stehen in den nächsten Jahren Veränderungen an. Denn die Infrastrukturen sind trotz Virtualisierung zu komplex und zu teuer. 

Foto: Foto: jdb

Immer mehr Topmanager verlangen von den IT-Chefs, dass sie die EDV-Infrastruktur schneller und effizienter auf die Bedürfnisse der Geschäftsbereiche anpassen können. Doch mit den teilweise jahrzehntealten Architekturen ist das kaum noch möglich. Cloud-Computing und Virtualisierung schafften kurzfristige Erleichterungen, doch das reicht nicht.

Laut einer Untersuchung des IT-Unternehmens Dell planen bereits 70 % aller Unternehmen die komplette Generalüberholung ihrer Rechenzentren (RZ) innerhalb der nächsten drei Jahre. "Die heutige IT-Infrastruktur ist zu starr geworden, sie lässt sich nicht optimal skalieren und die Administration ist zu zeitintensiv und zu teuer", sagt Marius Haas, Chef für das Unternehmensgeschäft bei Dell.

Automatisierung und Konsolidierung verschiedener Bereiche

Zu dieser RZ-Transformation gehört auch eine realistischere Nutzung von bislang hochgepriesenen Technologien. Bis vor Kurzem galt die Virtualisierung als das Allheilmittel, wenn es um die Vereinfachung des RZ-Betriebs ging. Doch damit stieg die Zahl der Virtuellen Maschinen (VM) rasant an und damit auch der Aufwand für das Management der realen wie der virtuellen RZ-Bereiche. Das wiederum führte zu erheblichen Kosten beim RZ-Betrieb. Folglich ist der nächste Schritt die Automatisierung und Konsolidierung verschiedener RZ-Bereiche.

"Convergence" heißt das bei den Anbietern und bedeutet ein Umdenken bei den IT-Chefs. Es geht jetzt nicht mehr darum, die bislang separaten Bereiche Hardware, Software und IT-Betrieb getrennt zu organisieren, sondern es geht um einen holistischen Ansatz, bei dem das Rechenzentrum oder Teile davon als eine geschlossene Einheit betrachtet und optimiert werden. Der größte Vorteil eines solchen Denkansatzes ist, dass die Aufgaben und Anforderungen an das RZ an oberster Stelle stehen – ein reiner Businessansatz also. Alle Technologien und RZ-Services haben sich dann diesem Business-Anforderungsprofil unterzuordnen.

Höheres Niveau bei Integration der Produkte wird angestrebt

Mit dieser neuen Betrachtungsweise geht einher, dass die Anbieter ein höheres Niveau bei der Integration ihrer Produkte anstreben. Beispiele dafür sind Fujitsus "Cloud-Ready-Box", SAPs Hana, Oracles Exa-Maschinen, IBMs Pure-Systems und Dells vStart 1000. In allen Fällen werden verschiedene Standardkomponenten in einer optimal abgestimmten Weise direkt in einem System integriert. Solche Konvergenz kann auch über die mehrere Hersteller hinweg gehen. Dells Kooperation mit Oracle, bei der die Oracle-Anwendungsprogramme optimal auf Dells x86-Server und deren Speichermodule abgestimmt sind, gilt als Paradebeispiel dafür.

Der Nachteil dieser hochintegrierten Systeme ist der, dass es geschlossene Blackboxes sind, die intern kaum verändert werden können. Erst in jüngster Zeit kommen halb offene Systeme auf den Markt, bei denen die erforderlichen Komponenten und Tools vorher festgelegt sind und dann in einer möglicherweise suboptimalen Weise integriert werden. Vor allem HP und Dell sind hier aktiv.

Der Vorteil dieser Lösungen ist, dass diese Infrastruktur weiterhin aus einzelnen Standardkomponenten besteht, die leichter aufzurüsten und auszutauschen sind, als es bei den total integrierten Blackboxes der Fall ist. Der Nachteil ist, dass eben nicht alle Komponenten bis zum Anschlag ausgereizt werden können.

Trend zu extrem kleinen Systemen

Der Trend zur Konvergenz wird durch sogenannte Hyperscale-Systeme ergänzt. Hyperscale-Server sind praktisch das Gegenteil der Virtualisierung. Während bei der Virtualisierung auf einem großen physischen Server eine Vielzahl unterschiedlicher virtueller Maschinen läuft, die eine extreme Anwendungsbreite abdecken, handelt es sich bei den Hyperscale-Servern um extrem kleine Systeme, die exakt auf einen bestimmten – manchmal äußerst trivialen – Service abstimmt sind.

Beispiele für solche Services können die Displaymodule bei Webanwendungen oder die Eingabemasken bei E-Commerce-Applikationen sein. Heute setzen alle großen Web-anbieter solche Hyperscale-Architekturen ein. Hierzu gehören u. a. die großen Nachrichten-Webseiten von BBC und CNN oder die Telekommunikationsanbieter wie AT&T und Verizon.

Hewlett-Packards (HP) jüngst vorgestelltes Moonshot-System gehört in diese Kategorie. Hier besteht ein Server nur noch aus einer kleinen Einschubkassette, die mit einem Atom-Prozessor von Intel ausgestattet ist. 450 solcher Kassetten passen in ein Rack. "89 % weniger Strom, 80 % weniger Platz und 77 % weniger Kosten", verspricht HP im Zusammenhang mit den Moonshot-
Servern.

Ähnlich ist das Hyperscale-Referenzdesign von Intel, das vor allem eine hohe Modularität auf der Subsystemebene bietet. Dieses ist besonders wichtig, denn um einen Microserver auf bestimmte Anforderungen hin zu optimieren, muss hohe Flexibilität beim Hauptspeicher, der CPU und dem Daten-Input bzw. -Output gegeben sein. So erlaubt Intels Referenzdesign die Bestückung mit Atom- oder den neuen Avoton-Chips.

Wahlmöglichkeiten für viele Anwender wichtig

Der Datentransfer soll mittels optischer Verbindungen eine Geschwindigkeit von bis zu 100 Gbit/s erreichen. Damit ist es nicht mehr erforderlich, die Speichereinheiten über den Bus anzubinden. Stattdessen können diese räumlich versetzt in separaten Racks untergebracht werden. Problematisch ist das Festhalten Intels an den eigenen Prozessoren.

Denn gerade die Wahlmöglichkeiten zwischen Intel-, AMD- und ARM-Prozessoren sind für viele Anwender wichtig. Dell stellte beispielsweise jüngst ein Motherboard vor, auf dem wahlweise x86- oder ARM-Prozessoren eingesetzt werden können. Dell ist derzeit beim Einsatz der ARM-Chips führend. Schon vor einem Jahr wurden die Copper-Microserver vorgestellt, die auf ARMs 32-bit-Architektur basieren. "Wir haben mehr als 1 Mio. Hyperscale-Server sowohl mit Intel- als auch mit ARM-Prozessoren ausgeliefert", sagte Dells Rechenzentrumsexperte Drew Schulke jüngst in einem Gespräch mit den VDI nachrichten.  

Anzeige
Von Harald Weiss | Präsentiert von VDI Logo
Zur StartseiteZur Startseite
schlagworte: 
kommentare

Aktuell wurden noch keine Kommentare zu diesem Artikel abgegeben. Loggen Sie ich ein oder melden Sie sich neu an, wenn Sie noch keine Zugangsdaten haben
> Zum Login     > Neu anmelden