Die ARM-Zertifizierung für Rechenzentren steht vor der Tür – Gigaom

| |

ARM-CPUs sind heutzutage die erste Wahl für alles außerhalb des Rechenzentrums. Sogar einige PCs basieren jetzt auf diesem CPU-Typ. Dafür gibt es mehrere Gründe: niedriger Stromverbrauch, ausreichend Rechenleistung, System-on-Chip-Designs (SoC), Ökosystem, ARM-Lizenzmodell und mehr. Auf der anderen Seite hat Intel diesen Kampf vor langer Zeit verloren, aber X86-CPUs haben zweifellos im Rechenzentrum gewonnen. Die Dinge ändern sich jedoch und ARM wird auch für Workloads in Rechenzentren attraktiver.

Arbeitslasten und Anwendungen ändern sich

Intel CPUs sind für manche Workloads einfach unschlagbar. Single-Thread-Aufgaben werden in x86-Kernen schneller und besser ausgeführt. Diese CPUs haben riesige Speicher-Caches, sind für mehrere Workloads geeignet und liefern sehr vorhersehbare Ergebnisse. Die Art und Weise, wie wir neue Anwendungen entwerfen und entwickeln, ändert sich jedoch. Mikroservices und kleine Container sind sehr parallel, sehr klein und erfordern nur minimale Ressourcen für die Ausführung. Mehrere kleine Aufgaben in CPUs mit wenigen Kernen auszuführen, obwohl schnelle Kerne, ist nicht sehr effizient, der Speichercache ist weniger wichtig und das Umschalten des Kontexts ist eine Gebühr, unabhängig von der Effizienz der CPU.

Kleinere CPUs mit vielen Kernen können mehrere Aufgaben gleichzeitig und effizient ausführen. Vielleicht erinnern sich einige von Ihnen an Sun SPARC T-CPUs. Diese CPU war ihrer Zeit voraus und besonders schrecklich, wenn es darum ging, eine einzelne Aufgabe auszuführen, aber für hochgradig Multithread-Code waren sie ein Killer. Leider waren Multithread-Code und Microservices zu dieser Zeit immer noch eine Utopie.

Hardware ändert sich

Allzweck-CPUs sind in jeder Hinsicht in Ordnung, aber um ehrlich zu sein, sie können überhaupt nichts. In den letzten Jahren haben viele neue spezialisierte Prozessoren (oft als Beschleuniger bezeichnet) in den Rechenzentren Fuß gefasst:

  • GPUs für intensive Grafik-, Medien-Transcodierung und AI / ML
  • FPGAs für die Signalverarbeitung, Spracherkennung, Kryptografie, Vernetzung und einige KI-Aufgaben
  • Tensor CPUs: Spezialbeschleuniger für AI und ML
  • Und selbst ASICs sind für bestimmte Aufgaben zurück

Wenn Server mit diesen Beschleunigern ausgestattet sind und die Workloads ausführen, für die sie entworfen wurden, ist die CPU-Leistung weniger relevant, um die Gesamtausführungszeit einer Task zu verbessern. Zu diesem Zeitpunkt ist eine ausreichend leistungsfähige CPU besser als eine leistungshungrige.

Darüber hinaus haben Hyper-Scaler vor langer Zeit begonnen, ihre eigene Hardware zu entwerfen. Sie haben jetzt spezialisierte Hardware, die auf ihre spezifischen Bedürfnisse zugeschnitten ist. Effizienter, wartungsfreundlicher, ausfallsicherer und kostengünstiger als Standard-Rack-Server. Mit einer besseren Kontrolle über das gesamte Design, einschließlich der CPU, können sie diese Eigenschaften noch weiter verbessern. Kleinere Server bedeuten außerdem kleinere Ausfalldomänen und eine bessere Dienstverfügbarkeit.

In dieser Hinsicht sind nicht nur Hyper-Scaler, sondern auch Tier-2-Dienstanbieter aktiv. Paket hatte zum Beispiel immer einige ARM-Instanzen und mehrere PaaS- und SaaS-Anbieter untersuchen das Potenzial dieser Option.

Verändern sich Unternehmen?

Kurze Antwort? Nicht so viel. Unternehmen sind weiterhin gezwungen, X86-basierte Hardware und Standardserver zu verwenden. Sie haben nicht die Zahlen und ehrlich gesagt das Interesse, zu ARM zu wechseln.

Herkömmliche Unternehmensanwendungen sind noch nicht bereit, und obwohl wir jeden Tag über Kubernetes sprechen, wird es lange dauern, bis eine kritische Masse containergestützter Anwendungen über den Umstieg auf neue Hardwarearchitekturen nachdenklich ist. Ehrlich gesagt ist es zu diesem Zeitpunkt sehr wahrscheinlich, dass die On-Prem-IT nur eine Komponente einer größeren Hybridumgebung mit Anwendungen ist, die zwischen der öffentlichen Cloud und lokalen Infrastrukturen schweben, und ich weiß nicht, ob sich noch jemand darum kümmert Schauen Sie zu viel in etwas hinein, das in Bezug auf die Gesamtbetriebskosten keinen großen Unterschied macht.

Edge Computing könnte eine andere Geschichte sein. Wenn Kubernetes ein weit verbreitetes System für die Bereitstellung und Verwaltung von Anwendungen an Remotestandorten wird, könnten die Energieeffizienz und andere Vorteile von ARM-Architekturen eine wichtige Rolle spielen, was zu einer wesentlichen Änderung der Gestaltung von Edge-Infrastrukturen führen könnte. Und es ist nicht nur Kubernetes, VMware liegt mit seinem ESXi für ARM auf der gleichen Wellenlänge.

Die zentralen Thesen

Cloud- und Serviceanbieter gestalten ihre Rechenzentren auf optimale Effizienz. Sie geben viel Hardware aus, und jede Verbesserung, die sie vornehmen können, kann leicht zu erheblichen Einsparungen führen. Hyperskalierer wie Microsoft und Amazon arbeiten bereits hart in diese Richtung, und viele andere, auch kleinere, tun dasselbe.

Startups wie Bamboo Systems arbeiten beispielsweise daran, effiziente ARM-Server einem breiteren Publikum zur Verfügung zu stellen, und auch die Anzahl der standardmäßigen ARM-basierten Designs nimmt zu.

Es sieht so aus, als hätten spezialisierte CPUs und Beschleuniger mehr Potenzial als in der Vergangenheit, um das Rechenzentrum zu gewinnen. Intel braucht neue Ideen, neue CPU-Designs und neue Produkte, um Konkurrenten wie AMD mit Epyc, NVIDIA-GPUs und ARM zu bekämpfen. Sie haben es bereits in der Vergangenheit getan, werden sie es wieder tun können?

(tagsToTranslate) Arm (t) Rechenzentrum (t) Kubernetes (t) VMware

Previous

Die Deutsche Bahn senkt den Sparpreis auf 17,90 Euro

Alle Kunst ist politisch: Der Schweizer Blocher zeigt Meisterwerke

Next

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.