Home Artikel Modulare Mikroserver-Technologie für Echtzeitkommunikation

Modulare Mikroserver-Technologie für Echtzeitkommunikation

Viele zukünftige Netzwerkanwendungen erfordern enorme Bandbreiten und Datenkommunikation in Echtzeit in einem Edge-Server-Design mit kleinem Formfaktor und dedizierten Feldschnittstellen. COM-Express Typ 7 Servermodule sind die richtigen Plattformen, um solche dedizierten Mikroserver für Edge-Standorte zu konzipieren.
Da viele Kunden heute 1-GbE-Konnektivität und die globale Verfügbarkeit von Gigabit-Bandbreiten für diese Geräte über öffentliche kabelgebundene und drahtlose Infrastrukturen unterstützen, gibt es immer mehr neue Anwendungen, die Kommunikationsfähigkeiten mit voller Bandbreite mit bis zu 10 mehreren GbE-Kanälen erfordern, was 10 Billionen bedeutet Bit/Sek.
Entfernen Sie Überzeichnungsbeziehungen
Ein zentraler Anwendungsbereich für die 10GbE-Kommunikation liegt in der Art der angeschlossenen Geräte. Öffentliche und private Netzbetreiber müssen eine angemessene Infrastruktur für 1GbE-fähige Geräte bereitstellen. Da immer mehr Geräte online gehen, müssen sie Überbuchungsbeziehungen in 1-GbE-Switched-Netzwerken eliminieren. Daher ist ein 10-GbE-Netzwerk der nächste logische Schritt, da vorhandene Infrastrukturen der Klasse CAT 6/7 wiederverwendet werden können. Die Folge: Immer mehr 10-GbE-Netzwerke werden für verschiedene Märkte und anspruchsvolle Anwendungen mit hoher Bandbreite eingesetzt. Aber es ist nicht nur eine Überbuchung, die mehr Netzwerkbandbreite erfordert. Es gibt auch viele Hochleistungsanwendungen, die eine höhere Geschwindigkeit erfordern. Anwendungsbereiche umfassen, sind aber nicht beschränkt auf:

  • Zugang zu den Enden von Broadcast-Infrastrukturen
  • Lokale Infrastrukturen für den Mobile Edge
  • Anbieter von Rechenzentrumsdiensten für Video- und Audio-Streaming sowie SaaS
  • Metropolregionen und größere private Netzwerke
  • Nebelserver in Industrie 4.0-Anwendungen
  • Cloud- und Enterprise-Edge-Server
  • Storage Attached Networks (SAN) für die Speicherung von Big Data
  • Intelligente Schalttechnologien und intelligente NAS-Geräte
  • Edge-Knoten für drahtlose Smart-Sensor-Netzwerke
  • Kollaborative Deep-Learning-Computer

Unterschiedliche Anforderungen in Echtzeit
Die meisten dieser Anwendungen haben nicht nur massive Anforderungen an die Bandbreite. Es besteht auch eine gewisse Nachfrage nach Echtzeit-Kommunikationsfähigkeiten. Eine Videosequenz beispielsweise benötigt fast Echtzeit, da sie fast sofort beginnen muss. Um schwankende Bandbreiten zum Endgerät zu überwinden, muss es zudem flexibel transkodiert werden, um Stille und Aussetzer zu vermeiden. Für solche Anwendungen auf Verbraucherebene wird derzeit eine Reaktionszeit von weniger als 1 Sekunde akzeptiert.
Aber was ist mit Live-Video einer netzwerkdefinierten HD-Auflösung, denn niemand möchte auf das System warten, sobald ein App-Button geklickt wurde. Betrachten wir nun autonome Fahrzeuge, die beispielsweise in Intralogistikanwendungen oder kybernetischen virtuellen Fabriken eingesetzt werden, wo viele robuste SPS in Echtzeit synchronisiert werden müssen und wo kollaborative Deep-Learning-Roboter Situationsbewusstsein aus Ultraschall- und Videostreams gewinnen und E-Anwendungen aktivieren müssen. -die Gesundheit? Hier erfolgen feste zeitliche Vorgaben als Live-Übertragung, die nicht unterbrochen werden darf. Tolerierbare Latenzgrenzen werden auf zwischen 6 und 20 Millisekunden geschätzt. Ähnliche Latenzanforderungen treten überall in verzögerungsfreien Anwendungen auch in rauesten Umgebungen und bei sich schnell bewegenden Objekten auf. Hier werden Latenzgrenzen schwieriger und das Überschreiten einer Grenze ist kritisch, da es zu inakzeptablen Systemausfällen oder sogar potenziell gefährlichen Situationen für Arbeiter führen kann. Daher ist ersichtlich, dass es unterschiedliche Echtzeitanforderungen an Netzwerkanwendungen gibt und keine dieser mehr oder weniger kritischen Anforderungen verzögert werden sollte. Deshalb hat jede Servertechnologie immer etwas mit Echtzeitfähigkeit zu tun.
Ausgleich von Netzwerken und Servern
Solche Echtzeitfähigkeiten können mit Kommunikationskanal-Lastausgleich erreicht werden; und wenn eine strikte Echtzeitanforderung besteht, muss dieser Kommunikationskanal auch deterministisch sein. Gleiches gilt für die Server für die Anwendungen. Sie können mithilfe virtueller Maschinen ausgeglichen werden und ihre Ressourcen nach Bedarf freigeben. Solche virtuellen Maschinen können sogar aus vernetzten Servern oder vernetzten Ressourcen wie NAS- oder SAN-Speicher bestehen; und für ungünstige Echtzeit kann all dies auch deterministisch konfiguriert werden. Durch die Installation eines vernetzten Systems können nicht nur qualitativ hochwertige Dienste in Echtzeit erreicht werden. Das gesamte System wird billiger, indem viele Anwendungen auf virtuellen Maschinen ausgeführt werden, die auf einem einzigen virtualisierten System installiert sind, anstatt einen dedizierten Server für jede Anwendung zu installieren. Solche Strategien können dafür sorgen, dass der Serverbestand konsolidiert wird und Rechenleistung nicht verloren geht, um letztendlich auch Kosten zu sparen.
Aus diesem Grund werden immer mehr virtualisierte Servertechnologien in raueren Umgebungen eingesetzt, von Carrier-Grade-Netzwerk-Edge-Servern auf Hausdächern bis hin zu verschiedenen Industriebereichen wie Robotik und Maschinensteuerung. Stellen Sie sich nun vor, dass das virtualisierte System eine Roboterzelle für die Montage von Autos oder eine Industrie-4.0-Maschine ist. Oder es handelt sich um einen Videoserver für die öffentliche Videoüberwachung mit Objekterkennung in Echtzeit. Stellen Sie sich vor, es handelt sich um ein autonomes Fahrsystem. Oder Netzwerkgeräte mit Paketinspektion auf dem Dach. Alle diese Systeme haben ähnliche Verarbeitungs- und Umgebungsanforderungen, wie z. B. Unterstützung für große Temperaturbereiche und kleine Formfaktoren, aber mit sehr unterschiedlichen Anforderungen an das Systemdesign. Um all diesen variablen Anforderungen gerecht zu werden, ist ein standardmäßiges „One-fits-all“-Serverdesign nicht möglich.
Bewältigung der Personalisierungsdesign-Herausforderung
Genau für diese heterogenen Systeme hat die PCI Industrial Computer Manufacturers Group (PICMG) die neue COM Express Type 7-Servermodulspezifikation veröffentlicht, um Ingenieuren dabei zu helfen, die Designherausforderung des Aufbaus dedizierter Servertechnologien zu attraktiven Preisen und unter Verwendung von in der Distribution verfügbaren Komponenten zu meistern Kanal. Server-on-Module sind gute anwendungsfertige Komponenten, die Ingenieuren maximale Designeffizienz bieten, da sie nur die anwendungsspezifische Backplane anstelle eines viel komplexeren kundenspezifischen Boards entwerfen müssen. Die Reduzierung der Stückliste von vielen Komponenten auf ein einziges Modul für den Verarbeitungskern ist ein Vorteil für Einkaufsabteilungen, aber nur der kleinste Teil des Effizienzgewinns. Wichtiger ist die Reduzierung des Aufwands für das Design von Prozessor, RAM und Hochgeschwindigkeitsschnittstellen einerseits und den Aufbau des vollständigen Board-Support-Pakets mit allen erforderlichen Treibern, Bibliotheken und APIs andererseits.
Eine Effizienzsteigerung wird durch die Möglichkeit erreicht, die Leistung nicht nur innerhalb einer Prozessorfamilie, sondern über alle relevanten Prozessoren aller Anbieter hinweg zu skalieren. Die Standardisierung von Modulschnittstellen auf dedizierte Trägerplatinen bietet zudem mehr Designsicherheit, da langfristig sogar Legacy-kompatible Designs mit identischen Schnittstellen möglich sind.
Servermodule für raue Umgebungen
Aktuell die ersten COM Express Type 7 Module, ausgelegt für industrielle Umgebungen (von 0°C bis +60°C) sowie erweiterte Temperaturbereiche (-40°C bis +85°C) für Dach- und ÖPNV-Installationen bieten zwei 10-GbE-Schnittstellen für die horizontale und vertikale Echtzeitkommunikation sowie bis zu 32 PCIe-Lanes zum Anschluss von Peripheriegeräten, die für schnelle Speichermedien, GPGPUs (General Purpose Processing Units, englische Abkürzung) und genutzt werden können alle Arten von industriellen Ethernet-Schnittstellen. Der Footprint dieser Module misst nur 125 x 95 mm, was die Entwicklung sehr kompakter und dennoch extrem leistungsfähiger Mikroserver ermöglicht. Der erste Prozessor für Server-on-Module-Technologie ist der sehr performante Intel® Xeon® D Prozessor (Referenzname Broadwell) mit bis zu 16 Serverkernen, 32 Threads und bis zu 48 GB DDR4 ECC RAM. Einsatzgebiete der neuen Servermodule sind Cloud-, Edge- und Fog-Server für Carrier-Grade- und industrielle Netzwerkanwendungen in rauen Umgebungen.
Zeitkritische Netzwerkunterstützung
Da Echtzeitunterstützung für diese Serverdesigns von entscheidender Bedeutung ist, unterstützen die Servermodule auch einen per Software definierbaren Pin für jede der 10-GbE-Schnittstellen. Dieser physikalische Pin kann als Ein- oder Ausgang konfiguriert werden und wird vom entsprechenden Ethernet-Controller angesteuert. Eine typische Anwendung ist die Implementierung eines Hardware-basierten IEEE 1588-Timing-Protokolls für Hochleistungs-Echtzeitanwendungen, um eine 802.1-Synchronisation und Echtzeit-Synchronisation von verteilten Systemen durchzuführen. Zu den möglichen Anwendungen gehören konvergente Netzwerke mit Echtzeit-Audio-/Video-Streaming und Echtzeit-Steuerungsflüssen, die in Automobil- oder Industriesteuerungsinstallationen verwendet werden.
Durch die Implementierung 802.1-konformer zeitkritischer Netzwerke können Designer sicherstellen, dass alle Geräte ein gemeinsames "Verständnis" der Zeit haben und dass sie die gleichen Regeln bei der Verarbeitung und Weiterleitung von Kommunikationspaketen, bei der Auswahl von Kommunikationsrouten und bei der Reservierung von Bandbreite verwenden und Zeitschlitze, wobei möglicherweise mehr als ein Pfad gleichzeitig verwendet wird, um fehlertolerante Failover-Modi zu erreichen. Die letztgenannte Forderung ist der Hauptgrund, warum COM Express Type 7-Module bis zu viermal 10 GbE nativ unterstützen können, da die horizontale Kommunikation auf Prozessebene mindestens zweimal zwei Kanäle benötigt, um eine Leitungs-, Kabel- oder Ringarchitektur zu sparen. Die gleiche Anforderung gilt für Endpoint-Server, die ein Switched-Storage-Netzwerk verwenden oder beispielsweise Big Data- oder Deep-Learning-Algorithmen ausführen.
Hypervisor-Implementierung
Für Anwendungsentwickler, die auch ihre Serverplattformen virtualisieren möchten, können anwendungsfertige Pakete Ingenieuren dabei helfen, ihre Lösungen schneller auf den Markt zu bringen. COM Express Typ 7 Module, wie das congatec conga-BX7D in Kombination mit dem conga-X7 / EVAL Evaluierungsträgerboard, unterstützen beispielsweise den Echtzeit-System-Hypervisor, besonders geeignet für Industrierobotik, Steuerungssysteme und Anwendungen in der Industrie Bereich Medizintechnik. Eine Suite, die so schnell zu booten ist, dass sie auch Fernwartung und -verwaltung umfasst und die Evaluierung von Servermodulen vereinfacht, die nach dem PICMG COM Express Type 7-Standard entwickelt wurden.
Ingenieure profitieren außerdem von reduziertem Aufwand für die Validierung ihrer eigenen Carrierboard-Designs, da sie Best-Practice-Komponenten und PCB-Layout-Schaltpläne für ihre eigenen modularen Mikroserver der nächsten Generation wiederverwenden können, da congatec die neuen Carrierboard-Schaltpläne allen registrierten Kunden schnell zur Verfügung stellt Start-Kit, kostenlos. Stehen keine zeitlichen Ressourcen zur Verfügung, besteht immer die Möglichkeit, die integrierten Konstruktions- und Fertigungsdienstleistungen (EDM) des Modulanbieters zu beauftragen.