Künstliche Intelligenz (KI) treibt eine neue Ära des intelligenten Embedded Computing voran

Datum der Veröffentlichung:
January 15, 2022

KI-gestütztes Computing ermöglicht vielfältige Einblicke und Sicherheitsverbesserungen in der gesamten Embedded-Computing-Branche. Wir beobachten einen enormen Anstieg des Bedarfs an Systemen mit hohem Rechenaufwand, die in schwierigen Umgebungen eingesetzt werden können, sowie an KI-basierten Plattformen, die die Verarbeitungsanforderungen erfüllen können, die Objekterkennung und -verfolgung, Videoüberwachung, Zielerkennung und zustandsbasierte Überwachung ermöglichen.

Betriebssysteme, die auf KI-Computing basieren, bieten optimierte Visualisierungsmöglichkeiten, um Video- und andere Vision-Sensoren in einer einheitlichen Viewer-Anwendung zu kombinieren, die anschließend für die gleichzeitige Lokalisierung und Kartierung von Robotern verwendet werden kann.

Dies schafft die Voraussetzungen für intuitivere Anwendungen, wie die Schätzung der menschlichen Pose, um Robotern beizubringen, Flugbahnen zu folgen, was letztendlich in autonomen Navigationssystemen verwendet werden kann, sowie die Extraktion von Gesichtsmerkmalen bei der automatisierten visuellen Interpretation, der menschlichen Gesichtserkennung und -verfolgung. Diese Aktivitäten dienen der Verbesserung von Sicherheit und Überwachung, Bewegungserfassung und erweiterter Realität (AR).

Operative Intelligenz in komplexen Umgebungen

Komplexe GPGPU-Inferenzberechnungen am Netzwerkrand ermöglichen diese visuelle Intelligenz ebenfalls, darunter hochauflösende Sensorsysteme, Sicherheitssysteme zur Bewegungsverfolgung, automatische Zielerkennung, Erkennung und Vorhersage von Bedrohungsorten. Bereiche wie Maschinenzustandsüberwachung und vorausschauende Wartung, teilautonomes Fahren und Fahrerberatungssysteme verlassen sich ebenfalls auf die Parallelverarbeitungsarchitektur von GPGPU.

Ein Großteil der hohen Rechenleistung, die in diesen kritischen eingebetteten Systemen stattfindet, basiert auf kompakten NVIDIA-Supercomputern und den zugehörigen CUDA-Kernen und Deep-Learning-SDKs, die zur Entwicklung datengesteuerter Anwendungen verwendet werden. Verkehrssteuerung, Mensch-Computer-Interaktion und visuelle Überwachung sowie der schnelle Einsatz von KI-gestützter Wahrnehmungsverarbeitung sind alles Bereiche, in denen Dateneingaben in verwertbare Informationen umgewandelt werden können.

Verarbeitung, die Konventionen übertrifft

Der NVIDIA Jetson AGX Xavier setzt neue Maßstäbe für Rechendichte, Energieeffizienz und KI-Inferenzfunktionen auf Edge-Geräten. Es ist ein Quantensprung in der intelligenten Maschinenverarbeitung, der die Flexibilität eines 8-Kern-ARM-Prozessors mit der reinen Rechenleistung von 512 NVIDIA-CUDA-Kernen und 64 Tensorkernen verbindet.

Mit seiner branchenführenden Leistung, Energieeffizienz, integrierten Deep-Learning-Funktionen und umfangreichen I/O ermöglicht Xavier neue Technologien mit rechenintensiven Anforderungen. Der neue Jetsys-5320 von Elma verwendet beispielsweise das Xavier-Modul, um den wachsenden Datenverarbeitungsanforderungen extrem robuster und mobiler Embedded-Computing-Anwendungen gerecht zu werden. Es bewältigt mühelos datenintensive Rechenaufgaben und ermöglicht Deep-Learning- (DL) - und maschinelles Lernen (ML) -Operationen in KI-Anwendungen.

Was treibt den Daten-Push voran

Die Geschwindigkeiten steigen, was Platinen- und Backplane-Lieferanten dazu veranlasst, neue Designs mit einer Kapazität von 25 Gbit/s pro Leitung zu entwickeln, die Hochgeschwindigkeits-PCIe Gen 3- und Gen 4-Designs unterstützen. Die Sensoren werden außerdem damit beginnen, 100 GbE für die Übertragung innerhalb und zwischen Gehäusen zu nutzen.

Wenn ein System in der Lage ist, leistungsstarke Deep-Learning-basierte Inferenz-Engines auszuführen, kann es komplexe Daten- und Videoverarbeitungsaufgaben wie Objekterkennung und Bildsegmentierung mehrerer Videobildströme, die über HD-SDI-, Ethernet- und USB3.0-Kameras aufgenommen wurden, und dergleichen, zuverlässig ausführen, die über Hochgeschwindigkeits-Rundsteckverbinder verbunden sind.

Neuere Softwareumgebungen werden zu austauschbaren Beschleunigern und GPGPUs bei den Anbietern führen. In Umgebungen, die auf offenen Standards basieren, wie der Sensor Open System Architecture™ (SOSA) -Initiative von The Open Group, sind lokale Verbindungen mit hoher Bandbreite zwischen SBCs und GPGPUs erforderlich, bei denen zwei Steckkarten (PICs) ein SOSA-Modul bilden können, und müssen möglicherweise skaliert werden, um den wachsenden Datenanforderungen gerecht zu werden.

Robuste KI für den militärischen Vorteil von morgen

Die heutigen Entwickler robuster eingebetteter Systeme sehnen sich nach unternehmenskritischer SFF-Autonomie mit KI-Verarbeitung auf Serverklasse, um sie an entfernten Standorten einzusetzen und schwierige Konnektivität zu bewältigen. Diese Systeme benötigen Reaktionsfähigkeit in Echtzeit, minimale Latenz und geringen Stromverbrauch. Fortschrittliche KI-Systeme, die die Datenverarbeitung vom Netzwerkrand bis hin zur gesamten Cloud ermöglichen, definieren die Möglichkeiten für den Einsatz robuster, kompakter Technologien in autonomen, rauen und mobilen Umgebungen neu.

Downloads

Weitere Blog-Beiträge lesen

Why Development Chassis are Critical to Implementing Systems Aligned to SOSA

Why Development Chassis are Critical to Implementing Systems Aligned to SOSA

Looking back we can now see a shift in how development platforms are designed and how they are used by our integrator customer base. That shift is making it easier and less expensive to perform the development stages of a deployable system project and put solutions into the hands of the warfighter faster than ever before. Development hardware can also be shared between projects, or inherited by subsequent projects. This saves not only on lab budget, but the time to order and receive all new hardware for a new development project.

Upgrades and Enhancements for Legacy VME and CPCI Ethernet Switches

Upgrades and Enhancements for Legacy VME and CPCI Ethernet Switches

In the past few years, several end-of-life (EOL) announcements in the embedded computing market have both caused angst and opportunity. Making the shift away from a tried-and-true solution always brings with it the need to review not only the mechanical elements of an embedded system, but the integration and networking elements as well. And when that review is forced upon a designer, as in the case of an EOL announcement, it may mean forced choices of not-as-optimum alternatives. Or it could be something different altogether.