Google Coral – Edge AI in der Praxis

Edge AI verwendet leichtgewichtige ASIC-Chips zur Ausführung von Algorithmen des maschinellen Lernens, wie sie in den Cloud-Servern von Google verwendet werden. Diese Chips benötigen im Vergleich zu GPU-Chips sehr wenig Strom und ermöglichen eine Echtzeitverarbeitung mit geringer Latenz. Es wird erwartet, dass diese Systeme in vielen verschiedenen Anwendungen eingesetzt werden, einschließlich intelligenter Lautsprecher, die die gesamte Sprache an die Cloud senden.

Edge TPU ist ein ASIC-Chip, der für die Ausführung leichtgewichtiger maschineller Lernalgorithmen optimiert ist

Ein neues Entwicklungskit von Google umfasst ein System-on-Modul, eine NXP-CPU und ein sicheres Element von Microchip. Es verfügt außerdem über Wi-Fi-Funktionen und kann über USB oder einen PCI-Express-Erweiterungssteckplatz mit einem Computer verbunden werden. Das Kit ist derzeit nur als Beta-Version erhältlich.

Der Edge-TPU-Chip kann für die Inferenz und das Training von Algorithmen des maschinellen Lernens am Rande verwendet werden. Google möchte in diesem Bereich Marktführer werden und passt neuronale Netze für Edge Computing an. Traditionell werden ML-Modelle nicht speziell für die in Edge-Computern verfügbare Hardware entwickelt. Diese Anpassungen ermöglichen es den Entwicklern jedoch, Genauigkeiten zu erreichen, die mit denen in Rechenzentren vergleichbar sind.

Die Edge TPU-Laufzeitumgebung für maschinelles Lernen verwendet TensorFlow Lite und ist für die Durchführung von Vorwärtspass-Operationen konzipiert. Sie wird jedoch in erster Linie für Inferenzen und nicht für Transfer-Lernen verwendet. Außerdem unterstützt sie nur 8-Bit-Mathematik, so dass für das Training eines Netzwerks auf diesem Chip die quantisierungssensitive Trainingstechnik von TensorFlow verwendet werden muss.

Googles Edge TPU ist ein ASIC-Chip, der für die Ausführung leichtgewichtiger Algorithmen für maschinelles Lernen entwickelt wurde. Dieser Chip ist kleiner als sein Gegenstück Cloud TPU und kann vier Billionen Operationen pro Sekunde ausführen. Der Chip wird im Januar 2019 für Entwickler verfügbar sein. Er ist in der Lage, eine Vielzahl von Aufgaben zu bewältigen.

Die Edge TPU kann auch mit AutoML angepasst werden. Dieses Tool hilft Entwicklern dabei, durch eine Verringerung der Modellgröße eine hochmoderne Bildklassifizierungsgenauigkeit zu erreichen. Dies führt zu einer geringeren Berechnungskomplexität und Latenzzeit.

Sie ähnelt der wassergekühlten TPU, die in Googles Cloud-Servern verwendet wird

Google setzt bei seiner Hardware für künstliche Intelligenz und seinen Rechenzentren auf Flüssigkeitskühlung. Google-CEO Sundar Pichai hat auf der Entwicklerkonferenz IO18 einen Prototyp der TPU der dritten Generation vorgestellt. Er besteht aus einer Server-Hauptplatine mit Schläuchen, die mit Chip-Baugruppen verbunden sind.

Die TPU ähnelt der TPU in Googles Cloud-Servern, ist aber für Anwendungen ausgelegt, die eine lokale Verarbeitung erfordern. Ein Beispiel ist die Objekterkennung. Entwickler können ein Modell des maschinellen Lernens trainieren, um Objekte in Videoströmen zu identifizieren. Das Modell kann dann auf der Coral Edge TPU implementiert werden. Die TPU beginnt dann, Objekte lokal zu erkennen.

Google hat eine neue Allzweck-Plattform für maschinelles Lernen namens Coral veröffentlicht, die eine Edge TPU verwendet. Die Edge TPU ist ein spezialisierter ASIC, der für tiefe neuronale Netze entwickelt wurde. Sie ist in mehreren Versionen erhältlich, die jeweils auf bestimmte Anwendungsfälle zugeschnitten sind. Coral ist als Einplatinencomputer (CBD), USB-Beschleuniger oder als kundenspezifisches PCB erhältlich. Er wird im ersten oder zweiten Quartal 2020 ausgeliefert. Er wird mit dem Google Cloud IoT Edge Software Stack kompatibel sein.

Google Coral verwendet eine Tensor Processing Unit (TPU), die der TPU ähnelt, die in Googles Cloud-Servern verwendet wird. Sie führt Tensor-Berechnungen durch und wird für neuronale Netzwerke und Deep Learning verwendet. Es wird auch eine Edge TPU verwendet, die viel leichter ist und weniger Strom verbraucht. Die Edge TPU verwendet ein systolisches Array für die Tensoroperationen.

Google hat noch keine technische Beschreibung des Kühlsystems des neuen TPU 3.0-Chips veröffentlicht. Bilder, die während Pichais Keynote gezeigt wurden, zeigen jedoch das Design des Geräts und wie es den Chip mit Flüssigkeit versorgt. Das Kühlmittel zirkuliert durch Schläuche, um die Wärme vom Chip abzuleiten.

Im Vergleich zu GPU-Chips ist er sehr stromsparend

Bei der Entwicklung eines Edge-Geräts müssen zwei Faktoren berücksichtigt werden: Energie und Platz. Das bedeutet, dass Edge-KI-Chips stromsparend und klein sein müssen. Darüber hinaus sollten sie eine hohe Rechenleistung bei geringem Stromverbrauch aufweisen. Dies erfordert von den Designern eine konservativere Haltung bei der Festlegung spezifischer Architekturspezifikationen.

Während GPU-Chips die höchste Rechenleistung bieten, neigen sie dazu, große Mengen an Strom zu verbrauchen. Glücklicherweise ist dies bei vielen Edge-Anwendungen nicht erforderlich. Die Core- und Atom-Prozessoren sowie die Xeon Scalable-Prozessoren von Intel sind speziell für IoT-Anwendungen konzipiert. Diese Prozessoren nutzen die Vorteile der 5G-Technologie für die Hochgeschwindigkeitsverarbeitung.

Der Edge AI-Chip eignet sich gut für Edge AI-Anwendungen. GPU-Chips sind eher für rechenzentrumsgebundene Plattformen geeignet. Sie verfügen jedoch nicht über die nötige Verarbeitungsleistung, um die Anforderungen von Edge-Geräten mit geringem Stromverbrauch zu erfüllen. Der Grund dafür ist, dass Edge-Geräte strombegrenzt und größenempfindlich sind.

GPU-Chips sind teuer. Sie sind teurer und haben einen höheren einmaligen Entwicklungsaufwand als FPGA-basierte Chips. Sie haben auch eine längere Entwicklungszeit. Aus diesen Gründen sind FPGA-basierte Plattformen die beste Option. Darüber hinaus sind sie flexibler und stromsparender als GPU-Chips.

GPU-Chips wurden in der Forschung und Praxis des maschinellen Lernens eingesetzt, aber die Edge-Geräte sind viel kleiner und stromsparender. Dadurch sind sie für raue Umgebungen geeignet. Allerdings benötigen sie für einige Arbeitslasten des maschinellen Lernens auch ihre eigene Rechenleistung. Diese Daten werden dann zur besseren Koordinierung und zum Lernen an Cloud-Computing-Cluster zurückgeschickt.

Der Vorteil von Edge-KI gegenüber herkömmlichen GPU-Chips liegt in der Fähigkeit, Daten in Echtzeit und mit begrenzter Leistung zu verarbeiten. Dadurch werden Bandbreite und Latenzzeit reduziert. Edge-KI-Prozessoren können auch Daten von Sensoren verarbeiten.

Ermöglicht Echtzeitverarbeitung mit geringer Latenz

Edge-KI ermöglicht die Datenverarbeitung am Rande und nicht in der Cloud. Dies verringert die Latenzzeit und das Datenvolumen und trägt dazu bei, Kommunikationsunterbrechungen zu reduzieren. Das System verwendet Rechenknoten, die mit Sensoren verbunden sind und autonom Rechenoperationen durchführen können. Zu seinen Vorteilen gehören eine Datenübertragung mit geringer Latenz und eine Echtzeitverarbeitung mit geringer Latenz.

Die Prozessoren der Coral-Serie von Google sind mit Tensor Processing Units (TPUs) ausgestattet, bei denen es sich um speziell entwickelte ASICs für das maschinelle Lernen mit neuronalen Netzwerken handelt. Ein Coral Dev Board ist eine mit TPUs ausgestattete All-in-One-Plattform. Es ermöglicht Entwicklern die einfache und schnelle Entwicklung und Bereitstellung von TFLite-Anwendungen. Außerdem verfügt es über ein flexibles SoM-Design, das die Skalierung für die Produktion erleichtert.

Der Vorteil von Edge AI ist die Verarbeitung mit geringer Latenz und der Schutz der Privatsphäre. Außerdem fungiert sie als Filter für Daten, was zur Senkung der Bandbreiten- und Verarbeitungskosten beiträgt. Da sie nahezu in Echtzeit erfolgt, spart die Edge-Verarbeitung Zeit und Geld, da weniger Daten in die Cloud übertragen werden müssen. Außerdem ist die Verarbeitung von Daten in der Cloud teuer.

Edge AI kann in einer Vielzahl von Anwendungen eingesetzt werden. So kann sie zum Beispiel die Diagnose von Radiologen verbessern. Sie kann auch beim Autofahren und bei der Bestäubung von Pflanzen helfen. Die Leistung der Edge-KI wird durch die neuesten Durchbrüche in der KI nutzbar gemacht.

Google hat eine neue Software- und Hardwareplattform namens Coral Toolkit für intelligente Edge-Geräte entwickelt. Die Coral-Plattform umfasst eine quelloffene TensorFlow Lite-Programmierumgebung und ein vollständiges Entwickler-Toolkit. Die Software-Plattform ermöglicht es Entwicklern, Google-KI-Modelle zu kompilieren und neu zu trainieren, damit sie auf Edge-Hardware laufen. Außerdem verbindet sie Edge-Tools und -Dienste mit der Google Cloud.

Sie ist aufgrund ihrer Dezentralisierung robust

Edge AI ist eine aufkommende Technologie, die eine effiziente Datenverarbeitung am Rande eines Netzwerks ermöglicht. Sie kann für eine Vielzahl von Anwendungen eingesetzt werden, darunter die vorausschauende Wartung und das maschinelle Lernen in der Geräteindustrie. So können Edge-Geräte beispielsweise Fehlerszenarien erkennen, bevor sie auftreten. Diese Technologie kann auch in der Automobilindustrie eingesetzt werden, um das Unfallrisiko zu verringern. Darüber hinaus kann sie Fahrzeugen helfen, Kollisionen und Straßensperrungen zu vermeiden. Auch das industrielle IoT kann von der Anwendung von Computer Vision profitieren.

Edge Computing kann ein Netz auch widerstandsfähiger machen. Mit der zunehmenden Digitalisierung der Welt ist die Internet-Infrastruktur überfordert, mit dem wachsenden Datenvolumen Schritt zu halten. Die jüngste Coronavirus-Pandemie hat diese Probleme noch deutlicher gemacht. Während sich die Welt von der Pandemie zu erholen beginnt, werden die Digitalisierungsbemühungen weiter zunehmen. Mit der Einführung intelligenter Systeme in allen Branchen und Wertschöpfungsketten wird die Netzwerkbandbreite zu einem wichtigen Thema. Aus diesen Gründen wird Edge Computing eine Schlüsseltechnologie für die Digitalisierung sein.

Der Einsatz von Edge Computing kann Unternehmen helfen, ihre Kosten zu kontrollieren und neue Werte für Endnutzer und Kunden zu schaffen. Dieser Ansatz ist eine strategische Chance für IT-Fachleute, sich auf Ausfallsicherheit, digitale Transformation und den Aufbau einer Grundlage für die Zukunft zu konzentrieren. Viele bahnbrechende Unternehmen übernehmen die Führung im Bereich Edge Computing.

Edge Computing ist eine wachsende Technologie, die Rechen- und Speicherkapazitäten näher an den Rand bringt und so Redundanz- und Latenzprobleme reduziert. Edge-KI-Systeme können lokale Geräte und Datenströme nutzen, was maschinelle Lernaufgaben sinnvoller macht.

Ähnliche Themen