Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten, klicken Sie hier
#Neues aus der Industrie
{{{sourceTextContent.title}}}
Was geschah mit Intels Plattform zur Gesichtsfrüherkennung?
{{{sourceTextContent.subTitle}}}
Was als 2D- bis 3D-Tiefenkamera begann, hat sich zu einer Kamera mit Tracking- und LiDAR-Funktionen entwickelt.
{{{sourceTextContent.description}}}
Die Gesichtserkennungstechnologie ist einer der großen Trends auf der CES 2020. Das ist nicht überraschend, da der Markt für Gesichtserkennung laut Mordor Intelligence von 5,07 Milliarden USD im Jahr 2019 auf 10,19 Milliarden USD bis 2025 wachsen soll. Der Hardware-Markt ist in 2D- und 3D-Gesichtserkennungssysteme segmentiert, wobei letztere im kommenden Jahrzehnt am stärksten wachsen dürften.
Eine der ersten Hardware-Plattformen, die eine Gesichtserkennung ermöglichen sollten, war Intels Realsense. Bei der Einführung der Plattform im Jahr 2015 wurde sie als eine Möglichkeit für PCs, Mobiltelefone und Robotersysteme positioniert, über die Zweidimensionalität oder 2D hinaus zu sehen. Das auf einer Smart-Kamera basierende System war in der Lage, die dritte Dimension oder Tiefenwahrnehmung zu erfassen, um Objekte in ihrer Umgebung besser zu verstehen. Seit der ersten Einführung im Jahr 2015 ist das kamerabasierte System dank der Skalierungsvorteile des Moore'schen Gesetzes noch kleiner und leistungsfähiger geworden.
Einer der Gründe für die frühe Einführung und das Wachstum des Systems war, dass Software-Entwickler freien Zugang zu allen Realsense-APIs hatten. Diese Schnittstellen interagierten mit der Kamera, um die Bewegungsverfolgung, die Mimik - vom Lächeln und Stirnrunzeln bis zum Zwinkern - und vieles mehr zu ermöglichen. Es wurde auch eine Gestenverfolgung bereitgestellt, um Programme für die Fälle zu erstellen, in denen die Benutzer den Bildschirm nicht wirklich berühren konnten, wie z.B. bei der Verwendung eines Kochrezepts
"Computer werden beginnen, die Welt so zu sehen, wie wir sie sehen", erklärte der damalige CEO von Intel, Brian Krzanich, auf der Konferenz der Society for Information Display 2015. "Sie werden sich auf die Schlüsselpunkte eines menschlichen Gesichts konzentrieren, statt auf den restlichen Hintergrund. Wenn dies geschieht, ist das Gesicht nicht mehr ein Quadrat (2D-Form), sondern Teil der Anwendung
Zu dieser Zeit war eines der ersten Unternehmen, das diese Technologie einsetzte, JD.com, ein chinesischer Online-Verbraucher-Vertriebshändler. JD.com hatte seine manuellen Messband-Linealmaße durch Containermaße ersetzt, die von der RealSense-Kameraplattform erfasst wurden. Diese Automatisierung hatte fast 3 Minuten pro Container an Messzeit eingespart
Damals ging es darum, von der 2D- zur 3D-Berechnung überzugehen, wobei die dritte Dimension in Wirklichkeit eine zusätzliche Tiefenwahrnehmung bedeutete. Ein Beispiel für diese zusätzliche Dimension gab Ascending Technology, ein deutsches Unternehmen, das die Intel-Plattform nutzte, um einer sich schnell bewegenden Drohne zu ermöglichen, sich schnell durch einen Wald zu bewegen, einschließlich Auf- und Abwärtsbewegungen. Um dieses Kunststück zu vollbringen, war der Einsatz mehrerer Kameras und eines Prozessors erforderlich.
Jetzt, im Eiltempo zur CES 2020, wo sich Intels Realsense weiter zu einer Plattform entwickelt hat, die nicht nur die Tiefenwahrnehmung, sondern auch Tracking und LiDAR-Anwendungen unterstützt. Die Nachführung wird durch zwei Fischaugen-Objektivsensoren, eine Inertial-Messeinheit (IMU) und eine Intel Movidius Myriad 2 Visual Processing Unit (VPU) erreicht. Die Kameras tasten die Umgebung und die nahe Umgebung ab. Diese Scans werden dann zur Erstellung einer digitalen Karte verwendet, die zur Erkennung von Oberflächen und für Simulationen in der realen Welt verwendet werden kann.
Eine Anwendung der Tiefenwahrnehmung und -verfolgung bei CES war für einen Roboter, der seinem Besitzer folgt und Dinge trägt. Gita, der Fracht-Roboter der Vespa-Hersteller, folgte nicht nur seinem Besitzer, sondern verfolgte auch deren Aufenthaltsort auf dem CES-Ausstellerparkett.
LiDAR (Light Detection and Ranging) war die neueste Ergänzung der Realsense-Plattform. LiDAR-Kameras ermöglichen es Elektronik und Robotern, die Umwelt zu "sehen" und zu "spüren". Bei dieser Fernerkundungstechnologie wird die Entfernung zu einem Ziel gemessen, indem das Ziel mit einem Laserlicht bestrahlt und dann das reflektierte Licht gemessen wird. Es ist sehr genau und wird in der Automobilindustrie als Ergänzung zu Ultraschall- und herkömmlichen Kameras eingesetzt.
Auf der CES 2020 war eine der hervorgehobenen LiDAR-Anwendungen ein Ganzkörper-3D-Scan von Personen in Echtzeit. Eine weitere Anwendung von LiDAR war die Verfolgung von Skelettbewegungen mit dem Cubemos Skeletal Tracking SDK, das die Fähigkeit zur Integration von 2D- und 3D-Skelettverfolgung in ein Programm mit nur 20 Codezeilen bietet. Das SDK bot eine vollständige Skelett-Körperverfolgung von bis zu 5 Personen.
Seit der Veröffentlichung vor über 5 Jahren gab es viele Konkurrenten zu Intels Realsense-Plattform, darunter Google Scale, Forge, ThingWorx Industrial IoT und einige andere. Ein solcher gesunder Wettbewerb zeugt von dem Markt für kompakte, relativ preiswerte Kameraplattformen, die in der Lage sind, Objekte in der Tiefe wahrzunehmen, zu verfolgen und LiDAR zum Scannen von Formen zu verwenden.