Perzeption als Schlüssel für KI-basierte Robotik

Die von einer 3D-Kamera erzeugte Punktwolke zeigt eine Industrieszene. Die Farben visualisieren die Entfernung der Objekte zur Kamera, von rot (nah) bis blau (fern), und ermöglichen dem Roboter die räumliche Orientierung.

3D-Tiefenkarte einer Roboterszene mit Behältern und einem Greifarm, farbcodiert nach Abstand.

Die zunehmende Komplexität und Vielfalt in industriellen Anwendungen stellt neue Anforderungen an robotergestützte Automatisierungssysteme. Die zu automatisierende Prozesse werden komplexer und auch das Bauteilspektrum pro Anlage erhöht sich. Zudem müssen Produktionsflächen optimiert und Zuführkonzepte flexibilisiert werden. Die eingesetzten Automationskomponenten wie Roboter müssen daher ihre Umgebung erfassen und analysieren können. Dafür benötigen sie eine visuelle Wahrnehmung, kurz: die Perzeption.

Die Fähigkeit zur visuellen Wahrnehmung ist die zentrale Voraussetzung für die KI-basierte Robotik. Sie entscheidet darüber, ob ein Roboter einfach nur Bewegungen ausführt oder intelligent mit seiner Umgebung interagiert. Erst durch KI-basierte 3D-Perzeption können Roboter komplexe Anwendungen wie das Greifen chaotisch angeordneter Bauteile oder flexibles Depalettieren zuverlässig übernehmen. Die Voraussetzung dafür ist eine robuste Objektlageschätzung, oft unter variablen Licht- und Umgebungsbedingungen.

Objekterkennung, Segmentierung und Priorisierung dank neuronaler Netze und klassischer Bildverarbeitung

Eine der wichtigsten Innovationen ist die 3D-Objekterkennung auf Basis neuronaler Netze. KI-basierte Modelle ermöglichen es, Objekte auch unter schwierigen und sich ändernden Bedingungen, etwa bei schlechter Beleuchtung oder wechselnden Hintergründen, zuverlässig zu erkennen und ihre exakte Lage zu bestimmen. Besonders bei sich überlappenden oder nur teilweise sichtbaren Bauteilen ist die Fähigkeit zur Segmentierung und Priorisierung einzelner Objekte entscheidend für die Prozesssicherheit.

Roboception setzt bei der Umsetzung dieser Aufgaben auf eine modularisierte Prozesskette: Im ersten Schritt erfolgt die grobe Erfassung des Objekts, gefolgt von einer initialen Lageabschätzung. Diese wird anschließend mithilfe klassischer Verfahren, beispielsweise anhand von Kanteninformationen und Tiefendaten, verbessert. Dieses Vorgehen erlaubt gezielte Optimierungen einzelner Module, ohne dass jedes Mal das komplette System neu trainiert werden muss.

3D-Tiefenkarte einer Roboterszene mit Behältern und einem Greifarm, farbcodiert nach Abstand.
Die Software eines Bildverarbeitungssystems hat mehrere Elektronikbauteile erkannt. Jedes Objekt ist mit einem farbigen Rahmen und einer ID markiert, um eine präzise Bauteilvereinzelung (Kitting) zu ermöglichen.

Robotik-Vision-System identifiziert verschiedene Elektronikbauteile mit farbigen Bounding-Boxen.

Dieses computergenerierte Bild zeigt eine realistische Simulation von ungeordneten Metallbauteilen. Solche synthetischen Daten werden genutzt, um KI-Modelle für den "Griff in die Kiste" zu trainieren.

Synthetisch erzeugtes Bild von zufällig angeordneten Metallbauteilen in einem Behälter für KI-Training.

Synthetische Daten revolutionieren die Trainingsphase

Während in der klassischen Bildverarbeitung die Parameter der Algorithmen von Experten optimiert werden, ist in der KI-basierten Wahrnehmung die Auswahl der richtigen Trainingsdaten entscheidend. Die Korrektheit und Vollständigkeit der Trainingsdaten ist von entscheidender Bedeutung für die Zuverlässigkeit der Lösung. Oft werden für KI-Modelle große Mengen an Bilddaten benötigt, deren Erfassung und manuelle Aufbereitung (Labeling und Lageschätzung) aufwendig und kostenintensiv sind. Genau hier liegt der entscheidende Vorteil synthetischer Daten.

Synthetische Daten werden digital erzeugt, oft basierend auf CAD-Modellen für bekannte Objekte. Sie ermöglichen es, beliebig viele Variationen von Szenarien automatisiert zu erstellen, einschließlich unterschiedlicher Blickwinkel, Beleuchtungssituationen und Objektpositionen. Die synthetischen Daten enthalten automatisch exakte Lageinformationen, weshalb manuelles Labeln entfällt.

Roboception nutzt seit Jahren erfolgreich synthetische Daten, ergänzt diese punktuell durch reale Aufnahmen und erreicht so eine sehr hohe Genauigkeit. Dieser hybride Ansatz beschleunigt nicht nur die Trainingsphase, sondern ermöglicht auch eine schnelle Anpassung an neue Anwendungen. Pro Objekt werden so weniger als 1000 automatisch generierte Bilder für die Template-Erstellung auf Basis von CAD-Modellen benötigt, und neue Objekte können mit geringem Aufwand in bestehende Systeme integriert werden. Die Templates können lokal oder cloudbasiert erstellt und in Edge-Systeme geladen werden, wodurch bei gleichzeitiger Reduzierung von Engineering- und Integrationsaufwand eine hohe Skalierbarkeit erreicht wird.
 

Anwendungsfälle verdeutlichen die Rolle der zuverlässigen Perzeption für die Automatisierung von Morgen
Anwendung des "Griffs in die Kiste": Ein Roboterarm, gesteuert durch ein 3D-Visionsystem, greift präzise ein einzelnes Metallteil aus einem Behälter mit vielen unsortierten, identischen Komponenten.

Ein Roboterarm mit Sauggreifer beim "Griff in die Kiste" entnimmt ein Metallteil aus einem Behälter.

Ein klassischer Anwendungsfall, der die zentrale Rolle der Perzeption verdeutlicht, ist der sogenannte „Griff-in-die-Kiste“ („Bin Picking“). Roboter müssen hier chaotisch gelagerte Objekte erkennen und sicher greifen. Die KI-basierte Wahrnehmung entscheidet dabei, welche Teile greifbar sind und welche beispielsweise durch andere Objekte verdeckt werden.

Moderne Systeme bewerten dabei die Greifbarkeit jedes erkannten Objekts bereits in der Wahrnehmungsphase. Objekte, die potenziell zu Kollisionen führen oder schlecht erreichbar sind, werden automatisch zurückgestellt oder neu priorisiert. So steigt die Prozesssicherheit erheblich, insbesondere in unstrukturierten Szenarien mit hoher Objektvielfalt.

In der Logistik und Fertigung bietet Roboception bereits heute industrielle Lösungen an, die auf KI-basierter Perzeption aufbauen. Beispielsweise beim Depalettieren oder beim Kitting komplexer Produkte in der Montage verlassen sich Anwender auf die KI-Fähigkeit ihres Roboters. Durch den Einsatz anwendungsorientierter Softwaremodule wie CADMatch oder ItemPickAI lassen sich sowohl feste Bauteile (z.B. Komponenten in der Produktion) als auch verformbare Objekte (zum Beispiel Tüten in der Logistik) automatisch erfassen und mit optimierten Greifpunkten versehen. Auch bei Saug- oder Mehrfachgreifern werden diese Daten zur Auswahl der besten Strategie genutzt.
 

Benutzerfreundlichkeit macht Technologie zugänglich
3D-Vision-Software überlagert ein CAD-Modell auf einer Punktwolke und zeigt mögliche Greifpunkte.

Trotz hoher technischer Komplexität ist es entscheidend, dass die Systeme einfach zu bedienen bleiben. Roboception kombiniert deshalb intuitive Nutzeroberflächen mit automatisierter Template-Erstellung (‘Click-and-Detect'). Anwender können komplexe Wahrnehmungsaufgaben ohne tiefgehende KI-Kenntnisse lösen. Das senkt die Einstiegshürden erheblich und macht KI-basierte 3D-Perzeption auch kleineren Unternehmen zugänglich.

Darüber hinaus erlaubt die offene Systemarchitektur von Roboception die Integration benutzerspezifischer Erweiterungen. Über das UserSpace Konzept lassen sich individuelle Softwaremodule direkt auf dem Sensor oder auf angeschlossener Edge-Hardware ausführen, ohne dass eine separate IT-Infrastruktur benötigt wird. Dies verbessert nicht nur die Reaktionszeit im Prozess, sondern auch die Wartbarkeit und Ausfallsicherheit.
 

Fazit: Ohne Perzeption keine flexible Automatisierung

Die Fähigkeit zur intelligenten Wahrnehmung ist die Grundvoraussetzung für eine zukunftsfähige, flexible Automatisierung mit Robotern. Durch die Kombination aus KI-gestützter 3D-Perzeption, modularen Prozessketten und synthetischen Daten entstehen flexible und zugleich robuste Automatisierungslösungen.

Entdecke auch unsere Seminare in den Bereichen „Produktion und Fertigung“:

Über den Autor:

Dr. Michael Suppa ist Geschäftsführer und Mitgründer der Roboception GmbH. Das Münchner Unternehmen ist mit innovativen Hardware- und Softwareprodukten ein Pionier im Bereich der 3D-Sensorik für Robotikanwendungen. Die wahrnehmungsbasierte angewandte KI ist für Dr. Suppa bereits seit Beginn seiner Laufbahn ein Schwerpunkthema. 
2015 gründete Dr. Suppa zusammen mit Partnern die Roboception GmbH, heute ein führender Anbieter von fortschrittlichen Robot-Vision-Plattformen und -Systemen. Das Unternehmen mit Sitz in München ermöglicht es Robotern, zu sehen und zu denken, und liefert damit zentrale Elemente für flexible Automatisierungslösungen in der Industrie 4.0. Roboception unterstützt sowohl Roboterintegratoren als auch Endanwender bei der Erstellung innovativer Automatisierungslösungen für den zukunftsorientierten Einsatz von Robotern in Produktion und Logistik.
Dr. Suppa schloss Studium (2000) und Promotion (2007) an der Universität Hannover ab. Von 2000 bis 2009 war er wissenschaftlicher Mitarbeiter am Institut für Robotik und Mechatronik des Deutschen Zentrums für Luft- und Raumfahrt (DLR). 2009 wurde er dort zum Leiter der Abteilung ‚Perzeption und Kognition‘ ernannt, 2014 zudem zum stellvertretenden Institutsleiter.

Zurück zum Anfang der Seite springen