Machine Vision und Kognitive Robotik: Mit revolutionären KI-Innovationen auf dem Weg in ein neues regelloses Zeitalter

„Machine Vision“ − auf Deutsch das „Maschinelle Sehen“ − steht für eine Schlüsseltechnologie der flexiblen industriellen Automation und einer modernen kognitiven, ihr Einsatzumfeld wahrnehmenden smarten Robotik. Dabei vollzieht sich gerade ein revolutionärer Paradigmenwechsel: Die Abkehr von regelbasierten Einzelfalllösungen unter definierten Rahmenbedingungen hin zur Nutzung von Methodenansätzen der agentischen Künstlichen Intelligenz (KI), um durch bedarfsgerechtes maschinelles Lernen möglichst autonom auf sich ändernde Rahmenbedingungen zu reagieren. Das Trainieren und Bewerten erkannter Muster anstelle starrer Entscheidungsregeln: ein mit großen Hoffnungen verbundener Weg in ein regelloses Zeitalter!
 

Leistungsstarke Kameras und auf Künstliche Intelligenz (KI) setzende Software-Ökosysteme verleihen Maschinen, Robotern und mobilen Plattformen die Fähigkeit, auch unter wechselnden Beleuchtungsrahmenbedingungen ermüdungsfrei zu sehen, Einsatzsituationen zu bewerten, Muster, Hindernisse, Gefahren und Fehler zu erkennen sowie sich im Raum zu orientieren und darauf basierend Verhaltensentscheidungen zu treffen. Diese sind unterschiedlicher Natur, beispielsweise das Trennen von Gut- und Schadteilen oder die präzise Anfahrt eines Roboters zum Werkstück, welches aufzunehmen oder zu bearbeiten ist. Aber auch die zielgenaue kollisionsfreie Navigation autonomer mobiler Roboterplattformen (AMR) und neuartiger humanoider Roboter, die im Rahmen der innerbetrieblichen Transport- und Lagerlogistik in Unternehmen zum Einsatz kommen und Hindernissen flexibel ausweichen müssen, gehören dazu.

Oft als industrielle Bildverarbeitung bezeichnet, ist die kamerabasierte Inspektion heute integrativer Bestandteil vieler automatisierter Produktionsprozesse und Logistikketten. Vor allem in der 2D-Messtechnik stehen für Praktiker robuste Baukästen an Kamerahardware, technischer Optik, Beleuchtungstechnik und leistungsstarke Entwicklungsumgebungen mit grundlegenden Algorithmen zur Verfügung. Zuletzt hat die Bildverarbeitung Fläche verlassen, 3D-Lösungen wurden marktreif. Gelöst ist mittlerweile der lang gefürchtete Griff in die Kiste. Kameras tragen in der Fertigung schon seit geraumer Zeit zu beachtlichen Produktivitätszuwächsen und zur lückenlosen Qualitätskontrolle in automatisierten Produktionsanlagen bei, ohne den Fertigungstakt zu verlangsamen. Schnell ist man vielleicht versucht zu sagen: War es das nun mit den Innovationen in der Bildverarbeitung? Weit gefehlt!

KI revolutioniert auch das maschinelle Sehen

Vor allem der Einsatz von Methodenansätzen der Künstlichen Intelligenz (KI) markiert aktuell einen radikalen Übergang zum „smarten“ maschinellen Sehen. Dabei verleihen Kameras in Maschinen und Robotern diesen nicht nur das Sehvermögen, sie ermöglichen auch − geschickt eingesetzt − das Wahrnehmen (Perzeption) als Grundlage für eine autonome und intelligente Prozessführung in modernen Anlagen. „Trainieren statt Programmieren“ ist folglich jetzt auch beim maschinellen Sehen die neue Devise!

Dadurch ergeben sich ganz neue Möglichkeiten, um das Leistungsvermögen von Kameras und Bildverarbeitung geradezu explosiv auszuweiten. Besonders deutlich sichtbar wird dies in der aktuellen Robotik, bei der wir extrem deutlich erkennen, wie sich der gewohnte ortsfeste Einsatz von Industrierobotern hinter Schutzzäunen zu einem ortsflexiblen Einsatz von smarten Robotern in den mit vielen Menschen gemeinsam genutzten Räumen wandelt. Hierbei müssen die Systeme – ob humanoid (menschenähnlich), mobil als Plattform (AMR) oder im direkten Zusammenwirken mit den Menschen als Cobots und Serviceroboter – kognitive Fähigkeiten aufweisen. Und die Erschließung dieses Wahrnehmungsvermögens beruht zu einem maßgeblichen Anteil auf dem maschinellen Sehen.

Wie kaum ein anderes Anwendungsfeld profitiert das heutige maschinelle Sehen von Synergieeffekten und Fortschritten beim maschinellen Lernen, beim autonomen Fahren und der digitalen Fotografie. Der Einsatz tiefer neuronaler Netze, meist so genannter Convolutional Neural Networks (CNNs), beim Deep Learning stellt eine Erfolgsgeschichte dar, auf die man auch in Robotik, Inspektion und Automation bauen kann. Ihre Nutzung zur Bildanalyse, Fehlerlokalisierung oder der herausfordernden Objekt- und Umgebungserkennung in der Robotik führt zu einem revolutionären, tiefgreifenden Wandel in der Bildanalyse: Dank der KI-Revolution verlagert sich der Trend vom Analysieren von Grauwert- und Farbwertverteilungen sowie regelbasierten Entscheidungen hin zum für Anwender einfacheren Trainieren und Modellieren. Ein disruptiver Entwicklungssprung: Vom klassischen regelbasierten Prüfen zum wahren Sehen und mit Mustern vergleichenden Interpretieren. Der Weg in eine regellose, statistisch geprägte Zukunft des maschinellen Sehens!

Optische Prüfsysteme werden dadurch zu schlagkräftigen, intelligenten und überaus flexiblen Entscheidern, die auch unter wechselnden Beleuchtungsbedingungen oder beim Bewerten schwieriger Schadmuster besondere Stärken aufgrund ihrer statistisch geprägten Herangehensweise ausspielen. Auf diese Weise wird das, was früher Applikationsingenieuren viel abverlangt hat − das über teilweise komplexe Algorithmen darzustellende Festlegen von Entscheidungsregeln − bald vermutlich Geschichte sein.

In der industriellen Inspektionspraxis ist ein bedeutsamer Übergang zum KI-basierten Sehen, zum verlässlichen Interpretieren von Szenen und zur Erkennung unterschiedlichster Objekte und ihrer Lage im Raum unter schwierigsten, häufig stark wechselnden Beleuchtungs- und Rahmenbedingungen eingeleitet. Ein besonders wertvoller Flexibilitäts- und Leistungszugewinn wird damit meistens in automatisierten Prozessabläufen erzielt.

Allerdings bleiben noch Fragen offen: Neben der mit KI zweifellos erzielbaren, bedeutsamen Verbesserungen beim Bewerten von Mustern bleibt die Güte der Entscheidungsfindung durch die eingesetzten neuronalen Netze im Rahmen der Validierung ein wunder Punkt. Denn im Gegensatz zum klassischen Weg lässt sich beim Einsatz neuronaler Netze die Entscheidungsfindung nicht rückwirkend schlüssig nachvollziehen. Man muss also mit einer hoffentlich zuverlässig urteilenden Blackbox leben.

Eine Herausforderung stellt ebenso das Training von Gut- und Schlechtteilen dar. Häufig fehlt es an Musterteilen, insbesondere schadhaften. Dabei werden genau diese dringend benötigt, um ein modellbasiertes Inspektionssystem robust zu machen. Diesem Manko begegnen erste Anwender erfolgreich mit synthetisch generierten, also künstlich in Simulationsläufen erzeugten Bilddaten. Das Prinzip ist schlüssig: Durch Simulation mit digitalen Zwillingen lässt sich die Zahl der für das Training verfügbaren Schadmuster und Prüfobjekte erweitern. So ist die Zukunft des maschinellen Sehens nicht nur künstlich intelligent, sondern auch künstlich animiert. Willkommen im industriellen Metaverse!

Und welche Auswirkung hat dies dann auf die moderne Robotik?

Nach dem lange üblichen Nebeneinander von Menschen und Robotern hinter Schutzzäunen in der Serienproduktion gestalten wir heute das unmittelbare Miteinander von uns Menschen mit sozialen Robotern in gemeinsam geteilten Arbeitsräumen. Diese unterstützen uns wiederum im Industriealltag bei Montageabläufen, bei der Maschinenbeladung, beim Sortieren, Palettieren, Verpacken, Prüfen und Reinigen. Sie werden zu gefragten Helfern in Logistik, Gastronomie, Hotel, Pflege, in unseren Haushalten und in Operationssälen. 

Vom reinen Arbeitstier entwickeln sich die neuen Roboter zu smarten und mobilen Helfern sowie zu sozialen Begleitern vieler Menschen weiter; einfach und intuitiv bedienbar, flexibel einsetzbar und auf ihre Gegenüber reagierend. Ihr Erfolg liegt zunehmend im guten Miteinander mit den Menschen und in einer möglichst flexiblen, autonomen Bewegungsplanung. Dazu müssen sie ganz neue Formen des Austausches, der Interaktion mit den Menschen und Maschinen beherrschen, beispielsweise die Kommunikation über Sprache und Gesten. Sie müssen mit ihren menschlichen Kontakten interagieren, ihr unmittelbares Umfeld wahrnehmen und daraus den nötigen Handlungsbedarf für sich autonom ableiten. Sie sehen, hören, fühlen und müssen mit Hilfe der Künstlichen Intelligenz zu leistungsstarken kognitiven Robotern weiterentwickelt und beispielsweise per Sprache oder Gesten angeleitet werden.

Ob das alles möglich ist? Definitiv ja, aber es ist eine herausfordernde Aufgabe. Die aktuellen Fortschritte auf dem Gebiet der humanoiden Robotik zeigen eindrucksvoll auf, was möglich ist, wenn KI erfolgreich in einem physikalischen Körper wirkt − einem Roboter, der sich vor allem auf KI-basierte Steuerungskonzepte und das maschinelle Sehen stützt.

Zitat

Kognitive Systeme erweitern das maschinelle Sehen von der reinen Beobachtung hin zur Wahrnehmung und Bewegungsführung. Die Künstliche Intelligenz ermöglicht eine revolutionäre Leistungsexplosion smarter Systeme in Automation, Robotik, Logistik und Inspektion.

Smarte Robotik, KI und maschinelles Sehen im VDI

  • Parallel zur Fachtagung „Automation 2026“ in Baden-Baden greift der VDI mit der Fachkonferenz „Machine Vision“ am 17./18.06.2026 zum zweiten Mal die KI-Revolution in der optischen Inspektion auf. Ganz oben auf der Agenda steht das Trendthema Künstliche Intelligenz und der Einsatz synthetisch generierter Daten mit Hilfe Digitaler Zwillinge in Automation, Robotik und industrieller Bildverarbeitung. In 6 interessanten Themensessions wurden 18 Vorträge gebündelt, die einen umfassenden Einblick in aktuelle technologische Entwicklungen gewähren und reale Anwendungsbeispiele sowie neuartige Kameratechnologien und Softwaretools diskutieren. Am Start: Expertinnen und Experten von Audi, Basler, Cognex, EVT Eye Vision Technology, IDS, Intrinsic, LUCID Vision Labs, Micro-Epsilon, MVTec Software, NVIDIA, preML, SICK, Viscom, VMT und wenglor. Dazu Beiträge aus der aktuellen Forschung des Fraunhofer IPA, der Hochschule Aalen und der Technischen Hochschule Mannheim.
  • Die VDI-Fachtagung „Smarte Roboter in Produktion und Logistik“ greift am 10./11.11.2026 in Köln wieder aktuelle Marktentwicklungen und Technologietrends sowie neue Applikationen für Roboter auf. Ein Fokusthema dieses Jahr ist die kognitive und die humanoide Robotik sowie die Nutzung von KI-Agenten in der modernen Robotik (Physical AI).
  • Am 24./25.11.2026 steht auf dem VDI-Kongress „smartAI“ in Baden-Baden zum zweiten Mal wieder ein hochinteressanter, branchenübergreifender Diskurs zur Nutzung von KI in Produktion, Medizin, Defense und Robotik an.

Über den Autor:

Prof. Dr. Markus Glück

Prof. Dr. Markus Glück vertritt seit 2021 das Lehrgebiet „Automatisierung und Robotik“ an der Hochschule Aalen, Fakultät Optik und Mechatronik. Von 2016 bis 2021 war er Chief Innovation Officer beim Greif- und Spanntechnikhersteller SCHUNK, von 2002 bis 2016 Geschäftsführer der Technologie Centrum Westbayern GmbH, von 2008 bis 2016 zudem Professor an der Hochschule Augsburg, Fakultät für Maschinenbau und Verfahrenstechnik.

Studium der Elektrotechnik an der Universität Ulm (1989-1994), wissenschaftlicher Mitarbeiter am Forschungszentrum der Daimler AG in Ulm (1995-1997), Mitglied des Führungsteams der Mattson Thermal Products GmbH (1998-2001), Sondermaschinenbau für Chipfertigung, zeitweise Auslandstätigkeit im Silicon Valley.

Prof. Dr. Markus Glück koordiniert das Studienangebot „Robotik“ und wurde kürzlich mit dem Lehrpreis 2023 der Hochschule Aalen ausgezeichnet. Seit 2014 ist er Träger der Ehrenplakette des VDI. Seine Fachgebiete und FuE-Schwerpunkte: Industrielle Bildverarbeitung, Robotik, Steuerungs- und Automatisierungstechnik, Digitalisierung der Produktion, Mensch-Roboter-Interaktion.

markus.glueck@hs-aalen.de

Zurück zum Anfang der Seite springen