Seminar

Grundlagen der Robot-Vision

Veranstaltungsnummer: 02SE309

Mit Teilnahmebescheinigung

  • Aufbau von Robot-Vision Systemen
  • Bildgebende Systeme für Robot-Vision-Aufgabe
  • Kalibrierung von Kameras sowie Umrechnung von Kamerakoordinaten ins Roboterkoordinatensystem
Mehr Top-Themen entdecken

Kommende Termine:

03. – 04. September 2024
Online
de

Verfügbar

03. – 04. März 2025
Filderstadt
de

Verfügbar

Alle Termine und Optionen ansehen
Inhouse buchbar
Jetzt anfragen

Roboter-Vision-Systeme (RVS) sind eine Schlüsselkomponente der modernen Automatisierungstechnik: Sehende Industrieroboter nehmen ihre Umgebung war und sind in der Lage, flexibel, präzise und fehlertolerant auf unvermeidbare Schwankungen und Variationen im Produktionsprozess zu reagieren. Hierfür kombinieren Robot-Vision-Systeme optische, mechanische und elektronische Elemente mit leistungsfähigen Algorithmen der digitalen Bildverarbeitung. Nur mit einer präzisen Abstimmung aller Komponenten auf die zu lösende Fertigungsaufgabe, können Robot-Vision-Systeme ihre volle Leistungsfähigkeit entfalten und nachhaltig Effizienz und Wirtschaftlichkeit einer Produktionslinie erhöhen.

Das Seminar führt in die Robot-Vision ein und vermittelt grundlegende Techniken für den erfolgreichen Einsatz von Robot-­Vision-Systemen (RVS). Anhand von Beispielen aus der industriellen Praxis, werden die Struktur und charakteristische Komponenten von RVS herausgearbeitet und anschließend im Detail besprochen. Die Teilnehmer lernen die zur Lösung von typischen Aufgaben­stellungen (wie z.B. pick and place oder bin-picking) geeigneten bildgebenden Systeme sowie Verfahren zur Kamera- und Hand-Auge-Kalibrierung kennen. Sie erhalten in der Weiterbildung einen Überblick über aktuelle Methoden zur Objekterkennung, Vermessung und Lokalisierung in 2D-Bildern und 3D-Punktewolken. Der Lernstoff wird im seminaristischen Vortrag, aufgelockert mit zahlreichen Anwendungsbeispielen, vermittelt.

Das Seminar kann auch im Rahmen des Zertifikatslehrgangs Fachingenieur IT Engineering VDI als Wahlpflichtmodul belegt werden.

Top-Themen

  • Aufbau von Robot-Vision Systemen
  • Bildgebende Systeme für Robot-Vision-Aufgabe
  • Kalibrierung von Kameras sowie Umrechnung von Kamerakoordinaten ins Roboterkoordinatensystem
  • Die Orientierung von Bauteilen auf einem Fließband erkennen und Objekte in Punktewolken finden
  • Lagetoleranzen von Werkstücken auf einem Montageband mit ­Robot-Vision kompensieren

Ablauf des Seminars "Grundlagen der Robot-Vision"

Erfahren Sie im Seminar "Grundlagen der Robot-Vision" mehr zu folgenden Themen:

1. Tag 10:00 bis 18:00 Uhr

2. Tag 08:30 bis 16:30 Uhr

Einführung

  • Praxisbeispiele: „pick-and-place“, „bin-picking“, Nahtverfolgung
  • Struktur und Komponenten von Robot-Vision-Systemen: ­Bildaufnahme, Kalibrierung und Algorithmik
  • Konfigurationsbeispiele für Robot-Vision-Systeme (RVS)

2D-Bildgebung

  • Eigenschaften und Einsatzmöglichkeiten von CMOS- und CCD-Bildsensoren 

  • Optische Abbildung und Objektive für Robot-Vision: ­Abbildungsmaßstab und Schärfentiefe
  • Optimale Bildqualität durch problemangepasste Beleuchtung
  • Datenübertragung: Welche Kameraschnittstellen eignen sich für die Robot-Vision?
  • Anwendung der Lerninhalte: Exemplarische Auslegung eines 2D-Robot-Vision-Systems

Algorithmen für die 2D-Robot-Vision

  • Objekte im Bild finden, klassifizieren und ihre Lage und ­Orientierung bestimmen
  • „Feature-Detektoren“: Kanten und Ecken finden:
  • Optimale Kantenfilter nach Canny
  • Hough-Transformation für Linien, Kreise und freie Formen
  • Kantenlokalisierung mit Subpixelgenauigkeit
  • Ecken finden mit dem Harris-Corner-Detektor
  • Moderne Verfahren zur robusten Detektion und Zuordnung: von markanten Punkten im Bild:
  • scale invariant feature transform (SIFT)“
  • „speeded up robust features (SURF)“
  • „random-sample-concensus (RANSAC)“
  • Anwendungsbeispiele

Koordinatensysteme und Transformationen

  • Koordinatensysteme in der Robotik
  • Beschreibung von Rotationen und Translationen in homogenen Koordinaten
  • Transfer von Punkten zwischen Koordinatensystemen
  • Posen zur Beschreibung der Lage und Orientierung von Objekten
  • Bestimmen von Transformationen mit Hilfe von Bildmerkmalen
  • Anwendungsbeispiele↓

Kameramodelle und Kamerakalibrierung

  • Modellierung von Kameras mit dem Lochkamera- u.perspektivischen Kameramodell
  • Transfer von Punkten zwischen Bild-, Kamera- und ­Weltkoordinaten 

  • Korrektur von radialsymmetrischen und tangentialen ­Verzeichnungen 

  • Aspekte der Kalibrierung mit 2D- und 3D-Kalibriertargets
  • Kamerakalibrierung mit Multibildverfahren
  • Qualitätsbewertung der Kalibrierungsergebnisse
  • Rückprojektion
von Bildpunkten in das Weltkoordinaten­system
  • Häufige Fehler bei der Kamerakalibrierung – und wie man sie vermeidet

Hand-Auge-Kalibrierung (HAK): Bestimmung der ­relativen ­Orientierung von 
Kamera und Roboter

  • Verfahren zur Kalibrierung:
  • von ortsfesten Kameras
  • von Kameras auf dem Endeffektor
  • von 3D-Kameras
  • Optimale Anordnung der Kalibrieraufnahmen
  • Besonderheiten der Hand-Auge-Kalibrierung mit ­„Selected-Compliance-Assembly-Robot (SCARA)“-Kinematiken
  • Anwendungsbeispiele

3D-Bildgebung und Stereo-Vision

  • Punktewolken, Distanz- und Tiefenbilder
  • Grundprinzipien der 3D-Bildaufnahme: Triangulation und ­Laufzeitmessung
  • Stereo-Vision:
  • Stereonormalfall und Epipolargeometrie
  • Tiefenmessgenauigkeit
  • Workflow bei der Stereo-Vision
  • Lasertriangulation und Streifenprojektion: Grundprinzipien, erreichbare Auflösung und ein Blick auf kommerzielle Systeme
  • 3D-Kameras: Funktionsprinzipien, Anwendungsmöglich­keiten in der Robot-Vision, Chancen und Herausforderungen.

Algorithmen für die 3D-Robot-Vision

  • Objektlokalisation und Lageerkennung in Punktewolken
  • Kontourbasierte 3D-Lageerkennung
  • 3D-Lageerkennung mit einer Kamera
  • Anwendungsbeispiele

Zielgruppe

Das Seminar "Grundlagen der Robot-Vision" richtet sich an Konstrukteure und Entwickler aus der Automatisierungs- und Robotertechnik.

  • Konstruktion
  • R&D
  • IT
  • Business Development

Weitere interessante Seminare finden Sie in unserer Übersicht aller Weiterbildungen im Bereich Robotik.

Ihr Referent für das Seminar "Grundlagen der Robot-Vision":

Prof. Stephan Neser, Professor, Hochschule Darmstadt, Darmstadt

Herr Professor Neser hat ein Physik-Studium an der ­Universität Konstanz absolviert. Nach seiner Promotion 1998, war er als Geschäftsführer der Visiometrics Neser & Bubeck GbR für die Entwicklung von industriellen ­Bildverarbeitungslösungen verantwortlich. Seit 2004 ist er Professor im Studiengang Optotechnik und ­Bildverarbeitung der Hochschule Darmstadt und lehrt Robot-­Vision, Industrielle Bildverarbeitung und Physik. Schwerpunkt seiner Forschungstätigkeit sind 3D-Kamerasysteme und ihre Anwendungen in der ­Robotik.

Veranstaltung buchen

Veranstaltungsnummer: 02SE309

Grundlagen der Robot-Vision

online **

de

Verfügbar

Infos zum Veranstaltungsort


Deutschland

+49 211/6214-201

Filderstadt, NH Stuttgart Airport **

de

Verfügbar

Infos zum Veranstaltungsort

Bonländer Hauptstr. 145
70794 Filderstadt
Deutschland

+49 711/7781-0 zur Website
* Vorläufiger Preis, es kann zu Abweichungen in der USt. kommen - den endgültigen Preis finden Sie in Ihrer Bestellübersicht.
** Profitieren Sie bei unseren Präsenzveranstaltungen von unserem reservierten Zimmerkontingent am Veranstaltungsort. Bitte geben Sie bei der Hotelbuchung VDI Wissensforum als Referenz an.

Weitere Hotelpartner :

HRS