Bildverarbeitungssensor

Als visuellen Sensor verwendet man heute typischerweise einen Bildverarbeitungssensor (Abb. 8). Das Messobjekt wird durch das Objektiv auf eine Matrixkamera abgebildet. Die Kameraelektronik wandelt die optischen Signale in ein digitales Bild um, das zur Berechnung der Messpunkte in einem Auswerterechner mit entsprechender Bildverarbeitungssoftware herangezogen wird. Auf die Leistungsfähigkeit solcher Sensoren haben die verschiedenen Einzelkomponenten wie Beleuchtung, Optik, Sensorchip, Elektronik und Rechenalgorithmen maßgeblichen Einfluss [3].

Abb. 8: Prinzipieller Aufbau eines Bildverarbeitungssensors mit Durch- und Auflichtbeleuchtung.

Die besten Ergebnisse hinsichtlich der Messunsicherheit lassen sich mit telezentrischen Objektiven erreichen. Die Telezentrie hat den Vorteil, dass bei Veränderung des Arbeitsabstands innerhalb des Telezentriebereichs der Abbildungsmaßstab konstant bleibt und hierdurch keine zusätzlichen Messabweichungen hervorgerufen werden. Dies ist insbesondere bei niedrigeren Vergrößerungen wichtig. Die beste Qualität erreichen telezentrische Objektive mit fester Vergrößerung.
Aus anwendungstechnischer Sicht ist es sinnvoll, hohe und niedrige Vergrößerungen miteinander zu kombinieren. Es sollen z. B. weniger genau tolerierte Merkmale möglichst schnell in einem Bild gemessen oder auch die zu messenden Objekte bei grober Positionierung auf dem Messgerät noch gefunden werden. Zugleich sollen aber eng tolerierte Merkmale in kleinen Bildfeldern hochgenau gemessen werden. Mit telezentrischen Objektiven mit festem Abbildungsmaßstab lässt sich dies auf zwei Wegen realisieren. Der eine Weg besteht darin, die Objektive zu wechseln. Automatisch kann dies z. B. durch einen Revolver geschehen. Problematisch ist die erforderliche hohe Reproduzierbarkeit beim Objektivwechsel. Diese Vorgehensweise wirkt sich somit negativ auf die Messunsicherheit aus. Da meist nur zwei verschiedene Vergrößerungen erforderlich sind, besteht der elegantere Weg darin, zwischen zwei Bildverarbeitungssensoren unterschiedlicher Vergrößerung umzuschalten.

Die größte Flexibilität erzielt man durch Einsatz einer Zoomoptik (Abb. 9). Aufgrund der Positionierbewegung der optischen Komponenten im Objektiv sind zwar geringfügige Genauigkeitsverluste zu erwarten, diese sind jedoch bei modernen Systemen weitgehend vernachlässigbar. Um eine hohe Reproduzierbarkeit der Positionierung zu erzielen, werden beim Werth Zoom Linearführungen eingesetzt. Die für die Zoomvorgänge erforderliche Bewegung der Linsenpakete erfolgt jeweils motorisch. Dieser Aufbau ermöglicht etwa ein bis zehnfache Vergrößerung und Arbeitsabstände in einem Bereich von 30 mm bis maximal 250 mm. Hierdurch kann die Optimierung zwischen dem Messbereich des Sensors und der erreichbaren Messunsicherheit erfolgen (Vergrößerung). Weitgehend unabhängig davon kann der Arbeitsabstand den Erfordernissen des Messobjekts angepasst werden (Kollisionsproblematik).

Abb. 9: Werth Zoom mit einstellbarer Vergrößerung und variablem Arbeitsabstand im Vergleich zur klassischen Zoomoptik: a) Kollision bei rotationssymmetrischen Teilen und tiefen Bohrungen; b) Kollision wird vermieden.

Zur Digitalisierung der Bilder werden heute üblicherweise CCD-Kameras in Verbindung mit PC-Komponenten für die Bilderfassung (Frame-Grabber-Boards oder Firewire-Schnittstellen) eingesetzt. Der Vorteil der CCD-Kamera gegenüber dem konkurrierenden CMOS-Chip liegt in der guten metrologischen Qualität. Insbesondere der lineare Zusammenhang zwischen dem Eingangssignal (Lichtintensität) und dem digitalen Ausgangssignal ist für das genaue Messen erforderlich.
Auch die Software, mit der die Messpunkte aus den digitalisierten Bilddaten ermittelt werden, beeinflusst wesentlich die Qualität der Messergebnisse von Bildverarbeitungssensoren. Grundsätzlich sind zwei Softwarekonzepte zu unterscheiden: der »Edge Finder« und die Konturbildverarbeitung.
Mit dem Edge Finder werden die Schnittpunkte von im Bild vordefinierten Linien mit den sichtbaren Konturen des Objekts ermittelt. Dies wird nacheinander an vielen Stellen in einem vorher festgelegten Auswertebereich (Fenster) wiederholt. So entsteht eine Menge von Messpunkten, die durch das Fenster zu einer Gruppe zusammengefasst werden. Für jede Einzelpunktbestimmung erfolgt jedoch eine separate eindimensionale Auswertung. Die im Bild enthaltene umfassende zweidimensionale Information wird so nicht berücksichtigt. Dies führt insbesondere beim Messen im Auflicht zu Problemen. Störkonturen durch Oberflächenstrukturen, Ausbrüche sowie Verschmutzungen können nur bedingt erkannt und kompensiert werden.

Bei der Konturbildverarbeitung (Abb. 10, 11) wird das Bild innerhalb eines Auswertefensters als flächenhaftes Ganzes betrachtet. In diesem Bild werden durch geeignete mathematische Algorithmen (Operatoren) Konturen extrahiert. Jedem Bildpunkt (Pixel = Picture Element) einer Kontur wird dadurch ein Messpunkt zugeordnet. Die Messpunkte werden wie in einer Perlenkette aneinander gereiht. Dies gibt die Möglichkeit, Störeinflüsse beim Messen zu erkennen und herauszufiltern, ohne die Form der Konturen zu verändern. Mehrere Konturen innerhalb eines Fangbereichs können unterschieden werden. Dies ist für den Praxiseinsatz wichtig.

Abb. 10: Vom Originalbild zum berechneten Ausgleichselement: Der Bildverarbeitungssensor »sieht« das Objekt als Graubild (a). Die Pixel des Graubilds werden in digitale Amplituden umgewandelt (b). Aus dem Digitalbild wird mit einem Schwellwertoperator eine Pixelkontur berechnet (c). Für jeden Punkt der Pixelkontur wird ein »Subpixelpunkt« aus den Nachbarwerten interpoliert (d). Aus der Subpixelkontur wird z. B. nach dem Gaußverfahren ein Ausgleichselement berechnet (e), das zur visuellen Kontrolle im Graubild angezeigt wird (f).
Abb. 11: Konturbildverarbeitung: a) Fehlmessung durch Verschmutzung; b) Richtige Messung einschließlich Formabweichung mit Bildverarbeitungs-filter; c), d) Großes Fenster: sicheres Auffinden der Kanten durch Kontur-anwahl; e) Edge-Finder; f) Fehlmessung bei Verlagerung.

Die Auflösung bzw. die Messunsicherheit wird direkt durch den Pixelabstand begrenzt. Hochwertige Systeme interpolieren innerhalb des Pixelrasters in einem zweiten Schritt (Subpixeling) und erlauben so höhere Genauigkeiten [5].