mehr erfahren

Bildverarbeitungssensoren

Hochgenaue berührungslose 2D-Messung

Die Bildverarbeitung gehört wegen ihrer flexiblen Einsatzmöglichkeiten sowie der guten Visualisierung des Objekts und der gemessenen Merkmale zur Grundausstattung der meisten optischen und Multisensor-Koordinatenmessgeräte. Ähnlich der Bilderzeugung beim visuellen Messen mit Messmikroskopen wird das Messobjekt in der in Abbildung 7 vereinfacht dargestellten Weise durch ein Objektiv auf eine Matrixkamera abgebildet. Die Kameraelektronik wandelt die optischen Signale in ein digitales Bild um, das zur Berechnung der Messpunkte in einem Auswerterechner mit entsprechender Bildverarbeitungssoftware herangezogen wird. Hierbei wird die Intensitätsverteilung in diesem Bild ausgewertet. Maßgeblichen Einfluss auf die Leistungsfähigkeit von Bildverarbeitungssensoren haben die Einzelkomponenten wie Beleuchtungssysteme, Abbildungsoptik, Halbleiterkamera, Signalverarbeitungselektronik und Bildverarbeitungsalgorithmen [1, 4].

<p>Abb. 7: Prinzipieller Aufbau eines lateral messenden Sensors mit optischer Objektabbildung: a) Sensor, b) Objektiv, c) Messobjekt, d) Beleuchtung</p>

Telezentrie für konstanten Abbildungsmaßstab

Eine Abbildungsoptik mit telezentrischem Objektiv führt zu den geringsten Messabweichungen. Durch die Telezentrie bleibt der Abbildungsmaßstab bei Veränderung des Objektabstands innerhalb des Telezentriebereichs nahezu konstant (Abb. 9). Eine Blende bewirkt, dass für jeden Bildpunkt nur nahezu parallele Lichtstrahlen an der Bilderzeugung beteiligt sind. Dies ist insbesondere bei Objektiven mit Telezentrie für konstanten Abbildungsmaßstab geringen Vergrößerungen wichtig, denn diese weisen eine große Schärfentiefe auf, weshalb nur grob auf das Objekt fokussiert werden kann. Die beste Qualität erreichen telezentrische Objektive mit fester Vergrößerung.

Telezentrie für konstanten Abbildungsmaßstab
<p>Abb. 9: Bei der nicht telezentrischen Abbildung (links) verändern sich die Schärfe und Bildgröße mit dem Objektabstand. Bei der objektseitig telezentrischen Abbildung (rechts) bleibt die Bildgröße hingegen nahezu gleich. a) Sensorebene, b) virtuelle Bildebene, c) Blende</p>

Objektivwechsel: Vergrößerungen auswählen

Für die Anwendung ist es sinnvoll, hohe und niedrige Vergrößerungen zu kombinieren. So sollen z. B. weniger genau tolerierte Merkmale möglichst schnell in einem Bild gemessen oder auch bei grober Positionierung auf dem Messgerät noch gefunden werden. Zugleich kann die Forderung bestehen, eng tolerierte Merkmale in kleinen Bildfeldern hochgenau zu messen. Durch Wechseln der Objektive können mit einem Revolver verschiedene Vergrößerungen eingestellt werden. Der Nachteil liegt in der oft unzureichenden Reproduzierbarkeit beim Wechsel. Durch Strahlteilung des Abbildungsstrahlengangs lassen sich ebenfalls zwei oder mehr Objektive kombinieren. Allerdings können dunkle Messobjekte wegen des Lichtverlusts bei der Strahlteilung möglicherweise nicht gemessen werden. Da meist nur zwei verschiedene Vergrößerungen erforderlich sind, besteht ein eleganter Weg darin, zwischen zwei nebeneinander angebrachten vollwertigen Bildverarbeitungssensoren mit unterschiedlicher Vergrößerung durch Positionieren der ohnehin vorhandenen präzisen Geräteachsen umzuschalten. Die Vergrößerung gebräuchlicher telezentrischer Objektive reicht von 0,1 bis 100 bei Sehfeldgrößen von ca. 100 mm bis 0,1 mm.

Zoom: Vergrößerungen einstellen

Die größte Flexibilität ermöglicht eine Zoomoptik. Bei herkömmlichen Zoomoptiken wird die Bewegung der Linsenpakete durch mechanische Kurven realisiert (Abb. 10a). Die Positionierbewegungen der optischen Komponenten im Objektiv verursachen Genauigkeitsverluste, die jedoch durch geeignete Maßnahmen reduziert werden können. Die einfachste, aber sehr zeitaufwendige Methode besteht im wiederholten Einmessen nach jedem Zoomvorgang. Um eine hohe Reproduzierbarkeit beim Zoomen zu erzielen, werden motorische Linearführungen mit geringster Positionierunsicherheit eingesetzt (Abb. 10b). Die mechanischen Kurven werden durch entsprechende Kennlinien in der Steuerungssoftwareersetzt. Dadurch lassen sich neben unterschiedlichen Vergrößerungen auch unterschiedliche Arbeitsabstände realisieren. Praktisch werden etwa Vergrößerungen von 0,5 bis 10 sowie Arbeitsabstände in einem Bereich von 30 mm bis maximal 250 mm erreicht.

Zoom: Vergrößerungen einstellen
<p>Abb. 10: Werth Zoom mit einstellbarer Vergrößerung und variablem Arbeitsabstand im Vergleich zur herkömmlichen Zoomoptik: a) Kollision bei rotationssymmetrischen Teilen und tiefen Bohrungen b) Kollision wird vermieden</p>

Werth Zoom: Arbeitsabstand und Vergrößerung einstellen

Durch geeignete Wahl der Vergrößerung kann der günstigste Kompromiss zwischen dem Messbereich des Sensors und der erreichbaren Messunsicherheit gewählt werden. Der Arbeitsabstand lässt sich weitgehend unabhängig davon an die Erfordernisse des Messobjekts anpassen: genaues Messen mit normalem Arbeitsabstand bei bester Bildqualität oder Messen mit großem Arbeitsabstand zur Vermeidung von Kollisionen.

Die Beleuchtungssysteme sind die Basis für jede optische Messung und sorgen für das möglichst kontraststarke Darstellen der zu messenden Merkmale. Am einfachsten gelingt dies an den Außenkanten der Messobjekte. In diesem Fall kann im Durchlicht gearbeitet werden (Abb. 11a). Ideale Voraussetzungen bieten flache Messobjekte. Im Gegensatz hierzu ist bei räumlich ausgedehnten Kanten (prismatische oder zylindrische Objekte) die Wechselwirkung zwischen Beleuchtung, Messobjekt und Abbildungsstrahlengang stärker zu beachten. Die Öffnungswinkel (Aperturen) der Beleuchtungssysteme und der Objektive sind unter Berücksichtigung der Anwendung (Gestalt des Messobjekts) aufeinander abzustimmen.

Werth Zoom: Arbeitsabstand und Vergrößerung einstellen
<p>Abb. 11: Beleuchtungsarten: a) Durchlicht; b) Hellfeld-Auflicht in das Objektiv integriert; c) Dunkelfeld-Auflicht MultiRing®, höhenverstellbar für Objektive mit festem Arbeitsabstand; d) Dunkelfeld-Auflicht MultiRing® in Kombination mit Werth Zoom: A1: flacher Lichteinfall, geringer Arbeitsabstand; A5: steiler Lichteinfall, großer Arbeitsabstand</p>

Durchlichtapertur nach Anforderung

Höchste Flexibilität bieten in der Apertur verstellbare Durchlichteinheiten. Flächenhafte Beleuchtungsquellen können durch eine Blende mit einer Vielzahl von kleinen Löchern (Werth FlatLight, s. Abb. 47, S. 72 Koordinatenmessgeräte für zweidimensionale Messungen ) mit kleiner Apertur realisiert werden. In der praktischen Anwendung sind selten alle Merkmale mit Durchlicht messbar. Deshalb werden meist zusätzlich Auflichtbeleuchtungssysteme eingesetzt. Zu unterscheiden sind zwei Arten: Das Hellfeld-Auflicht (Abb. 11b) wird parallel zur optischen Achse des Abbildungsstrahlengangs auf das Messobjekt projiziert. Im Idealfall erfolgt dies direkt durch die Linsensysteme der Abbildungsoptik. Diese Beleuchtungsart verursacht z. B. auf Metalloberflächen, die senkrecht zum Abbildungsstrahlengang liegen, eine direkte Reflexion. Das Messobjekt wird hell dargestellt. Geneigte Oberflächen reflektieren das Licht am Objektiv vorbei und werden somit dunkel abgebildet. Das Dunkelfeld-Auflicht strahlt geneigt zum Abbildungsstrahlengang auf das Messobjekt. Das Licht wird je nach Neigung der Werkstückoberfläche in das Objektiv (hell) oder daran vorbei (dunkel) reflektiert. Durch Auswahl der Beleuchtungsart kann der Kontrast an den interessierenden Objektstrukturen optimiert werden.

Flexibles Auflicht für optimalen Kontrast

Im einfachsten Fall kommen für das Dunkelfeld-Auflicht ringförmige Anordnungen von Licht emittierenden Dioden (LED) zum Einsatz. Durch Zuschalten von verschiedenen Diodengruppen kann die Beleuchtung des Objekts aus verschiedenen Raumrichtungen erfolgen und so optimal an die Messaufgabe angepasst werden (Abb. 11c). Bei der MultiRing®-Beleuchtung (Abb. 11d) ist es in Kombination mit einer Zoomoptik mit veränderlichem Arbeitsabstand (s. Abb. 10, S. 16 Bildverarbeitungssensoren ) möglich, auch den Winkel zur optischen Achse in einem weiten Bereich zu variieren. Zusätzlich kann mit ausreichend großem Arbeitsabstand zu den Objekten gemessen werden. Abbildung 12 zeigt Beispiele für die Auswirkungen verschiedener Beleuchtungsarten. Die Lichtquellen lassen sich durch den Bediener oder – im Automatikbetrieb – durch die Messsoftware steuern. Um praxisgerecht, d. h. auf wechselnden Materialoberflächen wie Metalloberflächen mit unterschiedlichen Glanzgraden und verschiedenfarbigen Kunststoffteilen messen zu können, wird eine Lichtregelung eingesetzt. Sie passt die Beleuchtung den vom Programm vorgegebenen Werten anhand des vom Objekt reflektierten Lichts automatisch an. Eine rechnerische Korrektur der Beleuchtungskennlinien (Lichtstärke bezogen auf den Einstellwert in der Bedienoberfläche) gestattet auch das Nutzen der CNC-Programme bei unterschiedlicher Beleuchtungshardware mit verschiedenen Beleuchtungskennlinien, z. B. an verschiedenen Geräten oder nach Reparaturen.

Flexibles Auflicht für optimalen Kontrast
<p>Abb. 12: Messobjekt bei verschiedenen Beleuchtungsarten: a-d) DunkelfeldAuflicht aus verschiedenen Richtungen; e, f) Hellfeld- und Dunkelfeld-Auflicht am gleichen Objekt; g, h) Verbesserung bei geringem Kontrast (g) durch flache Beleuchtung mit MultiRing® (h)</p>

Auflösung vs. Geschwindigkeit

Die Bilder der Objektausschnitte werden heute üblicherweise mit Halbleiterkameras erfasst. Mittlerweile erreichen CMOS-Kameras häufig sogar eine bessere Signalqualität als CCD-Kameras. Die Kameras verfügen über ca. 700 bis 5000 Bildpunkte (Pixel: Picture Element) pro Zeile bei einer Pixelgröße von etwa 5 µm. Kameras mit hoher Auflösung (viele Pixel) können größere Objektbereiche erfassen, sind jedoch deutlich langsamer als solche mit geringerer Auflösung. Eine hohe Bildfrequenz ist z. B. für das Messen nach dem Fokusvariationsverfahren (s. Fokusvariationssensoren , S. 24 ff.) oder im OnTheFly®- Betrieb (s. Messen während der Bewegung , S. 95 f.) von Vorteil.

Kameras liefern digitale Signale

Eine Signalverarbeitungselektronik wandelt die Pixelamplituden in Digitalwerte um. Dies erfolgt überwiegend in der Kamera selbst. Die Signale werden digital mittels GigE oder alternativ USB zum Rechner übertragen.

Filter verbessern das Bild

Auch die Bildverarbeitungsalgorithmen, mit denen die Bildinhalte ausgewertet und die Messpunkte ermittelt werden, beeinflussen wesentlich die Qualität der Messergebnisse von Bildverarbeitungssensoren. Die Auswertung wird heute überwiegend durch PC-Hard- und -Software realisiert. In einem ersten Verarbeitungsschritt kann das Bild mit Bildfiltern verbessert werden (Kontrast optimieren, Oberflächenstörungen glätten: Abb. 13a, b). Bei der einfachsten Methode zur Bestimmung der Messpunkte werden die Schnittpunkte von im Bild vordefinierten Linien mit den sichtbaren Konturen des Objekts z. B. durch Schwellwertoperationen ermittelt (umgangssprachlich Edge Finder). Dies wird nacheinander an vielen Stellen in einem vorher festgelegten Auswertebereich (Fenster) wiederholt. So entsteht eine große Anzahl von Messpunkten, die durch das Fenster zu einer Gruppe zusammengefasst werden. Für jede Einzelpunktbestimmung erfolgt jedoch eine separate eindimensionale Auswertung. Die im Bild enthaltene umfassende zweidimensionale Information wird so nicht berücksichtigt. Dies ist insbesondere beim Messen im Auflicht von Nachteil. Störkonturen durch Oberflächenstrukturen, Ausbrüche und Verschmutzungen können nur bedingt erkannt und kompensiert werden.

Filter verbessern das Bild
<p>Abb. 13: Bildverarbeitungsmethoden: a) Originalbild: Konturbestimmung gestört, b) Verbesserung durch Bildfilter: Konturbestimmung korrekt, c) Fehlmessung durch Verschmutzung, d) richtige Messung einschließlich Formabweichung durch Konturfilter</p>

Konturbildverarbeitung für zuverlässiges Messen

Bei der Konturbildverarbeitung wird das Bild innerhalb eines Auswertefensters als flächenhaftes Ganzes betrachtet. In diesem Bild werden durch geeignete mathematische Algorithmen (Operatoren) Konturen extrahiert. Jeder Bildpunkt einer Kontur entspricht einem Messpunkt. Die Messpunkte werden wie in einer Perlenkette aneinandergereiht. Dies ermöglicht, Störeinflüsse beim Messen zu erkennen und herauszufiltern (Konturfilter), ohne die Form der Konturen zu verändern (Abb. 13c, d). Wichtig für den praktischen Einsatz ist, dass innerhalb eines Fangbereichs mehrere Konturen unterschieden werden können (Abb.14c, d). Moderne Systeme interpolieren in einem weiteren Schritt die Koordinaten der Messpunkte innerhalb des Pixelrasters (Subpixeling: Abb. 15) und erlauben so höhere Genauigkeiten [5].

Konturen größer als das Sehfeld des jeweiligen Objektivs können durch automatische Konturverfolgung in Verbindung mit den CNC-Achsen des Koordinatenmessgeräts als Ganzes erfasst werden (Konturscanning). Dieses Scanningverfahren eignet sich gut, um wenige relativ große Konturen z. B. an Stanzwerkzeugen zu überprüfen. Bei dieser Anwendung werden sowohl Stempel als auch Matrizen der Schneidwerkzeuge direkt an der Schneide erfasst und können miteinander oder mit dem CAD-Datensatz verglichen werden.

Konturbildverarbeitung für zuverlässiges Messen
<p>Abb. 14: Konturbildverarbeitung im Vergleich zum punktweisen Auswerten: a, b) punktweises Auswerten: richtige Messung bei exakter Kantenposition (a), Fehlmessung bei Verlagerung der Kanten (b); c, d) Konturbildverarbeitung: Konturanwahl in großem Fenster ermöglicht sicheres Auffinden der Kanten in unterschiedlichen Positionen. Abb. 15: Vom Originalbild zum berechneten Ausgleichselement: a) Der Bildverarbeitungssensor »sieht« das Objekt als Graubild. b) Die Pixel des Graubilds werden in digitale Amplituden umgewandelt. c) Aus dem Digitalbild wird mit einem Schwellwertoperator eine Pixelkontur berechnet. d) Für jeden Punkt der Pixelkontur wird ein »Subpixelpunkt« aus den Nachbarwerten interpoliert. e) Aus der Subpixelkontur wird z. B. nach dem Gauß-Verfahren ein Ausgleichselement berechnet. f) Anzeige des Ergebnisses im Graubild zur visuellen Kontrolle</p>

Rasterscanning: Auflösung unabhängig vom Messbereich

Eine weitere Methode, um größere Bereiche des Werkstücks zu erfassen, ist das »Rasterscanning HD«. Hierbei nimmt der Bildverarbeitungssensor während der Bewegung mit hoher Frequenz Bilder des Werkstücks auf (Abb. 16). Diese werden durch Resampling zu einem Gesamtbild mit bis zu 4000 Megapixeln (Stand 2019) überlagert. Bei der »Im Bild«-Auswertung lassen sich dann beispielsweise 100 Bohrungen in 3 s messen (s. Sensoren und Geräteachsen, S. 89 ff.). Durch das Messen auch großer Bereiche mit hoher Vergrößerung und die Mittelung über mehrere Bilder, die das Signal-Rausch-Verhältnis verbessert, wird die Genauigkeit ebenfalls erhöht. Das Verfahren kann an die Anforderungen der Messaufgabe angepasst werden (s. Messen während der Bewegung, S. 95 f.).

Die Bildverarbeitung eignet sich zunächst nur zum Messen zweidimensionaler Merkmale. Das Anwendungsgebiet umfasst dementsprechend alle zweidimensionalen Messobjekte wie flache Bleche, Folien, Leiterplatten, Schnitte von Aluminium-, Gummi- oder Kunststoffprofilen, Drucke, Schneidplatten, Leadframes und Chrommasken. Werden mit der gleichen Sensorhardware (Optik, Kameratechnik etc.) auch Fokusverfahren realisiert (s. Fokusvariationssensoren, S. 24 ff.), liegt der häufig eingesetzte Sensor-Basistyp für Multisensor-Koordinatenmessgeräte vor. Durch Kombination beider Verfahren in einer Sensorhardware lassen sich viele dreidimensionale Messaufgaben lösen. Die Bestimmung der Funktionsmaße von Kunststoffteilen wie dem Abstand von Rastnasen sowie der Geometrie von Dichtnuten und Steckerrastern sind ein Hauptanwendungsgebiet. Weitere Einsatzbeispiele sind Stanzbiegeteile aus Blech, Uhrenkomponenten, Möbelbeschläge, Düsen für die Kraftstoffeinspritzung, Druckköpfe, Werkzeuge und Drehteile.

Um mit Bildverarbeitungssensoren flexibel dreidimensional zu messen, kann ein schwenkbarer Kamerakopf eingesetzt werden. Hierin sind die beschriebenen Standardbeleuchtungsarten und eine Wechselschnittstelle für den Fasertaster (s. Messende taktil-optische Sensoren , S. 45 ff.) integriert. Ein Dreh-SchwenkGelenk, wie es auch für taktile Sensoren eingesetzt wird, erlaubt das räumliche Ausrichten des Sensors zum Werkstück. Durch eine weitere Schnittstelle können verschiedene optische oder taktile Sensoren im automatischen Wechsel betrieben werden (Abb. 17).

Rasterscanning: Auflösung unabhängig vom Messbereich
<p>Abb. 16: Rasterscanning HD: Viele Einzelbilder (gelbe Quadrate) werden während der Bewegung auf einer vorgegebenen Bahn (blaue Linie) aufgenommen und zu einem hochaufgelösten Bild zusammengefügt (blaues Rechteck). Alle Konturen (rot) im Messfenster (grün) werden automatisch erfasst. Abb. 17: Schwenkbarer Sensor mit Bildverarbeitung und Fasertaster zum Messen von Kühlbohrungen an Triebwerksteilen (kleine Teilabbildung)</p>