Mehrdimensionale Abstandssensoren

Liniensensoren (2D) und Flächensensoren (3D) funktionieren ähnlich wie die oben genannten punktförmigen Abstandssensoren (1D). Beim Laserlichtschnittverfahren (Abb. 16a) wird das klassische Lasertriangulationsverfahren auf eine zweidimensionale Messung erweitert, indem man den Laserstrahl durch einen in den Sensorkopf integrierten bewegten Spiegel (z. B. rotierender Polygonspiegel) in Bewegung versetzt. Die Auswertung erfolgt dann durch eine Matrixkamera, so dass man für viele Punkte ein durch Triangulation ermitteltes Messergebnis erhält. Dadurch wird ein Schnitt (Lichtschnitt) auf der Oberfläche des Messobjekts gemessen. Zum Messen einer dreidimensionalen Oberfläche bewegt man das Koordinatenmessgerät senkrecht zur Schnittebene.
Auch Streifensensoren (Abb. 16b) arbeiten nach dem Triangulationsprinzip. Durch einen Projektor wird ein Streifenmuster auf die Materialoberfläche projiziert und analog dem Lichtschnittverfahren ausgewertet. Befindet sich die dreidimensionale Oberfläche vollständig innerhalb des Messbereichs, ist keine Bewegung in Richtung der Koordinatenachsen erforderlich. Um eine höhere Auflösung mit eindeutiger Zuordnung der Punkte zu ihren Raumkoordinaten zu erreichen, werden üblicherweise nacheinander verschiedene Muster projiziert und ausgewertet. Mit dem »Phaseshift-Verfahren« ist es möglich, eine Art Subpixeling zu realisieren. Im Prinzip werden die Muster dazu schrittweise verschoben und jeweils ausgewertet.

Abb. 16: Beispiele mehrdimensionaler Abstandssensoren: a) Laserlichtschnitt; b) Streifenprojektion; c) Fotogrammetrie; d) Werth 3D-Patch.

Fotogrammetrische Verfahren (Abb. 16c) basieren auf dem Erfassen der Objektoberfläche aus zwei unterschiedlichen Richtungen mit je einem Bildsensor. Nach dem Triangulationsprinzip werden die Raumkoordinaten jedes erkannten Objektmerkmals über Winkelbeziehungen berechnet. Da das Messobjekt in der Regel nicht ausreichend strukturiert ist, wird ein zweidimensionales Gitter auf die Oberfläche projiziert. Das sich ergebende Muster wird durch die beiden Kameras erfasst und anschließend ausgewertet. Anders als bei einem Streifensensor hat die Genauigkeit der Projektion keinen Einfluss auf das Messergebnis.
Das Werth 3D-Patch (Abb. 16d) ermöglicht eine besonders einfache und schnelle dreidimensionale Erfassung von Oberflächen. Es führt das oben beschriebene Autofokusverfahren mit bewegter Kamera für alle Bildpunkte gleichzeitig durch. Mit einmaligem Durchfahren des gewünschten Messbereichs entlang der optischen Achse erhält man innerhalb weniger Sekunden eine Vielzahl von Messpunkten. Der Vorteil dieses Verfahrens liegt insbesondere darin, dass über einen Standardbildverarbeitungssensor hinaus keine zusätzliche Hardware erforderlich ist.
Ein entlang der optischen Achse bewegtes Weißlichtinterferometer ermöglicht ebenfalls dreidimensionale Messungen. Zu jeder Position des Sensors wird mit einem speziellen Interferenzverfahren die Menge der Objektpunkte ermittelt, die sich in einem vordefinierten Abstand zum Sensor befinden. Während der Bewegung werden ähnlich wie beim 3D-Patch für verschiedene Schnittebenen die Punktewolken ermittelt und anschließend zusammengefügt.
Bei den genannten Sensorprinzipien erfolgt eine mehrdimensionale Messung von Punktewolken. Diese ist mit dem »Messen im Bild« beim Bildverarbeitungssensor vergleichbar. Allerdings sind der erreichbaren Messunsicherheit bei vorgegebenem Messbereich Grenzen gesetzt. Verantwortlich hierfür ist insbesondere die endliche Auflösung der Sensoren. Zu unterscheiden ist zwischen der Strukturauflösung und der Ortsauflösung.
Die Strukturauflösung definiert, wie klein Strukturen sein dürfen, um noch registriert zu werden (Abtasttheorem). Die relative Strukturauflösung bei den häufig verwendeten CCD-Sensoren ergibt sich aus dem Verhältnis von Bildpunktgröße zu Messbereich und entspricht der Bildpunktanzahl in der jeweiligen Richtung (Größenordnung 1 : 1000). Zum Beispiel können in einem Messfeld von 100 mm Ausdehnung nur Strukturen größer als 0,1 mm aufgelöst werden.
Die Ortsauflösung bestimmt hingegen, mit welcher Schrittweite die Lage einer Struktur gemessen werden kann. Diese wird z. B. durch das digitale Maßstabsystem des Koordinatenmessgeräts und wiederum durch die Bildpunktgröße des Sensors bestimmt. Durch Grauwertinterpolation (Subpixeling) kann eine Sensorortsauflösung von ca. 1 : 10 000 erreicht werden. Dieses Verhältnis lässt sich derzeit praktisch nicht unterschreiten.

Zu beachten ist, dass die erforderliche Ortsauflösung sehr viel kleiner sein muss, als die angestrebte Messunsicherheit. Das bedeutet, dass z. B. bei einer Messunsicherheit von wenigen Mikrometern eine Ortsauflösung des Sensors von deutlich kleiner als 1 µm zu fordern ist und aus diesem Grund nur Sensormessbereiche unter 10 mm möglich sind. Die Messung komplexer Teile mit größeren Messbereichen erfordert somit, die Sensoren mit dem Koordinatenmessgerät zu positionieren. Dies entspricht dem schon beschriebenen »Messen am Bild«. In der Praxis werden solche 3D-Sensoren mit größeren Messbereichen (einige 10 mm) ausgestattet und zum Messen von Freiformflächen und anderen Merkmalen mit größeren Toleranzen eingesetzt.