Werdegang der industriellen Optikentwicklung in Heerbrugg: Vom Strahlen berechnenden Damenkollektiv zur Auswertung kollektiver Strahldaten

Bernhard Braunecker

 

Die Bertele Ära in Heerbrugg

Als 1946 der im vorangehenden Bericht erwähnte Ludwig Bertele bei WILD in Heerbrugg seine Stelle als Leiter der Optikentwicklung antrat, war das damals übliche Vorgehen im Optikdesign, dass eine Gruppe meist jüngerer Frauen im eigens geschaffenen Rechensaal mit Hilfe von Sinustabellen und Logarithmentafeln bestimmte optische Strahlen durch das noch unfertige Objektiv rechnete. Man kam bei komplizierten Objektiven auf gut fünf windschiefe Strahlen pro Stunde und vermutlich auf doppelt so viele, als mechanische Rechenmaschinen mit verwendet werden konnten. Das war in Heerbrugg noch bis 1957 der Fall! Der Optikdesigner musste aus den wenigen gerechneten Strahlaberrationen auf die hochgradig nicht-linearen Zusammenhänge beim Bildaufbau schliessen, um entsprechende Korrekturmassnahmen an der Linsenform und bei der Glaswahl zu treffen. Das erforderte neben analytischem Denken auch eine ausgeprägte Intuition, so dass Optikrechner meist auch Künstlernaturen waren. Man kann rückblickend die Leistungen von Bertele nur bewundern, der trotz der beschränkten Hilfsmittel mit den ‚Aviogons’ eine völlig neue Klasse der grossformatigen Luftbildobjektive schuf und damit die moderne, flugzeuggestützte Luftbild-Photogrammetrie begründete.

Kontakt zu Zuse

Der Bedarf an Rechenleistung bewog namhafte Optikfirmen wie WILD Heerbrugg frühzeitig, den Kontakt zu Computerbauern der ersten Stunde wie Konrad Zuse zu suchen. Ab 1959 kamen in Heerbrugg eine, später zwei röhrenbestückte Zuse Z22, bzw. Z22R Rechner in der Optikentwicklung zum Einsatz. Die Rechner hatten einen Ferritkernspeicher von 14 Worten à 38 Bit, einen Trommelspeicher von 8'192 Worten à 38 Bit und kosteten ca. 220'000 DM. Jede Operation wurde im Maschinencode durch ein 38 Bit Befehlswort beschrieben, wobei 13 Bit für die eigentliche Operation belegt waren, sowie 5 Bit für die Adresse des Kernspeicherelements und 13 Bit für die des Trommelspeicherelements, zwischen denen die Information verschoben wurde. Die Befehlsabarbeitung konnte man - zumindest bei der späteren transistorisierten Z23 - auch optisch gut kontrollieren, wenn man das Flackern der 38 Bit-Lämpchen des Befehlsregisters an der Kontrolleinheit mitverfolgte. Die Komplexität der Z22R-Hardware mit 400 Röhren, die zu Flip-Flops geschaltet waren, kann man erahnen, wenn man sie mit einem damaligen Radiogerät mit 4 bis 5 Röhren vergleicht. Konrad Zuse kam sehr gerne nach Heerbrugg und genoss im ORB, dem Optischen Rechenbüro, die kollegialen Diskussionen. Als Bertele 1968 in Pension ging, konnte er eine der beiden Z22 zu sich nach Wildhaus ins Toggenburg mitnehmen. Allerdings mussten jede Woche montags jeweils 150 Röhren vom Wartungstechniker aus Heerbrugg einzeln getestet werden…!

Ludwig Bertele (1900-1985)
Zuse Rechner Z22R in Heerbrugg (1960)

Vom Rechensaal zum Rechenzentrum

Nach der Z22 wurde eine Zeitlang in Heerbrugg mittels Fernschreiber am FIDES-Rechenzentrum der ETHZ gerechnet, wo grosse IBM 360 und CDC 3300-Maschinen im Einsatz standen, die bereits ‚Raytrace’-Programme anboten. In den 70er Jahren kam dann die Generation der Mini- und Superminirechner auf, so die in jedem Physiklabor zu findende PDP-11 von DEC. Danach die als ‚NumberCruncher’ bezeichneten schnellen 32 Bit–Maschinen wie die Interdata 8/32 von Perkin-Elmer, die ‚Eclipse’ von Data General und in Heerbrugg die sehr schnelle SEL 32/55 von Systems Engineering Labs, die später unter dem Firmennamen ‚Gould’ weitergeführt wurde. Sie wurde Mitte der 80er Jahre abgelöst von einer VAX 11/780 von DEC. Ihre hohen Rechenleistungen erlaubten eine immer extensivere eigene Softwareentwicklung. Jede grössere Optikfirma arbeitete an ihrer eigenen, streng gehüteten Software mit dem vom Chefdesigner als Herzstück konzipierten Optimierungsalgorithmus. Das führte unter der Leitung von Klaus Hildebrand, dem Nachfolger Berteles, zu einem signifikanten Entwicklungsschub für neue Generationen von Objektiven für Geodäsie-, Medizin-, Militär- und Luftbildanwendungen. Da die Optiken vielfach nahe der Beugungsgrenze auflösen sollten, mussten zusätzlich zur rein geometrischen Korrektur auch Beugung, Wellenfrontdeformationen und Kohärenzeigenschaften in die Optimierung und Analyse mit aufgenommen werden.

Digital Nivellier von Leica
Nivellier- latte mit Barcode-Muster

Neue Kollektivkonzepte

Anfangs der 90er Jahre, als der Autor dieser Zeilen zusammen mit Bernhard Gächter in Heerbrugg die Optikentwicklung bei Leica in neue Richtungen lenken konnte, geschah ein entscheidender Paradigmenwechsel in der optischen Messtechnik, der Konsequenzen auch für den Lensdesign hatte: Die klassische Kombination Optik/Mechanik wurde Bestandteil eines Gesamtkonzepts aus Sensorik und neu, aus Modellierung und Algorithmik. Während vom Instrument die Objektinformation mittels Sensoren physikalisch erfasst wird, wird parallel dazu im Gerät die gesamte Abbildungskette mathematisch modelliert. Aus dem direkten Vergleich von gemessenen und synthetisierten Sensordaten werden mittels Schätzalgorithmen die optimalen Modellparameter ermittelt und als die wahrscheinlichsten Objektdaten ausgegeben.
Gelingt es zusätzlich, das Objekt mittels einer Kollektivstruktur, also eines aufgeprägten oder aufprojizierten Musters, zu codieren (siehe Bild der Nivellierlatte), verlieren die klassischen Grenzen der Einzelpunktauflösung wie das Rayleighkriterium oder die Nyquistfrequenz bei Sensoren weitgehend ihre Bedeutung. Auflösungen von Pixel/100 sind selbst bei schlechtem Signal zu Rauschverhältnis mit codierten Objekten erzielbar.
Für die Optikrechnung hatte das interessante Auswirkungen, da man nun den Design sehr lichtstarker Optiken unabhängig von der Pixelgrösse des Sensors bis zur Machbarkeitsgrenze ausreizen und gleichzeitig verbleibende Restaberrationen ins mathematische Modell aufnehmen konnte. Es zeigte sich aber, dass die neuen Fragestellungen auch eine neue Infrastruktur erforderten: Leica entschied sich, das professionelle Optikprogramm CodeV als Basis und als Gefäss eigener Makroprogrammierung einzuführen. Damit liessen sich komplizierte Messabläufe wie die Kalibrierung einer digitalen Luftbildkamera oder manche Raumfahrtanwendung unter Verwendung des tatsächlichen Designs so präzise simulieren, dass anschliessend im Labor nur mehr die Feinabstimmung verifiziert werden musste.
Heutzutage ist es üblich, das Optikprogramm selber als Modul in übergeordnete CAD-Programme weiter einzubinden und so immer realitätsnäher, schneller und technologieübergreifender zu entwickeln. In Heerbrugg bemühten wir uns schliesslich noch, die gut hundert Aberrationsmakros, die auf der Erfahrung von Designern wie Bertele und Hildebrand beruhten und Aberrationen höherer Ordnung beschrieben, als Makros in die CodeV-Optimierung mit einzubinden, als wertvollen „alten Wein in neuen Schläuchen“!

Wohin geht die Entwicklung?

Neue Instrumentkonzepte sind gefragt: Im Mittelpunkt eines optischen ‚Remote Sensing’-Instruments wird in Zukunft als Zeitbasis die ‚optische’ Uhr stehen, um im Kontext einer Sensorfusion die räumliche, spektrale Objektabbildung und die aktive Profilabtastung mit zeitlich codierten Laserstrahlen zu synchronisieren. Die enorme Steigerung der Rechenleistung in den Geräten wird erlauben, in der Algorithmik rechenaufwendige Korrelationen höherer Ordnung wie die Tripelkorrelation einzusetzen, um z.B. aus mehreren Intensitätsmessungen die verlorene Phaseninformation zu rekonstruieren, so dass Störungen durch Vibrationen oder turbulente Medien eliminiert werden können.
Trotz aller technischen Fortschritte wird die Erfahrung und das Gefühl des Optikentwicklers weiterhin die zentrale Rolle spielen, um bei den immer komplexer werdenden Aufgabestellungen genau die optimale Lösung zu finden, die robust, machbar und kostengünstig ist.

 

 

[Veröffentlicht: September 2011]