Satelliten 14.02.2003, 18:23 Uhr

Nur die Spitze eines Daten-Eisbergs

Satelliten und bemannte sowie unbemannte Aufklärungsflugzeuge kreisen derzeit über dem Irak, um den Nachweis zu führen, dass Saddam Hussein Massenvernichtungswaffen produziert – aber auch, um die US- Truppen auf den Kriegsfall vorzubereiten. Die Bilder, die so entstehen, sind Ergebnis eines komplexen Prozesses.

Die Fotos, die ich ihnen zeigen werde“, so US-Außenminister Colin Powell Mitte letzter Woche vor der UN, „sind für den normalem Beobachter manchmal schwer zu interpretieren das trifft auch für mich zu.“
Denn Fotos, wie Powell sie als Beweis dafür gezeigt hat, dass der Irak Massenvernichtungswaffen herstellt, sind weit mehr als schlichte Satellitenfotos aus dem Weltraum: Sie sind die Spitze eines gigantischen Eisbergs an Informationen – und sie können ebenso trügerisch sein.
Aufklärungsfotos sind eine Kombination vieler, zumeist elektronisch gewonnener Informationen, die, von Spezialisten interpretiert, über komplizierte Algorithmen zu einem „Bild“ zusammengefügt werden.
Diese Informationen werden grundsätzlich auf zwei Wegen gewonnen: über optische Sensoren und über Radarsensoren.
Diese Sensoren können auf Satelliten um die Erde fliegen, aber auch auf unbemannten (Drohnen) oder bemannten Fluggeräten, die aus unterschiedlicher Höhe das Zielgebiet beobachten.
Die Satelliten fliegen in der Regel zwischen 200 km und 2000 km Höhe. Radarsatelliten fliegen in der Regel innerhalb dieses Korridors so niedrig wie möglich, weil sie sonst riesige Antennen benötigen.
Aufklärungssatelliten, die in etwa 400 km Höhe fliegen, brauchen knapp 90 Minuten, um die Erde einmal zu umkreisen. Wegen der extrem hohen Geschwindigkeit, mit der sie ihr Ziel überfliegen, werden die Sensoren an Bord nachgesteuert – meist sogar der gesamte Satellit – um das Ziel länger fokussieren zu können.
Ein optischer Satellit kann für alle Spektralbereiche eigene CCD-Sensoren (Charge Coupled Devices) an Bord haben. Diese wandeln optische Signale in elektrische. Über Algorithmen wird dann aus den verschieden Bildern je nach Bedarf ein bestimmtes herausgerechnet – von Gebäudekonturen bis zu Bodenkontaminationen.
Oft sind auf den optischen Satelliten die Infrarot-Sensoren besonders verstärkt, weil man mit ihrer Hilfe etwa eine arbeitende Fabrik – über die Wärme-Entwicklung – von einer stillgelegten unterscheiden oder unterirdische Räume entdecken kann.
Optische Sensoren, sieht man vom Infrarot ab, können keine Bilder durch Wolken oder in der Nacht aufnehmen. Auch ungünstige Schattenbildung am Tag kann ein optisches Bild verfälschen. Dann kommen die Radarsatelliten ins Spiel.
Radarsatelliten berechnen ihr „Bild“ aus der Laufzeit und der Stärke von Radarsignalen, die sie selbst zur Erde schicken – pro Sekunde sind es ungefähr 1500 solcher gepulsten Signale in unterschiedlichen Bandbereiten und Frequenzen. Diese Signale werden von der Erde zurückgeworfen, von den Antennen der Satelliten eingefangen und liefern so präzise Informationen über Bodenbeschaffenheit, Höhenunterschiede etc. Jedes Signal bildet ein Pixel auf dem Radar-„Bild“.
Der Radarsatellit kann nicht nur bei Nacht und Wolken arbeiten. Radarsatelliten erkennen auch Autos im Schatten oder Panzer unter dichtem Laub. „Erst die Kombination von Radar- und optischen Satelliten“, so ein deutscher Aufklärungsspezialist, „bringt den eigentlichen Aufklärungswert.“
Zudem muss man wissen, in welchem Dorf ein bestimmtes Auto fotografiert wurde, wo das Dorf liegt, zu welchem Gebirge der Berg neben dem Dorf gehört etc. Dafür haben Satelliten und überfliegende Fluggeräte unterschiedliche Sichtweisen, „modes“ genannt – zwischen punktgenau und Überblick ist alles möglich. Aber Satellitenzeit ist wertvoll – Militärsatelliten sollen sich auf“s Detail konzentrieren. Die amerikanische NIMA (National Imagery and Mapping Agency), zuständig für die Bildaufklärung in den USA, kauft deshalb bei privaten Anbietern wie Space Imaging, die den Ikonos-Satelliten betreiben, Überblicks-Bilder, um ihre eigenen, hochauflösenden Bilder präzise kalibrieren zu können.
Ergänzt werden diese Informationen durch Bilder von Drohnen, wie dem Global Hawk, und Aufklärungsflugzeugen, wie dem U2.
Doch nicht nur das. Bevor ein Bild aus der Datenflut zusammengesetzt wird, werden die optischen und Radardaten automatisch oder von Hand mit Datenbanken verglichen, in denen jedes zivile oder militärische Fahrzeug, Flugzeug, aber auch bestimmte Gebäudeformen, etwa von kerntechnischen oder Chemieanlagen, und geographische Daten, gespeichert sind. Dann werden jene Datenbanken durchforstet, in denen die typischen Radarbilder, „Signaturen“ genannt, von Gebäuden Fahrzeugen etc. gespeichert sind. Nur so lässt sich das, was man auf den Bildern sieht, auch interpretieren und identifizieren – oder wirkliche Panzer unter Tarnnetzen von geschickt arrangierten Schrottbergen unterscheiden.
In den gesamten Prozess aber sind Menschen eingebunden, die die Daten behandeln und auswählen. „Und dann kommt es auf die an, die die Daten schließlich interpretieren und zu einen Gesamtbild zusammenfügen“, so europäische Aufklärungsspezialisten.
Die leistungsfähigsten Spionagesatelliten, über die die USA derzeit verfügen, sind die der Keyhole (KH)-Klasse. Der neueste, der KH 12, misst ungefähr 4,5 m im Durchmesser und 15 m in der Länge, einschließlich seiner Antriebe. Sein Trockengewicht dürfte bei 10 t liegen, dazu kommen 7 t Treibstoff.
Die KH-12 Satelliten, von denen derzeit drei existieren, sind optische Satelliten. Ergänzt werden sie von den Radarsatelliten der Lacrosse-Klasse, die über ein Radar mit synthetischer Apertur verfügen. Dabei wird durch Bewegungen der Antenne im Flug eine größere Antenne simuliert – die Auflösung der Satellitenbilder erhöht sich.
Die gesammelten Daten werden teilweise an Bord der Satelliten prozessiert, gehen dann via Laser an einen Kommunikationssatelliten, von dort an die Bodenstationen. Alle Satelliten fliegen auf einer polaren Bahn um die Erde, d. h. ihre Bahnen kreuzen sich über den Polen. Gestartet werden sie vom Militärstützpunkt Vandenberg an der amerikanischen Westküste.
Aufklärungsbilder sollen auch Entwicklungen in einem beobachteten Gebiet zeigen – sie müssen also möglichst oft darüber fliegen. Diese „revisit time“ liegt in der Regel bei sechs Stunden, im Ernstfall deutlich darunter. Wie dies bei nur wenigen Satelliten möglich ist, ist das Ergebnis aufwändiger Bahn- und Flugmanöver-Simulationen im Rechner. Voraussetzung ist, dass Satelliten im All manövrieren können – sie können in ihrer Bahn abgesenkt werden, was sie schneller macht und die Umlaufzeiten verringert, und in neue Umlaufbahnen verschoben werden, sie können aber auch, wenn sie neben dem zu beobachtenden Ziel vorbeifliegen, noch Bilder aus extremen Winkeln aufnehmen.
All diese Manöver, auch das Nachführen der Satelliten beim Flug über ihr Ziel, kosten Sprit – deshalb die enormen Treibstoffmengen von Militärsatelliten. Es war sogar geplant, sie mit dem US-Shuttle warten und betanken zu lassen. Denn geht dem Satelliten der Treibstoff aus, ist er nutzlos und stürzt früher oder später auf die Erde.
Derzeit planen die USA den Aufbau eines neuen Systems von Aufklärungssatelliten, FIA (Future Imagery Architecture) genannt. Dabei sollen die großen Lacrosse und KH-12-Satelliten durch ein gutes Dutzend kleiner, aber intelligenterer Satelliten ersetzt werden. Diese sollen gut das 20-fache an Bilddaten liefern, wie die derzeitigen Satelliten.
Doch auch diese Daten werden interpretiert werden müssen. „Ein fertiges Bild ist immer eine Interpretation von Daten“, so europäische Fachleute, „erst wenn ich meine Rohdaten einem zweiten Land überspielen würde, das über ähnliche eigene Daten verfügt, und dessen Fachleute kämen zu demselben Urteil, dann hätte man eine gewisse Objektivität.“ W. MOCK

Auflösung
Genau hinsehen
Entscheidend für das, was man sieht, ist bei den optischen und Radar-Satelliten die Auflösung. Kommerziell vertrieben werden heute bereits optische Bilder mit einer Auflösung von 1 m. Im militärischen Bereich soll eine Auflösung von 10 cm möglich sein. Das bedeutet nicht, dass Gegenstände von 10 cm Größe erkennbar sind. Die Auflösung gibt im optischen Bereich die Entfernung an, die zwei im Bild gerade noch getrennt wahrnehmbare Bildpunkte voneinander haben. Um einen Gegenstand sicher erkennen zu können, sind mindestens 5 bis 7 Bildpunkte nötig. Bei einer Auflösung von 10 cm kann man sicher also erst Gegenstände ab einer Größe von 50 cm erkennen. Bei Radarsatelliten ist die Auflösung des Bildes von der Größe der Antenne auf dem Satellit abhängig, die Stärke und Laufzeiten der zurückgeworfenen Radarimpulse misst.

  • Wolfgang Mock

Themen im Artikel

Stellenangebote im Bereich Luft- und Raumfahrt

HENSOLDT-Firmenlogo
HENSOLDT System Safety Expert Airborne SIGINT (w/m/d) Ulm
Hochschule Emden/Leer-Firmenlogo
Hochschule Emden/Leer Wissenschaftlicher Mitarbeiter im Bereich Leichtbaukonstruktion und Fahrzeugtechnik (m/w/d) Emden
MTU Maintenance Hannover GmbH-Firmenlogo
MTU Maintenance Hannover GmbH Triebwerksingenieur / Powerplant Engineer (m/w/d) Langenhagen
TECCON Consulting&Engineering GmbH-Firmenlogo
TECCON Consulting&Engineering GmbH Systems Engineer Avionics/Missions Systems (m/w/d) Donauwörth
OHB Digital Connect GmbH-Firmenlogo
OHB Digital Connect GmbH DevOps Engineer (m/w/d) Bremen
OHB Digital Connect GmbH-Firmenlogo
OHB Digital Connect GmbH Proposal Manager Satellite Ground Systems (m/f/d) Bremen

Alle Luft- und Raumfahrt Jobs

Top 5 Raumfahrt

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.