Sie sind auf Seite 1von 14

TEPZZ 

¥9 89ZB_T
(19)

(11) EP 2 392 890 B1


(12) EUROPÄISCHE PATENTSCHRIFT

(45) Veröffentlichungstag und Bekanntmachung des (51) Int Cl.:


Hinweises auf die Patenterteilung: F41G 3/02 (2006.01) F41G 7/00 (2006.01)
26.06.2019 Patentblatt 2019/26 F41G 7/22 (2006.01)

(21) Anmeldenummer: 11004429.4

(22) Anmeldetag: 31.05.2011

(54) Verfahren zum Einweisen eines Flugkörpers auf ein Ziel


Method for directing a missile to a target
Procédé de guidage d’un corps volant vers une cible

(84) Benannte Vertragsstaaten: (72) Erfinder: Groß, Michael, Dr.


AL AT BE BG CH CY CZ DE DK EE ES FI FR GB 88682 Salem (DE)
GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO
PL PT RO RS SE SI SK SM TR (74) Vertreter: Diehl Patentabteilung
c/o Diehl Stiftung & Co. KG
(30) Priorität: 04.06.2010 DE 102010022728 Stephanstraße 49
90478 Nürnberg (DE)
(43) Veröffentlichungstag der Anmeldung:
07.12.2011 Patentblatt 2011/49 (56) Entgegenhaltungen:
DE-A1- 3 734 758 DE-A1- 19 828 644
(73) Patentinhaber: Diehl Defence GmbH & Co. KG US-A- 6 157 875 US-A1- 2005 087 649
88662 ÜBERLINGEN (DE) US-B2- 7 537 181
EP 2 392 890 B1

Anmerkung: Innerhalb von neun Monaten nach Bekanntmachung des Hinweises auf die Erteilung des europäischen
Patents im Europäischen Patentblatt kann jedermann nach Maßgabe der Ausführungsordnung beim Europäischen
Patentamt gegen dieses Patent Einspruch einlegen. Der Einspruch gilt erst als eingelegt, wenn die Einspruchsgebühr
entrichtet worden ist. (Art. 99(1) Europäisches Patentübereinkommen).

Printed by Jouve, 75001 PARIS (FR)


1 EP 2 392 890 B1 2

Beschreibung Flugkörpers enthalten und


c) das synthetische Bild unter Berücksichtigung der
[0001] Die Erfindung betrifft ein Verfahren zur Einwei- Sichtverhältnisse erstellt wird.
sung eines Flugkörpers auf ein Ziel, bei dem Zieldaten,
anhand derer der Flugkörper auf das Ziel steuerbar ist, 5 [0007] Die Erfindung geht von der Überlegung aus,
zusammengestellt und an den Flugkörper zur Ansteue- dass bei einer Bekämpfung eines Ziels unter Verwen-
rung auf das Ziel gegeben werden, wobei Aufklärungs- dung von Zieldaten allein, wie Zielkoordinaten, unter Um-
daten aus einem Aufklärungssensor durch ein Flugkör- ständen Kollateralschäden nicht zuverlässig genug ver-
pereinweisungssystem zu Erfassungsunterstützungs- mieden werden können. Durch eine Erfassung des Ziels
daten, die über die Zieldaten hinausgehende Informati- 10 als solches durch den Flugkörper während des Anflugs,
onen zur Erfassung des Ziels enthalten, verarbeitet und z.B. eine optische Erfassung, kann ein Kollateralscha-
an den Flugkörper gegeben werden. densrisiko verringert werden. Ist jedoch eine Erfassung
[0002] Zur Bekämpfung von Bodenzielen werden die des Ziels mit Schwierigkeiten verbunden, insbesondere
Koordinaten des Ziels oder andere das Ziel beschreiben- wenn die Sicht auf das Ziel beeinträchtigt ist, kann es
de Zieldaten, wie das Ziel optisch beschreibende Daten, 15 durch eine Erfassung falscher Ziele ebenfalls zu Kolla-
zusammengestellt und an den Flugkörper, der das Ziel teralschäden kommen.
bekämpfen soll, übergeben. Anhand solcher Zieldaten [0008] Die Erfassung des Ziels kann zuverlässiger ge-
erfasst der Flugkörper bzw. dessen Suchkopf das Ziel macht werden, wenn dem Flugkörper zusätzlich zu den
während des Anflugs auf das Ziel und ist hierdurch auf Zieldaten weitere Informationen mitgegeben werden, die
das Ziel eingewiesen. 20 eine Zielerfassung unterstützen. Solche Erfassungsun-
[0003] Die US 6 157 875 A beschreibt beispielsweise terstützungsdaten können beinhalten, auf welche Art und
ein bildgeführtes Waffensystem: Nach Bestimmung ei- Weise das Ziel zum Zeitpunkt des Anflugs des Flugkör-
nes Zielgebiets wird ein Bild des Zielgebiets generiert pers auf das Ziel erkannt werden kann, beispielsweise
und ein Zielpunkt innerhalb des Zielgebiets ausgewählt mit welcher Art Sensor, in welchem Spektrum und/oder
und dessen GPS-Koordinaten bestimmt. Mittels Bildver- 25 anhand welcher optischer Merkmale. Die Erfassungsun-
arbeitungssoftware wird unter Verwendung von Flugrich- terstützungsdaten können auch Information darüber be-
tungsdaten, dem Bild des Zielgebiets und den GPS-Ko- inhalten, wie gut das Ziel zu erkennen ist. Ist das Ziel
ordinaten des Ziels ein Referenzbild generiert, welches beispielsweise wegen atmosphärischer Trübungen erst
an die Waffe übergeben wird. Die vom Sucher der Waffe sehr spät zu erkennen, so kann einer Koordinaten ge-
generierten Bilder werden mit dem Referenzbild vergli- 30 stützten Einweisung eine hohe Gewichtung gegeben
chen und sobald eine ausreichende Korrelation vorliegt, werden, ohne dass das Ziel zunächst als solches erfasst
werden die GPS-Koordinaten aktualisiert und die Waffe wird. Auf diese Weise kann verhindert werden, dass be-
wird ins Ziel geführt. reits aus einer Entfernung, der in der das Ziel aufgrund
[0004] Aus der DE 37 34 758 A1 ist ein Panzerabwehr- schlechter Sichtverhältnisse noch nicht zu erkennen ist,
Raketensystem bekannt. Um eine Eigengefährdung ei- 35 mit Hilfe eines optischen Sensors das Ziel gesucht, nicht
nes zur Sammlung von Aufklärungsdaten eingesetzten erfasst und anstelle dessen ein anderer und optisch mar-
Hubschraubers zu reduzieren, begibt sich dieser nach kanterer Gegenstand erfasst und irrtümlicherweise für
Zielerfassung in Deckung. Die über die Sensorik bzw. das Ziel gehalten wird, da das Prozessmittel des Flug-
seine Aufklärungssensoren gewonnenen Zieldaten als körpers davon ausgeht, dass das Ziel bereits erkannt
auch ein Zielreferenzbild werden an das Raketensystem 40 werden kann. Somit kann der Flugkörper anhand der Er-
übermittelt. Nach ihrem Abschuss folgt eine Rakete ei- fassungsunterstützungsdaten zuverlässig auf das Ziel
nem vordefinierten Flugprofil und aktiviert dann ihre Sen- eingewiesen werden.
sorik und identifiziert das Ziel durch Vergleich ihres Sen- [0009] Der Flugkörper kann ein Lenkflugkörper sein
sorbildes mit dem Zielreferenzbild. mit oder ohne eigenen Antrieb. Er umfasst zweckmäßi-
[0005] Es ist eine Aufgabe der vorliegenden Erfindung, 45 gerweise einen Suchkopf mit einem Sensor zum Erfas-
ein Verfahren zum Einweisen eines Flugkörpers auf ein sen von Zieleigenschaften, beispielsweise einen opti-
Ziel anzugeben, mit dem das Ziel, insbesondere bei wid- schen Sensor. Die Zieldaten sind Daten, anhand derer
rigen Umständen, durch den Flugkörper zuverlässig er- der Flugkörper auf das Ziel zu steuerbar ist. Sie können
fasst werden kann. Zielkoordinaten sein, Koordinaten eines Zielgebiets
[0006] Diese Aufgabe wird durch ein Verfahren der ein- 50 und/oder das Ziel in so weit bestimmende Daten, so dass
gangs genannten Art gelöst, wobei das Ziel als solches durch die Zieldaten erfasst werden
kann. Der Flugkörper ist zweckmäßigerweise mit einer
a) die Aufklärungsdaten Bildinformationen einer Um- Prozesseinheit ausgestattet, die dazu vorbereitet ist, den
gebung des Ziels enthalten und die Sichtverhältnis- Flugkörper anhand der Zieldaten in das Ziel zu steuern,
se auf der Anflugroute des Flugkörpers auf das Ziel 55 insbesondere das Ziel anhand der Zieldaten zu erfassen.
beinhalten und Die Erfassung kann auf optischem Wege erfolgen, so-
b) die Erfassungsunterstützungsdaten ein syntheti- dass das Ziel als solches erkannt wird, wobei die Ver-
sches Bild des Ziels aus Sicht des anfliegenden wendung jeder geeigneten Frequenz, beispielsweise im

2
3 EP 2 392 890 B1 4

Visuellen, im Infraroten oder im Radarbereich, möglich - eine Erfassungsreichweite, aus der das Ziel in Ab-
ist. hängigkeit von den Aufklärungsdaten mit Bordmit-
[0010] Der Aufklärungssensor kann jeder geeignete teln des Flugkörpers noch erfassbar ist, und die ins-
Sensor sein. Zweckmäßigerweise ist er Teil eines Auf- besondere abhängig von der verwendeten Wellen-
klärungsnetzwerks aus einer Vielzahl von insbesondere 5 länge und/oder der Zielsignatur ist,
unterschiedlichen Aufklärungssensoren. Die Aufklä- - eine voraussichtliche Güte einer Erfassung in Ab-
rungsdaten sind zweckmäßigerweise Daten über das hängigkeit von den Aufklärungsdaten; die Güte kann
Ziel und/oder das Zielgebiet. Sie können durch das Flug- ein Zuverlässigkeitsgrad für eine fehlerfreie Erfas-
körpereinweisungssystem aus einer Datenbank abgeru- sung sein; sie ist zweckmäßigerweise abhängig von
fen werden und beschreiben das Ziel bzw. das Zielgebiet 10 einer Erfassungsentfernung, z.B. der Erfassungs-
zweckmäßigerweise zu einem vergangenen Zeitpunkt, reichweite, und/oder
sodass sie als Archiv-Informationen bezeichnet werden - Daten zu einer Sichtbarkeit des Ziels in Abhängigkeit
können. Die Aufklärungsdaten stehen zweckmäßiger- einer Anflugrichtung, einer Erfassungswellenlänge,
weise einer Vielzahl von Abrufempfängern zur Verfü- insbesondere aus Sicht des anfliegenden Flugkör-
gung, beispielsweise mehreren Flugkörpern oder Flug- 15 pers, einem Erfassungsverfahren und/oder einem
körpereinweisungssystemen. Erfassungssensor.
[0011] Zumindest Teile des Flugkörpereinweisungs-
systems befinden sich zweckmäßigerweise außerhalb [0015] Eine weitere Ausführungsform der Erfindung
des Flugkörpers und sind vorteilhafterweise in Bezug auf sieht vor, dass die Aufklärungsdaten Informationen zu
ihren Ort unabhängig vom Flugkörper. Das gleiche gilt 20 einem Umgebungsmerkmal in der Umgebung des Ziels
zweckmäßigerweise für den Aufklärungssensor. Das enthalten. Hieraus wird als Erfassungsunterstützungs-
Flugkörpereinweisungssystem kann eine bodengebun- daten vorteilhafterweise eine Beziehungsinformation,
dene Prozesseinheit umfassen, die über eine Datenfern- beispielsweise eine Relativposition des Ziels zum Um-
übertragung mit dem Flugkörper verbunden ist. Die Er- gebungsmerkmal, bestimmt. Die Aufklärungsinformation
fassungsunterstützungsdaten werden zweckmäßiger- 25 kann ein Gelände- und/oder Topografiemerkmal sein,
weise an den Flugkörper ausgegeben, bevor der Flug- das zweckmäßigerweise gut sichtbar ist, wie ein Turm,
körpersensor Kontakt mit dem Ziel hat. ein Mast, eine Halle, eine Kreuzung oder dergleichen.
[0012] Die Verarbeitung der Aufklärungsdaten A zur Auf diese Weise kann das Ziel auch dann angesteuert
Erfassungsunterstützungsdaten E kann mit Hilfe einer werden, wenn dessen Absolutposition unbekannt ist, so
geeigneten Funktion F erfolgen, wobei gelten kann: E = 30 lange die Relativposition bekannt ist. Der Flugkörper
F (A, W), wobei W weitere Informationen sein können, kann zunächst unter Verwendung der Aufklärungsinfor-
z. B. Flugkörperdaten, wie Art des Flugkörpers, seine mation, z.B. Koordinaten eines Turms, gesteuert und an-
Steuerfähigkeit, die Art des Suchkopfes, die Art des Ge- schließend unter Verwendung der Erfassungsunterstüt-
fechtskopfs, usw. Es ist möglich, dass W = 0 und/oder F zungsdaten, z.B. der Relativposition des Ziels zum Turm,
= 1, sodass die Aufklärungsdaten direkt als Erfassungs- 35 in das Ziel geführt werden. Es ist auch möglich, zunächst
unterstützungsdaten verwendet werden. Der Flugkörper die Aufklärungsinformation zu verwenden und danach
kann in Abhängigkeit der Erfassungsunterstützungsda- die Erfassung des Ziels unter Verwendung der Erfas-
ten, also unter Verwendung der Erfassungsunterstüt- sungsunterstützungsdaten durchzuführen. Diese Zieler-
zungsdaten, auf das Ziel gesteuert werden, sodass die kennung ist sehr zuverlässig, da der Flugkörper sehr nah
Erfassungsunterstützungsdaten direkt oder indirekt als 40 an das Ziel herangeführt werden kann und dieses dann
Steuerinformation zur Steuerung des Flugkörpers ver- unter Verwendung der Erfassungsunterstützungsdaten
wendet werden können. Vorteilhafterweise wird der Flug- gezielt suchen kann. Die Erfassungsunterstützungsda-
körper unter Verwendung der Erfassungsunterstüt- ten können eine Relativposition und/oder optische Da-
zungsdaten auf das Ziel gesteuert bevor der Flugkörper ten, zweckmäßigerweise aus Sicht aus einer Nähe des
das Ziel erfasst. 45 Umgebungsmerkmals enthalten, sodass der Flugkörper
[0013] In einer vorteilhaften Ausführungsform der Er- zunächst auf das Umgebungsmerkmal und dann auf das
findung enthalten die Aufklärungsdaten Informationen zu Ziel zugeführt werden kann. Außerdem ist es möglich,
einer Erkennbarkeit des Ziels. Solche Informationen kön- den Zielbereich anhand der Aufklärungsinformation ein-
nen Daten zu Sichtverhältnissen über dem Ziel sein, ein zugrenzen, sodass die Gefahr einer Falschzielerken-
atmosphärischer Transmissionsgrad oder eine Sichtwei- 50 nung reduziert wird.
te, zweckmäßigerweise in Abhängigkeit des verwende- [0016] Weiter wird vorgeschlagen, dass die Aufklä-
ten Sensors. Weiter können die Aufklärungsdaten Daten rungsdaten Bildinformationen einer Umgebung des Ziels
zu Objekten sein, die das Ziel verdecken, so dass das enthalten und die Erfassungsunterstützungsdaten ein
Ziel unter Umständen nicht erkennbar ist. Geländemodell einer Umgebung des Ziels. Durch das
[0014] Vorteilhafterweise enthalten die Erfassungsun- 55 Geländemodell, das zweckmäßigerweise ein topografi-
terstützungsdaten Informationen über aktuelle Bedin- sches Modell oder ein Strahlungsmodell ist, in zwei oder
gungen einer Erfassung des Ziels. Solche Bedingungen drei Dimensionen, kann der Flugkörper Zusatzinforma-
können sein: tionen über die Art der Umgebung, zweckmäßigerweise

3
5 EP 2 392 890 B1 6

relativ zum Ziel erhalten. Es kann eine Sichtbarkeit des ziehung des Vorabbilds mit dem Sichtbild des Ziels ent-
Ziels in Abhängigkeit der umliegenden Topografie ermit- halten, das sich dem auf das Ziel anfliegenden Flugkör-
telt werden. Ebenfalls ist es möglich, aus einem Strah- pers ein Flugkörper bietet. Das Vorabbild kann ein auf-
lungsmodell zu erfassen, dass das Ziel zunächst durch genommenes Bild oder ein synthetisches Bild sein und
einen anderen Gegenstand überblendet wird, sodass ei- 5 dient zweckmäßigerweise als Referenzbild. Die Bezie-
ne Zielerfassung erst dann möglich ist, wenn der Gegen- hung kann ein Vergleich sein und insbesondere Informa-
stand von dem Ziel optisch trennbar ist. tionen darüber enthalten, wie das Vorabbild mit dem
[0017] Entsprechend der Erfindung ist vorgesehen, Sichtbild verglichen werden soll. Der Vergleich kann
dass die Aufklärungsdaten Bildinformationen einer Um- durch ein Bildkorrelationsverfahren erfolgen. Die Bezie-
gebung des Ziels enthalten und die Erfassungsunterstüt- 10 hung kann Informationen darüber enthalten, aus welcher
zungsdaten ein synthetisches Bild des Ziels und/oder ei- Richtung auf das Ziel geschaut wird wenn der Flugkörper
ner Umgebung des Ziels. Bei der Berechnung des syn- auf das Ziel zufliegt. Vorteilhafterweise wird das Vorab-
thetischen Bilds wird zweckmäßigerweise ein Flugkör- bild unter Berücksichtigung einer maximal möglichen Er-
perparameter berücksichtigt, wie eine Anflugrichtung fassungsentfernung erstellt, sodass das Vorabbild das
des Flugkörpers auf das Ziel oder das Zielgebiet, eine 15 Ziel und/oder eine Umgebung des Ziels aus einer Sicht
voraussichtliche Geschwindigkeit des Flugkörpers, at- zeigt, in der der Flugkörper das Ziel tatsächlich erfassen
mosphärische Informationen, wie eine Umgebungshel- kann, z.B. der maximal möglichen Erfassungsentfer-
ligkeit, eine atmosphärische Transparenz und/oder der- nung.
gleichen, wodurch ein besonders geeignetes Bild für die [0022] Die Zuverlässigkeit einer richtigen Zielerfas-
Erfassung des Ziels erreichbar ist. 20 sung kann weiter erhöht werden, wenn die Aufklärungs-
[0018] Erfindungsgemäß stellt das Bild das Ziel daten Informationen zu einer Sicht auf das Ziel enthalten
und/oder das Zielgebiet aus der Sicht des anfliegenden und die Erfassungsunterstützungsdaten Informationen
Flugkörpers dar. Weiter ist es vorteilhaft, wenn das syn- darüber, welches unter mehreren möglichen Zielerfas-
thetische Bild ein Bild auf das Ziel aus der Richtung und sungsverfahren des Flugkörpers das am Besten geeig-
dem Abstand einer maximalen Erfassungsentfernung 25 nete ist. So kann beispielsweise unter mehreren ver-
des Flugkörpers ist, wobei Umgebungs- und/oder Atmo- schiedenen Sensoren des Flugkörpers zum Erfassen
sphärenparameter berücksichtigt werden können. Das des Ziels ausgewählt werden und/oder ein Bildkorrelati-
synthetische Bild wird erstellt und zweckmäßigerweise onsverfahren anhand eines Vorabbilds ausgewählt wer-
dem Flugkörper zur Verfügung gestellt bevor dieser das den.
Ziel erfassen kann, insbesondere bevor das Ziel für den 30 [0023] Einer Erfassung eines falschen Ziels kann ent-
anfliegenden Flugkörper sichtbar ist. Auf diese Weise gegengewirkt werden, wenn die Aufklärungsdaten Infor-
kann der Flugkörper, bzw. dessen Suchkopf, Detektions- mationen zu einer Sicht auf das Ziel enthalten und die
parameter in Abhängigkeit von Eigenschaften des Bilds Erfassungsunterstützungsdaten Informationen darüber,
einstellen, bereits bevor das Ziel durch den Flugkörper ob der Flugkörper ausreichend gut über eigene Sensorik
erfasst wurde bzw. sichtbar ist. Erreicht der Flugkörper 35 an das Ziel heranführbar ist oder ob er mit Hilfe eines
die maximale Erfassungsreichweite, so kann er bereits anderen Verfahrens auf das Ziel hingeführt werden muss
das synthetische Bild ausgewertet und die Detektions- und zweckmäßigerweise bis wohin, sodass seine eigene
parameter so eingestellt haben, dass er das Ziel schnell Sensorik das Ziel erfassen kann. Auf diese Weise kann
erkennt. verhindert werden, dass der Flugkörper ein für ihn nicht
[0019] Ebenfalls ist es möglich, mit Hilfe einer Bildkor- 40 erkennbares Ziel sucht und eine Operation abgebrochen
relation ein innerhalb der Erfassungsreichweite vom werden muss oder er ein falsches Ziel auswählt. Wird
Flugkörper aufgenommenes Bild der Umgebung des entschieden, dass eine Fremdführung notwendig ist, bei-
Ziels mit dem synthetischen Bild zu korrelieren, sodass spielsweise mit Hilfe eines weiteren Flugkörpers, der sich
das Ziel, das im Bild anhand von Daten oder optischen in der Nähe oder über dem Ziel aufhält, kann entschieden
Parametern hervorgehoben sein kann, schnell und zu- 45 werden, ab wann bzw. ab welcher Entfernung die Füh-
verlässig erkannt wird. rung des Flugkörpers mit Hilfe eigener Sensorik erfolgen
[0020] Gemäß der Erfindung beinhalten die Aufklä- soll.
rungsdaten Sichtverhältnisse auf der Anflugroute des [0024] Ebenfalls ist es vorteilhaft, wenn die Aufklä-
Flugkörpers auf das Ziel. Hierbei wird das synthetische rungsdaten mehrere Zielmerkmale aus optischen Infor-
Bild unter Berücksichtigung der Sichtverhältnisse er- 50 mationen des Ziels enthalten und die Erfassungsunter-
stellt. Die Sicht kann eine sensorielle Erfassung des Ziels stützungsdaten Informationen enthalten, welche der
entsprechend der Empfindlichkeit eines Sensors des Zielmerkmale das aufgefasste Ziel aufweisen muss. Ei-
Flugkörpers sein. ner Verwechslung des Ziels mit einem ähnlichen Gegen-
[0021] In einer weiteren vorteilhaften Ausgestaltung stand kann so entgegengewirkt werden. Die optischen
der Erfindung wird vorgeschlagen, dass die Aufklärungs- 55 Informationen können Informationen zu einer Zielsigna-
daten ein vor dem Anflug des Flugkörpers auf das Ziel tur sein, beispielsweise einer Strahlung, die das Ziel aus-
erstelltes Vorabbild des Ziels enthalten und die Erfas- sendet, Information zu Strahlungsumrissen, beispiels-
sungsunterstützungsdaten Informationen zu einer Be- weise vier Personen auf einem Pick-up, die als vier leuch-

4
7 EP 2 392 890 B1 8

tende Punkte in einem Infrarotbild erscheinen, ein Kon- [0031] Fig. 1 zeigt eine Landschaft mit Bergen 2 und
trast zwischen Umgebungsstrahlung und einem Fahr- zwei Tälern 4, 6 die durch einen Bergsattel 8 voneinander
zeug mit einem bestimmten Lack und dergleichen. Die getrennt sind. Über dem Bergsattel 8 und dem zweiten
Informationen können aufgenommene oder mit Hilfe ei- Tal 6 hängt eine tief liegende Wolke 10, die die Sicht vom
nes Modells ermittelte Zielinformationen sein. Mit Hilfe 5 Bergsattel 8 oder von darüber auf ein Zielgebiet 12 ver-
merkmalsbasierter Algorithmen und/oder Wahrschein- deckt. In dem Zielgebiet 12 befindet sich ein Dorf 14 und
lichkeitsanalyse kann der Flugkörper das Ziel aus einer mehrere zu bekämpfende Objekte 16, 18, 20 von denen
Menge verwechselbarer Gegenstände ermitteln. eines als Ziel 20 ausgewählt wurde, das durch einen
[0025] Die Erfindung ist außerdem gerichtet auf ein Flugkörper 22 bekämpft werden soll. Der Flugkörper 22
Flugkörpereinweisungssystem mit einem Prozessmittel, 10 soll aus einer Trägerplattform 24 gestartet werden, die
dass dazu vorbereitet ist, Zieldaten, anhand derer ein in diesem Ausführungsbeispiel eine bodengebundene
Flugkörper auf ein Ziel steuerbar ist, zusammenzustellen Trägerplattform 24 ist. In alternativen Ausführungsbei-
und an den Flugkörper zur Ansteuerung auf das Ziel zu spielen ist auch eine seegebundene oder fliegende Trä-
übergeben, und Aufklärungsdaten aus einem Aufklä- gerplattform möglich.
rungssensor zu Erfassungsunterstützungsdaten, die 15 [0032] Der Flugkörper 22, der ein Lenkflugkörper mit
über die Zieldaten hinausgehende Informationen zur Er- einem eigenen Antrieb ist, soll aus dem ersten Tal 4 über
fassung des Ziels enthalten, zu verarbeiten und an den den Bergsattel 8 in das Zielgebiet 12 fliegen und auf das
Flugkörper zu übergeben und insbesondere den Flug- Ziel 20 eingewiesen werden. Hierzu ist die Trägerplatt-
körper unter Verwendung der Erfassungsunterstüt- form 24 signaltechnisch mit einem Flugkörpereinwei-
zungsdaten auf das Ziel hin zu steuern. Entsprechend 20 sungssystem 26 verbunden, das eine bodengebundene
der Erfindung enthalten die Aufklärungsdaten Bildinfor- Prozesseinheit in Form einer Datenverarbeitungsanlage
mationen einer Umgebung des Ziels und beinhalten in einem Gebäude umfasst, und das Teil eines Führungs-
Sichtverhältnisse auf der Anflugroute des Flugkörpers system oder Waffeneinsatzsystems sein kann. Das Flug-
auf das Ziel. Die Erfassungsunterstützungsdaten enthal- körpereinweisungssystem 26 ist wiederum datentech-
ten erfindungsgemäß ein synthetisches Bild des Ziels 25 nisch mit dem Flugkörper 22 verbunden, sodass es ihm
aus Sicht des anfliegenden Flugkörpers, wobei das syn- vor dem Start aus der Trägerplattform 24 und während
thetische Bild unter Berücksichtigung der Sichtverhält- des Anflugs auf das Ziel 20 Erfassungsunterstützungs-
nisse erstellt wurde. daten übermitteln kann. Ebenfalls mit dem Flugkörper-
[0026] Das Prozessmittel ist außerdem zweckmäßi- einweisungssystem 26 datentechnisch verbunden ist ein
gerweise dazu vorbereitet, einen, mehrere oder alle der 30 Aufklärungssensor 28 in einer Aufklärungseinheit, die im
bisher genannten Verfahrensschritte durchzuführen. dargestellten Ausführungsbeispiel ein Flugzeug ist, das
[0027] Vorteilhafterweise umfasst das Prozessmittel in der Nähe des Zielgebiets 12 fliegt.
eine bodengebundene erste Prozesseinheit und eine [0033] Vor dem Start des Flugkörpers 22 wird das Ziel-
zweite Prozesseinheit im Flugkörper, wobei die erste gebiet 12 durch die Aufklärungseinheit aufgeklärt und
[0028] Prozesseinheit dazu vorbereitet ist, die Aufklä- 35 aus der Aufklärung resultierende Aufklärungsdaten wer-
rungsdaten zu Erfassungsunterstützungsdaten zu ver- den an das Flugkörpereinweisungssystem 26 übermit-
arbeiten und die zweite Prozesseinheit dazu vorbereitet telt. Die Aufklärungsdaten beinhalten in diesem Ausfüh-
ist, den Flugkörper unter Verwendung der Erfassungs- rungsbeispiel mehrere Luftaufnahmen des Zielgebiets
unterstützungsdaten auf das Ziel hin zu steuern. Die 12 sowie Informationen über die Wolkendecke 10, deren
zweite Prozesseinheit kann Flugsteuerdaten und insbe- 40 Dicke und Lage, insbesondere von deren Unterkante.
sondere Daten für eine Prozesseinheit eines Suchkopfs [0034] Mit Hilfe von Aufklärungsdaten oder anderen
des Flugkörpers zum Erfassen des Ziels erzeugen. Daten wird das Ziel 20 ausgewählt. Außerdem werden
[0029] Weitere Vorteile ergeben sich aus der folgen- die weiteren Objekte 16, 18, das Dorf 14 und insbeson-
den Zeichnungsbeschreibung, in der Ausführungsbei- dere eine Landmarke 30 als solche identifiziert. Aus die-
spiele der Erfindung dargestellt sind. Die Zeichnung und 45 sen Aufklärungsdaten werden Erfassungsunterstüt-
die Beschreibung enthalten zahlreiche Merkmale in zungsdaten durch das Flugkörpereinweisungssystem 26
Kombination, die der Fachmann zweckmäßigerweise erarbeitet, die zur Einweisung des Flugkörpers 22 auf
auch einzeln betrachten und zu sinnvollen weiteren Kom- das Ziel verwendet werden. Die Erfassungsunterstüt-
binationen zusammenfassen wird. zungsdaten können einige oder alle der im Folgenden
[0030] Es zeigen: 50 beschriebenen Daten umfassen.
[0035] Aus der Topografie der beiden Täler 4, 6 und
Fig. 1 Eine Landschaft mit einem Zielgebiet mit meh- dem dazwischen liegenden Bergsattel 8 und einem Hü-
reren Objekten, von denen eines durch einen gel 32 vor dem Zielgebiet 12 wird eine Anflugroute 34
Flugkörper bekämpft werden soll und berechnet. Diese darf nicht zu flach sein, da der Flugkör-
55 per 22, bzw. dessen Suchkopf, das Ziel 20 erst nach
Fig. 2 ein Ablaufdiagramm eines Verfahrens zum Ein- Überfliegen des Hügels 32 optisch erfassen kann. Da die
weisen eines Flugkörpers auf ein Ziel. Strecke vom Hügel 32 bis zum Ziel 20 zu klein ist, um
aufgrund einer Erfassung des beweglichen Ziels 20 sei-

5
9 EP 2 392 890 B1 10

nen genauen Standort bestimmen zu können, muss der körper 22 aufgenommenes Bild des Zielgebiets 12 mit
Flugkörper 22 so fliegen, dass ihm eine ausreichend gro- dem synthetischen Bild vergleichen und beispielsweise
ße Zeitspanne zum Erfassen des richtigen Ziels 20 und auf diese Weise wichtige im synthetischen Bild markierte
zur Unterscheidung des Ziels 20 von den Objekten 16, Objekte 16, 18, 20, 30 in einfacher Weise im aufgenom-
18 zur Verfügung steht. Also wird als Teil der Erfassungs- 5 menen realen Bild wiederfinden und identifizieren.
unterstützungsdaten die Anflugroute 34 so bestimmt, [0038] Weiter enthält die Erfassungsunterstützungs-
dass sie von oben auf das Ziel 20 gerichtet ist, sodass daten Informationen zu einer Erfassungsgüte des Ziels
das Ziel 20 ausreichend vor einem Erreichen als solches 20. In dem vorliegend beschriebenen Ausführungsbei-
erkannt bzw. erfasst werden kann. Da die Anflugroute spiel beinhaltet diese Information, dass zum Zeitpunkt,
34 ein wesentlicher Bestandteil einer zuverlässigen Er- 10 bei dem der Flugkörper 22 erstmals freie Sicht auf das
kennung bzw. Erfassung des Ziels 20 ist, gehört sie mit Ziel 20 hat, eine Erfassung des Ziels 20 mit Hilfe von
zu den Erfassungsunterstützungsdaten. optischen Sensoren des Flugkörpers 22 nur mit einer
[0036] Eine von oben auf das Ziel 20 gerichtete An- geringen Güte möglich ist, da das Ziel 20 relativ gut vor
flugroute 34 bedingt, dass der Flugkörper 22 durch die dem Hintergrund getarnt ist und eine Unterscheidung nur
Wolke 10 fliegen muss, in der ihm die Sicht auf das Ziel 15 mit einer unzureichenden Zuverlässigkeit möglich ist.
20 versperrt ist. Es wird daher als weitere Erfassungs- Daher erkennen die Erfassungsunterstützungsdaten
unterstützungsdaten festgelegt, wie lange der Flugkör- weiter, dass die Flugsteuerung zwar visuell erfolgt, je-
per 22 auf seiner Anflugroute 34 mit Fremdinformationen doch nicht auf das Ziel 20 orientiert, sondern auf einen
gesteuert wird, beispielsweise mit Zielkoordinaten anderen Punkt, beispielsweise die Landmarke 30. In ei-
und/oder den Koordinaten der Anflugroute 34, und ab 20 ner optisch gesteuerten Flugphase orientiert sich die
wann er seine eigene Sensorik zur Flugsteuerung bzw. Flugsteuerung daher an diesem Punkt so lange, bis eine
Zielerfassung einsetzen kann. So wird als Erfassungs- in den Erfassungsunterstützungsdaten angegebene Er-
unterstützungsdaten festgelegt, dass der Flugkörper 22 fassungsgüte ausreichend hoch ist, beispielsweise über
erst dann mit Hilfe eigener Sensorik gesteuert wird, wenn einen vorgegebenen Gütewert. Die Entfernung oder den
er aus der Wolke 10 ausgetreten ist, also ihre Unterkante 25 Punkt auf der Anflugroute 34, ab dem die Erfassungsgüte
von oben durchtreten hat, wie in Fig. 1 angedeutet ist. ausreichend gut ist, ist ebenfalls in den Erfassungsun-
Da die Anflugroute 34 und die Lage der Wolke 10 und terstützungsdaten enthalten. Ab diesem Moment kann
deren Unterkante bekannt ist, ist auch der Austrittspunkt eine weitere und somit spätere Phase bzw. Modus der
des Flugkörpers 22 aus der Wolke 10 bekannt. Somit Flugsteuerung beginnen, ab der die visuelle Orientierung
wird ein Steuermoduswechselpunkt festgelegt, bei dem 30 auf das Ziel 20 den Flug des Flugkörpers 22 steuert. Zur
ein Steuermodus des Flugkörpers 22 von einem ersten Unterstützung der ersteren Phase kann die Richtungs-
Modus auf einen zweiten Modus umgeschaltet wird, in und Entfernungsinformation zwischen Landmarke 30
diesem Ausführungsbeispiel von einer Koordinatensteu- und Ziel 20 als Näherung gegeben werden, damit der
erung auf eine Sichtsteuerung. Flugkörper 22 das Ziel 20 möglichst direkt und nicht erst
[0037] Zum zuverlässigen Erfassen des Ziels 20 wird 35 die Landmarke 30 und das Ziel 20 ansteuern muss.
vom Flugkörpereinweisungssystem 26 ein synthetisches [0039] Die Erfassungsunterstützungsdaten können
Bild des Zielgebiets 12 als Erfassungsunterstützungsda- außerdem eine Anzahl von Merkmalen des Ziels 20, die
ten erstellt. Dieses synthetische Bild ist aus den Luftauf- das Ziel 20 charakterisieren, enthalten. Die Merkmale
nahmen des Zielgebiets 12 des Aufklärungssensors 28 umfassen visuelle Merkmale, wobei hierunter auch nur
erstellt und wird dem Flugkörper 22 übermittelt, bevor 40 im Infraroten oder einem anderen Spektralbereich er-
dieser Sicht auf das Ziel 20 hat, also bevor dieser über- kennbare Merkmale verstanden werden können. Die
haupt in der Lage ist, das Ziel 20 zu erfassen. Zweckmä- Merkmale beinhalten unter anderem, dass das Ziel 20
ßigerweise wird das synthetische Bild dem Flugkörper aus Sicht des anfliegenden Flugkörpers 22 entlang der
22 übergeben, bevor dieser von der Trägerplattform 24 Anflugroute 34 eine Ausdehnung von etwa 3 m x 6 m
startet. Das synthetische Bild des Zielgebiets 12 stellt 45 hat, das Ziel eine von dunkelgrün bis ocker gescheckte
das Zielgebiet 12 oder einen Teil davon aus Sicht des Farbgestaltung hat und vor einem hellbraunen Hinter-
anfliegenden Flugkörpers an dem Ort dar, ab dem der grund steht. Der Hintergrund ist aus der Sicht von oben
Flugkörper 22 das Ziel 20 erstmals erfassen kann. Bei der sandige bzw. lehmige Boden, auf dem das Ziel 20
dem Ausführungsbeispiel aus Fig. 1 ist das der Punkt, steht.
an dem die Anflugroute 34 die Wolkendecke 10 nach 50 [0040] Zur Vermessung von einzelnen Gegenständen,
unten durchtritt. Das synthetische Bild beinhaltet insbe- wie den Häusern und Fahrzeugen, wird dem Flugkörper
sondere die Landmarke 30 und das als solche gekenn- 22 ein Maßstab als Erfassungsunterstützungsdaten zur
zeichnete Ziel 20 sowie die weiteren verwechslungsge- Verfügung gestellt. Der Maßstab kann in einem vom
fährdeten Objekte 16, 18 zur besseren Unterscheidung Flugkörper 22 leicht erkennbaren optischen Detail im
vom Ziel 20. Auch weitere Objekte, beispielsweise das 55 Zielgebiet 12 bestehen, beispielsweise ein Haus, dessen
Dorf 14 oder weitere Landschaftsmerkmale können in Maße in den Erfassungsunterstützungsdaten angege-
dem synthetischen Bild enthalten sein. Der Flugkörper ben sind. Durch Vergleich der Gegenstände mit dem op-
22 bzw. dessen Prozesseinheit kann ein aus dem Flug- tischen Detail kann der Flugkörper 22 die Maße der Ge-

6
11 EP 2 392 890 B1 12

genstände einfach ermitteln. wird. Aus diesem dreidimensionalen Geländemodell


[0041] Aus den visuellen Merkmalen kann der Flug- kann der Flugkörper 22 die Sicht auf das Zielgebiet 12
körper 22 das Ziel 20 von beispielsweise Häusern des aus jeder Perspektive in ein zweidimensionales theore-
Dorfs 14 unterscheiden. Nicht unterscheiden kann er das tisches Sichtbild wandeln, das eine Lokalisierung der in-
Ziel 20 von den Objekten 16, 18. Zur Unterscheidung 5 teressierenden Objekte 16, 18, 20, 30 erleichtert, die
des Ziels 20 von den gleich aussehenden Objekten 16, zweckmäßigerweise in dem dreidimensionalen Gelän-
18 vor dem gleichen Hintergrund umfassen die Erfas- demodell als solche markiert sind. Ebenfalls möglich ist
sungsunterstützungsdaten Beziehungsinformationen zu es, dass das dreidimensionale Geländemodell vom Flug-
zumindest einem Umgebungspunkt, in diesem Fall körpereinweisungssystem 26 verwendet wird, um das
zweckmäßigerweise die Landmarke 30. Die Erfassungs- 10 synthetische und insbesondere zweidimensionale Bild
unterstützungsdaten umfassen hierbei den Abstand 36 zu erstellen, das dem Flugkörper 22 die Sicht auf das
und die Richtung des Ziels 20 zur Landmarke 30, wobei Zielgebiet von seiner Anflugroute 34 aus simuliert. Durch
die Richtung als geographische Richtung oder als eine ein Vorabbild, beispielsweise das synthetische Bild
Richtung zur einer weiteren Landmarke angegeben sein, und/oder das dreidimensionale Geländemodell, kann der
sodass Triangulation möglich ist. Aus diesen Informati- 15 Flugkörper 22 durch Bildkorrelation mit einem vom Flug-
onen kann der Flugkörper 22 das Ziel 20 von den beiden körper 22 aufgenommen Bild des Zielgebiets 12 interes-
anderen Objekten 16, 18 unterscheiden, die in einer an- sierende Objekte 16, 18, 20, 30 einfach finden.
deren Entfernung und Richtung zur Landmarke 30 ste- [0045] Als Erfassungsunterstützungsdaten wird dem
hen. Flugkörper 22 ein Erfassungsverfahren unter mehreren
[0042] Allerdings hält sich das Ziel 20 zum Zeitpunkt 20 möglichen Erfassungsverfahren mitgeteilt, mit dem er
des Anflugs des Flugkörpers 22 in der Nähe eines Fahr- das Ziel 20 erfassen soll. Im vorliegend beschriebenen
zeugs 38 auf, das in der Aufklärung durch den Aufklä- Ausführungsbeispiel wird in einer ersteren Flugphase ein
rungssensor 28 nicht enthalten ist, da es erst kürzlich in visuelles und auf die Landmarke 30 gerichtetes Erfas-
das Zielgebiet 12 eingefahren ist. Zufälligerweise hält sungsverfahren vorgegeben. In einer späteren Flugpha-
sich das Fahrzeug 38 in der Nähe des Ziels 20 auf, hat 25 se wird ein Erfassungsverfahren vorgegeben, in dem das
in etwa die gleichen Maße und durch Koffer auf dem Dach Ziel 20 mittels Infrarotsensor erfasst wird, um es von ähn-
eine gleiche farbliche und scheckige Struktur. Auch die lich aussehenden und das Ziel 20 umgebenden Felsbro-
Infrarotsignatur ist in etwa gleich zum Ziel 20. Zur Unter- cken unterscheiden zu können. Eine dritte und wiederum
scheidung des Ziels 20 vom Fahrzeug 38 enthalten die spätere Flugphase ist dadurch gekennzeichnet, dass
Erfassungsunterstützungsdaten die Information, dass 30 das Erfassungsverfahren wiederum im sichtbaren Fre-
das Ziel 20 vor einem hellbraunen Untergrund positio- quenzbereich erfolgt, um die visuellen Merkmale der Ziel-
niert ist. Demgegenüber fährt das Fahrzeug 38 auf einer farbe und der Hintergrundfarbe erfassen und prüfen zu
mittelgrauen Straße, sodass das Hintergrundmerkmal können. Auf diese Weise umfassen die Erfassungsun-
auf das Fahrzeug 38 nicht zutrifft. Um Kollateralschäden terstützungsdaten mehrere Erkennungsverfahren, die
an zivilen Fahrzeugen unbedingt zu vermeiden, kann das 35 hintereinander oder gleichzeitig eingesetzt werden und
Merkmal des Hintergrunds als bindendes Merkmal in den mit denen der Flugkörper 22 das Ziel 20 erfassen soll.
Erfassungsunterstützungsdaten hinterlegt sein, ohne Ebenfalls umfassen die Erfassungsunterstützungsdaten
das das Ziel 20 nicht als solches erfasst oder bekämpft zumindest einen Ortspunkt, ab dem ein Erfassungsver-
werden darf. Da das Ziel 20 alle visuellen Merkmale er- fahren gewechselt werden soll.
füllt, ist es vom Fahrzeug 38 durch dieses visuelle Merk- 40 [0046] Fig. 2 zeigt ein Ablaufdiagramm eines Verfah-
mal zu erkennen und somit als Ziel 20 zu identifizieren. rens zum Einweisen des Flugkörpers 22 auf das Ziel 20.
[0043] Als weitere Erfassungsunterstützungsdaten Aus einer ersten Datenbank, die die Wissensbasis eines
kann eine Fahrtrichtung und Fahrtgeschwindigkeit des Führungssystems enthält, beispielsweise ein Einsatzla-
Ziels 20 dienen, sodass aus einem Aufklärungszeitpunkt gebild, wird übergeordnete Lageinformation 40 abgeru-
und einem Zielerfassungszeitpunkt durch den Flugkör- 45 fen und einer Prozesseinheit 42 des Flugkörpereinwei-
per 22 der Fahrtrichtung und Fahrtgeschwindigkeit ein sungssystems 26 übergeben. Aus einer weiteren Daten-
momentaner Aufenthaltsort errechenbar ist, an dem sich bank, die alternativ ein Bestandteil der ersten Datenbank
das Ziel 20 unter Annahme der aufgeklärten Richtung sein kann, werden Aufklärungsdaten 44 abgerufen, bei-
und Geschwindigkeit positioniert sein müsste. Weiter spielsweise über das Einsatzgebiet, das darin enthaltene
können Toleranzinformationen Bestandteil der Erfas- 50 Zielgebiet 12 und/oder Merkmale des Ziels 20. Die über-
sungsunterstützungsdaten sein, z.B. eine zulässige Po- geordnete Wissensbasis aus der Datenbank 40 kann
sitionsungenauigkeit, Farbungenauigkeit, Größenunge- hierbei ebenfalls Aufklärungsdaten beinhalten.
nauigkeit, Strahlungssignaturungenauigkeit oder der- [0047] Aus diesen oder anderen Informationen werden
gleichen. vom Flugkörpereinweisungssystem 26 oder einem an-
[0044] Als Erfassungsunterstützungsdaten ist außer- 55 deren System Zieldaten 46 erzeugt, wie die Koordinaten
dem ein Geländemodell als dreidimensionales Modell des Zielgebiets 12 und ggf. des Ziels 20, die dem Flug-
vorteilhaft, das dem Flugkörper 22 vor einem erstmals körper 22 vor oder nach einem Start aus der Trägerplatt-
möglichen Erfassungszeitpunkt zur Verfügung gestellt form 24 übermittelt werden. Anhand dieser Daten kann

7
13 EP 2 392 890 B1 14

der Flugkörper 22 gestartet und in Richtung auf das Ziel- 16 Objekt


gebiet hin geführt werden. 18 Objekt
[0048] Aus den Aufklärungsdaten 44 werden von der 20 Ziel
Prozesseinheit 42 des Flugkörpereinweisungssystems 22 Flugkörper
26 außerdem Erfassungsunterstützungsdaten 48 er- 5 24 Trägerplattform
zeugt. Diese können - je nach Daten - dem Flugkörper 26 Flugkörpereinweisungssystem
22 auch noch nach seinem Start übergeben werden, da 28 Aufklärungssensor
sie die erst später erfolgende Erfassung unterstützen. 30 Landmarke
Zur Erzeugung der Erfassungsunterstützungsdaten 48 32 Hügel
werden zusätzlich Flugkörperinformationen 50 über den 10 34 Anflugroute
Flugkörper 22 einbezogen werden. Diese Flugkörperin- 36 Abstand
formation 50 enthält zweckmäßigerweise Information 38 Fahrzeug
über die Art des Flugkörpers 22 und seine Sensoren, 40 Lageinformationen
seine Prozesseinheit und deren Fähigkeiten, über den 42 Prozesseinheit
Suchkopf und dessen Optik, über den Gefechtskopf des 15 44 Aufklärungsdaten
Flugkörpers 22 und dessen Einsatzmöglichkeiten und 46 Zieldaten
dergleichen. 48 Erfassungsunterstützungsdaten
[0049] Die hieraus abgeleitete Erfassungsunterstüt- 50 Flugkörperinformationen
zungsdaten 48, die Zielmerkmale, ein Zielverhalten, eine 52 Prozesseinheit
Zielposition, einen Zielkontext, eine Lenkstrategie für 20 54 Steuerung
den Flugkörper 22, und/oder Informationen zu Erfas-
sungsbedingungen enthalten kann, werden einer weite-
ren Prozesseinheit 52 zugeführt, die Teil des Flugkörpers Patentansprüche
22 ist. Die bodengebundene Prozesseinheit 42 und die
Prozesseinheit 52 des Flugkörpers 22 bilden hierbei ein 25 1. Verfahren zur Einweisung eines Flugkörpers (22)
Prozessmittel des Flugkörpereinweisungssystems 26. auf ein Ziel (20), bei dem Zieldaten (46), anhand de-
Alternativ ist es auch möglich, dass die Aufklärungsdaten rer der Flugkörper (22) auf das Ziel (20) steuerbar
44 an den Flugkörper 22 übergeben werden, und die ist, zusammengestellt und an den Flugkörper (22)
Prozesseinheit 52 des Flugkörpers 22 hieraus Erfas- zur Ansteuerung auf das Ziel (20) gegeben werden,
sungsunterstützungsdaten 48 ableitet, nach denen der 30 wobei Aufklärungsdaten (44) aus einem Aufklä-
Flugkörper 22 das Ziel 20 erfasst. Auch möglich ist es, rungssensor (28) durch ein Flugkörpereinweisungs-
dass Erfassungsunterstützungsdaten 48 direkt dem system (26) zu Erfassungsunterstützungsdaten
Flugkörper 22 übergeben werden zusammen mit Aufklä- (48), die über die Zieldaten (46) hinausgehende In-
rungsdaten, aus denen der Flugkörper 22 weitere Erfas- formationen zur Erfassung des Ziels (20) enthalten,
sungsunterstützungsdaten 48 erzeugt und die Zielerfas- 35 verarbeitet und an den Flugkörper (22) gegeben wer-
sung und/oder Flugkörpersteuerung aus der Gesamtheit den, wobei
der Erfassungsunterstützungsdaten 48 erfolgt.
[0050] Anhand der Erfassungsunterstützungsdaten a) die Aufklärungsdaten (44) Bildinformationen
48 führt die Prozesseinheit 52 die Steuerung 54 des Flug- einer Umgebung des Ziels (20) enthalten und
körpers 22 durch. Die Steuerung 54 kann die Steuerung 40 Sichtverhältnisse auf der Anflugroute (34) des
von Aktuatoren zur Lenkung des Flugkörpers 22 umfas- Flugkörpers (22) auf das Ziel (20) beinhalten
sen, von Aktuatoren zum Steuern des Suchkopfs, von und
weiteren Aktuatoren zum Auslösen eines Gefechtskopfs, b) die Erfassungsunterstützungsdaten (48) ein
die Steuerung eines Auslösemodus des Gefechtskopfes synthetisches Bild des Ziels (20) aus Sicht des
und/oder die Wahl eines Erfassungsmodus zum Erfas- 45 anfliegenden Flugkörpers (22) enthalten und
sen des Ziels 20 und weitere Steuerungsaktionen. c) das synthetische Bild unter Berücksichtigung
der Sichtverhältnisse erstellt wird.
Bezugszeichenliste
2. Verfahren nach Anspruch 1,
[0051] 50 wobei die Aufklärungsdaten (44) Informationen zu
einer Erkennbarkeit des Ziels (20) enthalten und die
2 Berg Erfassungsunterstützungsdaten (48) Informationen
4 Tal über aktuelle Bedingungen einer Erfassung des
6 Tal Ziels (20) enthalten.
8 Bergsattel 55
10 Wolke 3. Verfahren nach Anspruch 1 oder 2,
12 Zielgebiet wobei die Aufklärungsdaten (44) Informationen zu
14 Dorf einem Umgebungsmerkmal (30) in der Umgebung

8
15 EP 2 392 890 B1 16

des Ziels (20) enthalten und die Erfassungsunter- gehende Informationen zur Erfassung des Ziels
stützungsdaten (48) eine Beziehungsinformation (20) enthalten, zu verarbeiten und an den Flug-
des Ziels (20) zum Umgebungsmerkmal (30) enthal- körper (22) zu übergeben,
ten. wobei
5 c) die Aufklärungsdaten (44) Bildinformationen
4. Verfahren nach einem der vorhergehenden Ansprü- einer Umgebung des Ziels (20) enthalten und
che, Sichtverhältnissse auf der Anflugroute (34) des
wobei die Erfassungsunterstützungsdaten (48) ein Flugkörpers (22) auf das Ziel (20) beinhalten,
Geländemodell einer Umgebung des Ziels (20) ent- d) die Erfassungsunterstützungsdaten (48) ein
halten. 10 synthetisches Bild des Ziels (20) aus Sicht des
anfliegenden Flugkörpers enthalten und
5. Verfahren nach einem der vorhergehenden Ansprü- e) das synthetische Bild unter Berücksichtigung
che, der Sichtverhältnisse erstellt wurde.
wobei die Aufklärungsdaten (44) ein vor dem Anflug
des Flugkörpers (20) auf das Ziel (20) erstelltes Vor- 15 10. Flugkörpereinweisungssystem nach Anspruch 9,
abbild des Ziels (20) enthalten und die Erfassungs- wobei das Prozessmittel eine bodengebundene ers-
unterstützungsdaten (48) Informationen zu einer Be- te Prozesseinheit (42) und eine zweite Prozessein-
ziehung des Vorabbilds mit einem Sichtbild des Ziels heit (52) im Flugkörper (22) aufweist, wobei die erste
(20) enthalten, das sich dem auf das Ziel (20) anflie- Prozesseinheit (42) dazu vorbereitet ist, die Aufklä-
genden Flugkörper (22) bietet. 20 rungsdaten (44) zu Erfassungsunterstützungsdaten
(48) zu verarbeiten und zweite Prozesseinheit (52)
6. Verfahren nach einem der vorhergehenden Ansprü- dazu vorbereitet ist, den Flugkörper (22) unter Ver-
che, wendung der Erfassungsunterstützungsdaten (48)
wobei die Aufklärungsdaten (44) Informationen zu auf das Ziel (20) hin zu steuern.
einer Sicht auf das Ziel (20) enthalten und die Erfas- 25
sungsunterstützungsdaten (48) Informationen darü-
ber, welches unter mehreren möglichen Zielerfas- Claims
sungsverfahren des Flugkörpers (22) das am besten
geeignete ist. 1. Method for guiding a missile (22) to a target (20), in
30 which target data (46) on the basis of which the mis-
7. Verfahren nach einem der vorhergehenden Ansprü- sile (22) is steerable to the target (20) are compiled
che, and passed to the missile (22) for the purpose of
wobei die Aufklärungsdaten (44) Informationen zu heading for the target (20), wherein reconnaissance
einer Sicht auf das Ziel (20) enthalten und die Erfas- data (44) from a reconnaissance sensor (28) are
sungsunterstützungsdaten (48) Informationen darü- 35 processed by a missile guidance system (26) to pro-
ber, ob der Flugkörper (22) ausreichend gut über duce detection assistance data (48), which contain
eigene Sensorik an das Ziel (20) heranführbar ist information for detecting the target (20) beyond the
oder ob er mit Hilfe eines anderen Verfahrens in target data (46), and are passed to the missile (22),
Richtung auf das Ziel (20) geführt werden muss. wherein
40
8. Verfahren nach einem der vorhergehenden Ansprü- a) the reconnaissance data (44) contain image
che, information of surroundings of the target (20)
wobei die Aufklärungsdaten (44) mehrere Zielmerk- and include visibility on the approach route (34)
male aus optischen Informationen des Ziels (20) ent- of the missile (22) to the target (20), and
halten und die Erfassungsunterstützungsdaten (48) 45 b) the detection assistance data (48) contain a
Informationen enthalten, welche der Zielmerkmale synthetic image of the target (20) from the point
das aufgefasste Ziel (20) aufweisen muss. of view of the approaching missile (22), and
c) the synthetic image is produced by taking into
9. Flugkörpereinweisungssystem (26) mit einem Pro- consideration the visibility.
zessmittel, das dazu vorbereitet ist, 50
2. Method according to Claim 1,
a) Zieldaten (46), anhand derer ein Flugkörper wherein the reconnaissance data (44) contain infor-
(22) auf ein Ziel (20) steuerbar ist, zusammen- mation concerning an identifiability of the target (20),
zustellen und an den Flugkörper (22) zur An- and the detection assistance data (48) contain infor-
steuerung auf das Ziel (20) zu übergeben, und 55 mation about current conditions for detection of the
b) Aufklärungsdaten (44) aus einem Aufklä- target (20).
rungssensor (28) zu Erfassungsunterstützungs-
daten (48), die über die Zieldaten (46) hinaus- 3. Method according to Claim 1 or 2,

9
17 EP 2 392 890 B1 18

wherein the reconnaissance data (44) contain infor- c) the reconnaissance data (44) contain image
mation concerning a feature of the surroundings (30) information of surroundings of the target (20)
in the surroundings of the target (20), and the detec- and include visibility on the approach route (34)
tion assistance data (48) contain relationship infor- of the missile (22) to the target (20),
mation for the target (20) in relation to the feature of 5 d) the detection assistance data (48) contain a
the surroundings (30). synthetic image of the target (20) from the point
of view of the approaching missile, and
4. Method according to one of the preceding claims, e) the synthetic image was produced by taking
wherein the detection assistance data (48) contain into consideration the visibility.
a terrain model of surroundings of the target (20). 10
10. Missile guidance system according to Claim 9,
5. Method according to one of the preceding claims, wherein the process means has a ground-based first
wherein the reconnaissance data (44) contain a pre- process unit (42) and a second process unit (52) in
image of the target (20) produced prior to the ap- the missile (22), wherein the first process unit (42)
proach of the missile (20) to the target (20), and the 15 is prepared to process the reconnaissance data (44)
detection assistance data (48) contain information to produce detection assistance data (48), and the
concerning a relationship of the preimage with a vis- second process unit (52) is prepared to steer the
ual image of the target (20) that presents itself to the missile (22) to the target (20) by using the detection
missile (22) approaching the target (20). assistance data (48).
20
6. Method according to one of the preceding claims,
wherein the reconnaissance data (44) contain infor- Revendications
mation concerning a view of the target (20), and the
detection assistance data (48) contain information 1. Procédé de pointage d’un missile (22) sur une cible
about which one among several possible target de- 25 (20), procédé dans lequel des données de cible (46),
tection methods of the missile (22) is the best suited. au moyen desquelles le missile (22) peut être guidé
vers la cible (20), sont assemblées et transmises au
7. Method according to one of the preceding claims, missile (22) pour le guider vers la cible (20), des don-
wherein the reconnaissance data (44) contain infor- nées de reconnaissance (44) en provenance d’un
mation concerning a view of the target (20), and the 30 capteur de reconnaissance (28) étant traitées par un
detection assistance data (48) contain information système de pointage de missile (26) pour obtenir
about whether the missile (22) is guidable to the tar- des données d’aide à la détection (48) contenant
get (20) sufficiently well by means of its own sensors des informations de détection de la cible (20) allant
or whether it needs to be guided in the direction of au-delà des données de cible (46) et étant transmi-
the target (20) using another method. 35 ses au missile (22),

8. Method according to one of the preceding claims, a) les données de reconnaissance (44) conte-
wherein the reconnaissance data (44) contain mul- nant des informations d’image d’un environne-
tiple target features from visual information of the ment de la cible (20) et comprenant des condi-
target (20), and the detection assistance data (48) 40 tions de visibilité sur la route d’approche (34) du
contain information regarding which of the target fea- missile (22) sur la cible (20) et
tures the perceived target (20) must have. b) les données d’aide à la détection (48) com-
prenant une image de synthèse de la cible (20)
9. Missile guidance system (26) having a process telle que vue par le missile (22) en approche et
means that is prepared 45 c) l’image de synthèse étant créée avec prise
en compte des conditions de visibilité.
a) to compile target data (46), on the basis of
which a missile (22) is steerable to a target (20), 2. Procédé selon la revendication 1,
and to hand over said target data to the missile les données de reconnaissance (44) comprenant
(22) for the purpose of heading for the target 50 des informations sur la capacité de reconnaissance
(20), and de la cible (20) et les données d’aide à la détection
b) to process reconnaissance data (44) from a (48) comprenant des informations sur les conditions
reconnaissance sensor (28) to produce detec- actuelles de détection de la cible (20).
tion assistance data (48), which contain infor-
mation for detecting the target (20) beyond the 55 3. Procédé selon la revendication 1 ou 2,
target data (46), and to hand them over to the les données de reconnaissance (44) comprenant
missile (22), des informations sur une caractéristique environne-
wherein mentale (30) dans l’environnement de la cible (20),

10
19 EP 2 392 890 B1 20

et les données d’aide à la détection (48) comprenant tenant des informations de détection de la cible
une information relationnelle entre la cible (20) et la (20) au-delà des données de cible (46) et pour
caractéristique environnementale (30). les transférer au missile (22),
c) les données de reconnaissance (44) conte-
4. Procédé selon l’une des revendications précéden- 5 nant des informations d’image d’un environne-
tes, ment de la cible (20) et comprenant des condi-
les données d’aide à la détection (48) comprenant tions de visibilité sur la route d’approche (34) du
un modèle de terrain d’un environnement de la cible missile (22) vers la cible (20),
(20). d) les données d’aide à la détection (48) com-
10 prenant une image de synthèse de la cible (20)
5. Procédé selon l’une des revendications précéden- telle que vue par le missile en approche, et
tes, e) l’image de synthèse ayant été créée avec pri-
les données de reconnaissance (44) comprenant se en compte de conditions de visibilité.
une pré-image de la cible (20) qui est réalisée avant
l’approche du missile (20) vers la cible (20) et les 15 10. Système de pointage de missile selon la revendica-
données d’aide à la détection (48) comprenant des tion 9,
informations sur une relation de pré-image avec une le moyen de traitement comprenant une première
image visuelle de la cible (20) qui s’offre au missile unité de traitement au sol (42) et une deuxième unité
(22) approchant de la cible (20). de traitement (52) dans le missile (22), la première
20 unité de traitement (42) étant préparée pour traiter
6. Procédé selon l’une des revendications précéden- les données de reconnaissance (44) pour obtenir
tes, des données d’aide à la détection (48) et la deuxième
les données de reconnaissance (44) comprenant unité de traitement (52) étant préparée pour guider
des informations sur une vue de la cible (20), et les le missile (22) vers la cible (20) à l’aide des données
données d’aide à la détection (48) comprenant des 25 d’aide à la détection (48).
informations sur lequel parmi une pluralité de procé-
dés de détection de cible possibles du missile (22)
est le plus approprié.

7. Procédé selon l’une des revendications précéden- 30


tes,
les données de reconnaissance (44) comprenant
des informations sur une vue de la cible (20) et des
données d’aide à la détection (48) indiquant si le
missile (22) présente une approche suffisamment 35
bonne de la cible (20) par ses propres capteurs ou
s’il doit être guidé vers la cible (20) à l’aide d’un autre
procédé.

8. Procédé selon l’une des revendications précéden- 40


tes,
les données de reconnaissance (44) contenant une
pluralité de caractéristiques de cible constituées
d’informations optiques de la cible (20), et les don-
nées d’aide à la détection (48) contenant des infor- 45
mations relatives aux caractéristiques de cible que
la cible détectée (20) doit posséder.

9. Système de pointage de missile (26) comprenant un


agent de traitement préparé pour 50

a) rassembler des données de cible (46) au


moyen desquelles un missile (22) peut être gui-
dé vers une cible (20) et les transmettre au mis-
sile (22) afin de le piloter vers la cible (20), et 55
b) traiter des informations (44) en provenance
d’un capteur de reconnaissance (28) pour obte-
nir des données d’aide à la détection (48) con-

11
EP 2 392 890 B1

12
EP 2 392 890 B1

13
EP 2 392 890 B1

IN DER BESCHREIBUNG AUFGEFÜHRTE DOKUMENTE

Diese Liste der vom Anmelder aufgeführten Dokumente wurde ausschließlich zur Information des Lesers aufgenommen
und ist nicht Bestandteil des europäischen Patentdokumentes. Sie wurde mit größter Sorgfalt zusammengestellt; das
EPA übernimmt jedoch keinerlei Haftung für etwaige Fehler oder Auslassungen.

In der Beschreibung aufgeführte Patentdokumente

• US 6157875 A [0003] • DE 3734758 A1 [0004]

14

Das könnte Ihnen auch gefallen