Das Wiener-Filter oder auch Wiener-Kolmogoroff-Filter ist ein Filter zur Signalverarbeitung , welches in den 1940er Jahren von Norbert Wiener und Andrei Nikolajewitsch Kolmogorow unabhängig voneinander entwickelt[ 1] und 1949 durch Norbert Wiener publiziert wurde.[ 2] Es führt, gemessen an der mittleren quadratischen Abweichung , eine optimale Rauschunterdrückung durch.[ 2]
Anwendung des Wiener-Filters zur Rauschunterdrückung. (links: Original, Mitte: verrauschtes Bild, rechts: gefiltertes Bild)
Eigenschaften
Das Wiener-Filter wird durch die folgenden Eigenschaften beschrieben:[ 3]
Voraussetzung: Das Signal und das additive Rauschen gleichen stochastischen Prozessen mit bekannter Spektralverteilung oder bekannter Autokorrelation und Kreuzkorrelation
Fehlerkriterium: Minimale mittlere quadratische Abweichung
Modelleigenschaften
Als Eingangssignal des Wiener-Filters wird ein Signal
s
(
t
)
{\displaystyle s\left(t\right)}
gestört durch ein additives Rauschen
n
(
t
)
{\displaystyle n\left(t\right)}
vorausgesetzt:
y
(
t
)
=
s
(
t
)
+
n
(
t
)
.
{\displaystyle y(t)=s(t)+n(t).}
Das Ausgangssignal
x
(
t
)
{\displaystyle x\left(t\right)}
ergibt sich durch die Faltung des Eingangssignals mit der Filterfunktion
g
(
τ τ -->
)
{\displaystyle g\left(\tau \right)}
:
x
(
t
)
=
g
(
τ τ -->
)
∗ ∗ -->
y
(
t
)
=
g
(
τ τ -->
)
∗ ∗ -->
(
s
(
t
)
+
n
(
t
)
)
.
{\displaystyle x(t)=g(\tau )*y(t)=g(\tau )*\left(s(t)+n(t)\right).}
Fehler
e
(
t
)
=
s
(
t
+
d
)
− − -->
x
(
t
)
{\displaystyle e(t)=s\left(t+d\right)-x(t)}
und quadratischer Fehler
e
2
(
t
)
=
s
2
(
t
+
d
)
− − -->
2
s
(
t
+
d
)
x
(
t
)
+
x
2
(
t
)
{\displaystyle e^{2}(t)=s^{2}\left(t+d\right)-2s(t+d)x(t)+x^{2}(t)}
ergeben sich aus der Abweichung des Ausgangssignals vom zeitversetzten Eingangssignal
s
(
t
+
d
)
.
{\displaystyle s\left(t+d\right).}
Abhängig von dem Wert d des Zeitversatzes können unterschiedliche Problemstellungen betrachtet werden:
Für
d
>
0
{\displaystyle \left.d>0\right.}
: Prädiktion
Für
d
=
0
{\displaystyle \left.d=0\right.}
: Filterung
Für
d
<
0
{\displaystyle \left.d<0\right.}
: Glättung
Stellt man
x
(
t
)
{\displaystyle x\left(t\right)}
als Faltungsintegral dar:
x
(
t
)
=
∫ ∫ -->
− − -->
∞ ∞ -->
∞ ∞ -->
g
(
τ τ -->
)
[
s
(
t
− − -->
τ τ -->
)
+
n
(
t
− − -->
τ τ -->
)
]
d
τ τ -->
,
{\displaystyle x(t)=\int \limits _{-\infty }^{\infty }{g(\tau )\left[s(t-\tau )+n(t-\tau )\right]d\tau },}
so ergibt sich der Erwartungswert des quadratischen Fehlers zu:
E
(
e
2
)
=
R
s
(
0
)
− − -->
2
∫ ∫ -->
− − -->
∞ ∞ -->
∞ ∞ -->
g
(
τ τ -->
)
R
y
s
(
τ τ -->
+
d
)
d
τ τ -->
+
∫ ∫ -->
− − -->
∞ ∞ -->
∞ ∞ -->
∫ ∫ -->
− − -->
∞ ∞ -->
∞ ∞ -->
g
(
τ τ -->
)
g
(
θ θ -->
)
R
y
(
τ τ -->
− − -->
θ θ -->
)
d
τ τ -->
d
θ θ -->
,
{\displaystyle E(e^{2})=R_{s}(0)-2\int \limits _{-\infty }^{\infty }{g(\tau )R_{y\,s}(\tau +d)d\tau }+\int \limits _{-\infty }^{\infty }{\int \limits _{-\infty }^{\infty }{g(\tau )g(\theta )R_{y}(\tau -\theta )d\tau }d\theta },}
wobei
R
s
{\displaystyle R_{s}}
die Autokorrelation der Funktion
s
(
t
)
,
{\displaystyle \left.s(t)\right.,}
R
y
{\displaystyle R_{y}}
die Autokorrelation der Funktion
y
(
t
)
,
{\displaystyle \left.y(t)\right.,}
R
y
s
{\displaystyle R_{y\,s}}
die Kreuzkorrelation der Funktionen
y
(
t
)
{\displaystyle \left.y(t)\right.}
und
s
(
t
)
{\displaystyle \left.s(t)\right.}
sind.
Wenn das Signal
s
(
t
)
{\displaystyle s\left(t\right)}
und das Rauschen
n
(
t
)
{\displaystyle n\left(t\right)}
unkorreliert sind (und damit die Kreuzkorrelation gleich Null ist), ergeben sich folgende Vereinfachungen
R
y
s
=
R
s
,
{\displaystyle R_{y\,s}=R_{s},}
R
y
=
R
s
+
R
n
.
{\displaystyle R_{y}=R_{s}+R_{n}.}
Das Ziel ist es nun,
E
(
e
2
)
{\displaystyle \left.E(e^{2})\right.}
durch Bestimmung eines optimalen
g
(
τ τ -->
)
{\displaystyle g\left(\tau \right)}
zu minimieren.
Stationäre Lösungen
Das Wiener-Filter hat jeweils eine Lösung für den kausalen und den nicht-kausalen Fall.
Nicht-kausale Lösung
G
(
s
)
=
S
x
,
s
(
s
)
e
α α -->
s
S
x
(
s
)
,
{\displaystyle G(s)={\frac {S_{x,s}(s)e^{\alpha s}}{S_{x}(s)}},}
wobei
S
x
,
s
(
s
)
{\displaystyle S_{x,s}(s)}
und
S
x
(
s
)
{\displaystyle S_{x}(s)}
jeweils die Spektrale Leistungsdichte als Laplacetransformation der Kreuz- bzw. der Autokorrelation
R
x
s
{\displaystyle R_{x\,s}}
und
R
x
{\displaystyle R_{x}}
ist.
Unter der Voraussetzung, dass
g
(
t
)
{\displaystyle g\left(t\right)}
optimal ist, vereinfacht sich die Gleichung, die das Minimum der mittleren quadratischen Abweichung (Minimum Mean-Square Error , MMSE) beschreibt, zu
E
(
e
2
)
=
R
s
(
0
)
− − -->
∫ ∫ -->
− − -->
∞ ∞ -->
∞ ∞ -->
g
(
τ τ -->
)
R
x
,
s
(
τ τ -->
+
d
)
d
τ τ -->
.
{\displaystyle E(e^{2})=R_{s}(0)-\int \limits _{-\infty }^{\infty }{g(\tau )R_{x,s}(\tau +d)d\tau }.}
Die Lösung
g
(
t
)
{\displaystyle g\left(t\right)}
ist die inverse beidseitige Laplacetransformation von
G
(
s
)
{\displaystyle \left.G(s)\right.}
.
Kausale Lösung
G
(
s
)
=
H
(
s
)
S
x
+
(
s
)
{\displaystyle G(s)={\frac {H(s)}{S_{x}^{+}(s)}}}
Wobei
H
(
s
)
{\displaystyle \left.H(s)\right.}
die positive Lösung der inversen Laplace-Transformation von
S
x
,
s
(
s
)
e
α α -->
s
S
x
− − -->
(
s
)
{\displaystyle {\frac {S_{x,s}(s)e^{\alpha s}}{S_{x}^{-}(s)}}}
,
S
x
+
(
s
)
{\displaystyle S_{x}^{+}(s)}
die positive Lösung der inversen Laplace-Transformation von
S
x
(
s
)
{\displaystyle \left.S_{x}(s)\right.}
und
S
x
− − -->
(
s
)
{\displaystyle S_{x}^{-}(s)}
die negative Lösung der inversen Laplace-Transformation von
S
x
(
s
)
{\displaystyle \left.S_{x}(s)\right.}
ist.
Siehe auch
Einzelnachweise
↑ Kristian Kroschel: Statistische Nachrichtentheorie. Signal- und Mustererkennung, Parameter- und Signalschätzung. 3., neubearbeitete und erweiterte Auflage. Springer, Berlin u. a. 1996, ISBN 3-540-61306-4 .
↑ a b Norbert Wiener : Extrapolation, Interpolation, and Smoothing of Stationary Time Series. Wiley, New York NY 1949.
↑ Robert Grover Brown, Patrick Y. C. Hwang: Introduction to Random Signals and Applied Kalman Filtering. With MATLAB exercises and solutions. 3. Auflage. Wiley u. a., New York NY 1996, ISBN 0-471-12839-2 .