La menor parte de filtro de cuadrados medios

Los algoritmos de la menor parte de cuadrados medios (LMS) son una clase del filtro adaptable usado para imitar un filtro deseado encontrando los coeficientes con filtro que están relacionados con la producción de la menor parte de cuadrados medios de la señal de error (diferencia entre el deseado y la señal actual). Es un método del descenso del declive estocástico en el cual el filtro sólo se adapta basado en el error en el tiempo corriente. Fue inventado en 1960 por el profesor universitario de Stanford Bernard Widrow y su primer Estudiante de doctorado, Ted Hoff.

Formulación del problema

Relación a la menor parte de filtro de cuadrados medios

La realización del filtro de la Salchicha de Francfort causal mucho parece a la solución de la menor parte de estimación de cuadrados, excepto en la esfera de procesamiento de la señal. La menor parte de solución de cuadrados, para matriz de la entrada

\scriptstyle\mathbf {X} </matemáticas> y vector de la salida

es

\boldsymbol {\\hat\beta} = (\mathbf {X} ^\\mathbf {T }\\mathbf {X}) ^ {-1 }\\mathbf {X} ^ {\\mathbf {T} }\\boldsymbol y.

</matemáticas>

El filtro de la Salchicha de Francfort del ABETO se relaciona con la menor parte de filtro de cuadrados medios, pero la reducción al mínimo de su criterio de error no confía en correlaciones enfadadas o autocorrelaciones. Su solución converge a la solución con filtro de la Salchicha de Francfort.

La mayor parte de problemas de filtración adaptables lineales se pueden formular usando la diagrama de bloques encima. Es decir un sistema desconocido se debe identificar y el filtro adaptable intenta adaptar el filtro para hacerlo lo más cerca posible a, usando señales sólo observables, y; pero, y no son directamente observables. Su solución es estrechamente relacionada al filtro de la Salchicha de Francfort.

Definición de símbolos

:

\mathbf {x} (n) = \left [x (n), x (n-1), \dots, x (n-p+1) \right] ^T

</matemáticas>

:

\mathbf {h} (n) = \left [h_0 (n), h_1 (n), \dots, h_ {p-1} (n) \right] ^T, \quad \mathbf {h} (n) \in \mathbb {C} ^p

</matemáticas>

:

Los \mathbf {h} ^H (n) = \left [h_0^ {*} (n), h_1^ {*} (n), \dots, h_ {p-1} ^ {*} (n) \right] \quad </matemáticas> (Hermitian transportan o conjugado transportan)

:

y (n) = \mathbf {h} ^H (n) \cdot \mathbf {x} (n)

</matemáticas>

:

d (n) = y (n) + \nu (n)

</matemáticas>

:

e (n) = d (n) - \hat {y} (n) = d (n) - \hat {\\mathbf {h}} ^H (n) \cdot \mathbf {x} (n)

</matemáticas>

Idea

La idea detrás de filtros de LMS es usar el descenso más escarpado para encontrar pesos con filtro que minimizan una función del coste.

Comenzamos definiendo la función del coste como

:

Convergencia y estabilidad en el medio

Suponga que el filtro verdadero ĥ (n) = n sea constante, y que la señal x (n) de la entrada es el amplio sentido inmóvil.

Entonces E {ĥ (n)} converge a h como n → + ∞ si y sólo si

:

0

donde λ es mayor eigenvalue de la matriz de autocorrelación R = E {x (n) x ᴴ (n)}. Si esta condición no se realiza, el algoritmo se hace inestable y ĥ (el n) diverge.

La velocidad de convergencia máxima se consigue cuando

:

\mu =\frac {2} {\\lambda_ {\\mathrm {máximo}} + \lambda_ {\\mathrm {minuto}}},

</matemáticas>

donde λ es eigenvalue más pequeño de R.

Considerando que µ es menos que o igual a este grado óptimo, la velocidad de convergencia es determinada por λ, con un valor más grande que cede la convergencia más rápida. Esto significa que la convergencia más rápida se puede conseguir cuando λ está cerca de λ, es decir la velocidad de convergencia alcanzable máxima depende de la extensión eigenvalue de R.

Una señal del ruido blanca tiene la matriz de autocorrelación R σ ² I, donde σ ² es el desacuerdo de la señal. En este caso todos eigenvalues son iguales, y la extensión de eigenvalue es mínimo sobre todo matrices posible.

La interpretación común de este resultado es por lo tanto que el LMS converge rápidamente para señales de la entrada blancas, y despacio para señales de la entrada coloreadas, como procesos con características del pase alto o el pase bajo.

Es

importante notar que el susodicho upperbound en µ sólo hace cumplir la estabilidad en el medio, pero los coeficientes de ĥ (n) todavía se pueden poner infinitamente grandes, es decir la divergencia de los coeficientes todavía es posible. Un más práctico ligado es

:

0

donde tr [R] denota el rastro de R. Esto ligó garantías que los coeficientes de ĥ (n) (n) no divergen (en la práctica, el valor de no se debería elegir cerca de este límite superior, ya que es algo optimista debido a aproximaciones y asunciones hechas en la derivación del atado).

Normalizado la menor parte de filtro de cuadrados medios (NLMS)

El inconveniente principal del algoritmo LMS "puro" consiste en que es sensible al escalamiento de su entrada. Esto lo hace muy con fuerza (si no imposible) para elegir un precio de aprendizaje que garantiza la estabilidad del algoritmo (Haykin 2002). El Normalizado la menor parte de filtro de cuadrados medios (NLMS) es una variante del algoritmo LMS que soluciona este problema normalizándose con el poder de la entrada. El algoritmo NLMS se puede resumir como:

Precio de aprendizaje óptimo

Se puede mostrar que si no hay ninguna interferencia , entonces el precio de aprendizaje óptimo para el algoritmo NLMS es

:

y es independiente de la entrada y la verdadera respuesta del impulso (desconocida). En el caso general con la interferencia , el precio de aprendizaje óptimo es

:

Los \mu_ {optan} = \frac {E\left [\left|y (n)-\hat {y} (n) \right |^2\right]} {E\left [|e (n) | ^2\right] }\

</matemáticas>

Los resultados encima suponen que las señales y se no correlacionen el uno al otro, que es generalmente el caso en la práctica.

Prueba

Deje al filtro misalignment definirse como, podemos sacar misalignment esperado para la siguiente muestra como:

:

:

Deje y

:

:

Asumiendo la independencia, tenemos:

:

:

El precio de aprendizaje óptimo se encuentra en, que lleva:

:

:

Véase también

Enlaces externos



Buscar