Browse Prior Art Database

Verfahren zur alternierend direkten und rekursiven Optimalfilterung

IP.com Disclosure Number: IPCOM000021559D
Original Publication Date: 2004-Feb-25
Included in the Prior Art Database: 2004-Feb-25
Document File: 1 page(s) / 27K

Publishing Venue

Siemens

Related People

Juergen Carstens: CONTACT

Abstract

Die digitale Signalverarbeitung befasst sich u.a. mit dem sogenannten Optimal-Filter-Problem. Dieses besteht darin, die zu einer Eingangsfolge x(n) gehoerigen Ausgangsfolge eines linearen zeitinvarianten Filters y(n) („Schaetzfolge“), durch Adaption der Filterparameter, moeglichst gut einer Referenzfolge d(n) (engl. „desired sequence“) anzupassen. Es soll fuer ein (gleitendes) Datenfenster (Ausschnitt aus der Eingangsfolge) der optimale Filterparameter-Vektor gefunden werden. Prinzipiell kann der optimale Filterparameter-Vektor ausgehend von Eingangssignalfolge, zusammengefasst in einer Datenmatrix , und dem Kreuzkorrelationsvektor aus Filtereingangs- und Referenzsignal durch Loesen der Wiener-Hopfgleichung – Produkt aus Autokorrelationsmatrix des Eingangssignals und dem optimalen Filterparameter-Vektor gleichgesetzt dem Kreuzkorrelationsvektor – gefunden werden. Die notwendige Bildung der Inversen der Autokorrelationsmatrix stellt den Schwachpunkt (bzgl. Rechenaufwand, Genauigkeit) der prinzipiellen Loesung dar, weshalb in der Praxis nur solche Methoden zur Diskussion stehen, welche gerade diesen Teil der Problemloesung umgehen. Meist werden Verfahren verwendet, die die Bildung der Inversen der Korrelationsmatrix vermeiden. Am haeufigsten sind Gradientenverfahren, z.B. der Least-Mean-Square- (LMS-) Algorithmus, die eine angenaeherte Loesung (nach langem Lernvorgang) liefern. Werden die Datenfenster im Abstand eines Abtastwertes gebildet, so aendern sich nur wenige Bestimmungsstuecke der Wiener-Hopfgleichung. Hierauf basiert ein weiterer rekursiver Loesungsweg, der methodisch unter die Loesung abgeaenderter Gleichungssysteme faellt. Dieser Loesungsweg bringt bedeutende Ersparnis bezueglich Rechenaufwand, allerdings verwirft dieser Algorithmus im Laufe der Rechnung Teile der Gesamtinformation.

This text was extracted from a PDF file.
This is the abbreviated version, containing approximately 51% of the total text.

Page 1 of 1

S

Verfahren zur alternierend direkten und rekursiven Optimalfilterung

Idea: Alfred Kraker, AT-Wien

Die digitale Signalverarbeitung befasst sich u.a. mit dem sogenannten Optimal-Filter-Problem. Dieses besteht darin, die zu einer Eingangsfolge x(n) gehoerigen Ausgangsfolge eines linearen zeitinvarianten Filters y(n) ("Schaetzfolge"), durch Adaption der Filterparameter, moeglichst gut einer Referenzfolge d(n) (engl. "desired sequence") anzupassen. Es soll fuer ein (gleitendes) Datenfenster (Ausschnitt aus der Eingangsfolge) der optimale Filterparameter-Vektor gefunden werden. Prinzipiell kann der optimale Filterparameter-Vektor ausgehend von Eingangssignalfolge, zusammengefasst in einer Datenmatrix , und dem Kreuzkorrelationsvektor aus Filtereingangs- und Referenzsignal durch Loesen der Wiener-Hopfgleichung - Produkt aus Autokorrelationsmatrix des Eingangssignals und dem optimalen Filterparameter-Vektor gleichgesetzt dem Kreuzkorrelationsvektor - gefunden werden. Die notwendige Bildung der Inversen der Autokorrelationsmatrix stellt den Schwachpunkt (bzgl. Rechenaufwand, Genauigkeit) der prinzipiellen Loesung dar, weshalb in der Praxis nur solche Methoden zur Diskussion stehen, welche gerade diesen Teil der Problemloesung umgehen. Meist werden Verfahren verwendet, die die Bildung der Inversen der Korrelationsmatrix vermeiden. Am haeufigsten sind Gradientenverfahren, z.B. der Least-Mean-Square- (LMS-) Algorithmus, die eine angenaeherte Loesung (nach langem Lernvorgang) liefern. Werden die Datenfenster im Abstand eines Abtastwertes gebildet, so aendern sich nur wenige Bestimmungsstuecke der Wiener- Hopfgleichung. Hierauf basiert ein weiterer rekursiver Loesungsweg, der methodisch unter die Loesung abgeaenderter Gleichungssysteme faellt. Dieser Loesungsweg bringt bedeutende Ersparnis bezueglich Rechenaufwand, allerdings verwirft dieser Algorithmus im Laufe der Rechnung Teile der Gesamtinformation.

Gegenueber diesen bekannten Loesungen wird vorgeschlagen, eine Vorleistung zu erbringen, naemlich die Eingangs-Datenmatrix (bzgl. des aktuellen Blockausschnitts der Eingangsdatenfolge) nach der Methode von Gram-Schmidt zu orthogonalisieren - d. h. sie durch ein Produkt aus einer orthogonalen Matrix und einer Dreiecksmatrix darzustellen. Diese Orthogonalisierung erlaubt eine spezielle Umformung der Wiener-Hopfgleichung, die auf direktem Weg (direkte Adaption) den optimalen Koeffizientenvektor als Produkt von Inverser der genannten Dreiecksmatrix, der transponierten orthogonalen Matrix und dem Referenzvektor liefert. Die unvermeidbare Inversen- Bildung ist so auf Inversion der speziellen Dreiecksmatrix zurueckgefuehrt, die auf einfachste Weise - mittels der sogn. restringierten Vektoren - erhalte...