DE69634247T2 - Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern - Google Patents

Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern Download PDF

Info

Publication number
DE69634247T2
DE69634247T2 DE69634247T DE69634247T DE69634247T2 DE 69634247 T2 DE69634247 T2 DE 69634247T2 DE 69634247 T DE69634247 T DE 69634247T DE 69634247 T DE69634247 T DE 69634247T DE 69634247 T2 DE69634247 T2 DE 69634247T2
Authority
DE
Germany
Prior art keywords
neural network
adaptive
output signals
filter
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69634247T
Other languages
English (en)
Other versions
DE69634247D1 (de
Inventor
J. Stephen ENGEL
Dennis Buckland
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northrop Grumman Corp
Original Assignee
Northrop Grumman Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northrop Grumman Corp filed Critical Northrop Grumman Corp
Publication of DE69634247D1 publication Critical patent/DE69634247D1/de
Application granted granted Critical
Publication of DE69634247T2 publication Critical patent/DE69634247T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction

Description

  • Die vorliegende Erfindung betrifft allgemein eine Vorrichtung zum Bereitstellen einer Erfassung und Analyse von periodischen Signalen. Insbesondere ist die Erfindung eine Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern (AFNNC), die Signale basierend auf ihren Frequenzeigenschaften erfassen oder klassifizieren soll, wenn die exakten Frequenzen und die Energie bei jenen Frequenzen im Voraus nicht bekannt sind.
  • Bei vielen wissenschaftlichen und Test-Bemühungen ist es notwendig, eine Art Signalerkennung durchzuführen, die die Erfassung und Analyse von periodischen Signalen enthält. Zum Beispiel erfordern die Sonarsignalerkennung, die akustische Emissionsverarbeitung und die Vibrationsanalyse für Drehmaschinen wie beispielsweise Hubschrauber, Kraftfahrzeuge, Fertigungswerkzeuge, Eisenbahnen und dergleichen alle eine Signalerkennung einschließlich der Erfassung oder Klassifizierung von periodischen Signalen. Im Allgemeinen können solche Signale unterscheidbare Merkmale in entweder dem Zeitbereich oder dem Frequenzbereich haben und die Wahl der Zeit- oder Frequenzdarstellung hängt von der Anwendung ab. Insbesondere ist es häufig einfacher, Ereignisse, die periodisch sind, mittels Leistungsspektrum- oder Bandpassfilter-Darstellungen zu überwachen. Zum Beispiel sind Radlagerfehler häufig durch Veränderungen des Vibrationsspektrums oder von durch die sich bewegenden Teile in dem Rad ausgesendeten akustischen Signalen erfassbar. Falls ein Radlager eine Bruchstelle aufweist, wird sie eine Kompressionswelle aussenden, deren Grundfrequenz mit der Drehfrequenz des Lagers in Beziehung steht. Falls diese Frequenzen für eine gegebene Raddrehzahl bekannt sind, kann ein bei den kritischen Frequenzen zentriertes, enges Bandpassfilter benutzt werden, um das Signal des Fehlers von Hintergrundrauschen zu isolieren. Die Filterausgangswerte können zu dem Grad des Fehlers in Bezug gesetzt werden.
  • Unglücklicherweise sind für viele Anwendungen die interessierenden kritischen Frequenzen und die akzeptierbare Leistung in diesen Frequenzen nicht im Voraus bekannt. Es ist jedoch möglich, diese Informationen mittels einer Vielzahl von Techniken des neuronalen Netzes, der Fuzzy-Logik, des genetischen Algorithmus oder anderer adaptiver Techniken zu lernen.
  • Derzeit bekannte Geräte, Systeme oder Prozesse können die Mustererkennung von periodischen Signalen durch Implementieren von neuronalen Netzen erzielen. Dieser Ansatz erfordert typischerweise eine erste Transformation eines Zeitbereichssignals zu dem Frequenzbereich. Die gängigste periodische Signaldarstellung ist das von einer diskreten Fourier-Transformationstechnik wie beispielsweise der schnellen Fourier-Transformation (FFT) abgeleitete Leistungsspektrum, das eine Umsetzung von der analogen Signalform in eine Reihe von digitalen Werten erfordert, die diskret abgetasteten Punkten der Signalform mit gleichmäßigem Zeitabstand entspricht. Der Zeitabstand wird durch den Frequenzinhalt in der analogen Signalform bestimmt. Signalformen, die Hochfrequenzkomponenten (sich schnell bewegende Übergänge) haben, erfordern theoretisch Abtastzeiten, die nicht länger als die halbe Periode der schnellsten sinusförmigen Komponente in der Signalform ist. Um die Genauigkeit der Transformation zu verbessern, wird das Abtasten typischerweise wenigstens zehn Mal schneller als die theoretisch minimalen Anforderungen durchgeführt. Als Folge erfordert diese Technik häufig sehr teure Analog/Digital-Umsetzer, große Speicher und komplexe Signalprozessoren, für eine Verarbeitung in Echtzeit.
  • Außerdem existieren in den meisten Fällen die zum Erkennen eines Signals im Frequenzbereich erforderlichen kritischen Informationen bei isolierten Frequenzen und der Großteil des Spektrums ist irrelevant. Ein analoges Filter kann benutzt werden, um nur die Informationen über ausgewählte Frequenzen hindurchzulassen, wodurch die Notwendigkeit für eine teuere Signalverarbeitung vermieden wird. Dies ist jedoch nur realisierbar, falls die relevanten Frequenzen im Voraus bekannt sind.
  • Das Dokument EP-A-0 294 116 offenbart einen digitalen adaptiven Empfänger, der eine Maximum-Likelihood-Folgeschätzung mit neuronalen Netzen für die Wiederherstellung des digitalen Signals, wie es ursprünglich übertragen wurde, einsetzt. Dieser digitale Empfänger weist ein angepasstes Filter auf, das einen Betriebsparameter zum Einstellen seiner Antwortzeit bezüglich der Bitdauer eines empfangenen digitalen Signals besitzt. Das neuronale Netz dieses Dokuments erzeugt n Ausgangssignale für n Eingangssignale.
  • Die vorliegende Erfindung ist daher auf eine Klassifiziervorrichtung und ein Klassifizierverfahren mit einem neuronalen Netz zum adaptiven Filtern gemäß den unabhängigen Ansprüchen 1 und 10 gerichtet.
  • Ferner ist die vorliegende Erfindung auf eine Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern wie oben gerichtet, die die relevanten Frequenzen bestimmt und programmierbare analoge Filter verwendet, um die Informationen bei diesen Frequenzen zu isolieren.
  • Zusätzlich betrifft die vorliegende Erfindung eine Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern wie oben, die die Erkennungsaufgabe durchführt und sich selbst und die programmierbaren Filter modifiziert, um ihre eigene Leistungsfähigkeit zu verbessern.
  • Ferner ist die vorliegende Erfindung auf eine Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern wie oben gerichtet, bei welcher die programmierbaren Filter und das neuronale Netz derart interaktiv sind, dass die Filterparameter so eingestellt werden, als ob sie Elemente des neuronalen Netzes wären.
  • Die Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern der vorliegenden Erfindung kann lernen, wie eine Signalerkennung durchzuführen ist, und kann sich selbst in einer kosteneffektivsten Weise einstellen, wenn sich periodische Signalmuster und Hintergrundrauschen verändern.
  • Noch weiter ist die vorliegende Erfindung auf eine Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern wie oben beschrieben gerichtet, die eine Mustererkennung (Erfassung oder Klassifizierung) irgendeines periodischen Signals, eine U-Boot-Erfassung und -Klassifizierung, eine Hubschraubergetriebeüberwachung und -diagnose, eine Eisenbahn/Kraftfahrzeug-Radlagerüberwachung, eine Radarimpulserkennung, eine automatisierte Fertigungsqualitätskontrolle; und eine einsatzsynchrone Wartung für Energieerzeugungskraftwerke, Fließbandfertigungen, sowie eine Überwachung irgendeiner Drehmaschine durchführt, um das Befinden zu bestimmen und Instandhaltungserfordernisse vorherzusagen.
  • Die vorliegende Erfindung wird insbesondere mit einer Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern zum Klassifizieren von Eingangssignalen erzielt, wobei die Klassifiziervorrichtung ein neuronales Netz zum adaptiven Filtern enthält, wobei die Klassifiziervorrichtung eine oder mehrere adaptive Filtereinrichtungen zum Empfangen von zu klassifizierenden analogen Signalen und zum Erzeugen von Filterausgangssignalen für die Klassifiziervorrichtung, wobei jede der adaptiven Filtereinrichtungen gekennzeichnet ist durch eine vorbestimmte Anzahl von Betriebsparametern; eine Analog/Digital-Umsetzeinrichtung zum Umsetzen jedes Filterausgangssignals aus der einen oder den mehreren adaptiven Filtereinrichtungen in ein digitales Signal; eine neuronale Netzeinrichtung zum Empfangen jedes digitalen Signals und zum Verarbeiten jedes Signals, um daraus mehrere gewichtete Ausgangssignale entsprechend einer vorbestimmten Verarbeitungsstruktur des Netzes zu erzeugen, wobei eines des gewichteten Ausgangssignale eine Klasse für das Eingangssignal darstellt, wobei die neuronale Netzeinrichtung ferner ein Fehlersignal erzeugt, das einen Unterschied zwischen den gewichteten Ausgangssignalen und einem vorbestimmten gewünschten Ausgang darstellt; und eine auf das Fehlersignal reagierende Steuereinrichtung zum Erzeugen eines weiteren Satzes von Filterbetriebsparametern zur Eingabe in jede der adaptiven Filtereinrichtungen, um das Betriebsverhalten davon zu verändern, um das Fehlersignal zu minimieren, aufweist.
  • Die vorliegende Erfindung ist auch insbesondere auf eine Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern zum Klassifizieren von Eingangssignalen gerichtet, wobei die Klassifiziervorrichtung ein neuronales Netz zum adaptiven Filtern enthält, wobei die Klassifiziervorrichtung eine oder mehrere adaptive Filtereinrichtungen zum Empfangen von zu klassifizierenden analogen Signalen und zum Erzeugen von Filterausgangssignalen für die Klassifiziervorrichtung, wobei jede der adaptiven Filtereinrichtungen gekennzeichnet ist durch eine vorbestimmte Anzahl von Betriebsparameter; eine neuronale Netzeinrichtung zum Empfangen jedes Filterausgangssignals und zum Verarbeiten jedes Signals, um daraus mehrere gewichtete Ausgangssignale entsprechend einer vorbestimmten Verarbeitungsstruktur des Netzes zu erzeugen, wobei eines der gewichteten Aus gangssignale eine Klasse für das Eingangssignal darstellt, wobei die neuronale Netzeinrichtung ferner ein Fehlersignal erzeugt, das einen Unterschied zwischen den gewichteten Ausgangssignalen und einem vorbestimmten gewünschten Ausgang darstellt; eine auf das Fehlersignal reagierende Steuereinrichtung zum Erzeugen eines weiteren Satzes von Filterbetriebsparametern zur Eingabe in jede der adaptiven Filtereinrichtungen, um das Betriebsverhalten davon zu verändern, um das Fehlersignal zu minimieren, aufweist.
  • In Zusammenhang damit ist die vorliegende Erfindung auch auf ein Verfahren zum adaptiven Filtern mit einem neuronalen Netz gerichtet, wobei das Verfahren die Schritte aufweist: Eingeben eines zu klassifizierenden analogen Signals in eine oder mehrere adaptive Filtereinrichtungen zum Erzeugen von Filterausgangssignalen zur Eingabe in das neuronale Netz, wobei jede der adaptiven Filtereinrichtungen gekennzeichnet ist durch eine vorbestimmte Anzahl von Betriebsparameter; Verarbeiten jedes Filterausgangssignals in dem neuronalen Netz, um daraus mehrere gewichtete Ausgangssignale entsprechend einer internen Verarbeitungsstruktur des Netzes zu erzeugen, wobei eines der gewichteten Ausgangssignale eine Klasse für das analoge Eingangssignal darstellt, und ferner Erzeugen eines Fehlersignals, das einen Unterschied zwischen den gewichteten Ausgangssignalen und einem vorbestimmten gewünschten Ausgang darstellt; Eingeben des Fehlersignals in eine Steuereinrichtung und Erzeugen eines weiteren Satzes von Filterbetriebsparametern zur Eingabe in jede der adaptiven Filtereinrichtungen, um das Betriebsverhalten davon zu verändern, um das Fehlersignal zu minimieren.
  • Die vorliegende Erfindung für eine Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern wird durch einen Fachmann unter Bezugnahme auf die folgende detaillierte Beschreibung mehrerer bevorzugter Ausführungsbeispiele davon in Verbindung mit den beiliegenden Zeichnungen, in denen gleiche Elemente durch identische Bezugsziffern in allen Darstellungen gekennzeichnet sind, besser verständlich. Darin zeigen:
  • 1 eine schematische Darstellung eines Rechenelements eines einzelnen neuronalen Netzmodells;
  • 2 eine allgemeine schematische Darstellung einer herkömmlichen Klassifiziervorrichtung mit einem neuronalen Netz;
  • 3 eine detaillierte schematische Darstellung der Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern der vorliegenden Erfindung;
  • 4 ein Blockschaltbild des Betriebsverfahrens der Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern der vorliegenden Erfindung;
  • 5 ein Blockschaltbild eines Verfahrens zum Trainieren der Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern der vorliegenden Erfindung.
  • Es wurde entschieden, dass die Verwendung von neuronalen Netzmodellen („neuronale Netze") bei der Bild-, Sprach- und anderer Signalerkennung das größte Potential aufweist. Dies deshalb, weil die neuronalen Netze in der Lage sind, viele konkurrierende Hypothesen gleichzeitig zu verarbeiten, indem parallele Netze aus vielen Rechenelementen, die durch Verbindungen mit variablen Gewichtungen verbunden sind, massiv benutzt werden. Bekanntermaßen sind die in neuronalen Netzmodellen verwendeten Rechenelemente oder -knoten nicht linear und typischerweise analog. Dargestellt in 1 und gekennzeichnet durch die Gleichungen 1(a) und 1(b) ist das neuronale Netzmodell mit Einschicht-Perzeptron mit einem Ausgang, der geregelt ist durch:
  • Figure 00060001
  • Wie in 1 und in Gleichung 1(b) dargestellt, entscheidet das einzelne Perzeptron 2, ob ein Eingang zu einer von zwei Klassen (bezeichnet mit A und B) gehört. Hierbei berechnet der einzelne Knoten entsprechend Gleichung 1(a) eine gewichtete Summe von N gewichteten Eingängen w0x0,... wN-1xN-1, subtrahiert einen Schwellenwert oder Offset ϕ und leitet das Ergebnis durch eine Nichtlinearität, angegeben als Element 3 in 1, sodass der Ausgang y entweder + 1 oder –1 ist. Es ist bekannt, dass Arten von Nichtlinearitäten harte Begrenzer, logische Schwellenwertelemente und sigmoidale Nichtlinearitäten enthalten können. Die Entscheidungsregel ist, auf eine Klasse A zu reagieren, falls der Ausgang + 1 sind, und auf eine Klasse B zu reagieren, falls der Ausgang –1 ist. Es ist selbstverständlich, dass das Einschicht-Perzeptron 2 mit sowohl Analogwert- als auch Binärwert-Eingängen verwendet werden kann. Komplexere Knoten können eine Zeitintegration oder andere Arten von Zeitabhängigkeiten und komplexere mathematische Operationen als eine Summierung enthalten. Eine andere Art eines neuronalen Netzes, Mehrschicht-Perzeptronen, sind Optimalwertnetze mit einer oder mehreren Knotenschichten zwischen den Eingangs- und den Ausgangsknoten. Diese Perzeptronen überwinden viele Beschränkungen der Einschicht-Perzeptronen mit effektiven Trainings-Algorithmen.
  • Neuronale Netzmodelle, wie beispielsweise das in 1 dargestellte Einschicht-Perzeptron 2, sind durch die Netztopologie, die Knoteneigenschaften und die Trainings- oder Lernregeln spezifiziert. Diese Regeln legen einen Anfangssatz von Gewichtungen fest und geben an, wie die Gewichtungen w0,.... wN-1, während des Gebrauchs eingesetzt werden sollten, um das Leistungsvermögen zu verbessern.
  • Ein allgemeines Blockschaltbild einer herkömmlichen Klassifiziervorrichtung mit einem adaptiven neuronalen Netz 4, die bestimmt, welche von M Klassen die charakteristischste eines unbekannten statischen Eingangsmusters mit N Eingangselementen ist, ist in 2 gezeigt. In einer Bildklassifiziervorrichtung können die Eingänge die Graustufen jedes Pixels für ein Bild sein und die Klassen können verschiedene Gegenstände darstellen. Hierbei werden die Eingangswerte parallel einer ersten Stufe 5 über N Eingangsanschlüsse zugeführt. Jede Verbindung trägt einen analogen Wert, der zwei Niveaus für binäre Eingänge annehmen kann oder über einen großen Bereich für Analogwerteingänge variieren kann. Die erste Stufe 5 berechnet übereinstimmende Punkte und gibt diese Punkte parallel an die nächste Stufe 7 über M analoge Ausgangsleitungen aus. Hierbei wird das Maximum dieser Werte ausgewählt und verstärkt. Die zweite Stufe hat einen Ausgang für jede der M Klassen. Nachdem die Klassifizierung komplett ist, wird nur der Ausgang entsprechend der wahrscheinlichsten Klasse stark oder „hoch" sein; andere Ausgänge werden „niedrig" sein. Man beachte bei diesem Aufbau, dass Ausgänge für jede Klasse existieren und dass diese Vielfachheit der Ausgänge in weiteren Verarbeitungsstufen bewahrt werden muss, solange die Klassen verschieden betrachtet werden. Bei dem einfachen Testklassifizierungssystem können diese Ausgangsleitungen direkt zu Einrichtungen zum Spezifizieren von Klassenidentitäten (z.B. LED-Anzeige oder Kennzeichnungen) gehen. In komplizierteren Fällen können sie zu weiteren Verarbeitungsstufen gehen, wo Eingänge von anderen Modalitäten oder Zeitabhängigkeiten berücksichtigt werden.
  • Wie in 2 dargestellt, können, falls die korrekte Klasse bereitgestellt ist, dann diese Information und die Ausgänge y0,.... yM-1 der Klassifiziervorrichtung zu der ersten Stufe 5 der Klassifiziervorrichtung zurückgeführt werden, um die Gewichtungen mittels eines Lernalgorithmus anzupassen. Die Anpassung wird eine korrekte Antwort für nachfolgende Eingangsmuster, die ähnlich dem aktuellen Muster sind, wahrscheinlicher machen. Der Lernprozess oder -algorithmus beinhaltet die Darstellung eines Satzes von Paaren Eingangs- und Ausgangsmustern. Zuerst benutzt das neuronale Netzsystem den Eingangsvektor, um seinen eigenen Ausgangsvektor zu erzeugen, und vergleicht diesen dann mit dem gewünschten Ausgang oder einem Zielvektor. Falls kein Unterschied besteht, wird kein Lernen stattfinden. Sonst werden die Gewichtungen entsprechend dem Lernalgorithmus, wie beispielsweise einem Gradientenabfallverfahren, verändert, um den Unterschied zu reduzieren.
  • Funktionsweise der Klassifiziervorrichtung eines neuronalen Netzes zum adaptiven Filtern Das die Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern („AFNNC") 10 der vorliegenden Erfindung darstellende Blockschaltbild ist in 3 gezeigt. Im Betrieb wird ein analoges Signal 11 mit zu klassifizierenden Informationen dem Gerät eingegeben und durch mehrere programmierbare Filter, die als Elemente 15a,b,c,...,n angegeben sind, gefiltert. Durch einen im Voraus implementierten Trainingsprozess, der unteren beschrieben wird, wurde jedes adaptive Filter programmiert, um jeweilige Ausgänge, die als Signale 20a,b,c,...,n angegeben sind, zur Eingabe in eine Klassifiziervorrichtung eines neuronalen Netzes zu erzeugen. Die programmierten Antworteigenschaften jedes adaptiven Filters sind derart, dass die Ausgangssignale 20a,b,c,...,n nur kritische Informationen enthalten, die zur Klassi fizierung mit einem neuronalen Netz notwendig sind. Anderenfalls wäre eine irrelevante Abtastschaltung mit der Implementierung von Signalverarbeitungstechniken für z.B. FFT-Algorithmen notwendig, um die kritischen Informationen vor der Eingabe in das Netz zu erkennen.
  • Das programmierbare Filter
  • Auf dem Gebiet der Signalverarbeitung ist es im Allgemeinen erforderlich, Signale von bestimmten Frequenzen aus einem störenden Rauschen zu extrahieren. Dies erfordert ein Bandpassfilter, das Signale einer Frequenz f0 für eine weitere Verarbeitung hindurch lässt und Signale von anderen Frequenzen oberhalb und unterhalb von f0 mit einer durch denn Gütefaktor Q des Filters bestimmten Schärfe zurückweist. Ein adaptives Filter ist eines, das eine dynamische Veränderung von f0 und Q erlaubt, um ein optimales Filtern vorzusehen. Im Handel erhältliche, durch einen Mikroprozessor programmierbare, universelle, aktive Schalterfilter, wie beispielsweise MAXIM® 260, 261 und 262 oder ihre Äquivalente, die durch einen Mikroprozessor programmierbare, aktive Filter zweiter Ordnung sind, können zur Realisierung dieser Erfindung verwendet werden. Solche Filter sind in der Lage, f0 über einen Bereich 2:1 in 64 Schritten durch Herunterladen eines digitalen 6-Bit-Wortes in die Vorrichtung beinahe linear zu variieren. Da dies ein Schalterfilter ist, ist f0 auch proportional zu einem Eingangstakt über einen Bereich von bis zu 750.000:1. Deshalb kann in einer typischen Anwendung f0 von 0,01 Hz bis 7.500 Hz mit einer Auflösung des 64-fachen derjenigen des Taktes variiert werden. Eine solche Vorrichtung ist auch in der Lage, Q in einer hyperbolischen Weise von 0,5 bis 64 in 128 Schritten durch Herunterladen eines digitalen 7-Bit-Wortes in die Vorrichtung zu variieren. Durch kaskadierende Abschnitte dieser Filter kann Q wie folgt erhöht werden:
  • Figure 00090001
  • Zusätzlich zum Erhöhen der Ordnung des Filters erlauben die kaskadierenden Abschnitte dieser Filter auch die Realisierung von unterschiedlichen Filterkonstruktionen, wie beispielsweise Butterworth, Chebyshev und Bessel.
  • Wie in 3 dargestellt, werden die Ausgangssignale 20a,b,c,...,n jedes jeweiligen adaptiven Filters gleichzeitig durch jeweilige einzelne Abtast-Halte-Module 25a,b,c,...,n mit jeweiligen Ausgängen 27a,b,c,...,n, die nacheinander von einem analogen Signal in ein digitales Signal umgesetzt werden, das durch einen Analog/Digital (A/D) – Umsetzer 30 ausgegeben wird, abgetastet. Eine Multiplex- oder Wechselschaltung 37 ist vorgesehen, um eine sequentielle Eingabe der Abtast-Halte-Ausgangssignale in den A/D-Umsetzer 30 zu ermöglichen. Der digitale Signalausgang des A/D-Umsetzers 30 stellt den Filterausgangswert dar und wird nacheinander in ein paralleles E/A-Schieberegister 40 geladen, das die Filterwerte nacheinander ausgibt, wie sie umgesetzt werden, oder sie zusammen in der Form eines Vektors ausgeben kann. Die Filterwerte können in der Form von Vektoren ausgegeben werden, wenn es erwünscht ist, um Zeitverschiebungen oder eine „Zeithistorie" eines Signals zu berücksichtigen, zum Beispiel bei der Berücksichtigung von Dopplereffekten bei Radar und dergleichen. Das E/A-Schieberegister 40 kann auch die ältesten Werte ersetzen, wenn neue Werte verfügbar werden, indem ihre Positionen in dem Register verschoben werden. Ein neuronales Netzmodul 50 führt dann die Erfassung oder Klassifizierung des digitalen Signals durch überwachte oder nicht-überwachte Techniken durch, wie nachfolgend in mehr Einzelheiten beschrieben wird.
  • Es ist selbstverständlich, dass in einem alternativen Ausführungsbeispiel die Ausgangssignale der adaptiven Filter 20a,..., 20n ohne den Multiplexer 37, den A/D-Umsetzer 30 und das parallele E/A-Schieberegister 40 direkt dem Detektionsklassifizierer mit einem neuronalen Netz 50 eingegeben werden können, wie durch eine gestrichelte Linie 80 in 3 dargestellt. Bei einem solchen Aufbau ist die Klassifiziervorrichtung mit einem neuronalen Netz 50 eine analoge Vorrichtung, die nur analoge Ausgangssignale der adaptiven Filter verarbeitet.
  • Wie in 3 dargestellt, werden als Ergebnis einer neuronalen Netzverarbeitung zwei Signale erzeugt: Ein Fehlersignal 51, das eine Angabe der Effektivität des Netzes selbst und der Filter ist; und ein Ausgangssignal 53, das die Klasse darstellt, zu der das Eingangssignal gehört. Das Fehlersignal 51 wird einer Filterparametersteuerung 65 eingegeben, die in dem bevorzugten Ausführungsbeispiel einen Mikroprozessor oder einen Mikrokontroller (μP/μC) 60 enthält, der/die einen Algorithmus implementiert, um die adaptiven Filterparameter für die Eingangsfilter 15a,..., 15n einzustellen, um die Konvergenzzeit des neuronalen Netzes zu maximieren, indem nur die kritischen Informationen durch das Netz gelangen.
  • Die Filterparametersteuerung
  • Wie in 3 dargestellt, richtet die Filterparametersteuerung 65 f0 und Q jedes der adaptiven Filter 15a,..., 15n ein. Sie erzeugt auch Taktsignale 62a,..., 62n für jedes adaptive Filter. Die Steuerung 65 lädt das Verhältnis fclk/f0 über jeweilige, als 70a,..., 70n angegebene Datenleitungen in die adaptiven Filter 15a,..., 15n und lädt die Q-Daten über Datenleitungen 75a,..., 75n in die adaptiven Filter, sodass sie sich effizienter auf die gewünschten Signale konzentrieren. In dem bevorzugten Ausführungsbeispiel besteht die Filterparametersteuerung 65 aus einem/einer einfachen 8-Bit-Mikroprozessor/Mikrokontroller (μP/μC) 60, der/die zusammen mit programmierbaren Frequenzteilern (PFD) 67a,..., 67n arbeitet, die die notwendigen Taktsignale 62a,..., 62n für die im Handel erhältlichen aktiven Filter vorsehen, wie oben beschrieben. In dem bevorzugten Ausführungsbeispiel ist ein programmierbarer Frequenzteiler für jeden unabhängigen adaptiven Filterabschnitt erforderlich, um eine Grobauswahl von f0 vorzusehen. In Abhängigkeit von Systemanforderungen für Frequenzgenauigkeit und -bereich kann jeder programmierbare Frequenzteiler 67a, ..., 67n so einfach wie eine auswählbare Zählerteilerkette sein, die eine geometrische Auflösung hat, oder so entwickelt wie ein numerisch geregelter 32-Bit-Oszillator sein. Der/die μP/μC kann mit Startwerten f0 und Q für jedes der adaptiven Filter basierend auf einer allgemeinen Kenntnis der Systemanforderungen vorprogrammiert sein. Der/die μP/μC 60 wird dann die beste Taktfrequenz für jedes der adaptiven Filter bestimmen und die geeigneten digitalen Worte für jeden der entsprechenden, programmierbaren Frequenzteiler 67a,..., 67n herunterladen. Der/die μP/μC 60 wird auch das beste Anfangsverhältnis fclk/f0 und das beste Q für jedes der adaptiven Filter bestimmen und die geeigneten Adressen und Datenworte für sie herunterladen.
  • In dem Blockschaltbild von 4, das die Arbeitsschritte 100 der integrierten Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern zeigt, wird in Schritt 105 eine Initialisierung der Parameter der adaptiven Filter bestimmt und in Schritt 115 werden die zu klassifizierenden analogen Signale eingegeben. Der A/D-Umsetzungsschritt ist als Schritt 120 in 4 angegeben, und die umgesetzten digitalen Signale werden bei Schritt 125 in die Klassifiziervorrichtung mit einem neuronalen Netz zur Verarbeitung eingegeben. Wie bei Schritt 130 in 4 angegeben, erfolgt eine Bestimmung, ob das Fehlersignal niedriger als ein vorbestimmter Wert ist. Falls das Fehlersignal 51 niedriger als ein minimaler Fehlerwert ist, dann ist das Netz konvergiert und das Ausgangssignal, das die Klasse darstellt, zu der das Signal gehört, kann angezeigt werden, wie bei Schritt 150 gezeigt. Falls das Fehlersignal 51 größer als ein vorbestimmter minimaler Fehlerwert ist, dann ist das Netz nicht konvergiert, und die Antwortparameter der adaptiven Filter oder die Gewichtungen des neuronalen Netzes können geändert werden, um diesen Fehler zu reduzieren. Um dies zu erreichen, geht die AFNNC 10 in einen Trainingsmodus, wie bei Schritt 225 in 5 angegeben, der unten in mehr Einzelheiten erläutert wird, um eine „Feineinstellung" durchzuführen und die Parameter der adaptiven Filter und/oder die Gewichtungen des neuronalen Netzes einzustellen.
  • Während des Trainingsmodus werden die analogen Eingänge der AFNNC 10 dem System zusammen mit erwarteten Ergebnissen präsentiert. Wie oben beschrieben, wird das Fehlersignal 51, das eine Angabe des Unterschiedes zwischen dem erwarteten Ausgang und der Systemantwort ist, der Filterparametersteuerung μP/μC 60 eingegeben, die neue Werte von f0 und Q für jedes jeweilige adaptive Filter 15a, ..., 15n bestimmt, um diesen Fehler zu minimieren. Der/die μP/μC 60 lädt dann diese neuen Informationen in jedes adaptive Filter, wie oben, und ein weiteres analoges Signal wird dem System eingegeben. Dies wird fortgesetzt, bis der Trainingsfehler ein vorbestimmtes Minimum erreicht hat. Die AFNNC 10 wird dann optimal konfiguriert sein, um die Signalverarbeitung/Klassifizierung durchzuführen, für die sie trainiert wurde, und sie kann für neue Umstände neu trainiert werden, wenn die Notwendigkeit entsteht.
  • Training der Detektions/Klassifiziervorrichtung mit einem neuronalen Netz Durch eine Vielzahl von bekannten überwachten oder nicht-überwachten Trainingstechniken eines neuronalen Netzes, einschließlich Gradientenabfallsuche, genetische Algorithmen, kooperativ-konkurrierendes Lernen, Kreisbasisfunktionsnetze, usw., können die optimalen Parameter für die adaptiven Eingangsfilter bestimmt werden.
  • Diese Techniken verwenden die Ausgänge der adaptiven Filter als Eingänge des neuronalen Netzes für das Training und die nachfolgende Verarbeitung. Die adaptiven Filterparameter, wie beispielsweise die Bandpassmittenfrequenz f0 und der Gütefaktor Q werden durch den gleichen Prozess eingestellt, der die Gewichtungen des neuronalen Netzes einstellt, um den Ausgangsfehler des neuronalen Netzes während des Trainings zu minimieren.
  • Das Verfahren 200, das das Training und die Integration der Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern 10 darstellt, ist in dem Blockschaltbild von 5 gezeigt. Im Allgemeinen ist es erwünscht, eine Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern zu erhalten, die anwendungsspezifisch ist, d.h. zum Klassifizieren von zum Erkennen erwünschten Signalen programmiert ist. Als ein Beispiel kann es bekannt sein, dass gewisse mechanische Lagerfehler periodische Signale nahe der Betriebsfrequenz der speziellen mechanischen Vorrichtung erzeugen. Durch Eingeben dieser Signale in die anwendungsspezifische Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern kann eine Bestimmung bezüglich des Typs und der Schwere des Lagerfehlers durchgeführt werden. Noch wichtiger wird dieser Trainingsprozess benutzt, um eine Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern zur Erkennung von Signalen, die nicht im Voraus bekannt sind, zu trainieren.
  • Wie in 5 dargestellt, besteht der erste Schritt zur Realisierung des Trainierens der Klassifiziervorrichtung und des Optimierens der adaptiven Filter in der Initialisierung aller adaptiven Filter 15a,..., 15n am Eingang der Vorrichtung. Dieser Schritt ist als Schritt 205 in 5 angegeben und kann das Konfigurieren jedes adaptiven Filters in einer Weise enthalten, um die Eingabe von Signalen von vorbestimmten bekannten Frequenzbereichen in das neuronale Netz für die interessierende spezielle Anwendung zu ermöglichen. Alternativ kann er eine Streuung der Bandpassfilter über ein weites Frequenzband verursachen, wenn die interessierenden Signale nicht im Voraus bekannt sind. Nach der Initialisierung der adaptiven Filter besteht der als Schritt 215 angegebene nächste Schritt darin, die analogen Signale mit den kritischen Informationen für die spezielle Anwendung einzugeben. Wie oben erwähnt, können diese Signale und ihre Frequenzsignaturen im Voraus bekannt sein oder nicht.
  • Der nächste Schritt 225 ist eine Bestimmung, ob die adaptiven Filter 15a,..., 15n optimal konfiguriert worden sind oder nicht, d.h. zur Eingabe nur der interessierenden gewünschten Frequenzen in das neuronale Netz eingestellt sind oder nicht. Falls die adaptiven Filter 15a,..., 15n nicht optimal eingestellt worden sind, werden die Filterkonfigurationen dann weiter optimiert, wie bei Schritt 235 in 5 angegeben. Falls die adaptiven Filter optimal konfiguriert worden sind, dann können die Gewichtungen des neuronalen Netzes entsprechend einer Trainingstechnik des neuronalen Netzes feineingestellt werden.
  • Wie in 5 dargestellt, enthält der Schritt 235 das Eingeben der Ausgänge der adaptiven Filter und der erwarteten Ausgangsvektoren in ein neuronales Netz, das als eines der mehreren neuronalen Netzmodelle für zum Beispiel eine Back-Propagation („BP"), eine Kreisbasisfunktion („RBF"), ein Mehrfach-Perzeptron, usw. konfiguriert ist, um resultierende Gewichtungsverteilungen zu erhalten. Insbesondere werden nach dem Eingeben der interessierenden bekannten Signale in ein überwachtes neuronales Netzmodell oder nach dem Eingeben interessierender unbekannter Signale in das Netz die resultierenden Gewichtsverteilungen des neuronalen Netzes durch die Filterparametersteuerung 65 analysiert und in optimale Filterparameter für z.B. f0 und Q zum Herunterladen in die adaptiven Filter umgesetzt, wie oben in Anbetracht von 3 erläutert.
  • Als ein Beispiel kann ein neuronales RBF-Netz, das ein Zweischicht-Netz ist, dessen Ausgangsknoten μ eine lineare Kombination der Basis- (oder Kernel-) Funktion bilden, die durch versteckte Schichtknoten berechnet wird, verwendet werden. Die Basisfunktionen in der versteckten Schicht erzeugen eine lokale Antwort auf den eingegebenen Impuls, d.h. sie erzeugen eine signifikante Antwort ungleich Null nur, wenn der Eingang in einen kleinen lokalen Bereich des Eingangsraums fällt. Die üblichsten Versionen der Basisfunktionen sind die Gauß'sche Kernel-Funktion der Form:
    Figure 00140001
    wobei u1j der Ausgang des j-ten Knotens in der ersten Schicht ist, x das Eingangsmuster ist, w1j der Gewichtungsvektor für den j-ten Knoten in der ersten Schicht, d.h. die Mitte der Gauß-Kurve für den Knoten j ist, σj 2 der Normalisierungsparameter für den j-ten Knoten ist, und N1 die Anzahl der Knoten in der ersten Schicht ist. In dem RBF-Netz gibt der Knoten einen Bereich von Null bis Eins aus, sodass die Antwort des Knotens um so größer ist, je näher der Eingang an der Mitte der Gauß-Kurve ist. Dies deshalb, weil die Gauß'schen Kernel-Funktionen radialsymmetrisch sind, d.h. jeder Knoten erzeugt einen identischen Ausgang für Eingänge, die in einem festen radialen Abstand von der Mitte der Kernel-Funktion liegen.
  • Das Abstimmen der adaptiven Filter mittels der RBF-Technik kann wie folgt durchgeführt werden. Typischerweise werden für Signale, die im Voraus bekannt sind oder nicht, alle adaptiven Filter mit Mittenfrequenzen f0 konfiguriert, die über ein interessierendes erwartetes Band gleichmäßig verteilt sind. Dann wird jedes f0 unter Verwendung einer nicht-überwachten Gruppierungstechnik, wie beispielsweise den k-Means-Algorithmus bewegt. Nach der Stabilisierung kann jedes adaptive Filter Q eingestellt werden, um sie zu dem mittleren Abstand zwischen den Trainingsmustern und den Werten von f0 proportional zu machen. Man beachte, dass, falls die adaptiven Eingangsfilter als Tief- und/oder Hochpass konfiguriert sind, sie alternativ mittels einer modifizierten Back-Propagation-Technik abgestimmt werden können, bei welcher der Grad des Flankenabfalls proportional zu der Gewichtungsamplitude ist. Alternativ zu der oben beschriebenen RBF-Trainingstechnik können die Filterparameter durch ein Verfahren direkt bestimmt werden, bei dem das rohe analoge Eingangssignal 11 zuerst mittels DFT (FFT) – Signalverarbeitungsalgorithmen in eine spektrale Leistungsdarstellung umgesetzt wird. Das Leistungsspektrum, das als Vektor von Frequenzkoeffizienten dargestellt wird, wird als Eingang zu dem speziellen neuronalen Netz benutzt. Während des überwachten Trainings kann dann eines der mehreren Paradigmen eines neuronalen Netzes implementiert werden, um die Gewichtungsfaktoren, die den Eingangsvektor mit dem Netz verbinden, in einer Weise einzustellen, die den gewünschten Ausgang des neuronalen Netzes verbessert, d.h. den Fehler mit einer schnellen Konvergenz minimiert. Nach dem Training des Netzes können die eingegebenen Gewichtungen analysiert werden, um zu bestimmen, welche der spektralen Koeffizienten nützliche Informationen enthalten. Eingänge, die zu einem erfolgreichen Leistungsvermögen beitragen, haben im Allgemeinen größere Gewichtungsamplituden als jene, die irrelevante oder widersprüchliche Informationen enthalten. Nach der Eingabe der neuen Filterparameter wird ein neuronales Netz gebildet, das anstelle der spektralen DFT-Koeffizienten die Ausgänge der adaptiven Filter als Eingänge des neuronalen Netzes verwendet.
  • Der nächste Schritt, der als Schritt 245 in 5 angegeben ist, besteht darin, alle adaptiven Filterparameter einzustellen, d.h. jede Mittenfrequenz und jeden Gütefaktor der Filter zu konfigurieren, um die eingegebene Gewichtungsverteilung zu reflektieren und somit kritische Informationen zu bewahren, während Frequenzen, die nicht nützlich sind, unterdrückt werden. Dies ist eine enorm kostensparende Technik, weil für eine spezielle Anwendung nur ein paar adaptive Filter benötigt werden, wenn die kritischen Frequenzinformationen spärlich sind.
  • Wenn die adaptiven Filter 15a,..., 15n einmal abgestimmt sind, kann es notwendig sein, die Gewichtungen der zu verwendenden Klassifiziervorrichtung mit einem neuronalen Netz weiter zu trainieren. Daher werden in der oben beschriebenen Weise die Eingangssignale den abgestimmten adaptiven Filtern eingegeben (in Schritt 215, 5). Die Ausgänge davon werden der Klassifiziervorrichtung mit einem neuronalen Netz in der oben bezüglich 3 beschriebenen Weise eingegeben. Wie bei Schritt 225 angegeben, wird die Bestimmung, ob die adaptiven Filter 15a,..., 15n optimal konfiguriert worden sind, wieder durchgeführt. Für diese Iteration wurden die adaptiven Eingangsfilter bereits eingestellt, wie oben beschrieben, um nur die interessierenden gewünschten Frequenzen in das neuronale Netz einzugeben, sodass der Trainingsalgorithmus des neuronalen Netzes nun implementiert werden kann, wie bei Schritt 250 in 5 gezeigt.
  • In dem bevorzugten Ausführungsbeispiel wird ein überwachter Trainingsalgorithmus, wie beispielsweise Least-Mean-Squares oder Back-Propagation implementiert, um das neuronale Netz zu trainieren und eine optimale Knoten-(Gewichtungs-) Verteilung für das in der Klassifiziervorrichtung benutzte Netz zu erhalten. Es ist selbstverständlich, dass eine Trainingstechnik für das neuronale Netz, die sich von der in Schritt 235 implementierten Trainingstechnik unterscheidet, verwendet werden kann, um das neuronale Netz in Schritt 250 zu trainieren.
  • Als ein Beispiel kann in Schritt 250, gezeigt in 5, die Back-Propagation-Technik implementiert werden, die eine Gradientensuchtechnik verwendet, um eine Kostenfunktion gleich dem Unterschied des quadratischen Mittelwerts zwischen dem gewünschten und dem aktuellen Ausgang des Netzes zu minimieren. Der gewünschte Ausgang aller Knoten ist typischerweise „niedrig" (0 oder 0,11, sofern dieser Knoten nicht der Klasse entspricht, zu der der aktuelle Eingang gehört, in welchem Fall er „hoch" ist (1,0 oder > 0,91. Das Netz wird durch anfängliches Auswählen kleiner zufälliger Gewichtungen und interner Schwellenwerte und dann wiederholtes Darstellen aller Trainingsdaten trainiert. Die Gewichtungen werden nach jedem Durchgang unter Verwendung von Nebeninformationen, die die korrekte Klasse bestimmen, eingestellt, bis die Gewichtungen konvergieren und die Kostenfunktion auf einen akzeptierbaren Wert reduziert ist. Eine wesentliche Komponente des Algorithmus ist das iterative Gradientenverfahren, das erforderliche Fehlerausdrücke verbreitet, um die Gewichtungen von Knoten in der Ausgangsschicht zu Knoten in tieferen Schichten zurück anzupassen, um den mittleren quadratischen Fehler zwischen dem aktuellen Ausgang eines Mehrschicht-Optimalwert-Perzeptrons und dem gewünschten Ausgang zu minimieren. Es erfordert kontinuierliche, differenzierbare Nicht-Linearitäten. In der nachfolgenden Beschreibung nimmt jeder Knoten eine sigmoidale, logische Nicht-Linearität mit der Funktion f(α) entsprechend der folgenden Gleichung an:
  • Figure 00170001
  • Zuerst werden alle Gewichtungen und Knoten-Offsets auf kleine zufällige Werte initialisiert. Dann wird ein Analogwert-Eingangsvektor x0, x1,..., xN-1, präsentiert und die gewünschten Ausgänge d0, d1,..., dM-1 werden bestimmt. Wenn das Netz als Klassifiziervorrichtung benutzt wird, werden alle gewünschten Ausgänge typischerweise auf Null gesetzt, mit Ausnahme des Ausgangs entsprechend der Klasse, zu der der Eingang gehört, welcher auf Eins gesetzt wird. Der gewünschte Ausgang ist 1. Der Eingang könnte bei jedem Durchgang neu sein oder Abtastungen von einem Trainingssatz könnten zyklisch präsentiert werden, bis sich die Gewichtungen stabilisieren.
  • Der nächste Schritt besteht darin, die aktuellen Ausgänge y0, y1,..., yM-1 mittels der sigmoidalen Nicht-Linearität in der obigen Gleichung zu berechnen. Unter Verwendung eines rekursiven Algorithmus, der an den Ausgangsknoten startet und sich zurück zu der ersten versteckten Schicht arbeitet, werden die Gewichtungen eingestellt durch: wij(t + 1) = wij(t) + ηδjxi
  • In dieser Gleichung ist wij(t) die Gewichtung von dem versteckten Knoten i oder von einem Eingang zu dem Knoten j zur Zeit t; xi ist entweder der Ausgang des Knotens i oder ist ein Eingang, η ist ein Verstärkungsausdruck, und δj ist ein Fehlerausdruck für den Knoten j. Falls der Knoten j ein Ausgangsknoten ist, dann gilt δj = yj(1 – yj)(dj – yj)wobei dj der gewünschte Ausgang des Knotens j ist, und yj der aktuelle Ausgang ist. Falls der Knoten j ein interner versteckter Knoten ist, dann gilt
    Figure 00180001
    wobei k über alle Knoten in den Schichten über dem Knoten j läuft. Die internen Knotenschwellenwerte werden in einer ähnlichen Weise angepasst, indem angenommen wird, dass sie Verbindungsgewichtungen an Verbindungen von Hilfseingängen eines konstanten Wertes sind. Die Konvergenz ist manchmal schneller, falls ein Impulsausdruck hinzugefügt wird und die Gewichtungsveränderungen geglättet werden durch: wij(t + 1) = wij(t) + ηδjxi + α(wij(t) – wij(t – 1))wobei 0 < α < 1 . Der Prozess wiederholt sich selbst durch Eingeben von Analogwert-Eingangsvektoren x0, x1,..., xN-1 (und der gewünschten Ausgänge), bis es keine zu trainierenden Eingänge mehr gibt.
  • Schließlich wird die Klassifiziervorrichtung mit einem adaptiven neuronalen Netz bei dem in 5 dargestellten Schritt 255 integriert, wobei sowohl die Parameter der adaptiven Filter als auch die Gewichtungen des neuronalen Netzes für die spezielle Anwendung optimal konfiguriert sind.
  • Als Alternative zu den oben beschriebenen überwachten Trainingstechniken eines neuronalen Netzes können auch nicht-überwachte Trainingstechniken in der Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern implementiert werden, wie bezüglich 3 erläutert. So kann zum Beispiel eine Vielzahl Eingangssignale 11 in die adaptiven Filter 15a,..., 15n eingegeben werden, wobei die Ausgangsklasse oder die erwarteten Ausgangssignale 53 noch nicht bekannt sind, und kann ferner sogar eine neue Klasse darstellen. Die nicht-überwachten Trainingstechniken können das Vergleichen dieser Eingangssignale miteinander beinhalten, um nach Ähnlichkeiten der Antwort zu schauen. Alle Eingangssignale, die ähnlich sind, können „gruppiert" werden, um eine Klasse darzustellen, die eine Signifikanz (zum Beispiel gut oder schlecht) haben kann oder nicht, und die Anzahl der Klassen für den speziellen Satz von Eingangssignalen kann vorbestimmt sein. Die Signifikanz dieser Klassen kann anschließend durch mehr Experimentieren mit anderen Techniken gelernt werden.
  • Wenn die Klassen einmal für die Eingangssignale 11 mittels nicht-überwachter Trainingstechniken eines neuronalen Netzes gebildet sind, können die für diese Klassen erzeugten Antwortmuster oder -masken als Eingänge für die oben beschriebenen überwachten Trainingstechniken verwendet werden, und ferner können die Eingangssignale gemäß diesen Techniken klassifiziert werden.
  • Obwohl das gezeigt und beschrieben worden ist, das als praktischste und bevorzugteste Ausführungsbeispiele angenommen wird, ist es offensichtlich, dass sich für den Fachmann Abweichungen von den speziellen Verfahren und Konstruktionen, die beschrieben und dargestellt sind, ergeben und ohne Verlassen des Schutzumfangs der Erfindung durchgeführt werden können. Es soll deshalb keine Beschränkung auf die beschriebenen und dargestellten speziellen Konstruktionen erfolgen, sondern es sollen alle Modifikationen genutzt werden, die in den Schutzumfang der anhängenden Ansprüche fallen.

Claims (13)

  1. Adaptive Klassifiziervorrichtung (10) mit einem neuronalen Netz zum Klassifizieren eines analogen Eingangssignals (11), mit einer oder mehreren programmierbaren Filtereinrichtungen (15a, 15b, 15c,..., 15n) zum Empfangen des zu klassifizierenden analogen Eingangssignals (11) und zum Erzeugen von Filterausgangssignalen (20a, 20b, 20c,..., 20n), wobei jede der programmierbaren Filtereinrichtungen (15a, 15b, 15c,..., 15n) gekennzeichnet ist durch eine vorbestimmte Anzahl von Betriebsparametern; einer adaptiven neuronalen Netzeinrichtung (50) zum Empfangen und Verarbeiten jedes der Filterausgangssignale (20a, 20b, 20c,..., 20n), um daraus mehrere gewichtete Ausgangssignale (51, 53) entsprechend einer vorbestimmten Verarbeitungsstruktur der adaptiven neuronalen Netzeinrichtung (50) zu erzeugen, wobei eines der gewichteten Ausgangssignale (53) eine Klasse für das analoge Eingangssignal (11) darstellt, wobei die neuronale Netzeinrichtung (50) ferner ein Fehlersignal (51) erzeugt, das einen Unterschied zwischen dem einen der gewichteten Ausgangssignale (53) und einer vorbestimmten gewünschten Klasse darstellt; und einer auf das Fehlersignal (51) reagierenden Steuereinrichtung (65) zum Erzeugen eines weiteren Satzes von Filterbetriebsparametern zur Eingabe in jede der programmierbaren Filtereinrichtungen (15a, 15b, 15c,..., 15n), um das Betriebsverhalten davon zu verändern, um das Fehlersignal zu minimieren.
  2. Adaptive Klassifiziervorrichtung mit einem neuronalen Netz nach Anspruch 1, gekennzeichnet durch eine Analog/Digital-Umsetzeinrichtung (30) zum Umsetzen jedes der Filterausgangssignale (20a, 20b, 20c,..., 20n) aus der einen oder den mehreren programmierbaren Filtereinrichtungen (15a, 15b, 15c,..., 15n) in ein digitales Signal.
  3. Adaptive Klassifiziervorrichtung mit einem neuronalen Netz nach Anspruch 2, dadurch gekennzeichnet, dass die neuronale Netzeinrichtung (50) jedes digitale Signal zur Verarbeitung empfängt.
  4. Adaptive Klassifiziervorrichtung mit einem neuronalen Netz nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass die neuronale Netzeinrichtung (50) eine gewichtete Verteilung aufweist und die gewichtete Verteilung einstellt, um das Fehlersignal (51) zu minimieren.
  5. Adaptive Klassifiziervorrichtung mit einem neuronalen Netz nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die programmierbaren Filter (15a, 15b, 15c,..., 15n) als Bandpassfilter mit Betriebsparametern einschließlich einer Mittenfrequenz f0 und eines Gütefaktors Q ausgebildet sind, wobei die Betriebsparameter ursprünglich basierend auf dem zu klassifizierenden Eingangssignal (11) vorbestimmt sind.
  6. Adaptive Klassifiziervorrichtung mit einem neuronalen Netz nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Betriebsparameter entsprechend einer an der Klassifiziervorrichtung (10) mit einem neuronalen Netz durchgeführten Trainingstechnik vorbestimmt sind.
  7. Adaptive Klassifiziervorrichtung mit einem neuronalen Netz nach Anspruch 6, dadurch gekennzeichnet, dass die Trainingstechnik das Eingeben von vorbestimmten bekannten Eingangssignalen und gewünschten Ausgangssignalen in die Klassifiziervorrichtung (10) eines neuronalen Netzes und das Erzeugen mehrerer gewichteter Ausgangssignale (51, 53) beinhaltet.
  8. Adaptive Klassifiziervorrichtung mit einem neuronalen Netz nach Anspruch 7, dadurch gekennzeichnet, dass die Betriebsparameter entsprechend den mehreren gewichteten Signalen, die durch die Trainingstechnik erzeugt wurden, erzeugt werden.
  9. Adaptive Klassifiziervorrichtung mit einem neuronalen Netz nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass eines der gewichteten Ausgangssignale (53) eine unbekannte Klasse für das Eingangssignal (11) darstellt, wobei die neuronale Netzeinrichtung (50) ähnliche gewichtete Ausgangssignale gruppiert, um eine Klasse davon zu bilden.
  10. Verfahren zum Klassifizieren von Signalen mit einer Klassifiziervorrichtung mit einem neuronalen Netz, wobei das Verfahren die Schritte aufweist: Eingeben (115) eines zu klassifizierenden analogen Signals (11) in eine oder mehrere programmierbare Filtereinrichtungen (15a, 15b, 15c,..., 15n) zum Erzeugen von Filterausgangssignalen (20a, 20b, 20c,..., 20n) zur Eingabe in eine adaptive neuronale Netzeinrichtung (50), wobei jede der programmierbaren Filtereinrichtungen (15a, 15b, 15c,...15n) durch eine vorbestimmte Anzahl von Betriebsparametern gekennzeichnet ist; Verarbeiten (125) jedes der Filterausgangssignale (20a, 20b, 20c,..., 20n) in einer adaptiven neuronalen Netzeinrichtung (50), um daraus entsprechend einer internen Verarbeitungsstruktur der adaptiven neuronalen Netzeinrichtung (50) mehrere gewichtete Ausgangssignale (51, 53) zu erzeugen, wobei eines der gewichteten Ausgangssignale (53) eine Klasse für das analoge Eingangssignal (11) darstellt, und ferner Erzeugen eines Fehlersignals (51), das einen Unterschied zwischen dem einen der gewichteten Ausgangssignale (53) und einer vorbestimmten gewünschten Klasse darstellt; und Eingeben des Fehlersignals (51) in eine Steuereinrichtung (65) und Erzeugen eines weiteren Satzes von Filterbetriebsparametern zur Eingabe in jede der programmierbaren Filtereinrichtungen (15a, 15b, 15c,..., 15n), um das Betriebsverhalten davon zu verändern, um das Fehlersignal (51) zu minimieren.
  11. Verfahren zum Klassifizieren von Signalen nach Anspruch 10, dadurch gekennzeichnet, dass das Eingeben des analogen Signals (11) zusätzlich das Eingeben von gewünschten Ausgangssignalen in die neuronale Netzeinrichtung (50) zum Erzeugen des Fehlersignals enthält.
  12. Verfahren zum Klassifizieren von Signalen nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass das Verfahren ferner einen Schritt (120) des Durchführens einer Analog/Digital-Umsetzung jedes der Filterausgangssignale (20a, 20b, 20c,..., 20n) vor der Eingabe (125) in die neuronale Netzeinrichtung (50) enthält.
  13. Verfahren zum Klassifizieren von Signalen nach Anspruch 10, 11 oder 12, dadurch gekennzeichnet, dass das Verfahren ferner einen Schritt (250) zum Einstellen einer gewichteten Verteilung der neuronalen Netzeinrichtung (50) aufweist, um das Fehlersignal (51) zu minimieren.
DE69634247T 1995-04-27 1996-04-08 Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern Expired - Fee Related DE69634247T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US43052995A 1995-04-27 1995-04-27
US430529 1995-04-27
PCT/US1996/004763 WO1996034344A1 (en) 1995-04-27 1996-04-08 Adaptive filtering neural network classifier

Publications (2)

Publication Number Publication Date
DE69634247D1 DE69634247D1 (de) 2005-03-03
DE69634247T2 true DE69634247T2 (de) 2006-01-12

Family

ID=23707925

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69634247T Expired - Fee Related DE69634247T2 (de) 1995-04-27 1996-04-08 Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern

Country Status (5)

Country Link
US (1) US5761383A (de)
EP (1) EP0823090B1 (de)
JP (1) JP4142098B2 (de)
DE (1) DE69634247T2 (de)
WO (1) WO1996034344A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4170378A1 (de) * 2021-10-20 2023-04-26 Aptiv Technologies Limited Verfahren und systeme zur verarbeitung von radarsensordaten

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3751359B2 (ja) * 1996-03-21 2006-03-01 本田技研工業株式会社 振動騒音制御装置
GB9624298D0 (en) * 1996-11-22 1997-01-08 Univ Strathclyde Improved neural network
DE19706576A1 (de) * 1997-02-20 1998-08-27 Alsthom Cge Alcatel Vorrichtung und Verfahren zur umgebungsadaptiven Klassifikation von Objekten
US6351740B1 (en) * 1997-12-01 2002-02-26 The Board Of Trustees Of The Leland Stanford Junior University Method and system for training dynamic nonlinear adaptive filters which have embedded memory
JP3549720B2 (ja) * 1998-01-28 2004-08-04 シャープ株式会社 画像処理装置
US6269351B1 (en) * 1999-03-31 2001-07-31 Dryken Technologies, Inc. Method and system for training an artificial neural network
US6816847B1 (en) * 1999-09-23 2004-11-09 Microsoft Corporation computerized aesthetic judgment of images
US7185065B1 (en) * 2000-10-11 2007-02-27 Buzzmetrics Ltd System and method for scoring electronic messages
US7197470B1 (en) * 2000-10-11 2007-03-27 Buzzmetrics, Ltd. System and method for collection analysis of electronic discussion methods
US6996551B2 (en) * 2000-12-18 2006-02-07 International Business Machines Corporation Apparata, articles and methods for discovering partially periodic event patterns
US6480151B2 (en) 2000-12-29 2002-11-12 Lockheed Martin Corporation GPS receiver interference nuller with no satellite signal distortion
US20030028353A1 (en) * 2001-08-06 2003-02-06 Brian Gventer Production pattern-recognition artificial neural net (ANN) with event-response expert system (ES)--yieldshieldTM
US6583754B2 (en) * 2001-10-31 2003-06-24 Deere & Company Fast fourier transform signal processing method for doppler radar speed sensor
US7062498B2 (en) * 2001-11-02 2006-06-13 Thomson Legal Regulatory Global Ag Systems, methods, and software for classifying text from judicial opinions and other documents
US6961718B2 (en) * 2001-11-16 2005-11-01 Motorola, Inc. Vector estimation system, method and associated encoder
US6993478B2 (en) * 2001-12-28 2006-01-31 Motorola, Inc. Vector estimation system, method and associated encoder
US7103584B2 (en) * 2002-07-10 2006-09-05 Ricoh Company, Ltd. Adaptive mixture learning in a dynamic system
US20040068475A1 (en) * 2002-09-30 2004-04-08 Depold Hans R. Physics based neural network trend detector
JP4104425B2 (ja) * 2002-10-30 2008-06-18 本田技研工業株式会社 内燃機関の吸気管圧力予測方法および装置
WO2004053778A2 (en) * 2002-12-11 2004-06-24 Koninklijke Philips Electronics N.V. Computer vision system and method employing illumination invariant neural networks
US7496546B2 (en) * 2003-03-24 2009-02-24 Riken Interconnecting neural network system, interconnecting neural network structure construction method, self-organizing neural network structure construction method, and construction programs therefor
JP5197957B2 (ja) 2003-07-23 2013-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 個別の光源を複数備えた照明装置の制御システム
US7519604B2 (en) * 2003-08-29 2009-04-14 Nokia Corporation Troubleshooting engine and method for using same
EP1704499A1 (de) * 2003-12-31 2006-09-27 Thomson Global Resources AG Systeme, verfahren, programme für datenverarbeitungsanlagen und schnittstellen zur integration von rechtssprechung mit rechtlichen kurzmitteilungen, rechtsstreitdokumenten und/oder rechtsstreit unterstützenden dokumenten
US20050197981A1 (en) * 2004-01-20 2005-09-08 Bingham Clifton W. Method for identifying unanticipated changes in multi-dimensional data sets
US7725414B2 (en) * 2004-03-16 2010-05-25 Buzzmetrics, Ltd An Israel Corporation Method for developing a classifier for classifying communications
US9158855B2 (en) * 2005-06-16 2015-10-13 Buzzmetrics, Ltd Extracting structured data from weblogs
US20070100779A1 (en) * 2005-08-05 2007-05-03 Ori Levy Method and system for extracting web data
US20070256499A1 (en) * 2006-04-21 2007-11-08 Pelecanos Jason W Machine and operating environment diagnostics, detection and profiling using sound
US7660783B2 (en) 2006-09-27 2010-02-09 Buzzmetrics, Inc. System and method of ad-hoc analysis of data
US8347326B2 (en) 2007-12-18 2013-01-01 The Nielsen Company (US) Identifying key media events and modeling causal relationships between key events and reported feelings
US7652618B2 (en) 2008-02-15 2010-01-26 Deere & Company Method and system for determining velocity by using variable or distinct sampling rates
TW200951752A (en) * 2008-06-06 2009-12-16 Inotera Memories Inc A method for prognostic maintenance in semiconductor manufacturing
DE102009033614B4 (de) * 2009-07-17 2020-01-23 Wolfgang Klippel Anordnung und Verfahren zur Erkennung, Ortung und Klassifikation von Defekten
GB0916369D0 (en) * 2009-09-18 2009-10-28 Schrader Electronics Ltd Tracking filter apparatus for wheel monitoring systems
US8275727B2 (en) 2009-11-13 2012-09-25 International Business Machines Corporation Hardware analog-digital neural networks
TWI399563B (zh) * 2010-03-16 2013-06-21 Univ Nat Cheng Kung 馬達轉矩和轉速之估測系統與估測方法
US8874727B2 (en) 2010-05-31 2014-10-28 The Nielsen Company (Us), Llc Methods, apparatus, and articles of manufacture to rank users in an online social network
US10062378B1 (en) * 2017-02-24 2018-08-28 International Business Machines Corporation Sound identification utilizing periodic indications
DE102017219858A1 (de) * 2017-11-08 2019-05-09 Robert Bosch Gmbh Verfahren zum Betreiben eines Magnetfeldsensors und zugehörige Magnetfeldsensoranordnung
US11380422B2 (en) * 2018-03-26 2022-07-05 Uchicago Argonne, Llc Identification and assignment of rotational spectra using artificial neural networks
RU2731332C1 (ru) * 2020-01-16 2020-09-01 Акционерное общество "Концерн "Созвездие" Способ формирования порога решающего устройства на основе нейрорегулятора

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4885757A (en) * 1987-06-01 1989-12-05 Texas Instruments Incorporated Digital adaptive receiver employing maximum-likelihood sequence estimation with neural networks
US5133021A (en) * 1987-06-19 1992-07-21 Boston University System for self-organization of stable category recognition codes for analog input patterns
US5092343A (en) * 1988-02-17 1992-03-03 Wayne State University Waveform analysis apparatus and method using neural network techniques
US5003490A (en) * 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US5165069A (en) * 1990-07-30 1992-11-17 A. C. Nielsen Company Method and system for non-invasively identifying the operational status of a VCR
US5680627A (en) * 1991-02-15 1997-10-21 Texas Instruments Incorporated Method and apparatus for character preprocessing which translates textual description into numeric form for input to a neural network
US5467428A (en) * 1991-06-06 1995-11-14 Ulug; Mehmet E. Artificial neural network method and architecture adaptive signal filtering
US5263097A (en) * 1991-07-24 1993-11-16 Texas Instruments Incorporated Parameter normalized features for classification procedures, systems and methods
GB9116562D0 (en) * 1991-08-01 1991-09-18 British Textile Tech Sample evaluation
NL9101518A (nl) * 1991-09-09 1993-04-01 Hcs Ind Automation B V Fail-safe systeem met neuronaal netwerk.
US5402520A (en) * 1992-03-06 1995-03-28 Schnitta; Bonnie S. Neural network method and apparatus for retrieving signals embedded in noise and analyzing the retrieved signals
US5479572A (en) * 1992-06-17 1995-12-26 Siemens Corporate Research, Inc. Artificial neural network (ANN) classifier apparatus for selecting related computer routines and methods
US5386689A (en) * 1992-10-13 1995-02-07 Noises Off, Inc. Active gas turbine (jet) engine noise suppression
US5235339A (en) * 1992-11-13 1993-08-10 The United States Of America As Represented By The Secretary Of The Navy Radar target discrimination systems using artificial neural network topology
US5579232A (en) * 1993-03-29 1996-11-26 General Electric Company System and method including neural net for tool break detection
US5649065A (en) * 1993-05-28 1997-07-15 Maryland Technology Corporation Optimal filtering by neural networks with range extenders and/or reducers
US5533383A (en) * 1994-08-18 1996-07-09 General Electric Company Integrated acoustic leak detection processing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4170378A1 (de) * 2021-10-20 2023-04-26 Aptiv Technologies Limited Verfahren und systeme zur verarbeitung von radarsensordaten

Also Published As

Publication number Publication date
DE69634247D1 (de) 2005-03-03
EP0823090A1 (de) 1998-02-11
EP0823090A4 (de) 1999-12-22
WO1996034344A1 (en) 1996-10-31
JPH11504449A (ja) 1999-04-20
US5761383A (en) 1998-06-02
JP4142098B2 (ja) 2008-08-27
EP0823090B1 (de) 2005-01-26

Similar Documents

Publication Publication Date Title
DE69634247T2 (de) Klassifiziervorrichtung mit einem neuronalen Netz zum adaptiven Filtern
DE69619284T3 (de) Vorrichtung zur Erweiterung der Sprachbandbreite
DE202017102238U1 (de) Aktorsteuerungssystem
DE3938645C1 (de)
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
DE60225013T2 (de) Verfahren und schaltung zur echtzeit-frequenzanalyse eines nichtstationären signals
DE112020001369T5 (de) Gepulste synaptische elemente für gepulste neuronale netze
DE4328752A1 (de) Spracherkennungssystem
DE69815390T2 (de) Neuronale netzwerke
DE69820497T2 (de) Neuronales netzwerk und seine anwendung für die spracherkennung
DE3929481C2 (de)
EP0845686A2 (de) Verfahren und Vorrichtung zur automatischen Klassifikation von Objekten
DE102005039621A1 (de) Verfahren und Vorrichtung zur adaptiven Reduktion von Rausch- und Hintergrundsignalen in einem sprachverarbeitenden System
DE102015221764A1 (de) Verfahren zum Angleichen von Mikrofonempfindlichkeiten
DE10139682B4 (de) Verfahren zum Generieren von neuronalen Netzen
DE102015104726B3 (de) Verfahren und Vorrichtung zum Schätzen eines biologischen Parameters und zugehöriges Computerprogrammprodukt
DE4209296A1 (de) Wort- und wortkettenerkennungssystem auf der basis eines neuronalen netzes mit automatischer zellbildung und -komprimierung sowie nachlernverfahren
EP1458216A2 (de) Vorrichtung und Verfahren zur Adaption von Hörgerätemikrofonen
DE69729724T2 (de) Elektronisches warenüberwachungssystem mit kammfilterung durch mehrphasige zersetzung und nichtlineare filterung von untersequenzen
DE4212176A1 (de) Verfahren und vorrichtung zur reduzierung von schwingungen
EP0845685A2 (de) Vorrichtung und Verfahren zur automatischen Klassifikation von Objekten
EP1114398B1 (de) Verfahren zum trainieren eines neuronalen netzes, verfahren zur klassifikation einer folge von eingangsgrössen unter verwendung eines neuronalen netzes, neuronales netz und anordnung zum trainieren eines neuronalen netzes
EP0548127A1 (de) Neuronales Netzwerk und Schaltungsanordnung zur Bool&#39;schen Realisierung neuronaler Netze vom ADALINE-Typ.
DE4404775C1 (de) Verfahren zum Betrieb eines hybriden neuronalen Netzwerks zur automatischen Objekterkennung
EP4340227A1 (de) Verfahren zur rechnergestützten erzeugung eines datengetriebenen modells für die rechnergestützte verarbeitung von digitalen sar-rohdaten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee