DE4129561A1 - Informationsverarbeitungssystem - Google Patents

Informationsverarbeitungssystem

Info

Publication number
DE4129561A1
DE4129561A1 DE4129561A DE4129561A DE4129561A1 DE 4129561 A1 DE4129561 A1 DE 4129561A1 DE 4129561 A DE4129561 A DE 4129561A DE 4129561 A DE4129561 A DE 4129561A DE 4129561 A1 DE4129561 A1 DE 4129561A1
Authority
DE
Germany
Prior art keywords
pattern
information
associative
recognition device
pattern recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE4129561A
Other languages
English (en)
Other versions
DE4129561C2 (de
Inventor
Kazuo Kyuma
Shuichi Tai
Jun Ohta
Masaya Oita
Nagaaki Ohyama
Masahiro Yamaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE4129561A1 publication Critical patent/DE4129561A1/de
Application granted granted Critical
Publication of DE4129561C2 publication Critical patent/DE4129561C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Description

Die Erfindung betrifft ein Informationsverarbeitungs­ system nach dem Oberbegriff des Anspruchs 1.
Es wird angenommen, daß anstelle jedes Neurons im Gehirn eines Lebewesens, das ein bestimmtes Informa­ tionsstück festhält, eine große Anzahl von Neuronen in einer Gruppe zusammenwirkt, um gleichzeitig eine Vielzahl von Informationsstücken festzuhalten, der­ art, daß ein neurales Netzmodell aufgebaut wird. Es wird auch angenommen, daß im Verlauf einer im Gehirn eines Lebewesens durchgeführten Informationsverarbei­ tung ein jedem Neuron eingegebener anfänglicher Zu­ stand durch Kombinationsmuster beeinflußt wird, die durch gespeicherte Informationen gebildet werden zur freiwilligen Annäherung an einen stabilen Zustand (niedriger Energiezustand eines Systems), während eine gesamte Berechnung der Eingabe, ein Schwellwert­ prozeß und eine Rückkopplung wiederholt werden.
Es wird daher so verstanden, daß, wenn eine gespei­ cherte Information als vollständige Information ange­ sehen wird, und wenn ein bestimmtes Stück unvollstän­ diger Information jedem Neuron eingegeben wird, wie in Fig. 1 gezeigt ist, sich ein Neuron freiwillig einer gespeicherten Information annähert, die der eingegebenen am ähnlichsten ist. Nachdem das Neuron schließlich einen stabilen Zustand erreicht, wird der Zustand des Neurons in Form einer vollständigen In­ formation ausgegeben. Dies ist das Prinzip eines as­ soziativen Speichers basierend auf einem neuralen Netzmodell.
Im folgenden wird ein Beispiel einer assoziativen Speichereinheit (assoziativer Speicher) beschrieben, die durch ein Hopfield-Modell, eines der neutralen Netzmodelle, realisiert wird.
Fig. 2 zeigt die Struktur eines bekannten optischen assoziativen Speichers. Dieser ist offenbart in der Veröffentlichung "Material for a meeting for the stu­ dy of optical/quantum electronics OQE87-174", veröf­ fentlicht von "The Institute of Electronics, Informa­ tion and Communication Engineers", 1988.
Fig. 2 zeigt Lichtemissionselement-Anordnungen 11a und 11b, Fotomasken (optische Raummodulationselemen­ te) 12a und 12b, Lichtempfangselement-Anordnungen 13a und 13b, einen Differentialverstärker 14, einen Kom­ parator 15, eine Eingabeeinheit 16 und eine Ausgabe­ einheit 17.
Im folgenden wird die Arbeitsweise des assoziativen Speichers beschrieben. Lichtstrahlen von fächerförmi­ ger Gestalt werden von den Lichtemissions­ element-Anordnungen 11a und 11b zu den jeweiligen Fotomasken 12a und 12b gesandt. Wenn der Zustand jedes Licht­ emissionselements ausgedrückt wird durch
XK(K = 1, 2, . . . i, . . . j, . . . n),
und wenn XK entweder als "1" oder "0" in Abhängigkeit von dem Umstand, ob das betreffende Lichtemissions­ element leuchtet oder nicht, dargestellt wird, dann können die Zustände innerhalb der Lichtemissionsele­ ment-Anordnungen 11a und 11b wie folgt angegeben wer­ den:
X = (X1, X2, . . ., Xi, . . . Xj, . . . Xn),
worin X durch einen Vektor dargestellt wird und n die Anzahl der Elemente in den Lichtemissionselement- und Lichtempfangselement-Anordnungen ist, entsprechend der Anzahl Neuronen in diesem neuralen Netzwerk.
Jede der Fotomasken 12a und 12b ist in n x n Elemente unterteilt und so ausgebildet, daß die Lichtdurchläs­ sigkeit jedes Elements eigenständig geändert werden kann. Die Lichtdurchlässigkeit jedes Elements wird ausgedrückt durch eine Matrix
T = [Tÿ].
Die Zustände innerhalb der Lichtempfangselement-An­ ordnungen 13a und 13b können in gleicher Weise wie in den Vektoren X gegeben werden durch
U = (U1, U2, . . . Ui, . . . Uj, . . . Un).
Wenn das j-te Lichtemissionselement Licht auf die j-te Reihe der Fotomaske aussendet und das durch die i-te Spalte der Fotomaske durchgelassene Licht vom i-ten Lichtempfangselement empfangen wird, dann arbei­ tet das i-te Lichtempfangselement entsprechend, um eine Vektor/Matrix-Multiplikation durchzuführen, die durch die folgende Gleichung ausgedrückt wird:
Es wird angenommen, daß im neuralen Netzwerk die Kraft, die die jeweiligen Neuronen kombiniert, zur Speicherung der Information dient. In der obigen Struktur kann die Kombinationskraft durch die Durch­ lässigkeit T in jedem der n x n Elemente, in die die Fotomasken 12a und 12b unterteilt sind, realisiert werden. Mit anderen Worten ausgedrückt, speichert die Durchlässigkeit T der Fotomaske 12a und 12b die In­ formatin. Im nachfolgend beschriebenen Hopfield-Mo­ dell wird ein Informationsspeicher-Gesetz durch die folgende Gleichung gegeben:
worin N die gespeicherte Informationsmenge,
Tÿ = Tji und
Tii = O sind.
Obgleich Tÿ sowohl positive als auch negative Werte annehmen kann, ist es schwierig, für Tÿ optisch ne­ gative Werte anzunehmen. In diesem Ausführungsbei­ spiel werden daher, wie in Fig. 2 gezeigt ist, zwei optische Systeme ausgebildet, wobei das eine den Ele­ menten entspricht, die positive Werte Tÿ annehmen, und das andere den Elementen, die negative Werte Tÿ annehmen. Der Differentialverstärker 14 erzeugt eine Differenz zwischen den Ausgangssignalen der Lichtemp­ fangselement-Anordnungen 13a und 13b. Diese Differenz ist wie folgt gegeben:
Ui = Ui (+) - Ui (-)
Das vom Differentialverstärker 14 ausgegebene Signal wird vom Komparator 15 verarbeitet, um die folgende Schwellenwertoperation durchzuführen:
X1 = R (y)
worin R (y) = 1(y <0), 0 (y <0).
Das Ausgangssignal wird dann zu den Lichtempfangsele­ ment-Anordnungen 11a und 11b zurückgeführt.
Wenn beispielsweise drei verschiedene Informations­ zeichen, die "A", "J" und "E" entsprechen, in den Fotomasken 12a und 12b gespeichert sind, dann nähert sich bei dieser Ausbildung das Ausgangssignal dann, wenn eine unvollständige Information, zum Beispiel "A′" von der Eingabeeinheit 16 in die Lichtemissionselement-Anordnungen 11a und 11b einge­ geben wird, während die Rückführung wiederholt wird, einem gespeicherten Informationszeichen "A" an, das dem eingegebenen Informationszeichen "A′" am nächsten kommt. Schließlich wird das Ausgangssignal in Form eines vollständigen Zeichens "A" von der Ausgabeein­ heit 17 ausgegeben.
Der obige Vorgang kann unter Verwendung der zuvor erwähnten Begriffe beschrieben werden. Die Energie des Systems nimmt die Minimalwerte von gespeicherten Informationszeichen "A", "J" und "E" an. Wenn eine unvollständige Information zugeführt wird, dann wird der Ein/Aus-Zustand der Lichtemissionselement-Anord­ nungen 11a und 11b geändert, so daß der Minimalwert der Energie nahe der Lichtemissionselement-Anordnun­ gen angenommen wird. Diese Änderung bewirkt eine freiwillige Änderung des gesamten Systems, ähnlich der menschlichen assoziativen Funktion.
Gemäß dem so ausgebildeten konventionellen assoziati­ ven Speicher werden solche Ergebnisse nicht korri­ giert, selbst wenn ungeeignete Ergebnisse assoziiert werden. Mit anderen Worten, der konventionelle asso­ ziative Speicher ist nur mit Mustern von gespeicher­ ten Daten assoziiert, die am engsten mit der Einga­ beinformation korreliert ist, und kann daher keine Operation durchführen, die dem flexiblen Denken des menschlichen Gehirns entspricht, wodurch die Vielsei­ tigkeit des Speichers begrenzt ist.
Es ist daher die Aufgabe der vorliegenden Erfindung, dieses Problem zu lösen und ein Informationsverarbei­ tungssystem zu schaffen, in welchem Operationen ent­ sprechend dem menschlichen intuitiven Denken und dem menschlichen logischen Denken sich einander ergänzend kombiniert werden, und in welchem die Operation eines neuralen Netzwerks entsprechend dem menschlichen in­ tuitiven Denken und die eines im Serienbetrieb arbei­ tenden Computers (im folgenden "serieller Computer" bezeichnet) entsprechend dem menschlichen logischen Denken funktionell miteinander kombiniert werden.
Diese Aufgabe wird erfindungsgemäß gelöst durch die im kennzeichnenden Teil des Anspruchs 1 angegebenen Merkmale. Vorteilhafte Weiterbildungen des erfin­ dungsgemäßen Informationsverarbeitungssystems ergeben sich aus den Unteransprüchen.
Das Informationsverarbeitungssystem nach der Erfin­ dung ist fähig, eine Informationsverarbeitung zu realisieren, die sinnvoller ausgeführt ist als bei den bekannten Systemen, und deren Arbeitsweise der des menschlichen Gehirns so nahe wie möglich kommt. Bei dieser Informationsverarbeitung wird, wenn ein In­ formationsmuster eingegeben wird, ein dem intuitiven Denken entsprechendes Muster assoziiert und dann durch logisches Denken korrigiert.
Da die Funktion des assoziativen Speichers auf der Grundlage des neuralen Netzwerkes und die eines se­ riellen Computers miteinander kombiniert werden, kom­ pensieren diese bei dem System nach der Erfindung gegenseitig ihre jeweiligen funktionellen Unzuläng­ lichkeiten. Es ist daher möglich, eine Informations­ verarbeitung durchzuführen, die so flexibel wie die des menschlichen Gehirns ist.
Die Erfindung wird im folgenden anhand eines in den Figuren dargestellten Ausführungsbeispiels näher er­ läutert. Es zeigen:
Fig. 1 ein die Arbeitsweise eines neuralen Netzwerks erläuterndes Diagramm,
Fig. 2 die Struktur eines konventionellen assoziativen Speichers,
Fig. 3 ein Blockschaltbild, das die konzep­ tionelle Konfiguration eines Informa­ tionsverarbeitungssystems nach der Erfindung wiedergibt, und
Fig. 4 ein Blockschaltbild, das die detail­ lierte Konfiguration eines Informa­ tionsverarbeitungssystems nach der Erfindung wiedergibt.
In den Fig. 3 und 4 sind ein assoziativer Speicher 1 auf der Grundlage eines neuralen Netzwerks, ein se­ rieller Computer 2, in diesem eine Mustererkennungs­ einheit 2a, eine logische Verarbeitungseinheit 2b und eine Speichereinheit 2c, und zum assoziativen Spei­ cher 1 gesandtes Eingabemuster 3 gezeigt. Die Pfeile zwischen dem assoziativen Speicher 1, der Musterer­ kennungseinheit 2a, der logischen Verarbeitungsein­ heit 2b und der Speichereinheit 2c zeigen jeweils den Informationsfluß an. Der Pfeil 4 kennzeichnet ein assoziiertes Ausgangssignal des assoziativen Spei­ chers 1 und der Pfeil 5 eine Rückkopplung vom seriel­ len Computer 2 zum assoziativen Speicher 1, wobei das Rückkopplungs-Eingangssignal einen Assoziations-Wie­ derholungsbefehl und Informationen zur Korrektur ei­ ner Energiefunktion umfaßt. Der Pfeil 5a kennzeichnet eine Rückkopplung von der Mustererkennungseinheit 2a zum assoziativen Speicher 1 und der Pfeil 5b eine Rückkopplung von der logischen Verarbeitungseinheit 2b zum assoziativen Speicher 1. Der Pfeil 6a bedeutet das Verarbeitungs-Ausgangssignal von der Mustererken­ nungseinheit 2a und der Pfeil 6b ein "Verarbeitung nicht möglich" - Ausgangssignal von der Mustererken­ nungseinheit 2a. Der Pfeil 7 kennzeichnet das Verar­ beitungs-Ausgangssignal des seriellen Computers 2, wobei der Pfeil 7a das endgültige Verarbeitungs-Aus­ gangssignal und der Pfeil 7b ein "Verarbeitung nicht möglich"-Ausgangssignal des seriellen Computers 2 darstellen.
Die Arbeitsweise des Informationsverarbeitungssystems wird nachfolgend beschrieben.
In Fig. 3 wird das Eingabemuster 3 mit dem assoziati­ ven Speicher 1 assoziiert und dann bewertet der se­ rielle Computer 2 das assoziierte Ausgangssignal (Pfeil 4). Auf der Grundlage des Ergebnisses der Be­ wertung werden assoziative und restriktive Bedingun­ gen zu der Energiefunktion eines neuralen Netzwerks addiert, wie gefordert, den assoziativen Speicher 1 bildend, und werden dann zusammen mit dem Assozia­ tions-Wiederholungsbefehl entsprechend dem Pfeil 5 zum assoziativen Speicher 1 zurückgeführt. Die Asso­ ziation und Bewertung werden wiederholt, bis sich das assoziierte Ausgangssignal (Pfeil 4) annähert. Das so erhaltene angenäherte assoziierte Ausgangssignal wird identifiziert mit der und bewertet durch die Nach­ richteninformation im seriellen Computer 2. Auf der Grundlage der Ergebnisse der Identifikation und Be­ wertung werden die assoziativen und restriktiven Be­ dingungen erneut zu der Energiefunktion des neuralen Netzwerks addiert, wie gefordert, und werden dann zusammen mit dem Assoziations-Wiederholungsbefehl zum assoziativen Speicher 1 zurückgeführt. Das Eingabemu­ ster 3 wird wiederholt mit dem assoziativen Speicher 1 assoziiert und wird bewertet durch die sowie iden­ tifiziert mit der Nachrichteninformation im seriellen Computer 2, bis es dieser entspricht. Die der Nach­ richteninformation im seriellen Computer 2 entspre­ chenden Informationen bilden das Verarbeitungs-Aus­ gangssignal (Pfeil 7) des Informationsverarbeitungs­ systems.
Das Informationsverarbeitungssystem wird nun im ein­ zelnen anhand von Fig. 4 bei der Anwendung eines Zei­ chenerkennungsfalles erläutert.
In diesem Ausführungsbeispiel wird der Zeichenerken­ nungsfall in bezug auf das vorerwähnte Hopfield-Mo­ dell beschrieben, das eines der neuralen Netzmodelle ist.
Für die folgende Erklärung wird angenommen, daß ein Zeichenmuster handgeschrieben oder eine gestörte Zei­ chenfolge ist, und daß das Alphabet und verschiedene Symbole im assoziativen Speicher 1 gespeichert sind. Es wird auch angenommen, daß alphabetische Buchstaben von "A" bis "Z" und Symbole auch in der Mustererken­ nungseinheit 2a und Informationen betreffend die Zei­ chenfolgen in der Speichereinheit 2c gespeichert sind, und daß die Informationen über die Zeichenfol­ gen eine Zeichenfolge "CAT", nicht jedoch eine Zei­ chenfolge "CAE" enthalten.
Zuerst wird das aus drei Buchstaben "CAT" bestehende Eingabemuster 3 in den assoziativen Speicher 1 einge­ geben. Als Ergebnis dieser Eingabeoperation wird an­ genommen, daß das assoziierte Ausgangssignal (Pfeil 5) bestehend aus "CA′E" vom assoziativen Speicher 1 erhalten wird. Das assoziative Ausgangssignal wird dann in den seriellen Computer 2 eingegeben, so daß die Mustererkennungseinheit 2a in diesem bewertet, ob "CA′E" korrekte Buchstaben sind. Da die Buchstaben "C" und "E" des Zeichens "CA′E" mit dem Zeichenmuster der Mustererkennungseinheit 2a übereinstimmen, ist es für diese beiden Buchstaben nicht erforderlich, daß sie weiterhin mit dem assoziativen Speicher 1 assozi­ iert werden. Da demgegenüber "A′" nicht mit dem Zei­ chenmuster der Mustererkennungseinheit 2a überein­ stimmt, wird die Energiefunktion des neuralen Netz­ werks, den assoziativen Speicher 1 bildend, verbes­ sert, wodurch "A′" wieder mit dem assoziativen Spei­ cher 1 assoziiert wird. Eine derartige Operation wird wiederholt, bis "A′" mit dem Zeichenmuster der Mu­ stererkennungseinheit 2a übereinstimmt, und somit wird schließlich angenommen, daß "A′" korrekt als "A" erkannt wird. Wenn "A′" sich nicht dem Zeichenmuster der Mustererkennungseinheit 2a anpassen kann, nachdem es eine vorbestimmte Anzahl von Malen mit dem asso­ ziativen Speicher 1 assoziiert wurde, wird das "Ver­ arbeitung nicht möglich"-Ausgangssignal (Pfeil 6b) von der Einheit 2a ausgegeben.
Als nächstes, was das Ausgangssignal der Mustererken­ nungseinheit 2a, d. h. die Zeichenfolge "CAE" anbe­ langt, wird die logische Verarbeitungseinheit 2b ver­ wendet zur Bestimmung, ob ein Wort "CAE" in der Speichereinheit 2e gespeichert ist. Da in diesem Fall das Wort "CAE" nicht in der Speichereinheit 2c ge­ speichert ist, wird die Energiefunktion des assozia­ tiven Speichers 1 wieder verbessert, und somit wird das Eingabezeichenmuster wieder mit dem assoziativen Speicher 1 assoziiert. Als Ergebnis dieser Operation wird, da ein Zeichenmuster "CAT" in der Speicherein­ heit 2c gespeichert ist, das assoziierte Zeichenmu­ ster "CAT" als ein korrektes Muster angesehen, das dann von der logischen Verarbeitungseinheit 2b als System-Ausgangssignal (Pfeil 7a) ausgegeben wird. Schließlich wird, wenn die vorbeschriebenen Verarbei­ tungen durchgeführt werden und das Ausgangssignal (Pfeil 4) nicht mit der in der Speichereinheit 2c gespeicherten Nachrichteninformation übereinstimmt, das "Verarbeitung nicht möglich"-Ausgangssignal (Pfeil 7b) von der logischen Verarbeitungseinheit 2b ausgegeben.
Wie vorbeschrieben wurde, ist es möglich, durch Stör­ signale beeinträchtigte komplexe Zeichenfolgen kor­ rekt zu erkennen oder Wörter zu erkennen durch Wie­ derholung der Operation, bei der das Zeichenmuster assoziiert wird; das assoziierte Ausgangssignal wird bewertet; das Zeichenmuster wird wieder assoziiert; die Zeichenfolge wird verglichen und bewertet; und das Zeichenmuster wird wieder assoziiert.
Die Energiefunktion E im Hopfield-Modell wird durch die folgende Gleichung ausgedrückt:
worin Tÿ das Gewicht der Verbindung zwischen dem i-ten Neuron und dem j-ten Neuron,
Vi den Zustand des i-ten Neurons, und
Ii ein externes Eingangssignal oder einen Schwellen­ wert in bezug auf das i-te Neuron darstellen.
Eine hinzugefügte restriktive Bedingung wird in die obige Gleichung eingefügt:
worin Δi ein von außen veränderbarer Faktor ist.
Wenn das k-te Neuron als Beispiel genommen wird und sein Zustand sich wie folgt verändert:
Vk → V′k,
dann wird die Energieänderung ΔEk folgendermaßen aus­ gedrückt:
worin:
Tji = 0
TÿViVj = TjiVjVi
ΔVk = V′k - Vk
  • 1) mit Bezug auf ein Muster V(a), das nicht erkannt werden kann, kann Δk den folgenden Wert annehmen: Δk = c · V(a),worin c eine Konstante ist.
  • 2) mit Bezug auf ein Muster V(p) das nicht in der Speichereinheit 2c enthalten ist, kann Δk den folgenden Wert annehmen: worin:c(m) = (V(p)V(m))2/100;
    V(m)(m = 1, 2, . . . M) ein in der Speichereinheit 2c gespeichertes Muster, und
    M die Anzahl von Mustern in der Speichereinheit 2c darstellen.
Die obige restriktive Bedingung erhöht die Energie fehlerhafter Muster und entspricht einer Erschwerung der Assoziierung für das Muster. Ein Verfahren zur Einführung einer restriktiven Bedingung ist nicht auf das vorbeschriebene Verfahren begrenzt. Andere Ver­ fahren, zum Beispiel eines, durch welches die Erzeu­ gung richtiger Muster wahrscheinlich ist, oder eines, das unrichtige Muster mit richtigen Mustern kombi­ niert, können ebenfalls angewendet werden.
Das beschriebene Ausführungsbeispiel zeigt ein Infor­ mationsverarbeitungssystem unter Verwendung des neu­ ralen Netzwerks des Hopfield-Modells als einem asso­ ziativen Speicher. Jedoch können ein mehrschichtig strukturiertes neurales Netzwerk auf der Grundlage eines Rückwärtsfortpflanzung-Neigungsgesetzes oder dergleichen und neurale Modelle wie eine Boltzmann- Maschine ebenfalls durch Definition einer geeigneten Energiefunktion eingesetzt werden.
Es ist auch möglich, eine neurales Netzwerk als asso­ ziativen Speicher zu verwenden, der durch ein opti­ sches neurales Netzwerk oder einen Si-LSI realisiert wird. Es ist selbstverständlich, daß ein auf einer Simulation basierender assoziativer Speicher unter Verwendung eines seriellen Computers ebenfalls einge­ setzt werden kann.
Obwohl im obigen Ausführungsbeispiel die Zeichener­ kennung als das Ziel des Informationsverarbeitungs­ systems beschrieben wurde, ist offensichtlich, daß die Erfindung auch für eine Spracherkennung, Muster­ erkennung von Bildern und dergleichen angewendet wer­ den kann.

Claims (4)

1. Informationsverarbeitungssystem, das einen Com­ puter mit serieller Verarbeitung verwendet, gekennzeichnet durch,
eine assoziative Speichervorrichtung (1), die ein neurales Netzwerk für die Ausgabe eines as­ soziativen Musters in Abhängigkeit von einer Eingabemuster-Information aufweist,
eine Mustererkennungsvorrichtung (2a) zur Bewer­ tung, ob das ausgegebene assoziative Muster eine korrekte Musterinformation darstellt,
eine Vorrichtung für die wiederholte Addition einer assoziativen und restriktiven Bedingung zu einer Energiefunktion des neuralen Netzwerks und zur Annäherung des ausgegebenen assoziativen Musters an die korrekte Musterinformation, wenn das assoziative Muster nicht mit dieser überein­ stimmt,
eine Speichervorrichtung (2c) zum Speichern ei­ ner Nachrichteninformation, und eine logische Verarbeitungsvorrichtung (2b) für den Vergleich des angenäherten assoziativen Mu­ sters mit der Nachrichteninformation und, falls diese nicht miteinander übereinstimmen, für die wiederholte Addition der assoziativen und re­ striktiven Bedingung zu der Energiefunktion des neutralen Netzwerks, um das angenäherte assozia­ tive Muster mit der Nachrichteninformation in Übereinstimmung zu bringen.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß die Mustererkennungsvorrichtung (2a) eine Zeichenmuster-Erkennungsvorrichtung ist.
3. System nach Anspruch 1, dadurch gekennzeichnet, daß die Mustererkennungsvorrichtung (2a) eine Sprachmuster-Erkennungsvorrichtung ist.
4. System nach Anspruch 1, dadurch gekennzeichnet, daß die Mustererkennungsvorrichtung (2a) eine Bildmuster-Erkennungsvorrichtung ist.
DE4129561A 1990-09-26 1991-09-03 Informationsverarbeitungssystem Expired - Fee Related DE4129561C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2259332A JP2760145B2 (ja) 1990-09-26 1990-09-26 知識情報処理装置

Publications (2)

Publication Number Publication Date
DE4129561A1 true DE4129561A1 (de) 1992-04-09
DE4129561C2 DE4129561C2 (de) 1995-08-10

Family

ID=17332630

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4129561A Expired - Fee Related DE4129561C2 (de) 1990-09-26 1991-09-03 Informationsverarbeitungssystem

Country Status (3)

Country Link
US (2) US5257343A (de)
JP (1) JP2760145B2 (de)
DE (1) DE4129561C2 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3171897B2 (ja) * 1992-01-07 2001-06-04 三菱電機株式会社 知識情報処理装置
JP3364242B2 (ja) * 1992-07-03 2003-01-08 株式会社東芝 人工的神経回路網のリンク学習装置
JP3037432B2 (ja) * 1993-11-01 2000-04-24 カドラックス・インク 光波オーブンによる食物調理方法および調理装置
US5579440A (en) * 1993-11-22 1996-11-26 Brown; Robert A. Machine that learns what it actually does
US5608843A (en) * 1994-08-01 1997-03-04 The United States Of America As Represented By The Secretary Of The Air Force Learning controller with advantage updating algorithm
US5946673A (en) * 1996-07-12 1999-08-31 Francone; Frank D. Computer implemented machine learning and control system
FI103304B (fi) * 1997-03-26 1999-05-31 Nokia Oy Ab Assosiatiivinen neuroni
US6917925B2 (en) * 2001-03-30 2005-07-12 Intelligent Inference Systems Corporation Convergent actor critic-based fuzzy reinforcement learning apparatus and method
US6662091B2 (en) 2001-06-29 2003-12-09 Battelle Memorial Institute Diagnostics/prognostics using wireless links
CA2452376A1 (en) 2001-07-02 2003-01-16 Battelle Memorial Institute Intelligent microsensor module
US7577631B2 (en) * 2001-09-10 2009-08-18 Feldhake Michael J Cognitive image filtering
US10417554B2 (en) * 2014-05-22 2019-09-17 Lee J. Scheffler Methods and systems for neural and cognitive processing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0294116A2 (de) * 1987-06-01 1988-12-07 Texas Instruments Incorporated Digitaler adaptiver Empfänger, der die Maximalwahrscheinlichkeitssequenz-Bewertung mit Hilfe von Neuronen-Netzwerken benutzt
DE3922129A1 (de) * 1988-07-05 1990-01-11 Mitsubishi Electric Corp Neurocomputer

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4937873A (en) * 1985-03-18 1990-06-26 Massachusetts Institute Of Technology Computationally efficient sine wave synthesis for acoustic waveform processing
US4773024A (en) * 1986-06-03 1988-09-20 Synaptics, Inc. Brain emulation circuit with reduced confusion
US4807168A (en) * 1987-06-10 1989-02-21 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Hybrid analog-digital associative neural network
US4906940A (en) * 1987-08-24 1990-03-06 Science Applications International Corporation Process and apparatus for the automatic detection and extraction of features in images and displays
FR2625347B1 (fr) * 1987-12-23 1990-05-04 Labo Electronique Physique Structure de reseau de neurones et circuit et arrangement de reseaux de neurones
EP0366804B1 (de) * 1988-03-25 1997-12-10 Hitachi, Ltd. Verfahren zum erkennen von bildstrukturen
US5129058A (en) * 1988-07-06 1992-07-07 Ricoh Company, Ltd. Parallel optical image processing system
JP2764277B2 (ja) * 1988-09-07 1998-06-11 株式会社日立製作所 音声認識装置
US4933872A (en) * 1988-11-15 1990-06-12 Eastman Kodak Company Method and system for wavefront reconstruction
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
JP2679738B2 (ja) * 1989-03-01 1997-11-19 富士通株式会社 ニューロコンピュータにおける学習処理方式
US4945494A (en) * 1989-03-02 1990-07-31 Texas Instruments Incorporated Neural network and system
JP2752442B2 (ja) * 1989-06-28 1998-05-18 三菱電機株式会社 視覚情報処理素子
US5067164A (en) * 1989-11-30 1991-11-19 At&T Bell Laboratories Hierarchical constrained automatic learning neural network for character recognition
US5048097A (en) * 1990-02-02 1991-09-10 Eastman Kodak Company Optical character recognition neural network system for machine-printed characters
US5129041A (en) * 1990-06-08 1992-07-07 Grumman Aerospace Corporation Optical neural network processing element with multiple holographic element interconnects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0294116A2 (de) * 1987-06-01 1988-12-07 Texas Instruments Incorporated Digitaler adaptiver Empfänger, der die Maximalwahrscheinlichkeitssequenz-Bewertung mit Hilfe von Neuronen-Netzwerken benutzt
DE3922129A1 (de) * 1988-07-05 1990-01-11 Mitsubishi Electric Corp Neurocomputer

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FARHAT u.a.: "Optical implementation of the Hopfield model", in Applied Optics, 15. Mai 1985, Vol. 24, Nr. 10, S. 1469-1475 *
HOPFIELD, J.J.: "Neural networks and physical systems with emergent collective computational abilities" in Proc.Natl.Acad.Sci., Vol. 79, April 1982, S. 2554-2558 *

Also Published As

Publication number Publication date
DE4129561C2 (de) 1995-08-10
JPH04134556A (ja) 1992-05-08
US5257343A (en) 1993-10-26
US5479569A (en) 1995-12-26
JP2760145B2 (ja) 1998-05-28

Similar Documents

Publication Publication Date Title
DE3801380C2 (de)
DE2801536C2 (de) Zeichenformkodiervorrichtung
DE2554442C2 (de) Vorrichtung zum Vergleich logischer Größen mit einer Gruppe logischer Bezugsgrößen
DE2431451C3 (de) Verfahren zur Normierung der Strichstärke von abgetasteten Schriftzeichen sowie Einrichtung zur Durchführung des Verfahrens
DE2424820C3 (de) Einrichtung zur Durchsuchung eines Datenspeichers
DE4129561C2 (de) Informationsverarbeitungssystem
DE4042139A1 (de) Neuron-einheit, neuronales netz und signalverarbeitungsverfahren
DE2060635A1 (de) Rechner-Steuergeraet sowie Verfahren und Steuerpult zum Programmieren desselben
DE3503119A1 (de) Verfahren zum automatischen erzeugen eines quellenprogramms
DE3832440A1 (de) Testschaltungseinrichtung
DE102019209560A1 (de) Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks
DE3708288A1 (de) Verfahren zur verringerung der datenmenge bei der bildkodierung
DE1213651B (de) Verfahren und Anordnung zur Identifizierung von Informationen
AT223668B (de) Verfahren und Schaltungsanordnung zur automatischen Erkennung von Schriftzeichen
EP0901658A1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
DE2743575A1 (de) Verfahren und einrichtung zur multiplikation einer ersten zahl mit einer zweiten zahl
DE4121453C2 (de) Näherungsschlußfolgerungsvorrichtung
DE4210109C2 (de) Sortiervorrichtung zum Sortieren von Daten und Sortierverfahren
DE112020005613T5 (de) Neuromorphe Einheit mit Kreuzschienen-Array-Struktur
DE2235802C2 (de) Verfahren und Einrichtung zur Prüfung nichtlinearer Schaltkreise
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE19650291A1 (de) Abtast-Testgerät
EP0206214B1 (de) Verfahren zur einheitlichen symbolischen Beschreibung von Dokumentenmustern in Form von Datenstrukturen in einem Automaten
DE69910566T2 (de) Elektronische integrierte Schaltung mit Trimmmittel und Verfahren dafür
DD294115A5 (de) Vorrichtung und verfahren zur signalverarbeitung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8339 Ceased/non-payment of the annual fee