DE4129561A1 - Informationsverarbeitungssystem - Google Patents
InformationsverarbeitungssystemInfo
- Publication number
- DE4129561A1 DE4129561A1 DE4129561A DE4129561A DE4129561A1 DE 4129561 A1 DE4129561 A1 DE 4129561A1 DE 4129561 A DE4129561 A DE 4129561A DE 4129561 A DE4129561 A DE 4129561A DE 4129561 A1 DE4129561 A1 DE 4129561A1
- Authority
- DE
- Germany
- Prior art keywords
- pattern
- information
- associative
- recognition device
- pattern recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
Description
Die Erfindung betrifft ein Informationsverarbeitungs
system nach dem Oberbegriff des Anspruchs 1.
Es wird angenommen, daß anstelle jedes Neurons im
Gehirn eines Lebewesens, das ein bestimmtes Informa
tionsstück festhält, eine große Anzahl von Neuronen
in einer Gruppe zusammenwirkt, um gleichzeitig eine
Vielzahl von Informationsstücken festzuhalten, der
art, daß ein neurales Netzmodell aufgebaut wird. Es
wird auch angenommen, daß im Verlauf einer im Gehirn
eines Lebewesens durchgeführten Informationsverarbei
tung ein jedem Neuron eingegebener anfänglicher Zu
stand durch Kombinationsmuster beeinflußt wird, die
durch gespeicherte Informationen gebildet werden zur
freiwilligen Annäherung an einen stabilen Zustand
(niedriger Energiezustand eines Systems), während
eine gesamte Berechnung der Eingabe, ein Schwellwert
prozeß und eine Rückkopplung wiederholt werden.
Es wird daher so verstanden, daß, wenn eine gespei
cherte Information als vollständige Information ange
sehen wird, und wenn ein bestimmtes Stück unvollstän
diger Information jedem Neuron eingegeben wird, wie
in Fig. 1 gezeigt ist, sich ein Neuron freiwillig
einer gespeicherten Information annähert, die der
eingegebenen am ähnlichsten ist. Nachdem das Neuron
schließlich einen stabilen Zustand erreicht, wird der
Zustand des Neurons in Form einer vollständigen In
formation ausgegeben. Dies ist das Prinzip eines as
soziativen Speichers basierend auf einem neuralen
Netzmodell.
Im folgenden wird ein Beispiel einer assoziativen
Speichereinheit (assoziativer Speicher) beschrieben,
die durch ein Hopfield-Modell, eines der neutralen
Netzmodelle, realisiert wird.
Fig. 2 zeigt die Struktur eines bekannten optischen
assoziativen Speichers. Dieser ist offenbart in der
Veröffentlichung "Material for a meeting for the stu
dy of optical/quantum electronics OQE87-174", veröf
fentlicht von "The Institute of Electronics, Informa
tion and Communication Engineers", 1988.
Fig. 2 zeigt Lichtemissionselement-Anordnungen 11a
und 11b, Fotomasken (optische Raummodulationselemen
te) 12a und 12b, Lichtempfangselement-Anordnungen 13a
und 13b, einen Differentialverstärker 14, einen Kom
parator 15, eine Eingabeeinheit 16 und eine Ausgabe
einheit 17.
Im folgenden wird die Arbeitsweise des assoziativen
Speichers beschrieben. Lichtstrahlen von fächerförmi
ger Gestalt werden von den Lichtemissions
element-Anordnungen 11a und 11b zu den jeweiligen Fotomasken
12a und 12b gesandt. Wenn der Zustand jedes Licht
emissionselements ausgedrückt wird durch
XK(K = 1, 2, . . . i, . . . j, . . . n),
und wenn XK entweder als "1" oder "0" in Abhängigkeit
von dem Umstand, ob das betreffende Lichtemissions
element leuchtet oder nicht, dargestellt wird, dann
können die Zustände innerhalb der Lichtemissionsele
ment-Anordnungen 11a und 11b wie folgt angegeben wer
den:
X = (X1, X2, . . ., Xi, . . . Xj, . . . Xn),
worin X durch einen Vektor dargestellt wird und n die
Anzahl der Elemente in den Lichtemissionselement- und
Lichtempfangselement-Anordnungen ist, entsprechend
der Anzahl Neuronen in diesem neuralen Netzwerk.
Jede der Fotomasken 12a und 12b ist in n x n Elemente
unterteilt und so ausgebildet, daß die Lichtdurchläs
sigkeit jedes Elements eigenständig geändert werden
kann. Die Lichtdurchlässigkeit jedes Elements wird
ausgedrückt durch eine Matrix
T = [Tÿ].
Die Zustände innerhalb der Lichtempfangselement-An
ordnungen 13a und 13b können in gleicher Weise wie in
den Vektoren X gegeben werden durch
U = (U1, U2, . . . Ui, . . . Uj, . . . Un).
Wenn das j-te Lichtemissionselement Licht auf die j-te
Reihe der Fotomaske aussendet und das durch die i-te
Spalte der Fotomaske durchgelassene Licht vom i-ten
Lichtempfangselement empfangen wird, dann arbei
tet das i-te Lichtempfangselement entsprechend, um
eine Vektor/Matrix-Multiplikation durchzuführen, die
durch die folgende Gleichung ausgedrückt wird:
Es wird angenommen, daß im neuralen Netzwerk die
Kraft, die die jeweiligen Neuronen kombiniert, zur
Speicherung der Information dient. In der obigen
Struktur kann die Kombinationskraft durch die Durch
lässigkeit T in jedem der n x n Elemente, in die die
Fotomasken 12a und 12b unterteilt sind, realisiert
werden. Mit anderen Worten ausgedrückt, speichert die
Durchlässigkeit T der Fotomaske 12a und 12b die In
formatin. Im nachfolgend beschriebenen Hopfield-Mo
dell wird ein Informationsspeicher-Gesetz durch die
folgende Gleichung gegeben:
worin N die gespeicherte Informationsmenge,
Tÿ = Tji und
Tii = O sind.
Tii = O sind.
Obgleich Tÿ sowohl positive als auch negative Werte
annehmen kann, ist es schwierig, für Tÿ optisch ne
gative Werte anzunehmen. In diesem Ausführungsbei
spiel werden daher, wie in Fig. 2 gezeigt ist, zwei
optische Systeme ausgebildet, wobei das eine den Ele
menten entspricht, die positive Werte Tÿ annehmen,
und das andere den Elementen, die negative Werte Tÿ
annehmen. Der Differentialverstärker 14 erzeugt eine
Differenz zwischen den Ausgangssignalen der Lichtemp
fangselement-Anordnungen 13a und 13b. Diese Differenz
ist wie folgt gegeben:
Ui = Ui (+) - Ui (-)
Das vom Differentialverstärker 14 ausgegebene Signal
wird vom Komparator 15 verarbeitet, um die folgende
Schwellenwertoperation durchzuführen:
X1 = R (y)
worin R (y) = 1(y <0), 0 (y <0).
worin R (y) = 1(y <0), 0 (y <0).
Das Ausgangssignal wird dann zu den Lichtempfangsele
ment-Anordnungen 11a und 11b zurückgeführt.
Wenn beispielsweise drei verschiedene Informations
zeichen, die "A", "J" und "E" entsprechen, in den
Fotomasken 12a und 12b gespeichert sind, dann nähert
sich bei dieser Ausbildung das Ausgangssignal dann,
wenn eine unvollständige Information, zum Beispiel
"A′" von der Eingabeeinheit 16 in die
Lichtemissionselement-Anordnungen 11a und 11b einge
geben wird, während die Rückführung wiederholt wird,
einem gespeicherten Informationszeichen "A" an, das
dem eingegebenen Informationszeichen "A′" am nächsten
kommt. Schließlich wird das Ausgangssignal in Form
eines vollständigen Zeichens "A" von der Ausgabeein
heit 17 ausgegeben.
Der obige Vorgang kann unter Verwendung der zuvor
erwähnten Begriffe beschrieben werden. Die Energie
des Systems nimmt die Minimalwerte von gespeicherten
Informationszeichen "A", "J" und "E" an. Wenn eine
unvollständige Information zugeführt wird, dann wird
der Ein/Aus-Zustand der Lichtemissionselement-Anord
nungen 11a und 11b geändert, so daß der Minimalwert
der Energie nahe der Lichtemissionselement-Anordnun
gen angenommen wird. Diese Änderung bewirkt eine
freiwillige Änderung des gesamten Systems, ähnlich
der menschlichen assoziativen Funktion.
Gemäß dem so ausgebildeten konventionellen assoziati
ven Speicher werden solche Ergebnisse nicht korri
giert, selbst wenn ungeeignete Ergebnisse assoziiert
werden. Mit anderen Worten, der konventionelle asso
ziative Speicher ist nur mit Mustern von gespeicher
ten Daten assoziiert, die am engsten mit der Einga
beinformation korreliert ist, und kann daher keine
Operation durchführen, die dem flexiblen Denken des
menschlichen Gehirns entspricht, wodurch die Vielsei
tigkeit des Speichers begrenzt ist.
Es ist daher die Aufgabe der vorliegenden Erfindung,
dieses Problem zu lösen und ein Informationsverarbei
tungssystem zu schaffen, in welchem Operationen ent
sprechend dem menschlichen intuitiven Denken und dem
menschlichen logischen Denken sich einander ergänzend
kombiniert werden, und in welchem die Operation eines
neuralen Netzwerks entsprechend dem menschlichen in
tuitiven Denken und die eines im Serienbetrieb arbei
tenden Computers (im folgenden "serieller Computer"
bezeichnet) entsprechend dem menschlichen logischen
Denken funktionell miteinander kombiniert werden.
Diese Aufgabe wird erfindungsgemäß gelöst durch die
im kennzeichnenden Teil des Anspruchs 1 angegebenen
Merkmale. Vorteilhafte Weiterbildungen des erfin
dungsgemäßen Informationsverarbeitungssystems ergeben
sich aus den Unteransprüchen.
Das Informationsverarbeitungssystem nach der Erfin
dung ist fähig, eine Informationsverarbeitung zu
realisieren, die sinnvoller ausgeführt ist als bei den
bekannten Systemen, und deren Arbeitsweise der des
menschlichen Gehirns so nahe wie möglich kommt. Bei
dieser Informationsverarbeitung wird, wenn ein In
formationsmuster eingegeben wird, ein dem intuitiven
Denken entsprechendes Muster assoziiert und dann
durch logisches Denken korrigiert.
Da die Funktion des assoziativen Speichers auf der
Grundlage des neuralen Netzwerkes und die eines se
riellen Computers miteinander kombiniert werden, kom
pensieren diese bei dem System nach der Erfindung
gegenseitig ihre jeweiligen funktionellen Unzuläng
lichkeiten. Es ist daher möglich, eine Informations
verarbeitung durchzuführen, die so flexibel wie die
des menschlichen Gehirns ist.
Die Erfindung wird im folgenden anhand eines in den
Figuren dargestellten Ausführungsbeispiels näher er
läutert. Es zeigen:
Fig. 1 ein die Arbeitsweise eines neuralen
Netzwerks erläuterndes Diagramm,
Fig. 2 die Struktur eines konventionellen
assoziativen Speichers,
Fig. 3 ein Blockschaltbild, das die konzep
tionelle Konfiguration eines Informa
tionsverarbeitungssystems nach der
Erfindung wiedergibt, und
Fig. 4 ein Blockschaltbild, das die detail
lierte Konfiguration eines Informa
tionsverarbeitungssystems nach der
Erfindung wiedergibt.
In den Fig. 3 und 4 sind ein assoziativer Speicher 1
auf der Grundlage eines neuralen Netzwerks, ein se
rieller Computer 2, in diesem eine Mustererkennungs
einheit 2a, eine logische Verarbeitungseinheit 2b und
eine Speichereinheit 2c, und zum assoziativen Spei
cher 1 gesandtes Eingabemuster 3 gezeigt. Die Pfeile
zwischen dem assoziativen Speicher 1, der Musterer
kennungseinheit 2a, der logischen Verarbeitungsein
heit 2b und der Speichereinheit 2c zeigen jeweils den
Informationsfluß an. Der Pfeil 4 kennzeichnet ein
assoziiertes Ausgangssignal des assoziativen Spei
chers 1 und der Pfeil 5 eine Rückkopplung vom seriel
len Computer 2 zum assoziativen Speicher 1, wobei das
Rückkopplungs-Eingangssignal einen Assoziations-Wie
derholungsbefehl und Informationen zur Korrektur ei
ner Energiefunktion umfaßt. Der Pfeil 5a kennzeichnet
eine Rückkopplung von der Mustererkennungseinheit 2a
zum assoziativen Speicher 1 und der Pfeil 5b eine
Rückkopplung von der logischen Verarbeitungseinheit
2b zum assoziativen Speicher 1. Der Pfeil 6a bedeutet
das Verarbeitungs-Ausgangssignal von der Mustererken
nungseinheit 2a und der Pfeil 6b ein "Verarbeitung
nicht möglich" - Ausgangssignal von der Mustererken
nungseinheit 2a. Der Pfeil 7 kennzeichnet das Verar
beitungs-Ausgangssignal des seriellen Computers 2,
wobei der Pfeil 7a das endgültige Verarbeitungs-Aus
gangssignal und der Pfeil 7b ein "Verarbeitung nicht
möglich"-Ausgangssignal des seriellen Computers 2
darstellen.
Die Arbeitsweise des Informationsverarbeitungssystems
wird nachfolgend beschrieben.
In Fig. 3 wird das Eingabemuster 3 mit dem assoziati
ven Speicher 1 assoziiert und dann bewertet der se
rielle Computer 2 das assoziierte Ausgangssignal
(Pfeil 4). Auf der Grundlage des Ergebnisses der Be
wertung werden assoziative und restriktive Bedingun
gen zu der Energiefunktion eines neuralen Netzwerks
addiert, wie gefordert, den assoziativen Speicher 1
bildend, und werden dann zusammen mit dem Assozia
tions-Wiederholungsbefehl entsprechend dem Pfeil 5
zum assoziativen Speicher 1 zurückgeführt. Die Asso
ziation und Bewertung werden wiederholt, bis sich das
assoziierte Ausgangssignal (Pfeil 4) annähert. Das so
erhaltene angenäherte assoziierte Ausgangssignal wird
identifiziert mit der und bewertet durch die Nach
richteninformation im seriellen Computer 2. Auf der
Grundlage der Ergebnisse der Identifikation und Be
wertung werden die assoziativen und restriktiven Be
dingungen erneut zu der Energiefunktion des neuralen
Netzwerks addiert, wie gefordert, und werden dann
zusammen mit dem Assoziations-Wiederholungsbefehl zum
assoziativen Speicher 1 zurückgeführt. Das Eingabemu
ster 3 wird wiederholt mit dem assoziativen Speicher
1 assoziiert und wird bewertet durch die sowie iden
tifiziert mit der Nachrichteninformation im seriellen
Computer 2, bis es dieser entspricht. Die der Nach
richteninformation im seriellen Computer 2 entspre
chenden Informationen bilden das Verarbeitungs-Aus
gangssignal (Pfeil 7) des Informationsverarbeitungs
systems.
Das Informationsverarbeitungssystem wird nun im ein
zelnen anhand von Fig. 4 bei der Anwendung eines Zei
chenerkennungsfalles erläutert.
In diesem Ausführungsbeispiel wird der Zeichenerken
nungsfall in bezug auf das vorerwähnte Hopfield-Mo
dell beschrieben, das eines der neuralen Netzmodelle
ist.
Für die folgende Erklärung wird angenommen, daß ein
Zeichenmuster handgeschrieben oder eine gestörte Zei
chenfolge ist, und daß das Alphabet und verschiedene
Symbole im assoziativen Speicher 1 gespeichert sind.
Es wird auch angenommen, daß alphabetische Buchstaben
von "A" bis "Z" und Symbole auch in der Mustererken
nungseinheit 2a und Informationen betreffend die Zei
chenfolgen in der Speichereinheit 2c gespeichert
sind, und daß die Informationen über die Zeichenfol
gen eine Zeichenfolge "CAT", nicht jedoch eine Zei
chenfolge "CAE" enthalten.
Zuerst wird das aus drei Buchstaben "CAT" bestehende
Eingabemuster 3 in den assoziativen Speicher 1 einge
geben. Als Ergebnis dieser Eingabeoperation wird an
genommen, daß das assoziierte Ausgangssignal (Pfeil
5) bestehend aus "CA′E" vom assoziativen Speicher 1
erhalten wird. Das assoziative Ausgangssignal wird
dann in den seriellen Computer 2 eingegeben, so daß
die Mustererkennungseinheit 2a in diesem bewertet, ob
"CA′E" korrekte Buchstaben sind. Da die Buchstaben
"C" und "E" des Zeichens "CA′E" mit dem Zeichenmuster
der Mustererkennungseinheit 2a übereinstimmen, ist es
für diese beiden Buchstaben nicht erforderlich, daß
sie weiterhin mit dem assoziativen Speicher 1 assozi
iert werden. Da demgegenüber "A′" nicht mit dem Zei
chenmuster der Mustererkennungseinheit 2a überein
stimmt, wird die Energiefunktion des neuralen Netz
werks, den assoziativen Speicher 1 bildend, verbes
sert, wodurch "A′" wieder mit dem assoziativen Spei
cher 1 assoziiert wird. Eine derartige Operation wird
wiederholt, bis "A′" mit dem Zeichenmuster der Mu
stererkennungseinheit 2a übereinstimmt, und somit
wird schließlich angenommen, daß "A′" korrekt als "A"
erkannt wird. Wenn "A′" sich nicht dem Zeichenmuster
der Mustererkennungseinheit 2a anpassen kann, nachdem
es eine vorbestimmte Anzahl von Malen mit dem asso
ziativen Speicher 1 assoziiert wurde, wird das "Ver
arbeitung nicht möglich"-Ausgangssignal (Pfeil 6b)
von der Einheit 2a ausgegeben.
Als nächstes, was das Ausgangssignal der Mustererken
nungseinheit 2a, d. h. die Zeichenfolge "CAE" anbe
langt, wird die logische Verarbeitungseinheit 2b ver
wendet zur Bestimmung, ob ein Wort "CAE" in der
Speichereinheit 2e gespeichert ist. Da in diesem Fall
das Wort "CAE" nicht in der Speichereinheit 2c ge
speichert ist, wird die Energiefunktion des assozia
tiven Speichers 1 wieder verbessert, und somit wird
das Eingabezeichenmuster wieder mit dem assoziativen
Speicher 1 assoziiert. Als Ergebnis dieser Operation
wird, da ein Zeichenmuster "CAT" in der Speicherein
heit 2c gespeichert ist, das assoziierte Zeichenmu
ster "CAT" als ein korrektes Muster angesehen, das
dann von der logischen Verarbeitungseinheit 2b als
System-Ausgangssignal (Pfeil 7a) ausgegeben wird.
Schließlich wird, wenn die vorbeschriebenen Verarbei
tungen durchgeführt werden und das Ausgangssignal
(Pfeil 4) nicht mit der in der Speichereinheit 2c
gespeicherten Nachrichteninformation übereinstimmt,
das "Verarbeitung nicht möglich"-Ausgangssignal
(Pfeil 7b) von der logischen Verarbeitungseinheit 2b
ausgegeben.
Wie vorbeschrieben wurde, ist es möglich, durch Stör
signale beeinträchtigte komplexe Zeichenfolgen kor
rekt zu erkennen oder Wörter zu erkennen durch Wie
derholung der Operation, bei der das Zeichenmuster
assoziiert wird; das assoziierte Ausgangssignal wird
bewertet; das Zeichenmuster wird wieder assoziiert;
die Zeichenfolge wird verglichen und bewertet; und
das Zeichenmuster wird wieder assoziiert.
Die Energiefunktion E im Hopfield-Modell wird durch
die folgende Gleichung ausgedrückt:
worin Tÿ das Gewicht der Verbindung zwischen dem i-ten
Neuron und dem j-ten Neuron,
Vi den Zustand des i-ten Neurons, und
Ii ein externes Eingangssignal oder einen Schwellen wert in bezug auf das i-te Neuron darstellen.
Vi den Zustand des i-ten Neurons, und
Ii ein externes Eingangssignal oder einen Schwellen wert in bezug auf das i-te Neuron darstellen.
Eine hinzugefügte restriktive Bedingung wird in die
obige Gleichung eingefügt:
worin Δi ein von außen veränderbarer Faktor ist.
Wenn das k-te Neuron als Beispiel genommen wird und
sein Zustand sich wie folgt verändert:
Vk → V′k,
dann wird die Energieänderung ΔEk folgendermaßen aus
gedrückt:
worin:
Tji = 0
TÿViVj = TjiVjVi
ΔVk = V′k - Vk
TÿViVj = TjiVjVi
ΔVk = V′k - Vk
- 1) mit Bezug auf ein Muster V(a), das nicht erkannt werden kann, kann Δk den folgenden Wert annehmen: Δk = c · V(a),worin c eine Konstante ist.
- 2) mit Bezug auf ein Muster V(p) das nicht in der
Speichereinheit 2c enthalten ist, kann Δk den folgenden
Wert annehmen:
worin:c(m) = (V(p)V(m))2/100;
V(m)(m = 1, 2, . . . M) ein in der Speichereinheit 2c gespeichertes Muster, und
M die Anzahl von Mustern in der Speichereinheit 2c darstellen.
Die obige restriktive Bedingung erhöht die Energie
fehlerhafter Muster und entspricht einer Erschwerung
der Assoziierung für das Muster. Ein Verfahren zur
Einführung einer restriktiven Bedingung ist nicht auf
das vorbeschriebene Verfahren begrenzt. Andere Ver
fahren, zum Beispiel eines, durch welches die Erzeu
gung richtiger Muster wahrscheinlich ist, oder eines,
das unrichtige Muster mit richtigen Mustern kombi
niert, können ebenfalls angewendet werden.
Das beschriebene Ausführungsbeispiel zeigt ein Infor
mationsverarbeitungssystem unter Verwendung des neu
ralen Netzwerks des Hopfield-Modells als einem asso
ziativen Speicher. Jedoch können ein mehrschichtig
strukturiertes neurales Netzwerk auf der Grundlage
eines Rückwärtsfortpflanzung-Neigungsgesetzes oder
dergleichen und neurale Modelle wie eine Boltzmann-
Maschine ebenfalls durch Definition einer geeigneten
Energiefunktion eingesetzt werden.
Es ist auch möglich, eine neurales Netzwerk als asso
ziativen Speicher zu verwenden, der durch ein opti
sches neurales Netzwerk oder einen Si-LSI realisiert
wird. Es ist selbstverständlich, daß ein auf einer
Simulation basierender assoziativer Speicher unter
Verwendung eines seriellen Computers ebenfalls einge
setzt werden kann.
Obwohl im obigen Ausführungsbeispiel die Zeichener
kennung als das Ziel des Informationsverarbeitungs
systems beschrieben wurde, ist offensichtlich, daß
die Erfindung auch für eine Spracherkennung, Muster
erkennung von Bildern und dergleichen angewendet wer
den kann.
Claims (4)
1. Informationsverarbeitungssystem, das einen Com
puter mit serieller Verarbeitung verwendet,
gekennzeichnet durch,
eine assoziative Speichervorrichtung (1), die ein neurales Netzwerk für die Ausgabe eines as soziativen Musters in Abhängigkeit von einer Eingabemuster-Information aufweist,
eine Mustererkennungsvorrichtung (2a) zur Bewer tung, ob das ausgegebene assoziative Muster eine korrekte Musterinformation darstellt,
eine Vorrichtung für die wiederholte Addition einer assoziativen und restriktiven Bedingung zu einer Energiefunktion des neuralen Netzwerks und zur Annäherung des ausgegebenen assoziativen Musters an die korrekte Musterinformation, wenn das assoziative Muster nicht mit dieser überein stimmt,
eine Speichervorrichtung (2c) zum Speichern ei ner Nachrichteninformation, und eine logische Verarbeitungsvorrichtung (2b) für den Vergleich des angenäherten assoziativen Mu sters mit der Nachrichteninformation und, falls diese nicht miteinander übereinstimmen, für die wiederholte Addition der assoziativen und re striktiven Bedingung zu der Energiefunktion des neutralen Netzwerks, um das angenäherte assozia tive Muster mit der Nachrichteninformation in Übereinstimmung zu bringen.
eine assoziative Speichervorrichtung (1), die ein neurales Netzwerk für die Ausgabe eines as soziativen Musters in Abhängigkeit von einer Eingabemuster-Information aufweist,
eine Mustererkennungsvorrichtung (2a) zur Bewer tung, ob das ausgegebene assoziative Muster eine korrekte Musterinformation darstellt,
eine Vorrichtung für die wiederholte Addition einer assoziativen und restriktiven Bedingung zu einer Energiefunktion des neuralen Netzwerks und zur Annäherung des ausgegebenen assoziativen Musters an die korrekte Musterinformation, wenn das assoziative Muster nicht mit dieser überein stimmt,
eine Speichervorrichtung (2c) zum Speichern ei ner Nachrichteninformation, und eine logische Verarbeitungsvorrichtung (2b) für den Vergleich des angenäherten assoziativen Mu sters mit der Nachrichteninformation und, falls diese nicht miteinander übereinstimmen, für die wiederholte Addition der assoziativen und re striktiven Bedingung zu der Energiefunktion des neutralen Netzwerks, um das angenäherte assozia tive Muster mit der Nachrichteninformation in Übereinstimmung zu bringen.
2. System nach Anspruch 1, dadurch gekennzeichnet,
daß die Mustererkennungsvorrichtung (2a) eine
Zeichenmuster-Erkennungsvorrichtung ist.
3. System nach Anspruch 1, dadurch gekennzeichnet,
daß die Mustererkennungsvorrichtung (2a) eine
Sprachmuster-Erkennungsvorrichtung ist.
4. System nach Anspruch 1, dadurch gekennzeichnet,
daß die Mustererkennungsvorrichtung (2a) eine
Bildmuster-Erkennungsvorrichtung ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2259332A JP2760145B2 (ja) | 1990-09-26 | 1990-09-26 | 知識情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4129561A1 true DE4129561A1 (de) | 1992-04-09 |
DE4129561C2 DE4129561C2 (de) | 1995-08-10 |
Family
ID=17332630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4129561A Expired - Fee Related DE4129561C2 (de) | 1990-09-26 | 1991-09-03 | Informationsverarbeitungssystem |
Country Status (3)
Country | Link |
---|---|
US (2) | US5257343A (de) |
JP (1) | JP2760145B2 (de) |
DE (1) | DE4129561C2 (de) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3171897B2 (ja) * | 1992-01-07 | 2001-06-04 | 三菱電機株式会社 | 知識情報処理装置 |
JP3364242B2 (ja) * | 1992-07-03 | 2003-01-08 | 株式会社東芝 | 人工的神経回路網のリンク学習装置 |
JP3037432B2 (ja) * | 1993-11-01 | 2000-04-24 | カドラックス・インク | 光波オーブンによる食物調理方法および調理装置 |
US5579440A (en) * | 1993-11-22 | 1996-11-26 | Brown; Robert A. | Machine that learns what it actually does |
US5608843A (en) * | 1994-08-01 | 1997-03-04 | The United States Of America As Represented By The Secretary Of The Air Force | Learning controller with advantage updating algorithm |
US5946673A (en) * | 1996-07-12 | 1999-08-31 | Francone; Frank D. | Computer implemented machine learning and control system |
FI103304B (fi) * | 1997-03-26 | 1999-05-31 | Nokia Oy Ab | Assosiatiivinen neuroni |
US6917925B2 (en) * | 2001-03-30 | 2005-07-12 | Intelligent Inference Systems Corporation | Convergent actor critic-based fuzzy reinforcement learning apparatus and method |
US6662091B2 (en) | 2001-06-29 | 2003-12-09 | Battelle Memorial Institute | Diagnostics/prognostics using wireless links |
CA2452376A1 (en) | 2001-07-02 | 2003-01-16 | Battelle Memorial Institute | Intelligent microsensor module |
US7577631B2 (en) * | 2001-09-10 | 2009-08-18 | Feldhake Michael J | Cognitive image filtering |
US10417554B2 (en) * | 2014-05-22 | 2019-09-17 | Lee J. Scheffler | Methods and systems for neural and cognitive processing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0294116A2 (de) * | 1987-06-01 | 1988-12-07 | Texas Instruments Incorporated | Digitaler adaptiver Empfänger, der die Maximalwahrscheinlichkeitssequenz-Bewertung mit Hilfe von Neuronen-Netzwerken benutzt |
DE3922129A1 (de) * | 1988-07-05 | 1990-01-11 | Mitsubishi Electric Corp | Neurocomputer |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4937873A (en) * | 1985-03-18 | 1990-06-26 | Massachusetts Institute Of Technology | Computationally efficient sine wave synthesis for acoustic waveform processing |
US4773024A (en) * | 1986-06-03 | 1988-09-20 | Synaptics, Inc. | Brain emulation circuit with reduced confusion |
US4807168A (en) * | 1987-06-10 | 1989-02-21 | The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration | Hybrid analog-digital associative neural network |
US4906940A (en) * | 1987-08-24 | 1990-03-06 | Science Applications International Corporation | Process and apparatus for the automatic detection and extraction of features in images and displays |
FR2625347B1 (fr) * | 1987-12-23 | 1990-05-04 | Labo Electronique Physique | Structure de reseau de neurones et circuit et arrangement de reseaux de neurones |
EP0366804B1 (de) * | 1988-03-25 | 1997-12-10 | Hitachi, Ltd. | Verfahren zum erkennen von bildstrukturen |
US5129058A (en) * | 1988-07-06 | 1992-07-07 | Ricoh Company, Ltd. | Parallel optical image processing system |
JP2764277B2 (ja) * | 1988-09-07 | 1998-06-11 | 株式会社日立製作所 | 音声認識装置 |
US4933872A (en) * | 1988-11-15 | 1990-06-12 | Eastman Kodak Company | Method and system for wavefront reconstruction |
US4941122A (en) * | 1989-01-12 | 1990-07-10 | Recognition Equipment Incorp. | Neural network image processing system |
JP2679738B2 (ja) * | 1989-03-01 | 1997-11-19 | 富士通株式会社 | ニューロコンピュータにおける学習処理方式 |
US4945494A (en) * | 1989-03-02 | 1990-07-31 | Texas Instruments Incorporated | Neural network and system |
JP2752442B2 (ja) * | 1989-06-28 | 1998-05-18 | 三菱電機株式会社 | 視覚情報処理素子 |
US5067164A (en) * | 1989-11-30 | 1991-11-19 | At&T Bell Laboratories | Hierarchical constrained automatic learning neural network for character recognition |
US5048097A (en) * | 1990-02-02 | 1991-09-10 | Eastman Kodak Company | Optical character recognition neural network system for machine-printed characters |
US5129041A (en) * | 1990-06-08 | 1992-07-07 | Grumman Aerospace Corporation | Optical neural network processing element with multiple holographic element interconnects |
-
1990
- 1990-09-26 JP JP2259332A patent/JP2760145B2/ja not_active Expired - Fee Related
-
1991
- 1991-08-14 US US07/744,991 patent/US5257343A/en not_active Expired - Lifetime
- 1991-09-03 DE DE4129561A patent/DE4129561C2/de not_active Expired - Fee Related
-
1993
- 1993-04-30 US US08/056,055 patent/US5479569A/en not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0294116A2 (de) * | 1987-06-01 | 1988-12-07 | Texas Instruments Incorporated | Digitaler adaptiver Empfänger, der die Maximalwahrscheinlichkeitssequenz-Bewertung mit Hilfe von Neuronen-Netzwerken benutzt |
DE3922129A1 (de) * | 1988-07-05 | 1990-01-11 | Mitsubishi Electric Corp | Neurocomputer |
Non-Patent Citations (2)
Title |
---|
FARHAT u.a.: "Optical implementation of the Hopfield model", in Applied Optics, 15. Mai 1985, Vol. 24, Nr. 10, S. 1469-1475 * |
HOPFIELD, J.J.: "Neural networks and physical systems with emergent collective computational abilities" in Proc.Natl.Acad.Sci., Vol. 79, April 1982, S. 2554-2558 * |
Also Published As
Publication number | Publication date |
---|---|
DE4129561C2 (de) | 1995-08-10 |
JPH04134556A (ja) | 1992-05-08 |
US5257343A (en) | 1993-10-26 |
US5479569A (en) | 1995-12-26 |
JP2760145B2 (ja) | 1998-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3801380C2 (de) | ||
DE2801536C2 (de) | Zeichenformkodiervorrichtung | |
DE2554442C2 (de) | Vorrichtung zum Vergleich logischer Größen mit einer Gruppe logischer Bezugsgrößen | |
DE2431451C3 (de) | Verfahren zur Normierung der Strichstärke von abgetasteten Schriftzeichen sowie Einrichtung zur Durchführung des Verfahrens | |
DE2424820C3 (de) | Einrichtung zur Durchsuchung eines Datenspeichers | |
DE4129561C2 (de) | Informationsverarbeitungssystem | |
DE4042139A1 (de) | Neuron-einheit, neuronales netz und signalverarbeitungsverfahren | |
DE2060635A1 (de) | Rechner-Steuergeraet sowie Verfahren und Steuerpult zum Programmieren desselben | |
DE3503119A1 (de) | Verfahren zum automatischen erzeugen eines quellenprogramms | |
DE3832440A1 (de) | Testschaltungseinrichtung | |
DE102019209560A1 (de) | Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks | |
DE3708288A1 (de) | Verfahren zur verringerung der datenmenge bei der bildkodierung | |
DE1213651B (de) | Verfahren und Anordnung zur Identifizierung von Informationen | |
AT223668B (de) | Verfahren und Schaltungsanordnung zur automatischen Erkennung von Schriftzeichen | |
EP0901658A1 (de) | Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner | |
DE2743575A1 (de) | Verfahren und einrichtung zur multiplikation einer ersten zahl mit einer zweiten zahl | |
DE4121453C2 (de) | Näherungsschlußfolgerungsvorrichtung | |
DE4210109C2 (de) | Sortiervorrichtung zum Sortieren von Daten und Sortierverfahren | |
DE112020005613T5 (de) | Neuromorphe Einheit mit Kreuzschienen-Array-Struktur | |
DE2235802C2 (de) | Verfahren und Einrichtung zur Prüfung nichtlinearer Schaltkreise | |
DE19703964C1 (de) | Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz | |
DE19650291A1 (de) | Abtast-Testgerät | |
EP0206214B1 (de) | Verfahren zur einheitlichen symbolischen Beschreibung von Dokumentenmustern in Form von Datenstrukturen in einem Automaten | |
DE69910566T2 (de) | Elektronische integrierte Schaltung mit Trimmmittel und Verfahren dafür | |
DD294115A5 (de) | Vorrichtung und verfahren zur signalverarbeitung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) | ||
8339 | Ceased/non-payment of the annual fee |