DE69531471T2 - Mehrkanalsignalkodierung unter Verwendung gewichteter Vektorquantisierung - Google Patents

Mehrkanalsignalkodierung unter Verwendung gewichteter Vektorquantisierung Download PDF

Info

Publication number
DE69531471T2
DE69531471T2 DE69531471T DE69531471T DE69531471T2 DE 69531471 T2 DE69531471 T2 DE 69531471T2 DE 69531471 T DE69531471 T DE 69531471T DE 69531471 T DE69531471 T DE 69531471T DE 69531471 T2 DE69531471 T2 DE 69531471T2
Authority
DE
Germany
Prior art keywords
coefficients
signal
envelope
frame
signal samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69531471T
Other languages
English (en)
Other versions
DE69531471D1 (de
Inventor
Takehiro Takorozawa-shi Moriya
Naoki Yokohama-shi Iwakami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of DE69531471D1 publication Critical patent/DE69531471D1/de
Application granted granted Critical
Publication of DE69531471T2 publication Critical patent/DE69531471T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/008Vector quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
    • H04B1/667Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission using a division in frequency subbands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B14/00Transmission systems not characterised by the medium used for transmission
    • H04B14/02Transmission systems not characterised by the medium used for transmission characterised by the use of pulse modulation
    • H04B14/04Transmission systems not characterised by the medium used for transmission characterised by the use of pulse modulation using pulse code modulation
    • H04B14/046Systems or methods for reducing noise or bandwidth
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0007Codebook element generation

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung betrifft Verfahren zum Codieren und Decodieren von Mehrkanalsignalen, als eine Einheit oder kollektiv, sowie einen Codierer bzw. einen Decodierer, die solche Verfahren verwenden.
  • Die Mehrkanalsignale, wie hier erwähnt, sind z. B. Audiosignale von rechtem und linkem Kanal, Vielkanalsignale, Kombinationen von akustischen und Bildsignalen, mehrere Sequenzsignale, die durch Verteilen eines Einkanalsignals auf eine Mehrzahl von Sequenzen in regelmäßigen Zeitintervallen erhalten sind, oder mehrere Signalsequenzen, die durch Aufspalten eines Einkanalsignals in eine Mehrzahl von Frequenzbändern erhalten sind; die vorliegende Erfindung ist anwendbar auf beliebige Signale, so lange sie Signalsequenzen sind, zwischen denen sich ein Leistungsungleichgewicht entwickeln kann.
  • Ein bekanntes typisches Verfahren zur hocheffizienten Codierung eines akustischen Signals wie etwa von Sprache oder eines Musiksignals ist ein Transformationscodierverfahren, demzufolge Frequenzbereichskoeffizienten (Abtastwerte an jeweiligen Frequenzen der Frequenzcharakteristik des akustischen Signals), erhalten durch eine rahmenweise Zeit-Frequenz-Transformation (eine Fourier-Transformation) des akustischen Signals, unter Verwendung der Hüllkurve (oder spektralen Hüllkurve) der Frequenzcharakteristik des akustischen Signals normiert werden und die resultierenden Restkoeffizienten vektorquantisiert werden. Ein anderes typisches Codierverfahren ist ein CELP-(Coded-Excited Linear Prediction Coding)-Verfahren, demzufolge ein Sprachsignal einer LPC(Linear Predictive Coding)-Analyse im Zeitbereich unterzogen wird und so erhaltene Vorhersagekoeffizienten als Filterkoeffizienten zum Synthetisieren von Sprache aus einem Erregungssignal durch ein Synthesefilter verwendet werden; das Erregungssignal ist mit einem Frequenzkomponentenvektor und einem Rauschkomponentenvektor codiert, so dass die Verzerrung der synthetisierten Sprache minimiert ist.
  • In 1A und 1B sind ein Encoder 10 und ein Decoder 50 gezeigt, die das herkömmliche Transformationscodierverfahren verwenden. Im Encoder 10 wird ein Musik-, Sprach- oder anderes akustisches Signal AT, das als digitale Signalsequenz von einem Eingangsanschluss 11 aus zugeführt wird, in ein MDCT-(Modified Discrete Cosine Transform)-Teil 23 eingegeben, wo es rahmenweise, beispielsweise in Zeitintervallen von 16 bis 64 ms oder dergleichen im Falle eines Musiksignals und ca. 10 bis 20 ms im Falle eines Sprachsignals, in Frequenzbereichskoeffizienten AF umgeformt wird. Gleichzeitig wird das akustische Signal AT vom Eingangsanschluss 11 in ein Rechenteil 24 zum Berechnen der spektralen Hüllkurve eingegeben, wo die spektrale Hüllkurve des akustischen Eingangssignals AT berechnet wird, dann wird die Hüllkurve in einem Quantisierteil 25 quantisiert, von dem ein Hüllindex IE bereitgestellt wird, und in einem Normierungsteil 26 werden die Frequenzbereichskoeffizienten AF aus dem MDCT-Teil 23 durch die quantisierte Hüllkurve Eq aus dem Quantisierteil 25 in weniger stark fluktierende Restkoeffizienten X dividiert. In einem Skalarquantisierteil 27 werden die Restkoeffizienten X skalar-quantisiert; in diesem Fall werden Bits jeweils Frequenzbändern entsprechend der Frequenzcharakteristik des akustischen Eingangssignals AT zugeteilt. Diese Bitzuteilung findet in einem Bitzuteilungsrechenteil 28 statt. Ein Zuteilungsindex IB wird als Zuteilungsinformation B von einem Codierteil 29 geliefert, und die Restkoeffizienten X sind skalar-quantisiert entsprechend der Bitzuteilung in dem Skalarquantisierteil 27, von dem quantisierte Restkoeffizienten Xq bereitgestellt werden.
  • In dem Decoder 50, wie in 1B abgebildet, werden die darin eingegebenen Indizes IE und IB in Decodierteilen 62 und 63 in die spektrale Hüllkurve Eq bzw. die Bitzuteilungsinformation B decodiert. In einem Decodierteil 64 werden die quantisierten Restkoeffizienten Xq auf der Grundlage der Bitzuteilungsinformation B zu den Restkoeffizienten X' decodiert. Die decodierte Hüllkurve Eq wird einem Denormierungsteil 65 bereitgestellt, in dem sie denormiert wird durch Multiplizieren mit den Restkoeffizienten X', wodurch die Frequenzbereichskoeffizienten wiederhergestellt werden. Die Frequenzbereichskoeffizienten, bezeichnet mit AF', werden einem IMDCT-(Inverse Modified Discrete Cosine Transformation)-Teil 66 bereitgestellt, in dem sie durch eine inverse modifizierte diskrete Kosinustransformation in ein akustisches Signal AT' im Zeitbereich rückumgewandelt werden; das akustische Signal AT' wird einem Ausgangsanschluss 51 zugeführt.
  • 2A zeigt die Konfiguration eines Sprachsignalencoders, der das CELP-Verfahren verwendet, der im Wesentlichen zu dem beispielsweise im US-Patent Nr. 5 195 137 offenbarten äquivalent ist. Ein dem Eingangsanschluss 11 zugeführtes Sprachsignal wird einer linearen vorhersagenden Codieranalyse in einem LPC-Analyseteil 12 für jeden Rahmen einer festgelegten Länge unterzogen, um lineare Vorhersagekoeffizienten α zu erhalten, die als Filterkoeffizienten einem LPC-Synthesefilter 13 zur Verfügung gestellt werden. In einem adaptiven Codebuch 14 ist ein im vorhergehenden Rahmen festgelegter und dem Synthesefilter 13 zur Verfügung gestellter Erregungsvektor E gespeichert. Ein Segment einer Länge S wird aus dem Erregungsvektor ausgeschnitten; ein solches Segment wird wiederholt verbunden, bis eine Rahmenlänge T erreicht ist, wodurch ein adaptiver Codevektor (auch als Tonhöhen-Komponentenvektor bezeichnet) erzeugt wird, der einer Sprachperiodenkomponente entspricht. Durch Ändern der Ausschnittlänge S kann auch ein adaptiver Codevektor, der einer anderen Tonhöhen-Komponente entspricht, erhalten werden. In einem Zufalls-Codebuch 16 ist eine Mehrzahl von zufälligen Codevektoren mit jeweils der Rahmenlänge aufgezeichnet; wenn ein Index C spezifiziert wird, wird der entsprechende Zufallscodevektor aus dem Zufallscodebuch 16 gelesen. Der adaptive Codevektor und der Zufallscodevektor, gelesen aus dem adaptiven Codebuch 14 und dem Zufallscodebuch 16, werden Multiplizierern 15 und 17 bereitgestellt, in denen sie mit Gewichtungsfaktoren (Gains) g0 und g1 multipliziert werden, die von dem Verzerrungsberechnungs-/Codebuchsuchteil 21 bereitgestellt werden. Die multiplizierten Ausgaben werden von einem Addierer 18 addiert, und die Addiererausgabe wird als Erregungsvektor E an das Synthesefilter 13 angelegt, um ein Sprachsignal zu synthetisieren.
  • Zuerst wird der Gewichtungsfaktor g1 auf 0 gesetzt, und eine Segmentausschnittlänge S wird ausgewählt. Der Unterschied zwischen dem synthetisierten Sprachsignal (Vektor) aus dem Synthesefilter 13, angeregt durch den der ausgewählten Ausschnittlänge S entsprechenden adaptiven Codevektor, und dem Eingangssprachsignal (Vektor) wird mit einem Subtrahierer 19 berechnet. Der so erhaltene Fehlervektor wird dem Verzerrungsberechnungs-/Codebuchsuchteil 21 bereitgestellt, nachdem ihm im Bedarfsfall in einem psychoakustischen Gewichtungsteil 20 ein psychoakustisches Gewicht zugewiesen worden ist. In dem Verzerrungsberechnungs-/Codebuchsuchteil 21 wird die Summe der Quadrate von Elementen des gewichteten Fehlervektors (ein Intersymbolabstand) berechnet und als Verzerrung des synthetisierten Sprachsignals gespeichert. Durch Ändern der Ausschnittlänge S über einen vorgegebenen Wertebereich und dabei Wiederholen der obigen Verarbeitungen bestimmt das Verzerrungsberechnungs-/Codebuchsuchteil 21 einen bestimmten Wert der Ausschnittlänge S, der die synthetisierte Sprachverzerrung minimiert. Der Erregungsvektor E, der durch eine solche Manipulation erzeugt wird, wird dem Synthesefilter 13 zugeführt, um einen Ton zu synthetisieren, der wiederum vom Subtrahierer 19 aus dem Eingangssignal AT entfernt wird, um eine Rauschkomponente zu erhalten. Dann wird der Zufallscodevektor, der die Verzerrung des synthetisierten Rauschens minimieren würde, aus dem Zufallscodebuch 16 ausgewählt, wobei die Rauschkomponente als Zielwert des synthetisierten Rauschens bei Verwendung des Zufallscodevektors aus dem Zufallscodebuch 16 als Erregungsvektor E verwendet wird; und der Index C wird erhalten, der dem so ausgewählten Zufallscodevektor entspricht. Der so bestimmte Zufallscodevektor wird benutzt, um den Gewichtungsfaktor g1 zu berechnen, der die synthetisierte Sprachverzerrung minimieren würde. Die auf diese Weise festgelegten Gewichtungsfaktoren g0 und g1 sind als ein Gewichtungscode G = (g0, g1) in einem Codierteil 22 codiert. Die linearen Vorhersagekoeffizienten α, die Ausschnittlänge S, der Zufallscodevektorindex C und der Gewichtungscode G, die so für jeden Rahmen des eingegebenen Sprachsignals festgelegt werden, werden aus dem Encoder von 2A als dem Eingangssignal entsprechende Codes ausgegeben.
  • In einem Decoder wie in 2B gezeigt werden die diesem zugeführten linearen Vorhersagekoeffizienten α als Filterkoeffizienten in einem LPC-Synthesefilter 52 eingesetzt. Auf der Grundlage der Ausschnittlänge S und des Index C werden ein adaptiver Codevektor und ein Zufallsmustervektor aus einem adaptiven Codebuch 54 bzw. einem Zufallscodebuch 56 in der gleichen Weise wie beim Encoder von 2A gelesen; diese Vektoren werden den Multiplizierern 55 und 57 zugeführt, wo sie mit den Gewichtungsfaktoren g0 und g1 aus einem Gewichtungsrückgewinnungs- oder -decodierteil 53 multipliziert werden. Die multiplizierten Ausgaben werden durch einen Addierer 58 addiert, die Addiererausgabe wird als Erregungsvektor an den LPC-Synthesefilter 52 angelegt, aus dem synthetisierte Sprache dem Ausgangsanschluss 51 bereitgestellt wird.
  • Wie oben beschrieben, erzeugt der Encoder aus 2A die adaptiven Codevektoren durch wiederholtes Verbinden eines Segmentes, das aus dem Erregungsvektor des unmittelbar vorhergehenden Rahmens ausgeschnitten ist, der in dem adaptiven Codebuch gespeichert ist; wie jedoch z. B. in M. R. Schroeder und B. S. Atal "Code-Excited Linear Predition (CELP): High-Frequency Speech At Very Low Bit Rates", IEEE ICASSP '85, Seiten 937 bis 940 offenbart, kann das CELP-Schema das Erregungssignal in einer solchen Weise vektorquantisieren, dass die synthetisierte Sprachverzerrung durch Verwendung eines Codebuches mit einer Anzahl von vorgegebenen Wellenformvektoren als Erregungsvektoren minimiert wird. Es ist daher nicht immer notwendig, ein Codebuch zu verwenden, das adaptiv variiert, wie oben mit Bezug auf 2A beschrieben. Einem anderen CELP-Schema zufolge können die Vorhersagekoeffizienten erhalten werden durch eine LPC-Analyse von vorhergegangener synthetisierter Sprache, anstatt sie durch die LPC-Analyse des Eingangssprachsignals AT wie in 2A zu berechnen, wie z. B. in Juin-Hwey Chen, High-Quality 16 kb/s Speech Coding With a One-Way Delay Less Than 2 ms", IEEE ICASSP '90, Seite 543 beschrieben. Dieses Schema vermeidet die Notwendigkeit, die Vorhersagekoeffizienten zu codieren und der decodierenden Seite zur Verfügung zu stellen.
  • Im Fall von Rechts- und Linkskanal-Audiosignalen z. B. beträgt ein Quantisierungsfehler für den Signalpegel jeweils 1/25, wenn die rechten und linken Kanäle jeweils fest als 5-Bit-Information codiert sind. Wenn jedoch die Signalleistung zwischen rechtem und linken Kanal stark unausgeglichen ist, könnte der Quantisierungsfehler (Verzerrung) bis auf 1/28 verringert werden, ohne die Gesamtmenge an Information für die Signalcodierung zu verändern, indem die gleiche Auflösung für rechte und linke Kanalpegel gemeinsam verwendet wird und beispielsweise 8 Bits an das Kanalsignal mit der größeren Leistung und 2 Bits an das Kanalsignal mit der kleineren Leistung zugeteilt werden.
  • Im Falle der Codierung von Stereosignalen von rechten und linken Kanälen mit einer vorgegebenen Informationsmenge durch Verwendung von zwei Sätzen solcher Codierer aus 2A ist es unmöglich, nur durch Codieren des Signals jedes Kanals mit nur einer Hälfte der Gesamtmenge der Information die Verzerrung durch effektive Ausnutzung von Eigenschaften solcher Stereosignale zu verringern, die manchmal ein starkes Leistungsungleichgewicht zwischen den Kanälen haben.
  • Ein bekanntes Verfahren zum Implementieren einer optimalen Codierung passend zu Leistungsungleichgewichten zwischen zwei Kanälen ist, Bits adaptiv auf der Grundlage des aus dem Codebuch gelesenen Index zuzuweisen. Mit dieser Technik ist die Zahl möglicher Arten von Bit-Zuteilung groß – dies führt zu der Notwendigkeit, ein Codebuch mit einer Größe zu verwenden, die der Zahl von die Bit-Zuweisungen darstellenden Indizes entspricht. Da jedoch in der Praxis die Codebuchgröße und der Verarbeitungsaufwand mit der Bitzahl als Potenz von zwei zunehmen, ist die Zuweisung von vielen Bits unpraktikabel. Außerdem würde ein Codefehler in der Gain-Information zu Mehrdeutigkeiten der Grenzen von Indizes führen, was zu schwerwiegenden Fehlern bei der Rekonstruktion aller Vektoren führen würde.
  • Auch im Fall der Verwendung von zwei Sätzen von Encodern aus 1A zum Codieren von rechtem und linkem Kanal von zweikanaligen Stereosignalen, zwischen denen manchmal ein starkes Leistungsungleichgewicht auftritt, könnte die Verringerung der Quantisierungsverzerrung aufgrund von Codieren mit der gleichen Infoimationsmenge für beide Kanäle erreicht werden durch Zuweisen von Bits zu rechtem und linkem Kanal in den Qantisierteilen 25 und den Bitzuteilungsrechenteilen 28 beider Kanäle entsprechend dem Leistungsungleichgewicht zwischen den Kanälen. Da dieses skalare Quantisierungsverfahren die Erzeugung eines Bitzuteilungscodes (des Index Ib) erfordert, der eng mit der spektralen Hüllkurve korreliert ist, wird die Effizienz des Encoders beeinträchtigt durch eine detaillierte Bitzuweisung an zu viele aus dem Frequenzband ausgeteilte enge Unterbänder. Wenn hingegen das Frequenzband in zwei relativ breite Unterbänder unterteilt ist, ist es unmöglich, ausreichend auf ein Ungleichgewicht der Frequenzcharakteristik des Eingangssignals zu reagieren; daher nimmt entsprechend die Quantisierungsverzerrung zu, und die Effizienz der Nutzung der Eingangssignalredundanz nimmt ab. Wenn ein Codefehler in dem Bitzuweisungsindex IB auftritt, kommt die Aufteilung eines Bitzuges in die quantisierten Restkoeffizienten Xq durcheinander, was zu einer starken Verzerrung der codierten Restkoeffizienten X' auf der Decodierseite führt. Wie im Falle der CELP-Schemata wird ein Fehler bei der Decodierung des Bitzuteilungscodes rekonstruierte Sprache stark verzerren.
  • Die obige Beschreibung ist geliefert worden für zweikanalige akustische Signale, doch auch bei der Multiplexübertragung von Sprach- und Bildsignalen ist es üblich, jedes von diesen mit einer festen Informationsmenge zu codieren. Auch in diesem Fall ist es wünschenswert, wenn ein Informationsungleichgewicht zwischen Sprache und Information auftritt, diese Eigenschaft effizient zu nutzen. Z. B. hat Sprache stille Zeitspannen in sehr kurzen Intervallen; in stillen Zeitspannen muss im Wesentlichen keine Information übertragen werden. Auch in dem Fall, wo das Bild eine Interrahmenvorhersage durchläuft, um Information zu komprimieren, ist die zu sendende Informationsmenge sehr klein, wenn sich das Bild nicht bewegt. Wenn eine kombinierte Menge an Sprach- und Bildinformation festgelegt ist, kann die Gesamtverzerrung verringert werden durch eine adaptive Bitzuteilung zwischen beiden Arten von Information. Wie im Fall der oben erwähnten Stereosignale gibt es jedoch ernste Probleme bei der Vektorquantisierungsverarbeitung und der Robustheit gegen Codefehler.
  • Das Dokument International Conference on Acoustics, Speech and Signal Processing, 1984, Band 1, 19–21, März 1984, San Diego, Kalifornien, USA, Seiten 10.7.1 bis 10.7.4, XP002020702 Gersho et al.: „Fully Vector-Quantized Teilband Coding with Adaptive Codebook Allocation" offenbart einen Teilbandcodierer, der eine besondere Art von adaptiver Bitzuteilung verwendet. Der Teilbandcodierer spaltet ein Eingangssprachsignal in N Teilbänder auf und wendet Vektorquantisierung auf jedes Teilband an. In Abhängigkeit von der Leistungsverteilung unter den N Teilbändern wird das jeweils bestpassende von drei Codebüchern adaptiv jedem Teilband zugeteilt. Die drei Codebücher unterscheiden sich in der Zahl von Codevektoren, die sie enthalten, und somit in der Zahl von Bits, die erforderlich ist, um einen bestimmten Codevektor in dem jeweiligen Codebuch zu identifizieren. In dem bekannten Teilbandcodierer wird eine Analysefilterbank verwendet, um das Eingangs-Sprachsignal in die N Teilbänder aufzuspalten. Jedes Teilband ist dargestellt durch eine Folge von Teilbandvektoren, d. h. Blöcken von je acht Abtastwerten. Jeder Teilbandvektor wird erst mit der Gesamtleistung aller N Teilbandvektoren normiert. Dann wird die Leistung jedes der N normierten Teilbandvektoren erhalten und der jeweilige Vektor mit der jeweiligen Leistung normiert. Ein Leistungsvektor bestehend aus den N Leistungen aller Teilbänder wird auf eine Gain-Codebuchadresse j vektorquantisiert und wird dann verwendet, um das für jeden Teilbandvektor zu verwendende Codebuch festzulegen. Der entsprechende Decodierer empfängt die N Codebuchadressen k, die die N Teilbandvektoren, die Gain-Codebuch-Adresse und einen Index, der die Gesamtleistung aller Codebuchvektoren darstellt, um diese durch einen zum Codierprozeß im Wesentlichen inversen Prozess zu decodieren.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Ein Ziel der vorliegenden Erfindung ist, ein Codierverfahren anzugeben, das eine Verringerung der gesamten codierten Signalverzerrung ermöglicht, ohne die adaptive Bitzuteilung zwischen mehreren Kanälen beim Codieren der mehreren Kanäle mit einer kleinen Informationsmenge durch Multiplexieren zu beinhalten, ein Decodierverfahren zum Decodieren solcher codierter Signale und einen Encoder und einen Decodierer, die das Codier- bzw. Decodierverfahren verwenden.
  • Gemäß der vorliegenden Erfindung werden Signalkomponenten mehrerer Kanäle mit einem kombinierten Codebuch zu einem Signalvektor gewichtet vektorquantisiert, indem sie zusammen mit Gewichten kombiniert werden, die ihren Leistungskomponenten entsprechen; so ermöglicht die Erfindung eine Verringerung der Quantisierungsverzerrung durch Ausnutzung von Leistungsungleichgewicht zwischen Signalen der Kanäle, ohne die adaptive Bitzuteilung zu beinhalten. Außerdem wird durch Aufspaltung eines einkanaligen Signals in eine Mehrzahl von Teilkanälen Leistungsungleichgewicht in Richtung der Zeitachse auch wirksam genutzt, um die Quantisierungsverzerrung zu verringern – dies ermöglicht die Implementierung einer hocheffizienten Codierung.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1A ist ein Blockdiagramm eines Encoders, der eine Codierung mit einem herkömmlichen adaptiven Bitzuteilungs-/Skalarquantisierungsschema durchführt;
  • 1B ist ein Blockdiagramm eines Decoders zur Verwendung mit dem Encoder aus 1A;
  • 2A ist ein Blockdiagramm eines Encoders, der das herkömmliche CELP-Schema verwendet;
  • 2B ist ein Blockdiagramm eines Decoders zur Verwendung mit dem Encoder aus 2A;
  • 3A ist ein Blockdiagramm zur Erläuterung des Encoders nach den Prinzipien der vorliegenden Erfindung;
  • 3B ist ein Blockdiagramm zur Erläuterung des Decoders nach den Prinzipien der vorliegenden Erfindung;
  • 4A ist ein Blockdiagramm, das ein Beispiel des Encoders nach der vorliegenden Erfindung, angewendet auf das Transformationscodierschema, zeigt;
  • 4B ist ein Blockdiagramm, das ein Beispiel der Konfiguration eines Rest-/Hüllkurvenrechenteiles in 4A zeigt,
  • 5 ist ein Zeitdiagramm, das eine rahmenweise Segmentierung eines Eingangssignals in Teilrahmen und einen Rahmen für LOT-(Lapped Orthogonal Transform)-Verarbeitung in jedem Teilkanal zeigt;
  • 6A ist ein Diagramm, das die Prozedur zum Ableiten einer spektralen Hüllkurve aus Vorhersagekoeffizienten in einem Hüllkurvenrechenteil 32E in 4A zeigt;
  • 6B ist ein Diagramm, das eine abgewandelte Form der Prozedur von 6A zeigt;
  • 7 ist ein Vektorelement-Anordnungsdiagramm, das Elemente von Restsequenzvektoren im Fall der Segmentierung von Rahmen des rechten und des linken Kanals in zwei Teile und ein Verschachtelungsschema dafür zeigt;
  • 8 ist ein Vektorelement-Anordnungsdiagramm, das eine Abwandlung des Verschachtelungsschemas aus 7 zeigt;
  • 9 ist ein Blockdiagramm, das die Konfiguration eines Vektorquantisierteiles zeigt;
  • 10A ist ein Blockdiagramm, das ein anderes Beispiel jedes Rest-/Hüllkurvenrechenteiles in 4A zeigt;
  • 10B ist ein Blockdiagramm, das ein weiteres Beispiel jedes Rest-/Hüllkurvenrechenteiles in 4A zeigt;
  • 11 ist ein Blockdiagramm, das ein Beispiel eines Decoders zur Verwendung mit dem Encoder aus 4A zeigt;
  • 12A ist ein Blockdiagramm, das ein Beispiel der Konfiguration zum Auswählen einer Mehrzahl von Verschachtelungsschemata im Encoder aus 4A zeigt;
  • 12B ist ein Blockdiagramm, das ein Beispiel der Konfiguration zum Schalten eines zum Encoder aus 12A inversen Verschachtelungsschemas auf der Decoderseite zeigt;
  • 13 ist ein Blockdiagramm, das die Funktionskonfiguration eines Encoders zeigt, der konstruiert ist, um nur einen transienten Rahmen eines Signals in Teilrahmen zu segmentieren;
  • 14 ist ein Diagramm, das Beispiele der Rahmensegmentierung, der Segmentierung des transienten Rahmens in Teilrahmen und Fensterfunktionen in MDCTs im Encoder von 13 zeigt;
  • 15 ist ein Blockdiagramm, das ein Beispiel der Funktionskonfiguration eines dem Encoder aus 13 entsprechenden Decoders zeigt;
  • 16 ist ein Blockdiagramm, das ein Beispiel der Funktionskonfiguration eines Encoders zeigt, der das Codierverfahren aus 13 auf die Codierung von Stereosignalen anwendet;
  • 17 ist ein Blockdiagramm, das ein Beispiel der Funktionskonfiguration eines dem Encoder aus 16 entsprechenden Decoders zeigt;
  • 18 ist ein Blockdiagramm, das eine abgewandelte Konfiguration zum Codieren von Feinstrukturkoeffizienten anstelle des Codierens von Restkoeffizienten in den Encodern von 13 und 16 zeigt;
  • 19 ist ein Blockdiagramm, das eine der 18 entsprechende abgewandelte Konfiguration in den Encodern der 15 und 17 zeigt;
  • 20 ist ein Funktionsblockdiagramm, das die Konfiguration des Encoders nach der vorliegenden Erfindung, angewendet auf Multiplexcodierung von Bild- und akustischen Signalen, zeigt;
  • 21 ist ein Blockdiagramm, das ein Beispiel der Konfiguration eines Interrahmen-Vorhersageteiles 95 in 20 zeigt;
  • 22 ist ein Blockdiagramm, das die Konfiguration eines dem Encoder aus 20 entsprechenden Decoders zeigt;
  • 23A ist ein Blockdiagramm, das den Encoder nach der vorliegenden Erfindung angewendet auf das CELP-Codierschema zeigt; und
  • 23B ist ein Blockdiagramm eines dem Encoder aus 23A entsprechenden Decoders.
  • BESCHREIBUNG DER BEVORZUGTEN AUSGESTALTUNGEN
  • In 3A sind Funktionsblöcke eines Encoders zur Erläuterung der Prinzipien der vorliegenden Erfindung abgebildet. Signale (als Digitalsignale angenommen) von n (eine ganze Zahl größer oder gleich 2) Kanälen werden in jeweilige Kanäle CH1 bis CHn eingegeben und codiert. Die Signale der jeweiligen Kanäle werden in Signalsegmentierteilen 41 bis 4n in Rahmen einer festgelegten Länge segmentiert und anschließend in Leistungsnormierungsteile 31 bis 3n eingegeben. Die Leistungsnormierungsteile 31 bis 3n berechnen Durchschnittsleistungen gewünschter Komponenten der Signale in den jeweiligen Rahmen und normieren (dividieren) die Signale durch die Durchschnittsleistungen, um normierte Signale XN1 bis XNn zu erzeugen. Gleichzeitig geben die Leistungsnormierungsteile 31 bis 3n Normierungsverstärkungen G1 bis Gn (die jeweils den Durchschnittsleistungen entsprechen) und den Durchschnittsleistungen entsprechende Gewichte V1 bis Vn aus.
  • Die Verarbeitung in den Leistungsnormierungsteilen 31 bis 3n kann eine Verarbeitung im Zeitbereich oder im Frequenzbereich sein. Für die Durchschnittsleistungen G1 bis Gn wird jeweils ein Wert in jeweils einem der Rahmen bestimmt. Wenn z. B. das Eingangssignal ein akustisches Signal ist, ist es in der Technik üblich, das psychoakustische Gewicht zu berücksichtigen; daher soll angenommen werden, dass die Gewichte V1 bis Vn jeweils einen aus einer Mehrzahl von Elementen bestehenden Vektor darstellen. Alternativ kann, wie später beschrieben, wenn die Leistungsnoimierungsteile 31 bis 3n eine Verarbeitung im Frequenzbereich durchführen, ein Leistungsungleichgewicht im Frequenzbereich auch verwendet werden, um die Quantisierungsverzerrung zu verringern, indem die spektrale Hüllkurve jedes Signals zum Gewicht beigetragen wird; auch in einem solchen Fall werden die Gewichte V1 bis Vn als aus jeweils einer Mehrzahl von Elementen bestehende Vektoren gehandhabt. Bei der vorliegenden Erfindung jedoch können die Gewichte V1 bis Vn auch ausschließlich von den Verstärkungen G1 bis Gn abhängige Werte sein; in diesem Fall haben die Elemente in den jeweiligen Vektoren V1 bis Vn gleiche Werte.
  • Die normierten Signale XN1 bis XNn aus den Leistungsnormierungsteilen 31 bis 3n werden einem Verschachtelungsteil 5 zugeführt, wo sie zu vorgegebenen Sequenzen kombiniert werden und aus dem sie als eine vorgegebene Zahl m (eine ganze Zahl größer oder gleich 1) von Signalvektoren X1 bis Xm ausgegeben werden. In diesem Fall werden die normierten Signale kombiniert oder verschmolzen, so dass die Signalvektoren X1 bis Xm jeweils Elemente enthalten, die Eingangssignalen von zwei oder mehr verschiedenen Kanälen entsprechen. Das Verschachtelungsteil 5 kombiniert auch die Gewichte V1 bis Vn aus den Leistungsnormierungsteilen 31 bis 3n in den gleichen Sequenzen wie denen der normierten Signale in dem Verschachtelungsteil 5 und gibt m Gewichtungsvektoren W1 bis Wm aus. So wird die Entsprechung zwischen den Elementen der Gewichtungsvektoren W1 bis Wm und den Elementen der Signalvektoren X1 bis Xm aufrechterhalten.
  • Ein Vektorquantisierteil 6 hat ein eingebautes Codebuch 6CB, in dem Quantisierungsvektoren mit der gleichen Länge wie der der Signalvektoren entsprechend ihren Indizes vorgespeichert sind. Bei der herkömmlichen Vektorquantisierung wird ein einziges Codebuch für die Vektorquantisierung eines einzelnen Kanalsignals verwendet, doch bei der vorliegenden Erfindung wird jeder Quantisierungsvektor in dem einen Codebuch 6CB verwendet, um die Signalvektoren Y1 bis Ym mit Elementen, die den Signalen der Mehrzahl von verschiedenen Kanälen entsprechen, zu codieren; daher wird der Quantisierungsvektor im Folgenden als kombinierter Vektor bezeichnet, und das Codebuch 6CB mit vielen darin gespeicherten kombinierten Vektoren wird im Folgenden auch als kombiniertes Codebuch bezeichnet.
  • Das Vektorquantisierteil 6 durchsucht das kombinierte Codebuch 6CB nach den Signalvektoren Y1 bis Ym und basierend auf den den Quantisierungsvektoren entsprechenden Gewichtungsvektoren W1 bis Wm bestimmt es Quantisierungsvektoren, die das gewichtete Abstandsmaß minimieren (d. h. die die Quantisierungsverzerrung verringern), und gibt entsprechende Quantisierungsindizes J1 bis Jm aus. Wenn ein solches Vektorquantisierschema in dem Vektorquantisierteil 6 verwendet wird, ist der Beitrag von Elementen, die dem Kanal mit der größeren Leistung entsprechen, zum Wert der Quantisierungsverzerrung bei der Quantisierung der Signalvektoren groß; deshalb wird durch Auswählen des kombinierten Vektors, der die Quantisierungsverzerrung minimiert, das Signal des Kanals mit der höheren Leistung automatisch mit weniger Quantisierungsverzerrung codiert.
  • Der Encoder aus 3A gibt die Codes G1 bis Gn aus, die die Verstärkungen und die Quantisierungsindizes J1 bis Jm darstellen, als Ergebnis einer rahmenweisen Codierung der Signale der Kanäle CH1 bis CHn aus. Die Codes G1 bis Gn und die Indizes J1 bis Jm werden einem Decoder aus 3B bereitgestellt, der eine Decodierung wie nachfolgend beschrieben ausführt. Die Quantisierungsindizes J1 bis Jm werden einem Vektordecodierteil 72 zugeführt. Das Vektordecodierteil 72 hat ein kombiniertes Codebuch 7CB, das mit dem in dem Encoder aus 3A vorgesehenen Codebuch 6CB identisch ist. Kombinierte Vektoren Y1' bis Ym', die den Quantisierungsindizes J1 bis Jm entsprechen, werden aus dem Codebuch 7CB gelesen und einem inversen Verschachtelungsteil 76 zugeführt. Das inverse Verschachtelungsteil 76 arrangiert alle Elemente der kombinierten Vektoren Y1' bis Ym' in Folgen entgegengesetzt denen im Verschachtelungsteil 5 des Codierers aus 3A, wodurch n Sequenzen aus normierten Signalen X1 bis Xn erhalten werden. Diese normierten Signale X1 bis Xn werden Denormierungsteilen (Multiplizierern) 771 bis 77n zugeführt, wo sie mit den Verstärkungen G1 bis Gn multipliziert werden, um die Signale aus den Kanälen CH1 bis CHn wieder herzustellen.
  • 4A zeigt in Blockform einen Encoder, der akustische Signale von rechten und linken Kanälen im Frequenzbereich codiert, wie auch bei 3A der Fall ist; dieser Encoder verringert eine Verzerrung durch Codieren unter Ausnutzung von Leistungsungleichgewicht in Richtung der Zeitachse und Leistungsungleichgewicht in Richtung der Frequenzachse sowie Leistungsungleichgewicht zwischen rechtem und linken Kanal. Im Falle von Leistungsungleichgewicht in Richtung der Zeitachse werden Rahmen von akustischen Eingangssignalen auf rechtem und linkem Kanal jeweils in n (eine ganz Zahl größer oder gleich 2) Teilrahmen segmentiert, die auf n Teilkanäle verteilt werden, um n Signalsequenzen (Teilsequenzen) zu erhalten; das Leistungsungleichgewicht in Richtung der Zeitachse wird als Leistungsungleichgewicht unter ihnen verwendet. Als Leistungsungleichgewicht in Richtung der Frequenzachse gibt es ein Leistungsungleichgewicht unter den Frequenzbereich-Restkoeffizienten von akustischen Signalen der n Teilkanäle. Der Encoder aus 4A wird nachfolgend im Detail beschrieben.
  • Der Encoder aus 4A umfasst: Rahmensegmentierteile 31L und 31R , die jeweils Rahmen von vom Links- bzw. Rechtskanalanschluss 11L und 11R zugeführten digitalen akustischen Eingangssignalen segmentieren und die n Teilrahmen an n Teilkanäle verteilen; Rest-/Hüllrechenteile 32L1 bis 32Ln und 32R1 bis 32Rn , die Frequenzbereich-Restkoeffizienten und spektrale Hüllkurve in den jeweiligen Teilrahmen der akustischen Signale in den jeweiligen Teilkanälen berechnen; Leistungsnormierungsteile 33L1 bis 33Ln und 33R1 bis 33Rn , die die Leistungen der Restkoeffizienten in den jeweiligen Teilkanälen normieren; Gewichtungsrechenteile 34L1 bis 34Ln und 34R1 bis 34Rn , die die spektralen Hüllkurven in den jeweiligen Teilkanälen mit entsprechenden Leistungsnormierungsverstärkungen multiplizieren und als Gewichtungsfaktoren V (Vektoren) die Multiplikationsergebnisse ausgeben, nachdem sie bei Bedarf ferner mit psychoakustischen Gewichtungsfaktoren multipliziert worden sind; ein Restverschachtelungsteil 35XY , das die Restkoeffizienten von linkem und rechtem Kanal in vorgegebenen verschiedenen Sequenzen umordnet; ein Gewichtungsverschachtelungsteil 35VW , das die Gewichtungsfaktoren des linken und rechten Kanals in den gleichen Sequenzen wie die Restkoeffizienten umordnet; ein Vektorquantisierteil 36, das eine gewichtete Vektorquantisierung mit den umgeordneten Restkoeffizienten und den ihnen entsprechenden umgeordneten Gewichtungs faktoren durchführt.
  • Allgemein ist ein mögliches Verfahren, das verwendet werden kann, um die Informationsmenge (die Zahl von Bits) zu verringern, die zum Codieren des akustischen Eingangssignals im Frequenzbereich notwendig ist, Restkoeffizienten durch Abflachen der Hüllkurve der Frequenzcharakteristika (des Spektrums) des akustischen Eingangssignals zu erhalten und die spektrale Hüllkurve und die Restkoeffizienten zu codieren. Z. B. werden die zwei nachfolgend erwähnten Methoden als brauchbar zum Gewinnen der Restkoeffizienten angesehen.
    • (a) Transformieren des akustischen Eingangssignals in Frequenzbereichskoeffizienten und gleichzeitig Berechnen der spektralen Hüllkurve des Eingangssignals, dann Normieren der Frequenzbereichskoeffizienten mit der spektralen Hüllkurve, um die Restkoeffizienten zu erhalten.
    • (b) Erhalten eines Restsignals durch Verarbeiten des Eingangssignals im Zeitbereich mit einem inversen Filter, das durch lineare Vorhersagekoeffizienten gesteuert ist, und Transformieren des Restsignals zu Frequenzbereichskoeffizienten, um die Restkoeffizienten zu erhalten.
  • Die folgenden drei Verfahren können verwendet werden, um die spektrale Hüllkurve des Eingangssignals im Verfahren (a) zu erhalten.
    • (c) Transformieren der linearen Vorhersagekoeffizienten des Eingangssignals mit einer Zeit-Frequenz-Transformation (z. B. Fourier-Transformation) durch Ausnutzung der obigen Tatsache.
    • (d) Aufspalten der durch die Zeit-Frequenz-Transformation des Eingangssignals erhaltenen Frequenzbereichskoeffizienten in eine Mehrzahl von Teilbändern und Erzeugen von Skalierungsfaktoren der jeweiligen Teilbänder (z. B. durchschnittliche Leistungen der Teilbänder) als die spektrale Hüllkurve.
    • (e) Berechnen der linearen Vorhersagekoeffizienten eines Zeitbereichssignals, erzeugt durch inverse Transformation der Absolutwerte der Frequenzbereichskoeffizienten, die durch Zeit-Frequenz-Transformation des Eingangssignals erhalten sind, und Transformieren der linearen Vorhersagekoeffizienten mit dem Fourier-Transformationsschema.
  • Die Verfahren (c) und (e) basieren auf den nachfolgend beschriebenen Tatsachen. Die linearen Vorhersagekoeffizienten stellen die Frequenzcharakteristika des Eingangssignals dar; deshalb entspricht die spektrale Hüllkurve der linearen Vorhersagekoeffizienten der spektralen Hüllkurve des Eingangssignals. Genauer gesagt ist die spektrale Amplitude, die durch die Fourier-Transformation der linearen Vorhersagekoeffizienten erhalten wird, der Kehrwert der spektralen Hüllkurve des Eingangssignals.
  • In der Ausgestaltung von 4A der vorliegenden Erfindung kann eine beliebige Kombination der Verfahren (a) und (c) oder (d) oder (e) für die akustischen Signalteilsequenzen der jeweiligen aus zwei N Abtastwerten bestehenden Teilrahmen verwendet werden. In 4B ist ein Beispiel des Rest-/Hüllkurven-Rechenteiles 32 (ein beliebiges der Teile 32L1 bis 32Ln und 32R1 bis 32Rn ) gezeigt, das verwendet wird, wenn die Verfahren (a) und (c) in Kombination eingesetzt werden. Wie in 4B gezeigt, umfasst das Rest-/Hüllkurven-Rechenteil 32: ein Fensterbildungsteil 32A, das das akustische Teilrahmensignal mit einer gewünschten Fensterfunktion multipliziert, ein MDCT-Teil 32B, das durch die MDCT-Transformation das Ausgangssignal vom Fensterbildungsteil 32A in Frequenzbereichskoeffizienten transformiert; ein LPC-Analyseteil 32C, das lineare Vorhersagekoeffizienten durch Durchführung einer LPC-Analyse des Ausgangssignals vom Fensterbildungsteil 32A erhält; ein Quantisierteil 32D, das die linearen Vorhersagekoeffizienten quantisiert und die quantisierten linearen Vorhersagekoeffizienten und den entsprechenden Quantisierungsindex IE ausgibt (der der spektralen Hüllkurve entspricht und daher im Folgenden als Hüllkurvenindex bezeichnet wird); ein Hüllkurven-Rechenteil 32E, das die spektrale Hüllkurve E aus den quantisierten Vorhersagekoeffizienten berechnet; und ein Normierungsteil 32F, das die Frequenzbereichskoeffizienten aus dem MDCT-Teil 32B mit der spektralen Hüllkurve normiert (durch sie dividiert) und Restkoeffizienten X ausgibt.
  • Das Rahmensegmentierteil 31L1 in 4A erzeugt für je N Abtastwerte jedes Rahmens (z. B. 16 bis 64 ms im Falle eines Musiksignals und 10 bis 20 ms im Falle eines Sprachsignals) des dem Linkskanal-Eingangsanschluss 31L zugeführen akustischen Linkskanalsignals 2 N-Abtastwert-Teilsequenzen, die jeweils aus den N Abtastwerten und den unmittelbar vorhergehenden N Abtastwerten bestehen, als Rahmen zur Verwendung in der LOT-(Lapped Orthogonal Transform)-Verarbeitung; die Teilkanäle werden den Rest-/Hüllkurven-Rechenteilen 32L1 bis 32Ln in zyklischer Folge bereitgestellt. D. h., wie in 5 gezeigt, wo n = 4 ist, wird, wenn Rahmen F1, F2, ... (Reihe A) des akustischen Linkskanals sequentiell eingegeben werden, jeder Rahmen, z. B. F1, in vier Teilrahmen F11, F12, F13 und F14 (Reihe B) aus je N Abtastwerten segmentiert; dann werden 2N-Abtastwert-Teilsequenzen {F01, F11}, {F11, F12}, {F12, F13} und {F12, F14}, die jeweils aus einem Teilrahmen und dem unmittelbar vorhergehenden Teilrahmen gebildet sind, als LOT-Verarbeitungsrahmen den Rest-/Hüllkurven-Rechenteilen 321 bis 324 der entsprechenden Teilkanäle CH1 bis CH4 zugeführt. Das gleiche gilt für die Rahmen F2, F3, ... Das LOT-Schema ist z. B. offenbart in H. S. Malvar „Signal Processing with Lapped Transform", Artech House.
  • In dem Rest-/Hüllkurven-Rechenteil 32 jedes Teilkanals in 4B werden die diesem zugeführten 2 N-Abtastwert-Teilsequenzen jeweils mit einer Fensterfunktion in dem Fensterbildungsteil 32A multipliziert. Das Fenster ist üblicherweise als Hamming-Fenster geformt. Die so mit der Fensterfunktion multiplizieiten 2 N-Abtastwert-Teilsequenzen werden einer modifizierten diskreten Kosinustransformation N-ter Ordnung unterzogen, die eine Art von orthogonaler Transformation ist, durch die N-Abtastwert-Frequenzbereichskoeffizienten. Gleichzeitig wird die Ausgabe vom Fensterbildungsteil 32A der LPC-Analyse in dem LPC-Analyseteil 32C unterzogen, um Vorhersagekoeffizienten α0, ... αp von p-ter Ordnung zu erhalten. In dem Quantisierteil 32D werden die Vorhersagekoeffizienten α0 bis αp z. B. in LSP-Parameter oder k-Parameter transformiert, dann werden sie quantisiert, um den den Vorhersagekoeffizienten entsprechenden Hüllkurvenindex IE zu erhalten.
  • Die spektrale Hüllkurve der Vorhersagekoeffizienten α0 bis αp wird in dem Hüllkurven-Rechenteil 32E berechnet. Die spektrale Hüllkurve der Vorhersagekoeffizienten wird mit einem Verfahren wie in
  • 6A gezeigt erhalten. D. h., eine 4 N-Abtastwert-Sequenz, die aus P + 1 quantisierten Vorhersagekoeffizienten mit nachfolgenden (4 N – P – 1) Nullen besteht, wird einer diskreten Fourier-Transformation (z. B. einer schnellen Fourier-Transformation FFT) unterzogen, dann wird sein Leistungsspektrum 2 N-ter Ordnung berechnet, aus dem Komponenten von ungeradzahliger Ordnung extrahiert werden durch Dezimieren von Komponenten geradzahliger Ordnung und ihre Quadratwurzeln werden berechnet. Die so erhaltenen spektralen Amplituden an N Punkten stellen den Kehrwert der spektralen Hüllkurve E dar.
  • Alternativ wird, wie in 6B gezeigt, eine 2 N-Abtastwert-Sequenz, die aus P + 1 quantisierten Vorhersagekoeffizienten gefolgt von (4 N – 1) Nullen besteht, FFT-analysiert, und das Leistungsspektrum N-ter Ordnung wird für das Ergebnis der Analyse berechnet. Der Kehrwert der spektralen Hüllkurve, von der i-ten bis zur 0-ten, wird erhalten durch Mitteln der Quadratwurzeln der (i + 1)ten und i-ten Leistungsspektren, d. h. durch Interpolieren mit ihnen, ausgenommen für i = N –1. Der Kehrwert der (N – 1)ten spektralen Hüllkurve wird erhalten durch Berechnen der Quadratwurzel des (n – 1)ten Leistungsspektrums.
  • Das Normierungsteil 32F normiert die spektrale Amplitude aus dem MDCT-Teil 32B durch Dividieren mit der so erhaltenen spektralen Hüllkurve für jeden entsprechenden Abtastwert, um die Restkoeffizienten X zu erhalten. Es ist jedoch der Kehrwert der spektralen Hüllkurve E, der direkt durch Fourier-Transformation der quantisierten Vorhersagekoeffizienten wie oben beschrieben erhalten wird; daher muss in der Praxis das Normierungsteil 32F nur die Ausgabe des MDCT-Teils 32B und die Ausgabe des Spektralhüllkurvenrechenteils 32E (den Kehrwert der spektralen Hüllkurve E) multiplizieren. Auch bei der nachfolgenden Beschreibung wird jedoch der Bequemlichkeit halber angenommen, dass das Spektralhüllkurven-Rechenteil 32E die spektrale Hüllkurve E ausgibt.
  • Wieder auf 4A bezogen werden die Restkoeffizienten X und die spektralen Hüllkurve E von dem Rest-/Hüllkurven-Rechenteil 32L1 bis 32Ln in den Teilkanälen CH1 bis CHn des linken Kanals den Leistungsnormierungsteilen 33L1 bis 33Ln bzw. den Gewichtungsrechenteilen 34L1 bis 34Ln bereitgestellt.
  • Die Leistungsnormierungsteile 33L1 bis 33Ln berechnen jeweils den Durchschnittswert der Leistungen der Restkoeffizienten X für jeden Verarbeitungsrahmen, dividieren dann die Restkoeffizienten durch den gemittelten Leistungswert, um normierte Koeffizienten XN (einen aus N Abtastwerten bestehenden Vektor) zu erhalten und diese dem Rest-Verschachtelungsteil 35XY bereitzustellen. Gleichzeitig stellen die Leistungsnormierungsteile 33L1 bis 33Ln die gemittelten Leistungswerte als Verstärkungen G den Gewichtungsrechenteilen 34L1 bis 34Ln bereit und geben die Verstärkungen G darstellende Indizes IG1 bis IGn aus. Die Gewichtungsrechenteile 34L1 bis 34Ln multiplizieren jeweils die spektrale Hüllkurve E mit der Verstärkung G und liefern das Multiplikationsergebnis als einen Gewichtungsfaktor V (einen aus N Elementen bestehenden Vektor) an das Gewichtungsverschachtelungsteil 35VW . Wenn nötig, wird das Multiplikationsergebnis mit einer psychoakustischen Gewichtung (einem aus N Elementen bestehenden Vektor) multipliziert, und das Ergebnis dieser Multiplikation wird als der Gewichtungsfaktor V bereitgestellt. Daher entspricht der so erhaltene Gewichtungsfaktor V dem Produkt der spektralen Hüllkurve und der Leistungsnormierungsverstärkung G (wobei das Produkt ferner bei Bedarf die psychoakustische Gewichtung enthält).
  • Das psychoakustische Gewichtungsschema ist z. B., die spektrale Hüllkurve auf eine Konstante von ca. –0,6 anzuheben, um eine psychoakustische Steuerung durchzuführen und so einen kleineren Wert zu vergrößern und einen größeren Wert zu verkleinern. Es ist auch möglich, ein anderes psychoakustisches Steuerschema anzuwenden, in welchem das für jeden Abtastwert erforderliche Signal-Rausch-Verhältnis (SNR), das mit einem in dem MPEG-Audioverfahren verwendeten psychoakustischen Modell erhalten wird, nicht-logarithmisch gemacht wird und mit dem oben erwähnten Kehrwert der spektralen Hüllkurve multipliziert wird. In diesem Schema wird das Minimum-SNR, das die psychoakustische Erfassung von Rauschen für jeden Frequenzabtastwert ermöglicht, durch Abschätzen des Ausmaßes der Maskierung mit einem psychoakustischen Modell aus der Frequenzcharakteristik des durch die Analyse des Signals erhaltenen Eingangssignals berechnet. Dieses SNR wird für jeden Abtastwert benötigt. Die im MPEG-Audioverfahren verwendeten psychoakustischen Modelltechniken sind in der ISO/IEC-Norm IS-11172-3 offenbart. Es ist auch möglich, den Kehrwert der spektralen Hüllkurve als Gewichtungssignal zu verwenden und die psychoakustische Steuerung wegzulassen.
  • Das Rahmensegmentierteil 31R, die Rest-/Hüllkurven-Rechenteile 32R1 bis 32Rn , die Leistungsnormierungsteile 33R1 bis 33Rn und die Gewichtungs-Rechenteile 34R1 bis 34Rn am rechten Kanal arbeiten in der gleichen Weise wie die am rechten Kanal, und die Rest-/Hüllkurven-Rechenteile 32R1 bis 32Rn auf den jeweiligen Teilkanälen geben Quantisierungsindizes IPR1 bis IPRn aus. Die Leistungsnormierungsteile 33R1 bis 33Rn geben Verstärkungsindizes IGR1 bis IGRn und normierte Restkoeffizienten X aus, wobei Letztere dem Restverschachtelungsteil 35XY bereitgestellt werden. Die Gewichtungsrechenteile 34R1 bis 34Rn geben die Gewichtungsfaktoren aus, die dem Gewichtungsverschachtelungsteil 35VW bereitgestellt werden.
  • Auf diese Weise werden insgesamt 2n Restkoeffizienten (also ist die Gesamtzahl von Abtastwerten 2nN) auf dem rechten und linken Kanal, die für jeden Rahmen des akustischen Eingangssignals erhalten werden, für jeden Rahmen in dem Restverschachtelungsteil 35 umgeordnet, aus dem sie als m Sequenzen ausgegeben werden. Dabei werden die Restkoeffizienten so umgeordnet oder verschachtelt, dass sie so stark wie möglich miteinander vermischt werden. Mit anderen Worten werden Leistungsungleichgewicht zwischen den dem linken und rechten Signal von den Anschlüssen 11L und 11R entsprechenden Restkoeffizienten und Leistungsungleichgewicht im Frequenzbereich beseitigt durch Mischen der Restkoeffizienten, und die Leistungen werden über jeden Rahmen hinweg im Wesentlichen gleichförmig gemacht.
  • Ein Beispiel eines solchen Verschachtelungsschemas wird in Verbindung mit dem Fall beschrieben, wo die akustischen Signale des linken und rechten Kanals in zwei Paar Signalteilsequenzen (d. h. n = 2) von Teilkanälen CHL1, CHL2 und CHR1, CHR2 aufgespalten werden. Dabei werden normierte Restkoeffizientenvektoren XL1 und XL2, die in den Telkanälen CHL1 und CHL2 der linken Kanalseite erhalten werden, durch ihre Frequenzkomponenten X wie folgt bezeichnet: {X1,1, X1,2, ..., X1,N}, {X2,1, X2,2, ..., X2,N} und normierte Restkoeffizientenvektoren, die in den Teilkanälen CHR1 und CHR2 der rechten Kanalseite erhalten werden, werden durch ihre Frequenzkomponenten X wie folgt bezeichnet: {X3,1, X3,2, ... X3,N}, {X4,1, X4,2, ... X4,N}
  • Wie in 7 gezeigt, sind diese Restkoeffizientenvektoren in Richtung in der Reihenfolge der Kanalnummer mit ihren Elementen (Frequenzkomponenten) in Spaltenrichtung angeordnet. In diesem Fall werden m Quintetts von Komponenten extrahiert, die aus den Komponenten x1,1, x2,1, ..., x4,1 in der ersten bis vierten Zeile der Matrix von 4-Teilkanal-Komponenten herrühren und sequentiell viermal in Richtung der Frequenzachse verschoben, wobei sie in der Richtung, in der die Teilkanalnummern angeordnet sind, zirkulieren. Dann werden die folgenden m Sequenzen y1 bis ym erzeugt, die die Quintetts von Komponenten jeweils als ihre Elemente verwenden. Y1 = {x1,1, X2,5, X3,9, x4,13, X1,17} Y2 = {x2,1, X3,5, X4,9, x1,13, X2,17} Y3 = {X3,1, X4,5, X1,9, x2,13, X3,17} ... Ym = {X1,N–16, X2,N–12, X3,N–8, x4,N–4, X1,N }
  • Die m Sequenzen Y1 bis Ym seien dargestellt wie folgt: Y1 = {y1 1, y2 1, y3 1, y4 1, y5 1}, Y2 = {y1 2, y2 2, y3 2, y4 2, y5 2}, Y3 = {y1 1, y2 3, y3 3, y4 3, y5 3}, ... Ym = {y1 m, y2 m, y3 m, y4 m, y5 m}, daher gilt z. B. y1 1 = x1,1, Y2 1 = x2,5, ..., y1 2 = x2,1, y2 2 = x3,5, ...
  • In dem Beispiel von 7 werden, da die Elementextraktionsrouten von jeweiligen Elementen einer ersten 4 × 4-Anordnung ausgehen und die Zirkularverschiebung viermal wiederholen, um die 5-Element-Vektoren Y1, Y2, Y3, ... zu erhalten, in der 17ten bis 20ten Reihe fünfte Elemente der ersten 16 Vektoren erhalten werden. Entsprechend startet die Elementextraktionsroute erneut von jeweiligen Elementen in der 17ten bis 20ten Reihe, wiederholt die Zirkularverschiebung viermal, wodurch die nächsten 16 Vektoren erhalten werden. So werden durch Wiederholen der Zirkularverschiebung alle 20 Reihen 16 Vektoren erhalten. Wenn z. B. N = 12, so ist 128 : 20 = 6 mit Rest 8; was die letzten 8 Reihen angeht, werden 5-Element-Vektoren unter Verwendung eines anderen Extraktionsschemas erzeugt, und die letzten zwei Elemente werden zu einem Vektor kombiniert. Folglich ist in diesem Fall die Gesamtzahl m von Vektoren 103.
  • Die 2 n (in diesem Beispiel ist n = 2) Gewichtungsfaktorvektoren VL1 = {V1,1, V1,2, ..., V1,N} VL2 = {V2,1, V2,2, ..., V2,N} VR1 = {V3,1, V3,2, ..., V3,N} VR2 = {V4,1, V4,2, ..., V4,N}die von den Gewichtungsrechenteilen 34L1 , 34L2 , 34R1 , 34R2 dem Gewichtungsverschachtelungsteil 35 bereitgestellt werden, werden ebenfalls in exakt derselben Weise wie die Restverschachtelung verschachtelt, wodurch die folgenden m Gewichtungsfaktorsequenzen W1 bis Wm erhalten werden W1 = {v1,1, v2,5, v3,9, v4,13, v1,17} W2 = {v2,1, v3,5, v4,9, v1,13, v2,17} W3 = {v3,1, v4,5, v1,9, v2,13, v3,17} ... Wm = {v1,N–16, v2,N–12, v3,N–8, v4,N–4, v1,N}
  • Diese Sequenzen werden im Folgenden auch dargestellt wie folgt W1 = {w1 1, w2 1, w3 1, w4 1, w5 1} W2 = {w1 2, w2 2, w3 2, w4 2, w5 2} W3 = {w1 3, w2 3, w3 3, w4 3, w5 3} ... Wm = {w1 m, w2 m, w3 m, w4 m, w5 m}
  • Auch diese Sequenzen werden dem Vektorquantisierteil 36 bereitgestellt.
  • In 8 ist ein anderes Verschachtelungsschema gezeigt. Dieses Beispiel basiert auf der Anordnung von Elementen des normierten Restkoeffizientenvektors XL1 = {x1,1, x1,2, ..., x1,N} des linken Teilkanals CHL1 im Fall von 7. Wie in 8 gezeigt, werden N Elemente der normierten Restkoeffizientenvektoren XL2, XR1 und XR2 zyklisch in Richtung der Frequenzachse um 1, 2 und 3 Elemente verschoben und dann in einer Matrixform angeordnet. Wie im Fall des Beispiels von 7 werden m Komponentenquintetts wiederholt extrahiert, die aus jeweiligen Komponenten in der ersten bis vierten Reihe der Matrix herrühren und um vier Reihen in vertikaler Richtung verschoben, während sie durch vier Teilkanäle zirkulieren. Dann werden die folgenden m umgeordneten Sequenzen Y1 bis Ym erzeugt, die die fünf Komponenten jeweils als ihre Elemente verwenden. Dies gilt für die Gewichtungsfaktoren.
  • Bei der in 7A oder 8B abgebildeten Verschachtelung der Restkoeffizienten und der Gewichtungsfaktoren können die Koeffizienten vorzugsweise so stark wie möglich zwischen den Teilkanälen und im Frequenzbereich vermischt werden; daher ist es wünschenswert, sie zufällig zu verschachteln, und sie müssen nicht regelmäßig verschachtelt werden. Z. B. ist es möglich, die Positionen der zu verschachtelnden Elemente durch Verwendung einer Tabelle zu bestimmen, die die Entsprechung zwischen den Elementen der Sequenzen Y1 bis Ym und den Elementen der jeweiligen Kanäle angibt. Alternativ können die Positionen der Verschachtelung der Elemente durch eine relativ einfache Rechnung festgelegt werden.
  • Die so erhaltenen Sequenzen Y1 bis Ym von dem Restverschachtelungsteil 35XY werden dem Vektorquantisierteil 36 bereitgestellt, wo sie mit den ihnen jeweils entsprechenden Gewichtungsfaktorsequenzen W1 bis Wm gewichtet vektorquantisiert werden.
  • 9 zeigt ein Beispiel der Konfiguration des Vektorquantisierteiles, von der gezeigt wird, dass sie die gewichtete Vektorquantisierung einer k-ten verschachtelten Restsequenz (angenommen als 5-Element-Sequenz wie in 7A oder 8A) Yk = {y1 k, y2 k, y3 k, y4 k, y5 k} = (y1 k|i = 1 bis 5}mit der entsprechenden k-ten verschachtelten Gewichtungsfaktorsequenz Wk = {w1 k, w2 k, ..., w5 k} = {wi k|i = 1 bis 5}durchführt.
  • In einem kombinierten Codebuch 36A sind diverse erwartete kombinierte Vektoren einer festgelegten Länge korrespondierend zu ihren jeweiligen Indizes vorabgespeichert. Wenn eins-tes Element eines aus einem Index j des kombinierten Codebuches 36A gelesenen kombinierten Vektors C(j) dargestellt ist als ci(j), wird die Differenz y1 k – ci(j) zwischen entsprechenden Elementen der Vektoren Yk und C(j) durch einen Subtrahierer 36B für i = 1 bis 5 berechnet; die Differenzen werden jeweils durch einen Quadrierer 36C quadriert, und die quadrierten Ausgaben werden an ein Skalarprodukt-Rechenteil 36E angelegt. Andererseits wird jede Komponente wi k des Gewichtungsvektors Wk von einem Quadrierer 36D quadriert, und die quadrierte Ausgabe wird an das Skalarprodukt-Rechenteil 36E angelegt, wodurch das Skalarprodukt der quadrierten Ausgaben von den Quadrierern 36C und 36D als ein gewichtetes Abstandsmaß dk(j) für die Vektorquantisierung berechnet und einem Optimum-Codebuch-Suchteil 36F zur Verfügung gestellt wird. D. h., das gewichtete Abstandsmaß ist gegeben durch die folgende Gleichung: dk(j) = Σ[wi k{yi k – ci(j)}]2 wobei Σ ein Additionsoperator für i = 1 bis 5 ist. Das Codebuchsuchteil 36F sucht aus dem kombinierten Codebuch 36A für alle Indizes j gelesene Codevektoren C(j) für den Index j des Codevektors, der das wie oben beschrieben berechnete Abstandsmaß dk(j) minimiert; das Codebuch-Suchteil 36F gibt diesen Index j als einen festgelegten Vektorquantisierungsindex Jk aus. Anschließend wird die gewichtete Vektorquantisierung in gleicher Weise für alle k = 1 – m Restsequenzen Y1 bis Ym durchgeführt, und m so festgelegte Vektorquantisierungsindizes J1 bis Jm werden einem Anschluss 37 in 4A zur Verfügung gestellt.
  • In 4A sind die Rest-/Hüllkurven-Rechenteile 32L1 bis 32Rn und 32R1 bis 32Rn nicht speziell auf die Konfiguration von 4B beschränkt; sie können auch wie in 10A abgebildet konfiguriert sein.
  • Bei der dargestellten Konfiguration sind die Frequenzbereichskoeffizienten, die durch Transformieren des mit der Fensterfunktion in dem Fensterbildungsteil 32A multiplizierten LOT-Verarbeitungsrahmens in den MDCT-Teilen 32B erhalten sind, verzweigt; der Betrag jedes einzelnen Abtastwertes (Spektrum) wird in einem Betragrechenteil 32G berechnet; der ausgegebene Betrag wird einer inversen Fourier-Transformation in einem inversen Fourier-Tiansformationsteil 32H unterzogen, um Autokorrelationskoeffizienten zu erhalten; ein Zeitbereichssignal, das die Autokorrelationskoeffizienten darstellt, wird in einem LPC-Analyseteil 32C LPC-analysiert. Darauf folgen die oben mit Bezug auf 4B beschriebenen Operationen. D. h., die Vorhersagekoeffizienten werden im Quantisierteil 32D quantisiert, von wo der die quantisierten Vorhersagekoeffizienten darstellende Index als Hüllkurvenindex IE ausgegeben wird, und gleichzeitig werden die quantisierten Vorhersagekoeffizienten dem Hüllkurven-Rechenteil 32E zur Verfügung gestellt, um die spektrale Hüllkurve V zu berechnen, die dem Normierungsteil 32E zur Verfügung gestellt wird, um die Restkoeffizienten zu erhalten. Alternativ ist es möglich, eine Konfiguration wie in 10B gezeigt zu verwenden, wo die Frequenzbereichskoeffizienten von dem MDCT-Teil 32B in Teilbänder unterteilt werden, Skalierungsfaktoren SF1 bis SFp der Koeffizienten in den Teilbändern in den Skalierungsfaktor-Rechenteilen 32J1 bis 32Jp berechnet werden, dann die Skalierungsfaktoren SF1 bis SFp in einem Quantisierteil 32K quantisiert werden, um einen den quantisierten Skalierungsfaktor darstellenden Index als Hüllkurvenindex IE bereitzustellen, und gleichzeitig werden die quantisierten Skalierungsfaktoren als Hüllkurve V dem Normierungsteil 32F zur Verfügung gestellt. Die Skalierungsfaktoren können z. B. ein quadrierter Mittelwert der Koeffizienten in dem betreffenden Teilband sein.
  • 11 zeigt in Blockform eine Ausgestaltung des Decoders zur Verwendung mit dem Encoder aus 3A. Die Vektorquantisierungsindizes J1 bis Jm werden von einem Eingangsanschluss 71 einem Vektordecodierteil 72 zur Verfügung gestellt, in dem den jeweiligen Indizes entsprechende Vektoren Y1' bis Ym' decodiert werden, während gleichzeitig die Hüllkurvenindizes IEL1 bis IELn und IER1 bis IERn von einem Eingangsanschluss 73 einem Hüllkurvendecodierteil 62a zugeführt werden, worin die Hüllkurve EL1 bis ELn und ER1 bis ERn decodiert werden. D. h., in dem entsprechend jedem Teilkanal vorgesehenen Decodierteil 62A werden die Vorhersagekoeffizienten α in den jeweiligen Teilkanälen für jeden Rahmen decodiert, und die Hüllkurve der Frequenzcharakteristiken wird aus den decodierten Vorhersagekoeffizienten α für jeden Rahmen in den jeweiligen Teilkanälen in einem Hüllkurven-Rechenteil 62b berechnet, das die gleiche Rechnung durchführt wie das Spektralhüllkurvenrechenteil 32E in dem Rest-/Hüllkurven-Rechenteil 32 des Encoders aus 4B; dadurch werden die Hüllkurve EL1 bis ELn und ER1 bis ERn erhalten. Von einem Eingangsanschluss 74 werden die Verstärkungsindizes IGL1 bis IGLn und IGR1 bis IGRn einem Verstärkungsdecodierteil 75 zugeführt, worin die normierten Verstärkungen (Durchschnittsleistungen) GL1 bis Gn und GR1 bis Gn für jeden Rahmen in den jeweiligen Kanälen decodiert werden.
  • Die in dem Vektordecodierteil 72 decodierten m Vektoren Y1' bis Ym' werden einem inversen Verschachtelungsteil 77XY zugeführt, wo sie einer Verschachtelung entgegengesetzt der in dem Verschachtelungsteil 35 des Encoders aus 4A unterzogen werden, wodurch n Linkskanal-Restkoeffizientenvektoren XL1 bis XLn und n Rechtskanal-Restkoeffizientenvektoren XR1 bis XRn erhalten werden. Diese Restkoeffizientenvektoren XL1 bis XLn und XR 1 bis XRn werden Denormierungsteilen 77L1 bis 77Ln und 77R1 bis 77Rn zugeführt, wo sie mit den entsprechenden decodierten Verstärkungen GL1 bis GLn und GR 1 bis GRn multipliziert, d. h., durch sie denormiert werden. Die multiplizierten Ausgaben werden dann auf Multiplizierer 65L1 bis 65Ln und 65R1 bis 65Rn gegeben, wo sie mit den decodierten Hüllkurve EL1 bis ELn und ER1 bis ERn multipliziert werden; dadurch werden ihnen Hüllkurve hinzugefügt, und die Frequenzbereichschaiakteristiken werden jeweils reproduziert.
  • Diese Frequenzbereichscharakteristiken werden inversen MDCT-Teilen 66L1 bis 66Ln und 66Rn zugeführt, wo sie durch inverse MDCT-Verarbeitung in Zeitbereichssignale mit 2 N Abtastwerten (2 × länger als der Teilrahmen: Verarbeitungsrahmen) umgeformt werden. Dann werden diese Zeitbereichssignale jeweils, wenn notwendig, mit einer Fensterfunktion multipliziert. In Rahmenüberlappungsteilen 78L1 bis 78Ln und 78R1 bis 78Rn werden die Zeitbereichsignale der Verarbeitungsrahmen einer benötigten Verarbeitung unterzogen; d. h., in dem jeweiligen Teilkanal werden die zweiten N Abtastwerte jedes Verarbeitungsrahmens und die ersten N Abtastwerte des unmittelbar vorhergehenden Verarbeitungsrahmens zu einem Teilrahmensignal mit N Abtastwerten überlappt. Die so in den jeweiligen Teilkanälen erzeugten Teilrahmensignale mit N Abtastwerten werden auf die entsprechenden Signalsyntheseteile 79L und 79R des linken und des rechten Kanals gegeben. In dem Linkskanal-Signalsyntheseteil 79L werden für jeden Rahmen die Teilkanalsignale mit N Abtastwerten des linksseitigen Teilkanals kombiniert oder synthetisiert und dabei um eine Teilrahmenperiode (N Abtastwerte) sequentiell verschoben; dadurch wird das Linkskanalsignal eines Rahmens rekonstruiert und an einen Ausgangsanschluss 51L gegeben. Auch im Rechtskanal-Signalsyntheseteil 79R werden Teilrahmensignale mit N Abtastwerten der rechtsseitigen Teilkanäle entsprechend kombiniert oder synthetisiert und dabei um eine Teilrahmenperiode sequentiell verschoben. Auf diese Weise wird das Rechtskanalsignal eines Rahmens rekonstruiert und auf einen Ausgangsanschluss 51R gegeben.
  • Während bei der Ausgestaltung der 4A das Restverschachtelungsteil 35XY und das Gewichtungsverschachtelungsteil 35VW jeweils Verschachtelung auf Grundlage einer vorgegebenen Verschachtelungsabbildung durchführen, ist es auch möglich, eine Konfiguration zu verwenden, in der eine Mehrzahl von Verschachtelungsabbildungen vorbereitet und eine Abbildung daraus ausgewählt wird, die die Verzerrung der Vektorquantisierung minimiert. Ein Beispiel einer solchen Konfiguration ist in 12A gezeigt. Dieses Beispiel umfasst: zwei Sätze von Restverschachtelungsteilen, Gewichtungsverschachtelungsteilen und Vektorquantisierteilen 35XY1 , 35VW1 , 361 und 35XY2 , 35VW2 , 362 ; Abbildungstabellen TB1 und TB2, in denen vorgegebene unterschiedliche Verschachtelungsabbildungen gespeichert sind, die den Verschachtelungsteilen 35XY1 , 35VW1 , und 35XY2 , 35VW2 zur Verfügung gestellt werden; einen Komparator 38, der die Stärke der Quantisierungsverzerrung in den zwei Vektoiquantisierteilen 361 und 362 vergleicht; und einen Selektor, der von den Ausgaben der zwei Vektorquantisierteile 361 und 362 auf der Grundlage des Vergleichs durch den Komparator 38 selektiv die weniger verzerrte ausgibt. Der Knappheit wegen sind die Rahmensegmentierteile 31L und 31R und die Rest-/Hüllkuiven-Rechenteile 32L1 bis 32Ln und 32R1 bis 32Rn in 4A nicht gezeigt, und die Leistungsnormierungsteile 33L1 bis 33Ln und 33R1 bis 33Rn und die Gewichtungsrechenteile 34L 1 bis 34Ln und 34R1 bis 34Rn sind einfach durch 33L , 33R , 34L bzw. 34R identifiziert.
  • In den Restverschachtelungsteilen 35XY1 , und 35XY2 werden die normierten Restkoeffizienten X von den Normierungsteilen 33L und 33R in verschiedenen Sequenzen entsprechend in den Abbildungstabellen TB1 und TB2 vorhandenen Verschachtelungsabbildungen umgeordnet. Entsprechend werden in den Gewichtungsverschachtelungsteilen 35VW1 und 35VW2 die Gewichtungsfaktoren V von den Gewichtungsrechenteilen 34L und 34R in Sequenzen entsprechend den in den Abbildungstabellen TB1 bzw. TB2 vorhandenen Verschachtelungsabbildungen umgeordnet. Die entsprechend der Verschachtelungsabbildung in der Tabelle TB1 umgeordnete Restkoeffizientensequenz und die entsprechende Gewichtungsfaktorsequenz werden dem Quantisierteil 361 zugeführt, wo die Restkoeffizientensequenz gewichtet vektorquantisiert wird. Entsprechend wird die gemäß der Verschachtelungsabbildung in der Tabelle TB2 umgeordnete Restkoeffizientensequenz und die entsprechende Gewichtungsfaktorsequenz dem Vektorquantisierteil 362 zugeführt, wo die Restkoeffizientensequenz der zuvor mit Bezug auf 9 beschriebenen gewichteten Vektorquantisierung unterzogen wird. Der Komparator 38 vergleicht minimale Verzerrungen (minimale Abstände) di k, die bei der Vektorquantisierung in dem Quantisierteil 361 bzw. 362 erhalten sind; auf der Grundlage des Ergebnisses des Vergleichs durch den Komparator 38 wählt der Selektor 39 Ausgabeindizes J1 bis Jm desjenigen der Vektorquantisierteile 361 und 362 , bei dem die berechnete Verzerrung kleiner als bei dem anderen ist. Der Selektor 39 liefert die so ausgewählten Indizes an den Anschluss 37 zusammen mit Information (dem Vergleichsergebnis), die angibt, welche Tabelle verwendet wurde.
  • In 12B ist der Decoder aus 11 gezeigt, der zur Verwendung mit dem Encoder modifiziert ist, der die Verschachtelungsabbildung so auswählt, dass die Quantisierungsverzerrung verringert wird, wie soeben oben mit Bezug auf 12A beschrieben. Der Decoder nach diesem Beispiel hat Abbildungstabellen ITB1 und ITB2, die den Abbildungstabellen TB1 und TB2 in 12A entsprechen, zum Wiederherstellen der Restkoeffizientensequenzen und der Gewichtungssequenzen im Originalzustand. Der Index Is, der die ausgewählte Abbildungstabelle darstellt, wird dem Anschluss 71 zusammen mit den Vektorquantisierungsindizes J1 bis Jm zugeführt; ein Selektor 81 ist durch den Index Is so gesteuert, dass er diejenige der Abbildungstabellen ITB1 und ITB2 wählt, die der von dem Index Is spezifizierten Abbildungstabelle entspricht. Die so ausgewählte Abbildungstabelle wird zur Verschachtelung in dem inversen Verschachtelungsteil 76 verwendet. Die Konfiguration der nächsten Stufe ist identisch mit der der 11 und deshalb nicht gezeigt. In 11 muss das Hüllkurven-Decodierteil 62, wenn ihm die in 10B gezeigten Skalierungsfaktoren SF1 bis SFp der Teilbänder zugeführt werden, nur die Skalierungsfaktoren der Teilbänder entsprechend dem Hüllkurvenindex IE decodieren und ausgeben.
  • Oben ist zwar das Eingangssignal als ein zweikanaliges, rechtes und linkes Stereosignal beschrieben worden, und jedes Kanalsignal ist für jeden Rahmen in eine Mehrzahl von Teilrahmen segmentiert, um eine Mehrzahl von Teilkanälen zu bilden, doch ist es auch möglich, ein 4- oder 5-kanaliges Stereosignal zu verwenden und jedes Kanalsignal in eine Mehrzahl von Teilrahmen zu segmentieren, um ein Vielkanalsignal zu erzeugen. Alternativ ist es möglich, ein Eingangssignal in Niedrigfrequenz- und Hochfrequenzsignale aufzuteilen und diese an die Eingangsanschlüsse 11L und 11R in 4A anzulegen. Oben werden die Signale von den Eingangsanschlüssen 11L und 11R für jeden Rahmen in Mehrheiten von Teilrahmen segmentiert, doch kann ein Schema verwendet werden, bei dem die Signale von den Eingangsanschlüssen 11L und 11R nicht in Teilrahmen segmentiert sind, sondern statt dessen die Restkoeffizienten beider Eingangssignale für jeden Rahmen durch das Verschachtelungsteil 35XY in m Sequenzen segmentiert werden und die auf der Grundlage der spektralen Hüllkurve und der Leistung für jeden Rahmen erzeugten Gewichtungsfaktoren entsprechend von dem Verschachtelungsteil 35VW verschachtelt werden und dann die gewichtete Vektorquantisierung für jede der m Sequenzen durchgeführt wird. Ferner ist es möglich, ein Schema zu verwenden, bei dem ein Eingangssignal, d. h., ein Monosignal, für jeden Rahmen in eine Mehrzahl von Teilrahmen segmentiert wird und Restsignale in den jeweiligen Teilrahmen gewichtet vektorquantisiert werden.
  • Oben ist zwar beschrieben worden, dass das MDCT-Schema für die Transformation in das Frequenzbereichssignal verwendet wird, doch können auch andere orthogonale Transformationsschemata verwendet werden, wenn nicht der Signalrahmen in Teilrahmen segmentiert ist.
  • Wie oben beschrieben ermöglichen die Ausgestaltungen der 4A und 11 im Falle eines Leistungsungleichgewichtes zwischen den Kanälen oder auf der Zeitachse in jedem Rahmen, die Quantisierungsverzerrung zu verringern, ohne die Bitzuweisung adaptiv zu ändern, und erfordern daher nicht die Berechnung für die Bitzuweisung. Außerdem übertragen diese Ausgestaltungen die Bitzuweisungsinformation nicht und sind daher robust gegen Codierfehler. Das Decodierverfahren nach der vorliegenden Erfindung ermöglicht daher eine korrekte Decodierung von mit dem oben beschriebenen Codierverfahren codierten Codes.
  • Während bei der in 4A gezeigten Ausgestaltung des Encoders das eingegebene akustische Signal immer für jeden Rahmen in Teilrahmen zur Verteilung auf eine Mehrzahl von Teilkanälen segmentiert wird, ist die vorliegende Erfindung nutzlos, wenn die Leistung des Eingangssignals stationär ist, da die Erfindung die Informationsmenge für die Codierung verringert (mit anderen Worten, die Quantisierungsverzerrung verringert), indem sie das Ungleichgewicht der Signalleistung in Richtung der Zeitachse ausnutzt. Das ständige Ausgeben der Vektorquantisierungsindizes J bis Jm, der Hüllkurvenindizes IEL1 bis IELn und IER1 bis IERn und der Normierungsindizes IGL1 bis IGLn und IGR1 bis IGRn aller Teilkanäle kann trotz des oben Gesagten manchmal eine größere Informationsmenge für die Codierung erfordern als im Fall der Codierung ohne Segmentierung in Teilkanäle. Auch der Verarbeitungsaufwand für die Codierung kann manchmal größer werden als im Fall der Codierung ohne Segmentierung in Teilkanäle.
  • In 13 ist eine Ausgestaltung eines diesbezüglich verbesserten Encoders in Verbindung mit dem Fall eines einkanaligen akustischen Eingangssignals gezeigt.
  • In 13 sind ein Rahmensegmentierteil 31, Rest-/Hüllkurven-Rechenteile 321 bis 32n , Leistungsnormierungsteile 331 bis 33n , Gewichtungsrechenteile 341 bis 34n , ein Restverschachtelungsteil 35XY , ein Gewichtungsverschachtelungsteil 35VW und ein Vektorquantisierteil 36 in Konstruktion und Betrieb identisch mit denen der Seite des rechten Kanals in 4A. Diese Ausgestaltung umfasst ferner: ein Signalsegmentierteil 41, das das akustische Eingangssignal in Rahmen segmentiert; ein Zustandsentscheidungsteil 42, welches den Zustand des Signals jedes Rahmens entscheidet; ein Rest-/Hüllkurven-Rechenteil 320 , welches die Restkoeffizienten und die spektrale Hüllkurve eines stationären Rahmens berechnet; ein Leistungsnormierungsteil 330 , das die Leistung der Restkoeffi zienten des stationären Rahmens berechnet; ein Gewichtungsrechenteil 340 , das Gewichtungsfaktoren aus der spektralen Hüllkurve und der Normierungsverstärkung des stationären Rahmens berechnet; ein Restverschachtelungsteil 43XY , das die normierten Restkoeffizienten in eine Mehrzahl von Sequenzen verschachtelt; ein Gewichtungsverschachtelungsteil 43WV , das die Gewichtungsfaktoren in die gleiche Mehrzahl von Sequenzen wie die der Restkoeffizienten verschachtelt; ein Vektorquantisierteil 44, das eine Rest-Teilsequenz mit der entsprechenden Gewichtungsteilsequenz gewichtet vektorquantisiert; einen Selektor 45A, der die Ausgaben von den Vektorquantisierteilen 36 und 44 entsprechend dem Zustand des betreffenden Rahmens selektiv ausgibt; einen Selektor 45B, der Hüllkurvenindizes IE0 und IE1 bis IEN von stationären und transienten Rahmen entsprechend dem Zustand des betreffenden Rahmens selektiv ausgibt; und einen Selektor 45C, der Normierungsverstärkungsindizes IG0 und IG1 bis IGn von stationären und transienten Rahmen entsprechend dem Zustand des betreffenden Rahmens selektiv ausgibt. Die Rest-/Hüllkurven-Rechenteile 320 und 321 bis 32n sind in der Konstruktion identisch, und beliebige der in 4B, 10A und 10B gezeigten Konfigurationen können verwendet werden. Die Blöcke 32Q in den Rest-/Hüllkurven-Rechenteilen 320 , 321 bis 32n sind jeweils ein Hüllkurvenrechen-/Quantisierteil, das dem Block 32Q in 4B, 10A bzw. 10B entspricht. Das Fensterbildungsteil 32A ist der Kürze wegen nicht gezeigt.
  • Eine digitale akustische Eingangssignalsequenz vom Eingangsanschluss 11 wird dem Signalsegmentierteil 41 zugeführt und in Rahmen mit M Abtastwerten segmentiert, und diese Signale werden an das Rest-/Hüllkurven-Rechenteil 320 , das Zustandsentscheidungsteil 42 und das Rahmensegmentierteil 31 angelegt. In dem Zustandsentscheidungsteil 42 wird bestimmt, ob das Signal jedes Rahmens mit M Abtasiwerten stationär oder transient ist. D. h., wenn das Signal in dem Rahmen einer starken zeitlichen Veränderung unterliegt, d. h., wenn die Leistung oder die spektrale Hüllkurve des Signals sich schnell ändert, wird der Rahmen als transient festgelegt. Um dies durchzuführen, wird z. B. jeder Rahmen zeitlich in vier Blöcke unterteilt, und dann wird die durchschnittliche Leistung oder die durchschnittliche spektrale Hüllkurve jedes Blocks berechnet, und die Veränderungsverhältnisse der Leistung oder der spektralen Hüllkurve werden berechnet; der Rahmen wird als transient oder stationär festgelegt, je nachdem, ob die Änderungsverhältnisse der Leistung oder der spektralen Hüllkurve höher oder niedriger als ein vorgegebener Wert sind.
  • Die Entscheidung in dem Zustandsentscheidungsteil 42 findet statt für jeden der Rahmen F1, F2, ... Wie z. B. in 14 gezeigt, wird eine Überprüfung durchgeführt, um festzulegen, ob jede 2 M-Abtastwert-Signalsequenz (ein Einheits-MDCT-Verarbeitungsrahmen), der aus jedem Rahmen und dem unmittelbar vorhergehenden besteht, stationär oder transient ist, während er um M Abtastwerte (einen Rahmen) verschoben wird. Wenn z. B. in dem Rahmen F2 entschieden wird, dass der aus dem Rahmen F2 und dem unmittelbar vorhergehenden F1 bestehende 2 M-Abtastwert-Verarbeitungsrahmen stationär ist, wird der 2 M-Abtastwert-Rahmen mit einer Fensterfunktion WF multipliziert und anschließend der MDCT-Verarbeitung unterzogen. Wenn ferner in dem Rahmen F4 entschieden wird, dass der 2 M-Abtastwert-Verarbeitungsrahmen bestehend aus dem Rahmen F4 und dem unmittelbar vorhergehenden Rahmen F3 transient ist, wird der zentrale M-Abtastwert-Abschnitt des 2 M-Abtastwert-Rahmens in n (in diesem Beispiel n = 4) Teilrahmen SF41 bis SF44 zerlegt, und in den Rest-/Hüllkurven-Rechenteilen 321 bis 324 werden die Teilrahmen der MDCT-Verarbeitung als 2-Teilrahmen-Einheiten bestehend aus 2 M/n Abtastwerten der Teilrahmen und der unmittelbar vorhergehenden Teilrahmen SF34, SF41, SF42 und SF43 unterzogen; die Fensterfunktion WFs erstreckt sich über die zwei Teilrahmen, wie in 14 abgebildet. Damit vor und nach der Segmentierung in Teilrahmen die stationären und transienten Rahmen an der Grenze zwischen ihnen kontinuierlich miteinander verknüpft werden können, ist eine Fensterfunktion WFa auf der transienten Seite zu einer Hälfte aus der Fensterfunktion WFs gebildet, und die stationäre Seite bildet den Maximalwert der Fensterfunktion WFs, wie in 14 gezeigt. Diese Fensterfunktionen WFs und WFa sind nur beispielhaft dargestellt, und es können auch andere Schemata verwendet werden.
  • Wenn entschieden wird, dass der Rahmen stationär ist, berechnet das Rest-/Hüllkurven-Rechenteil 420 die spektrale Hüllkurve E0 und die Frequenzbereichsrestkoeffizienten X0 des Rahmen und gibt gleichzeitig den beim Berechnen der spektralen Hüllkurve erhaltenen Hüllkurvenindex IE0 aus. D. h., wenn z. B. das in 4B gezeigte Rest-/Hüllkurven-Rechenteil als Teil 420 in 13 verwendet wird, wird der 2 M-Abtastwert-Verarbeitungsrahmen aus den M eingegebenen Abtastwerten und den unmittelbar vorhergehenden M Abtastwerten mit der Fensterfunktion in dem Fensterbildungsteil 32A multipliziert und in dem MDCT-Teil 32B in die Fiequenzbereichskoefftzienten transformiert, wie oben der Fall. Ferner wird die spektrale Hüllkurve E durch das LPC-Analyseteil 32C, das Vorhersagekoeffizientenquantisierteil 32D und das Spektralhüllkurvenrechenteil 32E berechnet, und gleichzeitig wird der Hüllkurvenindex IE0 erzeugt.
  • Die Restkoeffizienten von dem Rest-/Hüllkurven-Rechenteil 320 werden mit der Durchschnittsleistung innerhalb des Verarbeitungsiahmens in dem Leistungsnormierungsteil 330 normiert, und die normierten Restkoeffizienten XN0 werden dem Restverschachtelungsteil 43XY zugeführt. Die Normierungsverstärkung G wird dem Gewichtungsrechenteil 340 zugeführt, wo sie mit der spektralen Hüllkurve E0 multipliziert wird, um die Gewichtungsfaktoren V0 zu erhalten, die dem Gewichtungsverschachtelungsteil 43VW zugeführt werden. In dem Restverschachtelungsteil 43XY werden die Restkoeffizienten XN0 zu einer Mehrzahl von (z. B. h = 4) Teilsequenzen verschachtelt und dann dem Vektorquantisierteil 44 zugeführt. Es ist wünschenswert, dass die Restkoeffizienten XN0 zu Teilsequenzen mit im Wesentlichen der gleichen Hüllkurve verschachtelt werden. In dem Gewichtungsverschachtelungsteil 34VW werden auch die Gewichtungsfaktoren V0 wie in dem Restverschachtelungsteil 43XY zu h Teilsequenzen verschachtelt und dann dem Vektorquantisierteil 44 zugeführt. Das Vektorquantisierteil 44 vektoiquantisiert die h Rest-Teilsequenzen jeweils gewichtet mit den entsprechenden Gewichtungsteilsequenzen und gibt h Quantisierungsindizes J01 bis J0h aus, die dem einen Eingang des Selektors 45A zugeführt werden.
  • Wenn andererseits in dem Zustandsentscheidungsteil 42 entschieden wird, dass der Rahmen transient ist, wird jeder M-Abtastwert-Rahmen in n gleiche Teilrahmen in dem Rahmensegmentierteil 31 segmentiert, von wo aus 2 M/h-Abtastwert-Verarbeitungsrahmen, bestehend aus jeweils einem der n Teilrahmen und dem unmittelbar vorhergehenden Teilrahmen, auf n Teilkanäle CH1 bis CHn verteilt werden, wie im Falle der 4A. In den Rest-/Hüllkurven-Rechenteilen 321 bis 32n werden Restkoeffizienten X1 bis Xn und spektrale Hüllkurve E1 bis En aus den so verteilten n Verarbeitungsrahmen erzeugt, wie im Falle der 4A. Die Leistungsnormierungsteile 331 bis 33n normieren die Restkoeffizienten X1 bis Xn mit den Durchschnittsleistungen der entsprechenden Teilrahmen und legen die normierten Restkoeffizienten XN1 bis XNn an das Restverschachtelungsteil 35XY und die entsprechenden Normierungsverstärkungen G1 bis Gn an das Gewichtungsrechenteil 341 bis 34n an und geben dabei gleichzeitig Indizes IG1 bis IGn aus, die die Verstärkungen darstellen. Die Gewichtungsrechenteile 341 bis 34n multiplizieren die spektralen Hüllkurve E1 bis En jeweils mit den Normierungsverstärkungen G1 bis Gn um Gewichtungsfaktoren V1 bis Vn zu erzeugen, die an das Gewichtungsverschachtelungsteil 35VW angelegt werden.
  • Die so erzeugten n normierten Restteilsequenzen XN1 bis XNn der Teilkanäle CH1 bis CHn werden dem Restverschachtelungsteil 35XY zugeführt, wo die Komponenten aller Teilsequenzen zu Sequenzen X1 bis Xm verschachtelt werden, wie im Fall der 4A.
  • In dem Gewichtungsverschachtelungsteil 35VW werden die n Gewichtungsfaktorteilsequenzen V1 bis Vn der Teilkanäle CH1 bis CHn ebenfalls entsprechend zu m Sequenzen W1 bis Wm verschachtelt. In dem Quantisierteil 36 werden die verschachtelten Restsequenzen (Vektoren) Y1 bis Ym durch Verwendung der entsprechenden verschachtelten Gewichtungssequenzen (Vektoren) W1 bis Wm gewichtet vektorquantisiert, und die Quantisierungsindizes J1 bis Jm werden von dem Quantisierteil 36 bereitgestellt.
  • Der 1-Bit-Code Id, der angibt, ob der Rahmen stationär oder transient ist, wird ausgegeben, und im Falle des stationären Rahmens werden die Vektorquantisierungsindizes J01 bis J0h, der Hüllkurvenindex IE0 und der Normierungsverstärkungsindex IG0 bereitgestellt, wohingegen im Falle des transienten Rahmens die Vektorquantisierungsindizes J1 bis Jm, die Hüllkurvenindizes IE1 bis IEn und die Normierungsindizes IG1 bis IGn bereitgestellt werden. Diese Vektorquantisierungsindizes, Hüllkurvenindizes und Normierungsindizes werden von den Selektoren 45A, 45B bzw. 45C selektiv entsprechend dem Zustandsentscheidungscode Id ausgegeben.
  • In 15 ist ein Beispiel eines Decoders gezeigt, der zusammen mit dem Encoder aus 13 verwendet wird, wobei die Teile, die denen aus 12 entsprechen, mit den gleichen Bezugszeichen bezeichnet sind. Der in den Decoder eingegebene Hüllkurvenindex IE0 oder IE1 bis IEn wird über einen Selektor 80B einem Hüllkurvendecodierteil 620 oder 62, je nach Inhalt des Zustandsentscheidungscodes Id, zugeführt. Die Vektorquantisierungsindizes J01 bis J0h oder J1 bis Jm werden einem Selektor 80A zugeführt, von wo sie einem Vektordecodierteil 720 oder 72 je nach Code Id zugeführt werden. Die Normierungsverstärkungsindizes IG0 oder IG1 bis IGn werden an einen Selektor 80C angelegt, von wo sie einem Verstärkungsdecodierteil 750 oder 75 je nach Code Id zugeführt werden. In den Hüllkurvendecodierteilen 620 und 62 werden die dem eingegebenen Index entsprechenden Vorhersagekoeffizienten im Decodierteil 62A0 und 62A decodiert, und in Hüllkurven-Rechenteilen 62B werden die Vorhersagekoeffizienten verwendet, um die Hüllkurve der Frequenzcharakteristik zu berechnen.
  • Wenn der Code Id den stationären Rahmen angibt, werden die Vektorquantisierungsindizes J01 bis J0h einem Vektordecodierteil 81 zugeführt, wo sie decodiert werden, um n Teilsequenzen Y01' bis Y0h zu reproduzieren. Diese Teilsequenzen werden an ein Invers-Verschachtelungsteil 82YX angelegt, wo sie einer Verschachtelung entgegengesetzt der in dem Restveischachtelungsteil 45 des Encoders aus 13 unterzogen werden, wodurch die Teilsequenzen zu der ursprünglichen Sequenz der normierten Restkoeffizienten XN0 kombiniert werden. In einem Multiplizierer 77a werden die Restkoeffizienten XN0 mit der decodierten Verstärkung G0 aus dem Decodierteil 75 multipliziert. Die multiplizierten Restkoeffizienten werden an ein Leistungs-Denormierungsteil 650 angelegt, wo sie mit der decodierten Hüllkurve E0 von dem Hüllkurvendecodierteil 620 multipliziert, d. h. denormiert werden, wodurch die Frequenzbereichskoeffizienten rekonstruiert werden. Wie in dem Decoder der 12 werden die Frequenzbereichskoeffizienten in ein Zeitbereichssignal durch die inverse modifizierte diskrete Kosinustransformation in einem IMDCT-Teil 660 transformiert. In einem Rahmenüberlappungsteil 780 werden, nachdem das Zeitbereichssignal nach Bedarf mit einer Fensterfunktion multipliziert worden ist, die erste Hälfte des 2 M-Abtastwert-Rahmens und die zweite Hälfte des unmittelbar vorhergehenden 2 M-Abtastwert-Rahmens zu einem rekonstruierten akustischen Signal eines M-Abtastwert-Rahmens überlappt, der an den Anschluss 51 angelegt wird.
  • Wenn der Code Id den transienten Rahmen angibt, werden spektrale Hüllkurve jeweiliger Teilrahmen aus den Hüllkurvenindizes IE0 bis IEn in dem Hüllkurvendecodierteil 62 decodiert, aus dem Hüllkurvenkoeffizienten E1 bis En ausgegeben werden. In dem Verstärkungsdecodierteil 75 werden die Normierungsverstärkungsindizes IG1 bis IGn zu den Verstärkungen G1 bis Gn decodiert. In dem Vektordecodierteil 72 werden die Vektorquantisierungsindizes J1 bis Jm zu Vektoren Y1' bis Ym' decodiert. In einem Invers-Verschachtelungsteil 76YX werden die so reproduzierten m Vektoren Y1' bis Ym' einer Verschachtelung entgegengesetzt zu der in dem Verschachtelungsteil 35XY des Encoders aus 13 unterzogen, wodurch die n Teilsequenzen der normierten Restkoeffizienten YN1 bis YNn (wiederhergestellt werden). In Multiplizierern 771 bis 77n werden diese Restkoeffiziententeilsequenzen XN1 bis XNn mit den ihnen entsprechenden reproduzierten Verstärkungen G1 bis Gn multipliziert. Die multiplizierten Ausgaben werden jeweils mit den reproduzierten Hüllkurve E1 bis En in Denormierungsteilen 651 bis 65n multipliziert, wodurch die Frequenzbereichskoeffizienten reproduziert werden. In IMDCT-Teilen 661 bis 66n werden die Frequenzbereichskoeffizienten jeweils in Zeitbereichssignale durch IMDT-Verarbeitung transformiert. Diese Zeitbereichssignale werden nach Bedarf in Rahmenüberlappungsteilen 781 bis 78n mit Fensterfunktionen multipliziert, wonach erste und zweite Hälften von benachbarten Teilrahmen (benachbarten Teilkanälen) überlappt werden; in einem Rahmenkombinierteil 79 werden diese überlappten Abschnitte in einer Zeitsequenz zu einem reproduzierten akustischen Signal in dem transienten Rahmen kombiniert, das an den Ausgangsanschluss 51 angelegt wird.
  • Ein Encoder für Stereosignale ist in 16 gezeigt, in der die Teile, die denen in 13 entsprechen, mit den gleichen Bezugszeichen bezeichnet sind, allerdings mit einem zugefügten Suffix "L" für die Linkskanalkomponenten und mit einem Suffix "R" für die Rechtskanalkoeffizienten. D. h., in dem Fall des stationären Rahmens werden von den Eingangsanschlüssen 11L und 11R eingegebene Links- und Rechtskanalsignale der gleichen Verarbeitung wie der stationäre Rahmen unterzogen, wie in 13 gezeigt, doch im Fall des transienten Rahmens werden die Restkoeffizienten jeweiliger Teilrahmen von Links- und Rechtskanalsignalrahmen gemischt und dann einer gewichteten Vektorquantisierung unterzogen. In anderen Beziehungen ist dieser Encoder identisch mit dem der 13.
  • Ein Decoder zum Decodieren der codierten Ausgabe des Encoders aus 16 ist in 17 gezeigt, wobei diejenigen Teile, die denen aus 15 entsprechen, mit dem gleichen Bezugszeichen bezeichnet sind, allerdings mit einem hinzugefügten Suffix "L" für den linken Kanal und einem Suffix "R" für den rechten Kanal. Im Falle des stationären Rahmens werden Links- und Rechtskanalsignale beide in gleicher Weise decodiert, wie im Falle der 15. Im Falle des transienten Rahmens werden jedoch alle Komponenten der in dem Vektorreproduzierteil 72 reproduzierten m Vektoren in dem inversen Verschachtelungsteil 76YX zu den Originalsequenzen von diesen durch das Restverschachtelungsteil 35XY in 16 restauriert. So werden decodierte Signale der Linkskanal-Teilrahmen in einem Rahmenkombinierteil 79L zu einem Kompositsignal kombiniert, das an einen Anschfuss 51L angelegt wird, und decodierte Signale der Rechtskanal-Teilrahmen werden entsprechend in einem Rahmenkombinierteil 79R zu einem Kompositsignal kombiniert, das an einen Anschluss 51R angelegt wird.
  • Bei den Ausgestaltungen der 13, 15, 16 und 17 sind die Verschachtelungsabbildungen und die inversen Verschachtelungsabbildungen vorgegeben, doch ist es auch möglich, ein Verfahren zu verwenden, bei dem eine Mehrzahl von Verschachtelungsabbildungsschemata vorbereitet und jeweils verwendet werden, um Vektorquantisierung durchzuführen, dann wird eine Abbildung mit minimaler Verzerrung ausgewählt, und die Information über die ausgewählte Abbildung wird übertragen.
  • Die Hilfsinformation (d. h. der Hüllkurvenindex und der Verstärkungsindex) der spektralen Hüllkurve und die Normierungsverstärkung (Leistung) wird bei einem gewöhnlichen (stationären) Rahmen in jedem Rahmen übertragen. Bei den oben beschriebenen Ausgestaltungen werden, wenn der Rahmen transient ist, die spektrale Hüllkurveninformation und die Verstärkungsinformation unabhängig für jeden Teilrahmen übertragen, doch können aus den nachfolgend angegebenen Gründen diese Informationsstücke gemeinsam für jeden Rahmen vektorquantisiert sein. D. h., bei einem System, das eine feste Informationsmenge in jedem Rahmen überträgt, wird, wenn die gleiche Zahl von Bits wie für den gewöhnlichen Rahmen der Hilfsinformation für jeden Teilrahmen zugewiesen ist, das Verhältnis der Menge an Hilfsinformation zur Gesamtmenge an Information groß, wodurch die Möglichkeit herbeigeführt wird, dass die Gesamtverzerrung groß wird. Außerdem kann eine Mehrzahl von Teilrahmen als eine einzige Einheit vektorquantisiert werden. Alternativ können die spektrale Hüllkurve und die Verstärkung jedes Teilrahmens für alle Teilrahmen gemeinsam verwendet werden.
  • Bei den Ausgestaltungen der 13 und 16 wird zwischen den stationären und den transienten Rahmen unterschieden, da im stationären Zustand das Leistungsungleichgewicht nicht verwendet werden kann, um die Menge der zu codierenden Information zu verringern; wenn der Rahmen stationär ist, wird das Signal ohne Segmentierung in Teilrahmen codiert, und im Falle des transienten Rahmens wird das Signal in Teilrahmen segmentiert, um eine Mehrzahl von Signalsequenzen zu bilden. Bei einem akustischen Signal, das eine Tonhöhenkomponente enthält, wie etwa bei Sprache oder bei einem Musiksignal, wird die Korrelation zwischen Rahmen besonders hoch bei fortlaufenden stationären Rahmen. Diese Erscheinung kann genutzt werden, um die Menge an Information für die Codierung zu reduzieren, indem die Ausgestaltungen der 13 und 16 teilweise modifiziert werden, wie unten beschrieben.
  • D. h., wie in 18 gezeigt, wird die Hüllkurve ER der Restkoeffizienten des gegenwärtigen Rahmens in einem Resthüllkurven-Rechenteil 91 anhand der Restkoeffizienten des vorhergehenden stationären Rahmens vorausgesagt, und in einem Resthüllkurven-Normierungsteil 92 werden die von dem Normierungsteil 32F in dem Rest-/Hüllkurven-Rechenteil 32 in 13 gelieferten Restkoeffizienten X0 normiert durch Dividieren durch die vorhergesagte Resthüllkurve ER. Bei einem Sprach- oder Musikton ist eine Tonhöhenkomponente üblicherweise in den Restkoeffizienten im Frequenzbereich in jedem Rahmen enthalten, und diese Tonhöhenkomponente dauert oft über eine Mehrzahl von Rahmen an. Bei dieser Ausgestaltung kann jedoch eine solche Tonhöhenkomponente unterdrückt werden durch Normieren der Restkoeffizienten X0 in dem stationären Rahmen durch die Rest-Hüllkurve ER; infolgedessen werden abgeflachte Feinstrukturkoeffizienten Z geliefert. D. h., die abgewandelte Ausgestaltung der 18 implementiert eine voraussagende Codierung, die die Inter-Rahmen-Korrelation durch Vektorquantisieren der Feinstrukturkoeffizienten Z anstatt durch Vektorquantisieren der Restkoeffizienten ausnutzt.
  • Die spektrale Hüllkurve E0 von dem Spektralhüllkurven-Rechenteil 32E und die Restkoeffizienten-Hüllkurve ER von dem Resthüllkurven-Rechenteil 91 werden für jeden entsprechenden Abtastwert miteinander multipliziert, um die Gewichtungsfaktoren V0 in einem Gewichtungsrechenteil 93 zu erhalten. Das Leistungsnormierungsteil 330 normiert die Feinstrukturkoeffizienten Z mit ihrer Leistung und gibt den Normierungsverstärkungsindex IG0 aus. Die leistungsnormierten Feinstrukturkoeffizienten ZN werden an das Vektorquantisierteil 44 angelegt, wo sie mit den von dem Gewichtungsiechenteil 93 kommenden Gewichtungsfaktoren V0 vektorquantisiert werden. Hier sind wie bei der Ausgestaltung der 13 die Feinstrukturkoeffizienten ZN und die Gewichtungsfaktoren V0 in Verschachtelungsteilen 43ZY und 43VW zu h Teilsequenzen Y01 bis Y0h bzw. W01 bis W0h verschachtelt. Das Vektorquantisierteil 44 quantisiert die Feinstrukturkoteffiziententeilsequenzen Y01 bis Y0h mit den entsprechenden Gewichtungsteilsequenzen W01 bis W0h. Die Quantisierungsindizes J01 bis J0h werden dem Selektor 35A in 13 zugeführt. Außerdem werden Vektoren C(J01) bis C(J0h), die den Quantisieiungsindizes J01 bis J0h entsprechen, an das Denormierungsteil 94 angelegt, wo sie mit der vom Resthüllkurven-Rechenteil 91 zugeführten Resthüllkurven denormiert werden, wodurch Restkoeffizienten Xq erhalten werden. Das Resthüllkurven-Rechenteil 91 sagt die Resthüllkurve des nächsten Rahmens auf der Grundlage der Restkoeffizienten Xq voraus. Es liegt auf der Hand, dass 16 entsprechend abgewandelt werden kann.
  • Die Decodierung der in 18 vektorquantisierten Feinstrukturkoeffizienten Z kann implementiert werden, indem, wie in 19 gezeigt, die Konfiguration zwischen dem Vektordecodierteil 81 und dem Denormierungsteil 650 in dem Decoder der 15 abgewandelt wird. D. h., in einem Vektordecodierteil 81 werden die Vektorquantisierungsindizes J01 bis J0h zu der Vektorteilsequenz Y01 bis Y0h', d. h., den Vektoren C(J01) bis C(J0h) decodiert, die einem inversen Verschachtelungsteil 82YZ zugeführt werden, wo sie zu einer Sequenz invers zu der in dem Verschachtelungsteil 43 in 18 verschachtelt werden, wodurch sie zu einer Sequenz von normierten Feinstrukturkoeffizienten ZN' verschachtelt werden. In dem Multiplizierer 770 werden die normierten Feinstrukturkoeffizienten NZ' mit der Verstärkung G0 multipliziert, die aus dem vom Leistungsnormierungsteil 330 in 18 (dem Verstärkungsdecodierteil 75) zugeführten Normierungsindex IG0 decodiert ist, wodurch die Fein strukturkoeffizienten Z' reproduziert werden. In einem Resthüllkurven-Denormierungsteil 83 werden die Feinstrukturkoeffizienten Z' durch eine Rest-Spektralhüllkurve ER' aus einem Resthüllkurven-Rechenteil 84 denormiert, wodurch Restkoeffizienten X0' reproduziert werden. In dem Denormierungsteil 650 werden die Restkoeffizienten X0' zu Frequenzbereichskoeffizienten anhand der vom Hüllkurven-Rechenteil 62B in 15 zugeführten spektralen Hüllkurve E0 denormiert; die so erhaltenen Frequenzbereichskoeffizienten werden dem IMDCT-Teil 660 in 15 zugeführt. Die nachfolgende Verarbeitung ist die gleiche wie in 15. Das Resthüllkurven-Rechenteil 84 ist im Aufbau identisch mit dem Resthüllkurven-Rechenteil 91 des Encoders (18) und sagt die Hüllkurve ER' der Restkoeffizienten des laufenden Rahmens aus den darin eingegebenen reproduzierten Restkoeffizienten X0' des vorhergehenden Rahmens voraus. Der Decoder aus 17 kann ebenfalls entsprechend abgewandelt werden.
  • Bei der Codierung und Decodierung eines Signals in einer solchen Feinstruktur wird eine Codierung, die keine Interrahmenkorrelation verwendet (vorhersagende Codierung) z. B. in den transienten Rahmen durchgeführt, und wenn auf den stationären Rahmen umgeschaltet wird, wird der vorhergehende Zustand der Interrahmenkorrelation zurückgesetzt. D. h., nur das Innere der Resthüllkurven-Rechenteile 91 und 84 in 18 und 19 muss zurückgesetzt werden. Alternativ kann, obwohl der Teilrahmen im transienten Rahmen und der stationäre Rahmen sich in zeitlicher Länge unterscheiden, die auf der Interrahmenkorrelation basierende Vorhersage in Bezug auf die Leistungsnormierungsverstärkung und die Spektralhüllkurvenparameter durchgeführt werden, wie für transiente und stationäre Rahmen üblich. Mit anderen Worten werden die Spektralhüllkurvenparameter und die Verstärkung in zwei Teilrahmen z. B. als Spektralhüllkurvenparameter und Verstärkung zwei Rahmen früher verwendet, um die Resthüllkurven-Rechenteile 91 und 84 zu betreiben.
  • Es ist auch möglich, eine Konfiguration zu verwenden, die 4- oder 5-kanalige Stereosignale verwendet und in dem transienten Rahmen jeden Kanal in eine Mehrzahl von Teilkanälen segmentiert, um ein Multikanalsignal zu bilden. Es ist auch möglich, ein Eingangssignal in Niedrigfrequenz- und Hochfrequenzsignale aufzuteilen und sie an die Eingangsanschlüsse 11L und 11R in 16 anzulegen.
  • Einer solchen Abwandlung zufolge ist das Verschachtelungsteil 76XY des Decoders konstruiert, um eine Mehrzahl von Gruppen von Restkoeffizienten, eine Mehrzahl von Restkoeffizienten entsprechend jedem Ausgangsanschluss, oder eine einzige Gruppe von Restkoeffizienten für die Reproduktion zu einem Zeitbereichssignal zu erzeugen.
  • Wie oben beschrieben wird bei den Ausgestaltungen der Encoder aus 13 und 16 das Eingangssignal nur für einen Rahmen, in dem das Signal eine starke Leistungsänderung auf der Zeitachse erfährt, in Teilrahmen segmentiert, dann werden die Teilrahmen jeweils der MDCT-Verarbeitung unterzogen, um die Frequenzbereichskoeffizienten zu erhalten; auf diese Weise können sich Leistungsungleichgewicht im Frequenzbereich und Leistungsungleichgewicht zwischen Teilrahmen, d. h. beide Ungleichgewichte im Zeitbereich, in der Veränderung des Gewichtungsfaktors in dem Vektor widerspiegeln. Ungleichgewicht des durchschnittlichen Gewichtungsfaktors (Leistung) zwischen den Teilsequenzen kann verringert werden. Wenn die Teilsequenzen in regelmäßiger Reihenfolge ohne Durchführung der Verschachtelung erzeugt werden, ist die Veränderung des Gewichtungsfaktors in den Teilsequenzen klein, was zu einer Zunahme der Veränderung des durchschnittlichen Gewichtungsfaktors zwischen den Teilsequenzen führt. In diesem Fall kann die Verzerrung nicht ohne die adaptive Bitzuteilung zwischen den Teilsequenzen verringert werden.
  • Da gemäß der vorliegenden Erfindung die Veränderung des Gewichtungsfaktors zwischen den Teilsequenzen klein ist, ist die Wirkung der Verringerung der Verzerrung kaum beeinträchtigt, auch wenn die Bitzuweisung festgelegt ist. Der Grund hierfür ist, dass die vorliegende Erfindung eine gewichtete Steuerung der Quantisierungsverzerrung zur Verringerung der Verzerrung durchführt und die Vektorquantisierungsverzerrung durch die gewichtete Vektorquantisierung steuert.
  • Die Ausgestaltungen der 4A, 11 und 16 waren zwar in der Lage, Signale von gleicher Art wie etwa akustische Signale zu codieren, doch ist die vorliegende Erfindung auch anwendbar auf eine Mehrzahl von unterschiedlichen Signalsequenzen, sofern sich ein Leistungsungleichgewicht zwischen ihnen entwickelt. Mit Bezug auf 20 wird eine Beschreibung eines Encoders geliefert, der das Codierverfahren nach der vorliegenden Erfindung verkörpert, um zwei Sequenzen von Bild- und Tonsignalen in einer gemultiplexten Form mit einer festgelegten Informationsmenge zu übertragen. Es wird beschrieben, dass dieser Encoder das Transformationscodierschema für das Tonsignal und sowohl Interrahmenvorhersage als auch das Transformationscodierungsschema für das Bildsignal verwendet, doch ist es nicht wesentlich für die vorliegende Erfindung, welche Codierschemata für einzelne Signale verwendet werden.
  • In 20 werden ein digitales Bildsignal und ein digitales Tonsignal an Anschlüsse 11a bzw. 11b angelegt. Die Verarbeitung des Tonsignals wird für jeden Rahmen gemeinsam mit der des Bildsignals durchgeführt, und die Verarbeitung ist die gleiche wie z. B. die eines Teilkanals in 4A; die Konfiguration hierfür ist in vereinfachter Form gezeigt. In einem Transfoimationsteil 32Bb wird das akustische Signal rahmenweise zeit-frequenz-transformiert. Die resultierenden Frequenzbereichskoeffizienten werden an ein Hüllkurven-Rechenteil 32Eb und ein Normierungsteil 32Fb angelegt. Das Hülfkurven-Rechenteil 32Eb verwendet die Frequenzbereichskoeffizienten, um deren spektrale Hüllkurve Eb zu berechnen, und liefert sie an das Normierungsteil 32Fb und ein Gewichtungsrechenteil 34b und gibt einen Index IEb aus, der die Hüllkurve Eb darstellt. Das Normierungsteil 32Fb gewinnt Restkoeffizienten durch Dividieren der jeweiligen Frequenzbereichskoeffizienten durch die entsprechenden Abschnitte der spektralen Hüllkurve Eb und normiert (dividiert) die Restkoeffizienten durch die durchschnittliche Leistung des Rahmens, um normierte Restkoeffizienten XNb zu erhalten, während es gleichzeitig einen Index IGb ausgibt, der die Leistungsnormierungsverstärkung Gb darstellt. Das Gewichtungsrechenteil 34b multipliziert die spektrale Hüllkurve Eb und die Verstärkung Gb und multipliziert, wenn nötig, die multiplizierte Ausgabe mit einer psychoakustischen Gewichtung, um Gewichtungsfaktoren Vb zu erhalten. Die Restkoeffizienten XNb und die Gewichtungsfaktoren Vb werden einem Rest-Verschachtelungsteil 35XY und einem Gewichtungsverschachtelungsteil 35VW zugeführt.
  • Andererseits wird das Bildsignal an ein Interrahmenvorhersageteil 95 angelegt, worin ein aus dem vorhergehenden Rahmen vorhergesagtes Signal von dem Bildsignal subtrahiert wird, und das Differenzsignal D wird an ein Transformationsteil 32Ba angelegt. Das Transformationsteil 32Ba führt eine Zeit-Frequenz-Tiansformation des Diffeienzsignals D aus, um Frequenzbereichskoeffizienten zu erzeugen, die einem Hüllkurven-Rechenteil 32Ea und einem Normierungsteil 32Fa zugeführt werden. Das Hüllkurven-Rechenteil 32Ea, das Normierungsteil 32Fa und das Gewichtungsrechenteil 34a arbeiten genauso wie die entsprechenden Teile 32Eb, 32Fb und 34b für das Tonsignal. Das Hüllkurven-Rechenteil 32Ea gibt eine spektrale Hüllkurve Ea und einen sie darstellenden Index IEa aus. Das Normierungsteil 32Fa gibt normierte Restkoeffizienten XNa, eine Leistungsnormierungsverstärkung Ga und einen Verstärkungsindex IGa aus. Das Gewichtungsrechenteil 34a gibt Gewichtungsfaktoren Va aus. Die Restkoeffizienten XNa und der Gewichtungsfaktor Va werden dem Restverschachtelungsteil 35XY bzw. dem Gewichtungsverschachtelungsteil 35VW zugeführt. Das Restverschachtelungsteil 35XY verschachtelt die Komponenten der Restkoeffizienten XNa und XNb zu m Restteilsequenzen (Vektoren) Y1 bis Ym, die einem Vektorquantisierteil 36 zugeführt werden. Das Gewichtungsverschachtelungsteil 35VW verschachtelt die Komponenten der Gewichtungsfaktoren V und Vb zu den gleichen Teilsequenzen wie die Restteilsequenzen, d. h. zu m Gewichtungsteilsequenzen W1 bis Wm, die dem Quantisierteil 36 zugeführt werden. Das Vektorquantisierteil 36 vektorquantisiert die Restteilsequenzen Y1 bis Ym mit den entsprechenden Gewichtungsteilsequenzen W1 bis Wm und gibt die Quantisierungsindizes J1 bis Jm aus. Der Codierer der 20 gibt schließlich als Ergebnisse der Codierung des Eingangs-Bildsignals und des Eingangs-Tonsignals für jeden Rahmen die Quantisierungsindizes J1 bis Jm, die Hüllkurvenindizes IEa und IEb sowie die Verstärkungsindizes IGa und IGb aus.
  • 21 zeigt ein Beispiel der Konfiguration des Interahmen-Vorhersageteils 95 in 20. Ein Subtrahierer 95F erzeugt das Differenzsignal durch Subtrahieren eines vom vorhergehenden Rahmen in einem Vorhersager 95E erhaltenen Vorhersagesignals von dem Eingangs-Bildsignal des gegenwärtigen Rahmens. Wenn ihm die Quantisieiungsindizes J1 bis Jm des gegenwärtigen Rahmens von dem Vektorquantisierteil 36 geliefert werden, liest das Decodierteil 95A aus seinem internen Codebuch m Vektoren, die den Indizes J1 bis Jm entsprechen (inverse Quantisierung) und unterzieht sie einer Verschachtelung entgegengesetzt zur der Restverschachtelung, um zwei Restsequenzen entsprechend den Restkoeffizienten XNa und XNb zu reproduzieren. Die Restsequenz Xa' für das Bildsignal wird einem Denormierungsteil 95B zugeführt. Das Denormierungsteil 95B multipliziert die Restsequenz Xa' mit der spektralen Hüllkurve Ea (Denormierung), um Frequenzbereichskoeffizienten zu erhalten, die einem inversen Transformationsteil 95C zugeführt werden. Das inverse Transformationsteil 95C führt eine Frequenz-Zeit-Transformation der Frequenzbereichskoeffizienten zu einem Zeitbereichssignal (entsprechend dem reproduzierten Differenzsignal D') durch, das an einen Addierer 95D angelegt wird. Der Addierer 95D addiert das reproduzierte Differenzsignal D' zu dem im gegenwärtigen Rahmen verwendeten Vorhersagesignal, das vom Vorsager 95E geliefert ist, um ein aktualisiertes Vorhersagesignal zu liefern, das an den Vorhersager 95E angelegt wird. Der Vorhersager 95E hält das aktualisierte Vorhersagesignal und liefert es an den Subtrahierer 95F als ein Vorhersagesignal für das Eingangs-Bildsignal des nächsten Rahmens.
  • 22 ist eine vereinfachte Darstellung eines Beispiels eines Decoders zur Verwendung mit dem in 20 abgebildeten Encoder. Ein mit den Quantisierungsindizes J1 bis Jm versorgtes Vektorrepioduzierteil 72 liest aus seinem internen Codebuch m entsprechend Vektoren Y1' bis Ym' und liefert sie an ein inverses Verschachtelungsteil 76XY Das inverse Verschachtelungsteil 76XY verschachtelt die Komponenten der Vektoren Y1' bis Ym' zu Sequenzen invers zu den Restsequenzen und erzeugt die dem Differenzbildsignal und dem Tonsignal entsprechenden Restsequenzen Xa' und Xb', die Denormierungsteilen 65a bzw. 65b zugeführt werden. Andererseits decodiert ein Decodierteil 62a die spektrale Hüllkurve des Differenzbildsignals aus dem ihm zugeführten Spektralhüllkurvenindex IEa und multipliziert sie mit der vom Verstärkungsindex IGa spezifizierten Verstärkung Ga, um Spektralhüllkurvenkoeffizienten zu erzeugen, die den Denormierungsteilen 65a zugeführt werden. Das Denormierungsteil 65a multipliziert jeweilige Komponenten den Restkoeffizienten Xa' mit den entsprechenden Spektralhüllkurvenkoeffizienten des Differenzbildsignal (Denormierung), um Frequenzbereichskoeffizienten des Differenzbildsignals zu erhalten, die einem inversen Transformationsteil 66a zugeführt werden. Das inverse Transformationsteil 66a frequenztransformiert die Frequenzbereichskoeffizienten, um das Differenzbildsignal D' zu erzeugen, das an einen Addierer 67 angelegt wird. Der Addierer 67 addiert das Differenzbildsignal D' zu einem in einem Vorhersager 68 gehaltenen decodierten Bildsignal des vorhergehenden Rahmens und liefert das addierte Ergebnis als ein decodiertes Bildsignal des gegenwärtigen Rahmens an einen Ausgangsanschluss 51a; gleichzeitig wird das addierte Ergebnis in dem Vorhersager 68 für den nächsten Rahmen gespeichert.
  • Entsprechend decodiert ein Decodierteil 62b die Indizes IEb und IGb, um die Spektralhüllkurvenkoeffizienten des Tonsignals zu erhalten, und liefert sie an das Denormierungsteil 65b. Das Denormierungsteil 65b multipliziert jeweilige Komponenten der Restkoeffizienten Xb' mit den entsprechenden Koeffizienten der spektralen Hüllkurve des Tonsignals, um Frequenzbereichskoeffizienten des akustischen Signals zu erhalten, die einem inversen Transformationsteil 66b zugeführt werden. Das inverse Transformationsteil 66b führt eine Frequenz-Zeit-Transformation der Frequenzbereichskoeffizienten durch, um das Tonsignal zu decodieren, das einem Anschluss 51b zugeführt wird.
  • Wie oben beschrieben, wird gemäß der Ausgestaltung der 20, wenn ein Leistungsungleichgewicht zwischen dem Bildsignal und dem Tonsignal in dem gegenwärtigen Rahmen auftritt, die gewichtete Vektorquantisierung durchgeführt – dies führt zu der Codierung, die dem Signal mit größerer Leistung mehr Bedeutung gibt. Daher kann die Quantisierungsverzerrung entsprechend verringert werden. Da die Ausgestaltung der 20 eine Interrahmen-Vorhersageverarbeitung für das Bildsignal durchführt, ist der Pegel des Differenzbildsignals D niedrig, wenn das Bild über eine Mehrzahl von Rahmen hinweg keine wesentlichen Änderungen erfährt. Dadurch kann das Leistungsungleichgewicht für das Tonsignal erhöht werden, und die Quantisierungsverzerrung durch die Codierung des Bildsignals und des Tonsignals kann entsprechend verringert werden.
  • 23A zeigt eine Ausgestaltung der vorliegenden Erfindung, angewandt auf einen Encoder, der Stereosignale von rechten und linken Kanälen durch Verwendung des CELP-Schemas codiert. In 23A sind diejenigen Teile, die denen in 2A entsprechen, mit den gleichen Bezugszeichen mit hinzugefügten Suffixes „L" bzw. „R" bezeichnet, die jeweils den linken bzw. den rechten Kanal angeben. Entsprechend den Eingangsanschlüssen 11L und 11R des linken bzw. des rechten Kanals sind LPC-Analyseteile 12L und 12R , LPC-Synthesefilter 13L und 13R , adaptive Codebücher 14L und 14R , Multiplizierer 15L und 15R , Addierer 18L und 18R , Subtrahierer 19L und 19R und psychoakusti sche Gewichtungsteile 20L und 20R vorgesehen, die alle im Aufbau identisch
    mit den in 2A abgebildeten sind. Das Zufallscodebuch 16, das Verzerrungsberechnungs-Codebuchsuchteil 21 und das Gewichtungscodierteil 22 sind gemeinsam für den linken und den rechten Kanal vorgesehen, und sie arbeiten in der gleichen Weise wie oben mit Bezug auf 2A beschrieben. Die in den linken und rechten Kanal eingegebenen Sprachsignale werden für jeden Rahmen einer LPC-Analyse unterzogen, um Vorhersagekoeffizienten PL, PR zu erhalten. Diese Ausgestaltung weist auch die Konfiguration des kombinierten Zufallscodebuchs 16 auf. In dem kombinierten Zufallscodebuch 16 sind kombinierte Zufallscodevektoren, jeweils mit einer Länge gleich der Rahmenlänge multipliziert mit der Zahl der Kanäle zu jeweiligen Indizes C vorabgespeichert. Jeder kombinierte Zufallscodevektor ist in die Zahl von Kanälen unterteilt, und vorgegebene getrennte Abschnitte (Teilvektoren) werden als Zufallscodevektoren der jeweiligen Kanäle verwendet. Bei dieser Ausgestaltung sind entsprechend jeweiligen Indizes des Codebuchs Zufallscodevektoren mit jeweils einer Länge von zwei Rahmen geladen; die erste Hälfte und die zweite Hälfte der jeweiligen kombinierten Zufallscodevektoren werden als ein Linkskanal-Zufallscodevektor bzw. ein Rechtskanal-Zufallscodevektor verwendet. Indem dem kombinierten Zufallscodebuch 16 ein Vektorindex C angegeben wird, wird ein bestimmtes Paar von Linkskanal- und Rechtskanal-Zufallscodevektoren, das dem spezifizierten Index C entspricht, aus dem kombinierten Codebuch 16 ausgelesen und den Multiplizierern 17L und 17R zugeführt.
  • Wie zuvor mit Bezug auf 2A beschrieben, werden durch Setzen der Gewichtungsfaktoren auf gL1 = gR1 Ausschnittlängen SL und SR, die die Verzerrungen von synthetisierten Tönen für das linke und das rechte akustische Eingangssignal minimieren, in dem Verzerrungsberechnungs/Codebuchsuchteil 21 für jeden Rahmen festgelegt, und Perioden-Komponentenverstärkungen gL0 und gR0, die die jeweiligen Verzerrungen minimieren, werden aus den adaptiven Codevektoren (Tonhöhenkomponentenvektoren) berechnet, die von den Ausschnittlängen SL und SR erzeugt werden. Nachdem die Ausschnittlängen SL und SR und die Perioden-Komponentenverstärkungen gL0 und gR0 so festgelegt sind, werden die tonhöhenkomponentensynthetisierten Töne, die aus den Synthesefiltern 13L und 13R ausgegeben werden, in den Subtrahierern 19L und 19R von den eingegebenen Tonsignalen subtrahiert. Die resultierenden Differenzen, die Rauschkomponentenvektoren sind, werden als Ziele für rauschkomponentensynthetisierte Töne verwendet, die die Synthesefilter 13L und 13R erzeugen, wenn als nächstes Zufallscodevektoren als Erregungsvektoren verwendet werden. Wenn die rauschkomponentensynthetisierten Zieltöne durch RL = [RL1, ..., RLn]t und RR = [RR1, ..., RRn]t, die Impulsantwortmatrix der Synthesefilter 13L und 13R durch HL und HR und die dem linken bzw. rechten Kanal entsprechenden ausgelesenen kombinierten Vektoren durch CLj = [CLj, ..., CLjn]t bzw. CRj = [CRj, ..., CRjn]t gegeben sind, kann die gesamte oder kombinierte Verzerrung d durch folgende Gleichung ausgedrückt werden: d = ||RL – gL1HLCLj||2 + ||RR – gR1HRCRj||2
  • Wie oben mit Bezug auf 2A beschrieben, nimmt, wenn zur Bestimmung des Rauschvektors, der die Gesamtverzerrung minimiert, zeitweilig gL1 = gR1 = 1 gesetzt wird, der Minimalwert dmin folgenden Wert an: dmin = ||RL||2 + ||RR||2 – (RL tHLCLj)2/||HLCLj||2 – (RR tHRCRj)2/||HRCRj||2
  • Da die Zielwerte RL und RR Konstanten sind, kann die Gesamtverzerrung d minimiert werden durch Auswählen eines kombinierten Vektors Cj = {CLj, CRj} aus dem Zufallscodebuch 16, der folgende Gleichung maximiert. D = (RL tHLCLj)2/||HLCLj||2 + (RR tHRCRj)2/||HRCRj||2
  • Darauf folgt die Bestimmung der Verstärkungen gL1 und gR1, die die Verzerrungen im linken und rechten Kanal minimieren.
  • Da ideale Verstärkungen durch folgende Gleichungen gegeben sind gL1 = RL tHLCLj/||HLCLj||2 gR1 = RR tHRCRj/||HRCRj||2 ist der oben erwähnte Wert D gegeben durch folgende Gleichung D = gL1 2||HLCLj||2 + gR1 2||HRCRj||2
  • Dies bedeutet, dass in dieser das CELP-Schema verwendenden Ausgestaltung die optimalen Verstärkungen gL1 und gR1, die die Verzerrungen minimieren, automatisch bei der Vektorquantisierung des Erregungssignals durch Verwendung des Zufallscodebuchs 16 bestimmt werden.
  • Der Code D, der z. B. durch Vektorcodieren der so bestimmten Verstärkungen gL0, gR0, gL0, gR1 in dem Codierteil 22 erzeugt wird, und die oben erwähnten Codes SL, SR, C, PL und PR werden als Ergebnisse der rahmenweisen Codierung der akustischen Eingangssignale des linken und rechten Kanals durch den Encoder der 23A ausgegeben. Nebenbei bemerkt wurde oben nur der einfachen Verständlichkeit wegen in Bezug auf 23A erklärt, dass LPC-Analyse und Codierung für jeden Rahmen des Eingangssprachsignals durchgeführt werden, doch kann jeder Rahmen in eine Mehrzahl von Teilrahmen segmentiert werden, und die Codes SL, SR, C, G können, wie herkömmlicherweise praktiziert, für jeden Teilrahmen erhalten werden.
  • Wenn z. B. die akustischen Eingangssignale des linken und rechten Kanals in der Leistung im Wesentlichen gleich sind, sind die Verstärkungen gL0 und gR0 einander nahezu gleich, und auch die Verstärkungen gL1 und gR1 sind einander nahezu gleich. Daher bekommen zwei Linkskanal- und Rechtskanal-Rauschvektoren, die aus der ersten und zweiten Hälfte des aus dem Zufallscodebuch 16 gelesenen kombinierten Zufallscodevektors gebildet werden, ungefähr gleiche Verstärkungen und werden zu den Perioden-Komponentenvektoren (d. h. den adaptiven Codevektoren) addiert, um die Erregungsvektoren EL bzw. ER zu erzeugen. So tragen die zwei Linkskanal- und Rechtskanal-Zufallscodevektoren, die dem zum Minimieren der Gesamtverzerrung ausgewählten Index C entsprechen, zu dessen Erzeugung im Wesentlichen im gleichen Ausmaß bei. Dies bedeutet, dass das der Codierung der akustischen Signale des linken und des rechten Kanals ungefähr die gleiche Infoimationsmenge zugeteilt wird.
  • Wenn die Leistung des akustischen Signals des linken Kanals wesentlich größer als die Leistung des Rechtskanalsignals ist, gelten auch für die Verstärkungen gL0 und gR0 für die Perioden-Komponentenvektoren und die Verstärkungen gL1 und gR1 für die Zufallscodevektoren, die festgelegt werden, um die Verzerrungen der synthetisierten Töne in den jeweiligen Kanälen zu minimieren, Beziehungen wie etwa gL0 >> gR0 und gL1 >> gR0. Letztere Beziehung gibt an, dass in dem Prozess des Auswählens des kombinierten Vektors, der die kombinierte Verzerrung minimiert, aus dem Zufallscodebuch 16 der Linkskanal-Zufallscodevektor zur kombinierten Verzerrung wesentlich stärker beiträgt als der Rechtskanal-Zufallscodevektor. Dies ist gleichbedeutend mit der Zuteilung einer größeren Informationsmenge für die Codierung des leistungsstärkeren akustischen Signals des linken Kanals. Bei dieser Ausgestaltung wird jedoch ein Leistungsungleichgewicht in Zeitachsenrichtung nicht berücksichtigt, so dass die für die Codierung jedes Rahmens verwendete Gesamtinformationsmenge konstant ist. Wenn die Leistung des Eingangs-Tonsignals des rechten Kanals größer als die Leistung des Eingangs-Tonsignals des linken Kanals ist, wird der Zufallscodevektor des rechten Kanals als wichtiger als der des linken Kanals angesehen; dies ist gleichbedeutend mit der Zuteilung einer größeren Informationsmenge für die Codierung der akustischen Informationen des rechten Kanals.
  • Wie oben beschrieben, wird gemäß der Ausgestaltung der 23A die Informationsmenge für die Codierung automatisch und flexibel verteilt, ohne dass es notwendig ist, Bits entsprechend einem Leistungsungleichgewicht zwischen akustischen Signalen des rechten und linken Kanals zuzuweisen. Das Zufallscodebuch muss nicht sowohl im rechten als auch im linken Kanal bereitgestellt werden; es muss nur ein kombiniertes Codebuch gemeinsam für beide Kanäle bereitgestellt werden. Auch wenn in den festgelegten Verstärkungen gL1 und gR1 Fehler enthalten sind, gerät die gesamte Information nicht durcheinander.
  • 23B zeigt ein Beispiel eines Decoders, der die akustischen Signale des linken und des rechten Kanals aus den vom Encoder der 23A bereitgestellten Codes SL, PL, PR, G und C decodiert. Diejenigen Teile, die denen in 2B entsprechen, sind mit den gleichen Bezugszeichen bezeichnet und mit Suffizes „L" und „R" zum Bezeichnen des linken bzw. des rechten Kanals versehen. In diesem Decoder sind die Synthesefilter 52, die Multiplizierer 55 und 57 und der Addierer 58 im linken und im rechten Kanal vorgesehen; das Gewichtungsdecodierteil 53 und das kombinierte Zufallscodebuch 56 sind gemeinsam für beide Kanäle vorgesehen. Das kombinierte Zufallscodebuch 56 ist das gleiche wie das Codebuch 16 in 23A. Die Codes SL und SR werden den adaptiven Codebüchern 54L und 54R zugeführt, um die Ausschnittlängen der darin gehaltenen Erregungsvektoren der unmittelbar vorhergehenden Rahmen zu spezifizieren. Das Gewichtungsdecodierteil 53 decodiert die Verstärkungen gL0, gL1, gR0, gR1 aus dem Code G und liefert sie an die Multiplizierer 55L , 57L , 55R bzw. 57R .
  • Die adaptiven Codebücher 54L und 54R schneiden aus den Erregungsvektoren des vorhergehenden Rahmens die Teilvektoren mit den von den Codes SL und SR spezifizierten Längen aus und verketten Kopien von ihnen mehrmals, um Perioden-Komponentenvektoren von einem Rahmen Länge zu erzeugen, die den Multiplizierern 55L und 55R zugeführt werden. Die Multiplizierer 55L und 55R multiplizieren diese adaptiven Codevektoren mit den Verstärkungen gL0 bzw. gR0 und liefern die multiplizierten Ausgaben an die Addierer 55L und 55R . Die Codes PL und PR, die die linearen Vorhersagekoeffizienten darstellen, werden den LPC-Synthesefiltern 52L und 52R als Filterkoeffizienten zugeführt. Der von dem Indexcode C spezifizierte kombinierte Vektor wird aus dem kombinierten Zufallscodebuch 56 gelesen; erste und zweite Hälfte des Vektors werden den Multiplizierern 57L bzw. 57R zugeführt, wo sie mit den Verstärkungen gL0 bzw. gR0 multipliziert werden. Die multiplizierten Ergebnisse werden zu den adaptiven Codevektoren durch die Addierer 58L und 58R hinzuaddiert, um die Erregungsvektoren EL und ER zu erzeugen. Diese Erregungsvektoren werden den LPC-Synthesefiltern 52L und 52R zugeführt, die im linken und rechten Kanal Sprache synthetisieren und den Anschlüssen 51L und 51R zuführen. Wenn der Grad der Ähnlichkeit zwischen Links- und Rechtskanalsignalen L und R hoch ist, werden Signale L + Rund L – R als Eingangssignale verwendet, und die oben erwähnte Codierung wird mit auf die Version L + R fokussierter Signalleistung durchgeführt – dies ermöglicht eine weitere Verringerung der Verzerrung.
  • Wie zuvor mit Bezug auf 2A angegeben, ist es in 23A möglich, die adaptiven Codebücher 14L und 14R fortzulassen und ein kombiniertes Codebuch, das Erregungsvektoren als kombinierte Vektoren enthält, anstelle des Zufallscodebuchs 16 zu verwenden. Außerdem können in 23A die LPC-Analyseteile 12L und 12R so konstruiert werden, dass sie die Vorhersagekoeffizienten PL und PR durch LPC-Analysieren der synthetisierten Ausgabetöne von den Synthesefiltern 13L und 13R im vorhergehenden Rahmen festlegen. Um diesen Abwandlungen des Encoders zu entsprechen, ist es bei dem Decoder der 23B auch möglich, die adaptiven Codebücher 54L und 54R wegzulassen und ein kombiniertes Codebuch mit vielen darin entsprechend jeweiligen Indizes vorabgespeicherten Erregungsvektoren anstelle des Zufallscodebuchs 56 zu verwenden. Außerdem können die linearen Vorhersagekoeffizienten PL und PR, die den Synthesefiltern 52L und 52R zugeführt werden, auch durch LPC-Analysieren der synthetisierten Ausgabetöne aus den Synthesefiltern 52L und 52R erzeugt weiden, anstatt die Koeffizienten von außen zu benutzen.
  • Es liegt auf der Hand, das zahlreiche Änderungen und Abwandlungen durchgeführt werden können, ohne den Rahmen der neuartigen Konzepte der vorliegenden Erfindung zu verlassen.

Claims (53)

  1. Verfahren zum Codieren von Signalen einer Mehrzahl von Kanälen (CH1–CHn), bei dem das Signal jedes Kanals dargestellt ist durch jeweils einen Block von Signalabtastwerten, wobei das Verfahren folgende Schritte umfasst: (a) für jeden Block Berechnen einer Leistung und Ermitteln des Gewichts (V1 bis Vn) jedes Signalabtastwerts auf der Grundlage einer spektralen Hüllkurve (E1–En); (b) Normieren jedes Signalabtastwertes mit der Leistung des jeweiligen Blocks und Ermitteln eines jeweiligen Verstärkungsindex (G1–Gn) für jeden Block, der die Normierungsverstärkungen des Blocks darstellt; und (b1) Codieren der Blöcke einschließlich einer Vektorquantisierung; dadurch gekennzeichnet, dass Schrit (b1) umfasst: (c) Umordnen der normierten Signalabtastwerte der Blöcke (XN1–XNn) in einer vorgegebenen Reihenfolge, die einer vorgegebenen Abbildung entspricht, in eine oder mehrere Sequenzen von normierten Signalabtastwerten, so dass jede dieser einen oder mehreren Sequenzen normierte Signalabtastwerte aus mehreren Kanälen enthält, um jede dieser einen oder mehreren Sequenzen als einen jeweiligen kombinierten Signalvektor (Y1–Ym) zu erzeugen; (d) Umordnen der Gewichte (V1–Vn) mit der gleichen Abbildung wie die normierten Signalabtastwerte, um für jeden der kombinierten Signalvektoren (Y1–Ym) einen entsprechenden kombinierten Gewichtungsvektor (W1–Wm) zu erhalten, der die Gewichte enthält, die den normierten Signalabtastwerten in dem jeweiligen Signalvektor zugeordnet sind; (e) Vektorquantisieren jedes kombinierten Signalvektors (Y1–Ym) unter Verwendung des entsprechenden kombinierten Gewichtungsvektors (W1–Wm), wodurch ein Quantisierungsindex (J1– Jm) erhalten wird, der einen entsprechenden kombinierten Quantisierungsvektor darstellt; und (f) Ausgeben jedes Quantisierungsindex (J1–Jm) und der Verstärkungsindizes (G1–Gn) als wenigstens ein Teil des Codierungsergebnisses.
  2. Verfahren nach Anspruch 1, bei dem die Signalabtastwerte Zeitbereichssignalabtastwerte sind und Schritt (a) umfasst: (a-1) Transformieren der Zeitbereichssignalabtastwerte in dem jeweiligen Block in Frequenzbereichskoeffizienten; (a-2) Berechnen der spektralen Hüllkurve (E) der Frequenzbereichskoeffizienten; (a-3) Normieren der Frequenzbereichskoeffizienten mit den entsprechenden Hüllkurvenwerten der spektralen Hüllkurve, um Restkoeffizienten (X) zu erhalten; und Schritt (b) die Normierung der Restkoeffizienten (X) des Blocks als die Signalabtastwerte umfasst, um die normierten Restkoeffizienten (XN) als die normierten Signalabtastwerte zu erzeugen, und Schritt (f) das Ausgeben, als einen anderen Teil des Codierungsergebnisses, von Hüllkurveninformation umfasst, die die in Schritt (a-2) berechnete spektrale Hüllkurve (E) darstellt.
  3. Verfahren nach Anspruch 2, bei dem die Transformation in Schritt (a-1) eine modifizierte diskrete Cosinus-Transformation ist.
  4. Verfahren nach Anspruch 2 oder 3, bei dem Schritt (a-3) das Bestimmen der Gewichte (V) auf der Grundlage eines psychoakustischen Modells umfasst.
  5. Verfahren nach einem der vorhergehenden Ansprüche, ferner mit einem Schritt des Segmentierens eines Eingangssignals eines einzelnen Kanals in Blöcke und des zyklischen Verteilens der Blöcke auf eine Mehrzahl von Kanälen (CHL1 bis CHLn, CHR1 bis CHRn), um besagte Signale einer Mehrzahl von Kanälen zu erhalten.
  6. Verfahren nach Anspruch 5, bei dem jedes Paar von zwei aufeinanderfolgenden der Blöcke, in die das Eingangssignal segmentiert wird, um die halbe Blocklänge überlappen.
  7. Verfahren nach Anspruch 2, 3 oder 4, bei dem Schritt (a-2) die Durchführung einer linearen vorhersagenden Codieranalyse des jeweiligen Blocks, um Vorhersagekoeffizienten zu erhalten, das Quantisieren der Vorhersagekoeffizienten und das Fourier-Transformieren der quantisierten Vorhersagekoeffizienten, um die spektrale Hüllkurve zu erhalten, umfasst, und Schritt (f) das Ausgeben, als die Hüllkurveninformation des jeweiligen Blocks, eines Index (IE) umfasst, der die Quantisierung der Vorhersagekoeffizienten anzeigt.
  8. Verfahren nach Anspruch 2, 3, oder 4, bei dem Schritt (a-2) eine inverse Fourier-Tiansformation der Absolutwerte der aus dem jeweiligen Block resultieienden Frequenzbereichskoeffizienten zu einem Zeitbereichssignal, das Durchführen einer linearen vorhersagenden Codieranalyse des Zeitbereichssignals, um Vorhersagekoeffizienten zu erhalten, und das Quantisieren der Vorhersagekoeffizienten und Fourier-Transformieren der quantisierten Vorhersagekoeffizienten zu der spektralen Hüllkurve umfasst, und Schritt (f) das Ausgeben, als die Hüllkurveninformation des jeweiligen Blocks, eines Index (IE) umfasst, der die Quantisierung der Vorhersagekoeffizienten angibt.
  9. Verfahren nach Anspruch 2, 3, 4 oder 6, bei dem Schritt (a-2) das Aufspalten der Frequenzbereichskoeffizienten in eine Mehrzahl von Teilbändern, das Ermitteln eines jeweiligen Skalierungsfaktors (SF1 bis SFP) für die Frequenzbereichskoeffizienten in jedem Teilband und das Quantisieren der Skalierungsfaktoren, um quantisierte Skalierungsfaktoren als die spektrale Hüllkurve zu erhalten, umfasst, und Schritt (f) das Ausgeben, als die Hüllkurveninformation des jeweiligen Blocks, eines Index (IE) umfasst, der die quantisierten Skalierungsfaktoren angibt.
  10. Verfahren nach einem der Ansprüche 1 bis 9, bei dem Schritt (c) das Umordnen der normierten Signalabtastwerte der Blöcke entsprechend einer in Speichermitteln vorab gespeicherten Abbildung umfasst, um eine vorgegebene Anzahl von kombinierten Signalvektoren zu erzeugen, und Schritt (d) das Umordnen der entsprechenden Gewichte entsprechend der gleichen Abbildung, um eine vorgegebene Anzahl von kombinierten Gewichtungsvektoren zu erzeugen, umfasst.
  11. Verfahren nach einem der Ansprüche 1 bis 9, bei dem: eine Mehrzahl von Abbildungen (TB1, TB2) in Speichermitteln vorab gespeichert sind; die Umordnung in Schritt (e) getrennt entsprechend jeder dieser Abbildungen durchgeführt wird, was zu einer entsprechenden Mehrzahl von Sätzen von kombinierten Signalvektoren führt, wobei jeder Satz einen oder mehrere Vektoren aufweist, die Vektorquantisierung in Schritt (e) für jeden der in Schritt (c) erhaltenen Sätze durchgeführt wird und das Auswählen desjenigen Satzes umfasst, der die aus der Vektorquantisierung resultierende Quantisierungsverzerrung minimiert; und Schritt (f) das Ausgeben, als die Quantisierungsindizes, desjenigen Quantisierungsindizes, die aus der Quantisierung der ein oder mehreren kombinierten Signalvektoren des ausgewählten Satzes erhalten werden, und, als ein anderer Teil des Codierergebnisses, eines Abbildungscodes umfasst, der die dem ausgewählten Satz entsprechende Abbildung bezeichnet.
  12. Verfahren nach einem der Ansprüche 1 bis 11, bei dem das Signal eines vorgegebenen einzelnen Kanals aus der Mehrzahl von Kanälen ein Bildsignal ist.
  13. Verfahren nach Anspruch 12, bei dem mit Bezug auf den diesem vorgegebenen einen Kanal entsprechenden Block Schnitt (a) das Durchführen einer Vorhersageverarbeitung des Blocks, um einen Diffeienzblock zu erzeugen, das Berechnen der Leistung des Differenzblocks und das Ermitteln der Gewichte der Signalabtastwerte in dem Differenzblock auf der Grundlage einer spektralen Hüllkurve umfasst; und Schritt (b) das Normieren der Signalabtastwerte in dem Differenzblock durch diese Leistung umfasst.
  14. Verfahren nach Anspruch 12 oder 13, bei dem das Signal eines anderen Kanals aus der Mehrzahl von Kanälen ein Tonsignal ist.
  15. Verfahren nach einem der Ansprüche 1 bis 14, ferner mit den Schritten: (g) Segmentieren eines Eingangssignals eines einzelnen Kanals in Rahmen einer festgelegten Länge und Ermitteln, für jeden Rahmen, ob er stationär oder transient ist; und, wenn ein jeweiliger Rahmen transient ist, (h) Segmentieren des Rahmens in eine Gruppe von Blöcken und Anwenden der Schritte (a) bis (f) auf diese Gruppe von Blöcken als Blöcke einer Mehrzahl von Kanälen; oder wenn ein jeweiliger Rahmen stationär ist, Durchführen der folgenden Schritte: (i) Berechnen der Leistung des Rahmens und Ermitteln des Gewichtes (V0) jedes Signalabtastwertes in dem Rahmen auf der Grundlage dieser Leistung; (j) Normieren jedes Signalabtastwerts in dem stationären Rahmen mit der Leistung, um einen Rahmen von normierten Signalabtastwerten (XN0) zu erhalten, und Ausgeben eines stationären Verstärkungsindex (IG0), der die Normierungsveistärkung dieses Rahmens angibt; (k) Umordnen der normierten Signalabtastwerte des stationären Rahmens in einer vorgegebenen Reihenfolge, die einer vorgegebenen Abbildung entspricht, zu einer oder mehreren Sequenzen von normierten Signalabtastwerten, wobei jede Sequenz jeweils einen stationären Signalvektor (Y01–Y0h) bildet; (l) Umordnen der Gewichte (V0) des stationären Rahmens in der gleichen Weise wie die normierten Signalabtastwerte, um für jeden stationären Signalvektor (Y01–Y0h) einen entsprechenden stationären Gewichtungsvektor (W01–W0h) zu erhalten, der die Gewichte enthält, die den normierten Signalabtastwerten in dem jeweiligen stationären Signalvektor zugeordnet sind; (m) Vektorquantisieren jedes stationären Signalvektors unter Verwendung des entsprechenden stationären Gewichtungsvektors, wodurch ein stationärer Quantisierungsindex (J01–J0h) erhalten wird, der einen entsprechenden Quantisierungsvektor darstellt; (n) Ausgeben jedes stationären Quantisierungsindex (J01–J0h) und des stationären Verstärkungsindex (IG0) als Teil des Codierergebnisses für den stationären Rahmen; und (o) Ausgeben, zusätzlich zu Schritt (f) bzw. Schritt (n), als einen anderen Teil des jeweiligen Codierergebnisses, eines Zustandscodes (Id), der angibt, ob das Codierergebnis das eines transienten Rahmens oder das eines stationären Rahmens ist.
  16. Verfahren nach Anspruch 15, bei dem die Signalabtastwerte Zeitbereichssignalabtastwerte sind und bei dem Schritt (a) umfasst: (a-1) Transformieren der Zeitbereichssignalabtastwerte des jeweiligen Blocks in Frequenzbereichskoeffizienten; (a-2) Berechnen der spektralen Hüllkurve (E1–En) der Frequenzbereichskoeffizienten; und (a-3) Normieren der Frequenzbereichskoeffizienten mit den entsprechenden Hüllkurvenwerten der spektralen Hüllkurve, um Restkoeffizienten (X1–Xn) zu erhalten, und Ermitteln des Gewichts jedes Restkoeffizienten auf der Grundlage dieser Leistung; Schritt (b) die Normierung der Restkoeffizienten (X1–Xn) des Blocks mit der Leistung, um die normierten Restkoeffizienten (XN) als die normierten Signalabtastwerte zu erhalten, umfasst; und Schritt (f) das Ausgeben, als ein anderer Teil des Codierergebnisses, eines Hüllkurvenindex (IE1–IEn) umfasst, der die in Schritt (a-2) berechnete spektrale Hüllkurve bezeichnet.
  17. Verfahren nach Anspruch 16, bei dem Schritt (f) das gemeinsame Codieren der Hüll-kurvenindizes (IE1–IEn) und/oder der Verstärkungsindizes (IG1–IGn) für die Blöcke und das Ausgeben des entsprechenden Quantisierungscodes als Teil des Codierergebnisses umfasst.
  18. Verfahren nach Anspruch 15, 16 oder 17, bei dem Schritt (i) das vorhersagende Codieren des Rahmens und das Ausgeben des resultierenden Codes als Teil des Codierergebnisses umfasst.
  19. Verfahren nach Anspruch 15, 16 oder 17, bei dem die Signalabtastwerte Zeitbereichssignalabtastwerte sind und bei dem Schritt (i) folgende Schritte umfasst: (i-1) Transformieren des Rahmens von Zeitbereichssignalabtastwerten in Frequenzbereichskoeffizienten; (i-2) Berechnen der spektralen Hüllkurve (E0) und der Leistung (G0) des stationären Rahmens; und (i-3) Normieren der Frequenzbereichskoeffizienten mit Spektralhüllkurvenwerten (E0), um normierte Restkoeffizienten (XN) zu erzeugen; und bei dem Schritt (n) das Ausgeben, als den stationären Verstärkungsindex, eines Index (IG0), der die Durchschnittsleistung (G0) angibt, und ferner das Ausgeben eines stationären Hüllkurvenindex (IEO), der die spektrale Hüllkurve (E0) bezeichnet, umfasst.
  20. Verfahren nach Anspruch 15, 16 oder 17, bei dem die Signalabtastwerte Zeitbereichssignalabtastwerte sind und bei dem Schritt (i) folgende Schritte umfasst: (i-1) Transformieren des Rahmens von Zeitbereichssignalabtastwerten in Frequenzbereichskoeffizienten; (i-2) Berechnen der spektralen Hüllkurve des stationären Rahmens; (i-3) Normieren der Frequenzbereichskoeffizienten mit Spektralhüllkurvenwerten, um Restkoeffizienten zu erhalten; (i-4) Vorhersagen der Hüllkurve (ER) der Restkoeffizienten aus Restkoeffizienten eines vorhergehenden stationären Rahmens; und (i-5) Normieren der Restkoeffizienten mit den jeweiligen Hüllkurvenwerten der vorhergesagten Hüllkurve (ER), um Feinstrukturkoeffizienten (Z) zu erzeugen; Schritt (j) das Berechnen der Durchschnittsleistung der Feinstrukturkoeffizienten, das Normieren der Feistrukturkoeffizienten mit der Durchschnittsleistung und das Ausgeben der resultierenden normierten Koeffizienten (ZN) als die normierten Signalabtastwerte umfasst; und Schritt (n) das Ausgeben, als den stationären Verstärkungsindex, eines Index (IG0), der die Durchschnittsleistung angibt, und ferner das Ausgeben eines stationären Hüllkurvenindex, der die spektrale Hüllkurve angibt, umfasst.
  21. Dekodierverfahren zum Rekonstruieren von Signalen einer Mehrzahl von Kanälen (CH1-CHn) aus einer Indexgruppe aus einem oder mehreren Quantisierungsindizes und einer zugeordneten Gruppe von Verstärkungsindizes, wobei das Verfahren folgende Schritte umfasst: (a) Lesen, für jeden des einen oder der mehreren Quantisierungsindizes in der Indexgruppe, eines entsprechenden kombinierten Quantisierungsvektors aus einem Codebuch (7CB), um einen oder mehrere kombinierte Quantisierungsvektoren (Y'1–Y'm) zu erhalten; (b) Umordnen der Elemente der in Schritt (a) erhaltenen ein oder mehreren kombinierten Quantisierungsvektoren (Y'1–Y'm) in einer einer vorgegebenen Abbildung entsprechenden vorgegebenen Reihenfolge zu einer Gruppe von Blöcken (XN1–XNn) von normierten Signalabtastwerten, wobei jeder Block jeweils einem aus der Mehrzahl von Kanälen (CH1–CHn) zu geordnet ist; und (c) Rekonstruieren von Normierungsverstärkungen aus der Gruppe von Verstärkungsindizes und Denormieren der normierten Signalabtastwerte in jedem Block (XN1–XNn) der Gruppe mit einer jeweiligen der Normierungsverstärkungen und Ausgeben, als rekonstruierte Signale, einer Gruppe von Blöcken von denormierten Signalabtastwerten, jeweils einen Block für jeden aus der Mehrzahl von Kanälen (CH1–CHn).
  22. Verfahren nach Anspruch 21 , bei dem Schritt (c) folgende Schritte umfasst: (d) Rekonstruieren von Spektralhüllkurvenwerten (EL1–ELn, ER1–ERn) aus zusammen mit der Indexgruppe und Verstärkungsindizes empfangenen Hüllkurvenindizes und Multiplizieren der denormierten Signalabtastwerte jedes Blocks mit den entsprechenden Spektrafhüllkurvenwerten, um Blöcke von Frequenzbereichskoeffizienten zu erhalten; und (e) Transformieren jedes Blocks von Frequenzbereichskoeffizienten in einen jeweiligen Block von Zeitbereichssignalabtastwerten und Ausgeben der Blöcke von Zeitbereichssignalabtastwerten als die rekonstruierten Signale.
  23. Verfahren nach Anspruch 22, bei der die Transformation eine inverse diskrete Cosinus-Transformation ist.
  24. Verfahren nach Anspruch 22 oder 23, bei dem Schritt (e) ferner das sequenzielle Kombinieren der Blöcke von Zeitbereichssignalabtastwerten aus der Mehrzahl von Kanälen in einer vorgegebenen Zeitsequenz zu einem kombinierten rekonstruierten Signal umfasst.
  25. Verfahren nach Anspruch 22, bei dem Schritt (e) ein Schritt des Kombinierens der Zeitbereichssignale der Mehrzahl von Kanälen zu einer Mehrzahl von rekonstruierten Signalen ist, deren Zahl kleiner als die der Zeitbereichssignale ist.
  26. Verfahren nach einem der Ansprüche 21 bis 25 zum Rekonstruieren der Signale, die gemäß dem Verfahren nach Anspruch 11 zu einem Code codiert worden sind, der ferner Abbildungscodes enthält, bei dem Schritt (b) das Umordnen der Elemente in eine Reihenfolge entsprechend einer aus einer Mehrzahl von vorgegebenen Abbildungen (ITB1, ITB2) umfasst, wobei die eine Abbildung auf der Grundlage des Abbildungscodes (Is) ausgewählt wird, der dem einen oder den mehreren kombinierten Quantisierungsvektoren entspricht, deren Elemente umzuordnen sind.
  27. Verfahren nach Anspruch 21, 22, 23 oder 26 zum Rekonstruieren der Signale, die gemäß dem Verfahren nach Anspruch 15 zu einem Code codiert worden sind, der ferner für jede Indexgruppe (J01–J0h, J1–Jm) eines oder mehrerer Quantisierungsindizes einen entsprechenden Zustandscode (Id) enthält, der den einen oder anderen der zwei Zustände angibt, mit den Schritten: wenn der Zustandscode (Id) den einen Zustand angibt, Durchführen der Schritte (a) bis (e) für die zugeordnete Indexgruppe (J1–Jm) und eine zugeordnete Gruppe von Verstärkungsindizes (IG1– IGn) und Kombinieren der rekonstruierten Blöcke von Signalabtastwerten in Zeitsequenz zu einem Rahmen, dessen Länge ein ganzzahliges Vielfaches der Blocklänge ist, und Ausgeben des Rahmens als rekonstruiertes Signal, und wenn der Zustandscode (Id) den anderen Zustand angibt: (d) Auslesen eines entsprechenden kombinierten Vektors aus dem Codebuch für jeden Quantisierungsindex (J01–J0h) in der jeweiligen Indexgruppe; (e) Umordnen der Elemente des in Schritt (d) erhaltenen einen oder der mehreren kombinierten Vektoren (Y'01–Y'0h) in einer einer vorgegebenen Abbildung entsprechenden vorgegebenen Reihenfolge zu einem Rahmen von normierten Signalabtastwerten (XNO); und (f) Rekonstruieren einer Normierungsverstärkung (GD) aus einem der jeweiligen Indexgruppe entsprechenden Verstärkungsindex (IG0) und Denormieren der normierten Signalabtastwerte mit der Normierungsverstärkung und Ausgeben eines Rahmens von denormierten Signalabtastwerten als rekonstruiertes Signal.
  28. Verfahren nach Anspruch 27 zum Rekonstruieren der Signale, die gemäß dem Verfahren nach Anspruch 16 zu einem Code codiert worden sind, der ferner Hüllkurvenindizes (IE0, IE1–IEn) enthält, wobei Schritt (e) folgende Schritte umfasst: (c-1) Rekonstruieren von spektralen Hüllkurven (E1–En) aus den Hüllkurvenindizes (IE0, IE1– IEn) und Multiplizieren der denormierten Signalabtastwerte jedes Blocks mit entsprechenden Hüllkurvenwerten einer jeweiligen der spektralen Hüllkurven, um Blöcke von Frequenzbereichskoeffizienten zu erhalten, und (c-2) Transformieren der Frequenzbereichskoeffizienten in jedem Block in Zeitbereichssignale und Ausgeben von diesen als die rekonstruierten Signale der Mehrzahl von Kanälen.
  29. Verfahren nach Anspruch 27 oder 28 zum Rekonstruieren der Signale, die gemäß dem Verfahren von Anspruch 19 zu einem Code codiert worden sind, der ferner Hüllkurvenindizes (IE0, IE1–IEn) enthält, wobei Schritt (f) folgende Schritte umfasst: (f-1) Rekonstruieren von Spektralhüllkurvenwerten (E0) aus einem dem jeweiligen Rahmen entsprechenden Hüllkurvenindex (IE0) und Multiplizieren der denormierten Signalabtastwerte mit jeweils entsprechenden unter den Spektralhüllkurvenwerten, um Frequenzbereichskoeffizienten(XN0) zu erhalten; und (f-2) Transformieren der Frequenzbereichskoeffizienten in Zeitbereichssignalabtastwerte und Ausgeben von diesen als das rekonstruierte Signal.
  30. Verfahren nach Anspruch 29, bei dem Schritt (f-1) das Reproduzieren der denormierten Signalabtastwerte zu Feinstrukturkoeffizienten (Z'), das Multiplizieren der Feinstrukturkoeffizienten mit Resthüllkurvenwerten einer aus einem vorhergehenden Rahmen vorhergesagten Resthüllkurven (E'R), um Restkoeffizienten (X'0) zu erhalten, und das Multiplizieren dieser Restkoeffizienten mit den Spektralhüllkurvenwerten, um die Frequenzbereichskoeffizienten zu erhalten, umfasst.
  31. Verfahren nach Anspruch 30, bei dem die Resthüllkurve (E'R) als Hüllkurve von im Schritt (f-1) in einem vorhergehenden Rahmen, für den der Zustandscode (Id) den anderen Zustand angab, erhaltenen Restkoeffizienten erhalten wird.
  32. Verfahren nach Anspruch 30, bei dem die Resthüllkurve aus einer aus einem Hüllkurvenindex in einem Block in einem vorhergehenden Rahmen, für den der Zustandscode (Id) den einen Zustand angibt, rekonstruierten spektralen Hüllkurve erhalten wird.
  33. Verfahren nach Anspruch 28, bei dem, wenn der Zustandscode (Id) den einen Zustand angibt, die in Schritt (c-1) reproduzierte spektrale Hüllkurve in einem Block gemeinsam für alle Blöcke eines jeweiligen Rahmens verwendet wird.
  34. Verfahren nach einem der Ansprüche 21 bis 31, bei dem Schritt (c) für einen vorgegebenen Kanal aus der Mehrzahl von Kanälen einen Schritt des Erhaltens der denormierten Signalabtastwerte als ein Differenzsignal und des Addierens eines rekonstruierten Signals eines vorhergehenden Blocks zu dem Differenzsignal des gegenwärtigen Blocks, um ein rekonstruiertes Signal des gegenwärtigen Blocks zu erhalten, umfasst.
  35. Encoder zum Codieren von Signalen einer Mehrzahl von Kanälen (CH1–CHn), bei dem das Signal jedes Kanals durch jeweils einen Block von Signalabtastwerten dargestellt ist, mit: Rechenmitteln (31 3n ) zum Berechnen einer Leistung für jeden Block und zum Bestimmen des Gewichts (V1–Vn) jedes Signalabtastwertes auf der Grundlage einer spektralen Hüllkurve (E1–En); Normierungsmitteln (E1–En) zum Normieren jedes Signalabtastwertes mit der Leistung des jeweiligen Blocks und zum Ermitteln eines jeweiligen Verstärkungsindex (G1–Gn), der die Normierungsverstärkungen dieses Blocks angibt, für jeden Block; und Codiermitteln, die Vektorquantisierungsmittel (6) enthalten; gekennzeichnet durch Signalumordnungsmittel (5YX ) zum Umordnen der normierten Signalabtastwerte der Blöcke (XN1–XNn) in einer vorgegebenen Reihenfolge entsprechend einer vorgegebenen Abbildung in eine oder mehrere Sequenzen von normierten Signalabtastwerten, so dass jede dieser einen oder mehreren Sequenzen normierte Signalabtastwerte von mehreren Kanälen enthält, um jede dieser einen oder mehreren Sequenzen als einen jeweiligen kombinierten Signalvektor (Y1–Ym) zu erzeugen; Gewichtungsumordnungsmittel (5VW ) zum Umordnen der Gewichte (V1–Vn) entsprechend der gleichen Abbildung wie die normierten Signalabtastwerte, um für jeden der kombinierten Signalvektoren (Y1–Ym) einen entsprechenden kombinierten Gewichtungsvektor (W1–Wm) zu erhalten, der die den normierten Signalabtastwerten in dem jeweiligen Signalvektor zugeordneten Gewichte enthält; wobei die Vektorquantisierungsmittel (6) zum Vektorquantisieren jedes kombinierten Signalvektors (Y1–Ym) den entsprechenden kombinierten Gewichtungsvektor (W1–Wm) verwenden, um dadurch einen Quantisierungsindex (J1–Jm) zu erhalten, der einen entsprechenden kombinierten Quantisierungsvektor darstellt; und Ausgabemittel zum Ausgeben jedes Quantisierungsindex (J1–Jm) und der Verstärkungsindizes (G1–Gm) als wenigstens ein Teil des Codierergebnisses.
  36. Encoder nach Anspruch 35, bei dem die Signalabtastwerte Zeitbereichsignalabtastwerte sind, und die Rechenmittel (32) Transformationsmittel (32B) zum Transformieren der Zeitbereichssignalabtastwerte in dem jeweiligen Block in Frequenzbereichskoeffizienten, Mittel (32Q) zum Berechnen der spektralen Hüllkurve (E) der Frequenzbereichskoeffizienten und Mittel (32F) zum Normieren der Frequenzbereichskoeffizienten mit den entsprechenden Hüllkuivenwerten der Hüllkurve, um Restkoeffizienten (X) zu erhalten, umfassen; die Normierungsmittel (33) Mittel zum Normieren der Restkoeffizienten (X) des Blocks, um die normierten Restkoeffizienten (XN) als die normierten Signalabtastwerte zu erzeugen, umfassen; und die Ausgabemittel Mittel zum Ausgeben, als einen anderen Teil des Codierergebnisses, von Hüllkuiveninformation, die die in Schritt (a-2) berechnete Hüllkurve (E) darstellt, umfassen.
  37. Encoder nach Anspruch 36, bei der die Transformationsmittel (32B) eingerichtet sind, um eine modifizierte diskrete Cosinus-Transformation auf die Zeitbereichssignalabtastwerte anzuwenden.
  38. Encoder nach Anspruch 36, bei dem die Mittel (32Q) zum Berechnen der spektralen Hüllkurve (E) Mittel (32C, 32D, 32E) zum Machen einer linearen vorhersagenden Codieranalyse des jeweiligen Blocks, um Vorhersagekoeffizienten zu erhalten, und zum Quantisieren der Vorhersagekoeffizienten und Fourier-Transformieren der quantisierten Vorhersagekoeffizienten, um die spektrale Hüllkurve zu erhalten, umfassen, und dass die Ausgabemittel Mittel zum Ausgeben, als die Hüllkurveninformation des jeweiligen Blocks, eines Index (IE), der die Quantisierung der Vorhersagekoeffizienten angibt, umfassen.
  39. Encoder nach Anspruch 36, bei dem die Mittel (32Q) zum Berechnen der spektralen Hüllkurve (E) Mittel (32G, 32H, 32C, 32D, 32E) zum inversen Fourier-Transformieren der Absolutwerte der aus dem jeweiligen Block resultierenden Frequenzbereichskoeffizienten in ein Zeitbereichssignal, zum Machen einer linearen Vorhersagecodieranalyse des Zeitbereichssignals, um Vorhersagekoeffizienten zu erhalten, zum Quantisieren der Vorhersagekoeffizienten und zum Fourier-Transformieren der quantisierten Vorhersagekoeffizienten in die Hüllkurve umfassen, und dass die Ausgabemittel Mittel zum Ausgeben, als die Hüllkurveninformation des jeweiligen Blocks, eines Index (IE), der die Quantisierung der Vorhersagekoeffizienten anzeigt, umfassen.
  40. Encoder nach Anspruch 36, bei dem die Mittel (32Q) zum Berechnen der spektralen Hüllkurve (E) Mittel (32J1 32JP, 32K) zum Aufspalten der Frequenzbereichskoeffizienten in eine Mehrzahl von Teilbändern, zum Ermitteln, für die Frequenzbereichskoeffizienten in jedem Teilband, eines jeweiligen Skalierungsfaktors (SF1–SFP) und zum Quantisieren der Skalierungsfaktoren, um quantisierte Skalierungsfaktoren als die Hüllkurve zu erhalten, umfassen, und die Ausgabemittel Mittel zum Ausgeben, als die Hüllkurveninformation des jeweiligen Blocks, eines Index (IE), der die quantisierten Skalierungsfaktoren angibt, umfassen.
  41. Encoder nach einem der Ansprüche 35 bis 40, der ferner umfasst: Speichermittel, in denen eine Mehrzahl von verschiedenen Abbildungen (TB1, TB2) vorab gespeichert ist; eine Mehrzahl von Sätzen der Signalumordnungsmittel (35XY1 35XY2 ), der Gewichtungsumordnungsmittel (35VW1 35VW2 ) und der Vektorquantisieiungsmittel (361 362 ), die entsprechend der Mehrzahl von verschiedenen Abbildungen vorgesehen sind; und Vergleichsmittel (38) zum Vergleichen der Quantisierungsverzerrungen, die aus der Vektorquantisierung durch die Mehrzahl von Sätzen von Mitteln resultieren, und zum Ausgeben eines Abbildungscodes (Is), der die Abbildung angibt, die demjenigen der Sätze von Mitteln entspricht, der die minimale Quantisierungsverzerrung ergab; wobei die Ausgabemittel eingerichtet sind, um den Abbildungscode (Is) als einen anderen Teil des Codierergebnisses auszugeben, und Auswahlmittel (39) aufweisen, die auf den Abbildungscode reagieren, um selektiv als die Quantisierungsindizes (J1–Jm) diejenigen auszugeben, die mit dem Satz von Mitteln erhalten wurden, dessen entsprechende Abbildung durch den Abbildungscode (Is) angegeben ist.
  42. Encoder nach einem der Ansprüche 35 bis 41, der ferner Vorhersagemittel (95) zum Durchführen einer Vorhersageverarbeitung eines Blocks, der einen einzelnen vorgegebenen Kanal aus der Mehrzahl von Kanälen darstellt, um einen Differenzblock (D) zu erzeugen, umfasst, und bei dem die Normierungsmittel (32Fa) eingerichtet sind, die Leistung dieses Differenzblocks zu berechnen, die Gewichte der Signalabtastwerte in dem Differenzblock zu berechnen und die Signalabtastwerte in dem Differenzblock mit dieser Leistung zu normieren.
  43. Encoder nach einem der Ansprüche 35 bis 42, der ferner umfasst: Mittel (41) zum Segmentieren eines Eingangssignals eines einzelnen Kanals in Rahmen einer festgelegten Länge und zum Ermitteln, für jeden Rahmen, ob er stationär oder transient ist; Mittel (31) zum Segmentieren, wenn ein jeweiliger Rahmen transient ist, des Rahmens in eine Gruppe von Blöcken und zum Zuführen der Gruppe von Blöcken als Blöcke einer Mehrzahl von Kanälen (CH1–CHn) zu den Rechenmitteln (321 32n ), um sie von den Rechenmitteln, Normierungsmitteln (331 33n ), Signalumordnungsmitteln (35XY ), Gewichtungsumordnungsmitteln (35VW ), Vektorquantisierungsmitteln (36) und Ausgabemitteln verarbeiten zu lassen; stationäre Rechenmittel (320 , 340 ) zum Berechnen, wenn ein jeweiliger Rahmen stationär ist, der Leistung des Rahmens und zum Bestimmen des Gewichts (V0) jedes Signalabtastwerts in dem Rahmen auf der Grundlage dieser Leistung; stationäre Normierungsmittel (330 ) zum Normieren jedes Signalabtastwerts in dem stationären Rahmen mit der Leistung, um einen Rahmen von normierten Signalabtastwerten (XN0) zu erhalten, und zum Ausgaben eines stationären Verstärkungsindex (IG0), der die Normierungsverstärkung des Rahmens angibt; stationäre Signalumordnungsmittel (43XY ) zum Umordnen der normierten Signalabtastwerte des stationären Rahmens in einer vorgegebenen Reihenfolge entsprechend einer vorgegebenen Abbildung zu einer oder mehreren Sequenzen von normierten Signalabtastwerten und Ausgeben jeder dieser einen oder mehreren Sequenzen als einen jeweiligen stationären Signalvektor (Y1– Y0h); stationäre Gewichtungsumordnungsmittel (4VW ) zum Umordnen der Gewichte (V0) in der gleichen Weise wie die normierten Signalabtastwerte des stationären Rahmens, um für jeden stationären Signalvektor (Y01–Y0h) einen entsprechenden stationären Gewichtungsvektor (W01– W0h) zu erhalten, der die den normierten Signalabtastwerten in dem jeweiligen stationären Signalvektor entsprechenden Gewichte enthält; und stationäre Vektorquantisierungsmittel (44) zum Quantisieren jedes stationären Signalvektors unter Verwendung des entsprechenden stationären Gewichtungsvektors, um dadurch einen stationären Quantisierungsindex (J01–J0h) zu erhalten, der einen entsprechenden Quantisierungsvektor darstellt; wobei die Ausgabemittel eingerichtet ist, um einen Zustandscode (Id), der den einen oder anderen von zwei Zuständen angibt, und, wenn der Zustandscode den einen Zustand angibt, jeden Quantisierungsindex (J1–Jm) und die Verstärkungsindizes (G1–Gm) als das Codierergebnis eines transienten Rahmens oder, wenn der Zustandscode den anderen Zustand angibt, jeden stationären Quantisierungsindex (J01–J0h) und den stationären Verstärkungsindex (IG0) als das Codierergebnis eines stationären Rahmens auszugeben.
  44. Encoder nach Anspruch 43, bei dem die Signalabtastwerte Zeitbereichssignalabtastwerte sind, und bei dem die stationären Rechenmittel (320 ) umfassen: Mittel zum Transformieren des Rahmens von Zeitbereichssignalabtastwerten in Frequenzbereichskoeffizienten; Mittel (32E) zum Berechnen der spektralen Hüllkurve des Rahmens; Mittel (32F) zum Normieren der Frequenzbereichskoeffizienten mit den Spektralhüllkurvenwerten, um Restkoeffizienten zu erhalten; Mittel (91) zum Vorhersagen der Hüllkurve (ER) der Restkoeffizienten aus Restkoeffizienten eines vorhergehenden stationären Rahmens; und Mittel (92) zum Normieren der Restkoeffizienten mit den jeweiligen Hüllkurvenwerten der vorhergesagten Hüllkurve (ER), um Feinstrukturkoeffizienten (Z) zu erzeugen; wobei die stationären Normierungsmittel (330 ) Mittel zum Berechnen der Durchschnittsleistung der Feinstrukturkoeffizienten, Normieren der Feinstrukturkoeffizienten mit der Durchschnittsleistung und Ausgeben der resultierenden normierten Koeffizienten (ZN) als die normierten Signalabtastwerte umfassen; und die Ausgabemittel eingerichtet ist, um als den stationären Verstärkungsindex einen Index (IG0) auszugeben, der die Durchschnittsleistung angibt, und ferner einen stationären Hüllkurvenindex anzugeben, der die spektrale Hüllkurve angibt.
  45. Decoder zum Rekonstruieren von Signalen einer Mehrzahl von Kanälen (CH1–CHn) aus einer Indexgruppe aus einem oder mehreren Quantisierungsindizes (J1–Jm) und einer zugeordneten Gruppe von Verstärkungsindizes, mit: einem Codebuch (7CB), in dem kombinierte Quantisierungsvektoren in Entsprechung zu jeweiligen Quantisierungsindizes vorabgespeichert sind; Mitteln zum Lesen, für jeden des einen oder der mehreren Quantisierungsindizes (J1–Jm) in der Indexgruppe, eines entsprechenden kombinierten Quantisierungsvektors aus dem Codebuch (7CB), um einen oder mehrere kombinierte Quantisierungsvektoren (Y'1–Y'm) zu erhalten; Umordnungsmitteln (76YX ) zum Umordnen der Elemente des einen oder der mehreren kombinierten Quantisierungsvektoren (Y'1–Y'm) in einer vorgegebenen Reihenfolge entsprechend einer vorgegebenen Abbildung zu einer Gruppe von Blöcken (XN1–XN) von normierten Signalabtastwerten, wobei jeder Block jeweils einem aus der Mehrzahl von Kanälen (CH1–CHn) zugeordnet ist; und Denormierungsmitteln (771 bis 77n ) zum Rekonstruieren von Normierungsverstärkungen (G1–Gn) aus der Gruppe von Verstärkungsindizes, zum Denormieren der normierten Signalabtastwerte in jedem Block (XN1–XNn) der Gruppe mit jeweils einer der Normierungsverstärkungen und zum Ausgeben, als rekonstruierte Signale, einer Gruppe von Blöcken von denormierten Signalabtastwerten, einem Block für jeden aus der Mehrzahl von Kanälen (CH1–CHn).
  46. Decoder nach Anspruch 45, ferner mit: Mitteln (73) zum Empfangen von Hüllkurvenindizes; Mitteln (62A, 62B, 65L1 65R1 , 65Ln 65Rn ) zum Rekonstruieren von Spektralhüllkurvenwerten (EL1–ELn; ER1–ERn) aus den Hüllkurvenindizes und zum Multiplizieren der denormierten Signalabtastwerte jedes Blocks mit den entsprechenden Spektralhüllkurvenwerten, um Blöcke von Frequenzbeieichskoeffizienten zu erhalten; und Mitteln (66L1 66Ln , 66R1 66Rn , 78L1 78Ln , 78R1 78Rn ) zum Transformieren jedes Blocks von Frequenzbereichskoeffizienten in einen jeweiligen Block von Zeitbereichssignalabtastwerten und zum Ausgeben der Blöcke von Zeitbereichssignalabtastwerten als die rekonstruierten Signale.
  47. Decoder nach Anspruch 45 oder 46, ferner mit Mitteln (79L 79R ) zum sequentiellen Kombinieren der Blöcke von Zeitbereichssignalabtastwerten der Mehrzahl von Kanälen in vorgegebener Zeitsequenz zu einem kombinierten rekonstruierten Signal.
  48. Decoder nach Anspruch 45, 46 oder 50, ferner mit: Mitteln (71) zum Empfangen von Abbildungscodes (Ia); Speichermitteln (MAP) mit einer Mehrzahl von darin vorab gespeicherten unterschiedlichen Abbildungen (ITB1, ITB2), wobei die Umordnungsmittel (76) eingerichtet sind, um eine aus der Mehrzahl von Abbildungen (ITB1, ITB2) auf der Grundlage des Abbildungscodes (IS) auszuwählen, der dem einen oder den mehreren kombinierten Quantisierungsvektoren entspricht, deren Elemente umzuordnen sind.
  49. Decoder nach Anspruch 45, 46, 47 oder 48, bei dem die Empfangsmittel (80A80C) eingerichtet sind, um einen Zustandscode (Id), der den einen oder den anderen von zwei Zuständen angibt, und, wenn der Zustandscode den einen Zustand angibt, eine Indexgruppe (J1–Jm) aus einem oder mehreren Quantisierungsindizes und entsprechende Verstärkungsindizes (IG1– IGn) oder, wenn der Zustandscode den anderen Zustand angibt, eine Indexgruppe (J01–J0h) aus einem oder mehreren stationären Quantisierungsindizes und einen stationären Verstärkungsindex (IG0) zu empfangen, wobei der Decoder ferner umfasst: Rahmenkombiniermittel (72, 76XY , 771 77n , 651 65n , 661 66n , 781 78n , 79) zum Decodieren des Zustandscodes, um zu bestimmen, ob er den einen oder den anderen der zwei Zustände bezeichnet, und, wenn er den einen Zustand bezeichnet, die Signalrekonstruktion mit den Denormierungsmitteln (72) durchzuführen, und zum Kombinieren der rekonstruierten Blöcke der Mehrzahl von Kanälen in Zeitsequenz zu einem Rahmen, dessen Länge ein ganzzahliges Vielfaches der Blocklänge ist; stationäres Lesemittel (80A), die auf den den anderen Zustand anzeigenden Zustandscode reagieren, zum Auslesen eines entsprechenden stationären kombinierten Vektors (Y01–Y0h) aus dem Codebuch für jeden stationären Quantisierungsindex in der Indexgruppe; stationäre Umordnungsmittel (82YX ) zum Umordnen der Elemente des einen oder der mehreren kombinierten Vektoren (Y'01–Y'0h) in einer vorgegebenen Reihenfolge entsprechend einer vorgegebenen Abbildung zu einem Rahmen von normierten Signalabtastwerten (XN0); und stationäre Denormierungsmittel (750, 770 ) zum Rekonstruieren einer Normierungsverstärkung (G0) aus dem stationären Verstärkungsindex (IG0) und Denormieren der normierten Signalabtastwerte mit der Normierungsverstärkung und Ausgeben eines Rahmens von denormierten Signalabtastwerten als rekonstruiertes Signal.
  50. Decoder nach Anspruch 49, ferner mit: Mittel (80B) zum Empfangen von Hüllkurvenindizes (IE0, IE1–IEn); Mittel (62) zum Rekonstruieren von spektralen Hüllkurven (E1–En) aus den Hüllkurvenindizes (IE0, IE1–IEn) und Multiplizieren der denormierten Signalabtastwerte jedes Blocks mit entsprechenden Hüllkurvenwerten jeweils einer der spektralen Hüllkurve (IE1–IEn), um Blöcke von Frequenzbereichskoeffizienten (XN–XNn) zu erhalten; und Mitteln (661 66n , 781 78n ) zum Transformieren der Frequenzbereichskoeffizienten in jedem Block in Zeitbereichssignale und Ausgeben von diesen als die rekonstruierten Signale der Mehrzahl von Kanälen.
  51. Decoder nach Anspruch 49 oder 50, ferner mit: Mitteln (80B) zum Empfangen von Hüllkurvenindizes (IE0, IE1–IEn); Restkoeffizientenreproduktionsmitteln (62a) zum Rekonstruieren von Spektralhüllkurvenwerten (E0) aus einem dem jeweiligen Rahmen entsprechenden Hüllkurvenindex (IE0) und Multiplizieren der denormierten Signalabtastwerte mit jeweiligen der Spektralhüllkurvenwerten, um Frequenzbereichskoeffizienten (XN0) zu erhalten; und Mitteln (660 , 780 ) zum Transformieren der Frequenzbereichskoeffizienten in Zeitbereichsabtastwerte und Ausgeben von diesen als das rekonstruierte Signal.
  52. Decoder nach Anspruch 51, bei dem die denormierten Signalabtastwerte Feinstrukturkoeffizienten sind und die Restkoeffizientenreproduziermittel umfassen: Vorhersagemittel (78) zum Vorhersagen einer Resthüllkurve (ER') aus Restkoeffizienten eines vorhergehenden Rahmens; Denormierungsmittel (83) zum Denormieren der Feinstrukturkoeffizienten mit der vorhergesagten Resthüllkurve (ER'), um die Restkoeffizienten des gegenwärtigen Rahmens zu erhalten; und Multipliziermittel (650 ) zum Multiplizieren der Restkoeffizienten (X0') mit den Spektralhüllkurvenwerten (E0'), um die Frequenzbereichskoeffizienten zu erhalten.
  53. Decoder nach einem der Ansprüche 45 bis 52, bei dem die denormierten Signalabtastwerte in einem vorgegebenen der Mehrzahl von Kanälen Differenzsignalabtastwerte sind und der Decoder ferner Interrahmen-Vorhersagemittel (68) zum Addieren von rekonstruierten Signalabtastwerten eines vorhergehenden Blocks zu den Differenzsignalabtastwerten des gegenwärtigen Blocks, um rekonstruierte Signalabtastwerte des gegenwärtigen Blocks zu erhalten, umfasst.
DE69531471T 1994-05-06 1995-05-05 Mehrkanalsignalkodierung unter Verwendung gewichteter Vektorquantisierung Expired - Lifetime DE69531471T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP9422794 1994-05-06
JP9422794 1994-05-06
JP17533594 1994-07-27
JP17533594 1994-07-27

Publications (2)

Publication Number Publication Date
DE69531471D1 DE69531471D1 (de) 2003-09-18
DE69531471T2 true DE69531471T2 (de) 2004-07-01

Family

ID=26435500

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69531471T Expired - Lifetime DE69531471T2 (de) 1994-05-06 1995-05-05 Mehrkanalsignalkodierung unter Verwendung gewichteter Vektorquantisierung

Country Status (3)

Country Link
US (1) US5651090A (de)
EP (1) EP0684705B1 (de)
DE (1) DE69531471T2 (de)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2842276B2 (ja) * 1995-02-24 1998-12-24 日本電気株式会社 広帯域信号符号化装置
JP3307138B2 (ja) * 1995-02-27 2002-07-24 ソニー株式会社 信号符号化方法及び装置、並びに信号復号化方法及び装置
US5854858A (en) * 1995-06-07 1998-12-29 Girod; Bernd Image signal coder operating at reduced spatial resolution
JP3616432B2 (ja) * 1995-07-27 2005-02-02 日本電気株式会社 音声符号化装置
US5960390A (en) * 1995-10-05 1999-09-28 Sony Corporation Coding method for using multi channel audio signals
JP3680380B2 (ja) * 1995-10-26 2005-08-10 ソニー株式会社 音声符号化方法及び装置
JP2778567B2 (ja) * 1995-12-23 1998-07-23 日本電気株式会社 信号符号化装置及び方法
TW317051B (de) * 1996-02-15 1997-10-01 Philips Electronics Nv
DE69732746C5 (de) * 1996-02-15 2020-11-19 Koninklijke Philips N.V. Signalübertragungssystem mit verringerter komplexität
US5825320A (en) * 1996-03-19 1998-10-20 Sony Corporation Gain control method for audio encoding device
JP3094908B2 (ja) * 1996-04-17 2000-10-03 日本電気株式会社 音声符号化装置
JP3092653B2 (ja) * 1996-06-21 2000-09-25 日本電気株式会社 広帯域音声符号化装置及び音声復号装置並びに音声符号化復号装置
US5848391A (en) * 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
CN1169117C (zh) * 1996-11-07 2004-09-29 松下电器产业株式会社 声源矢量生成装置以及声音编码装置和声音解码装置
US6345246B1 (en) * 1997-02-05 2002-02-05 Nippon Telegraph And Telephone Corporation Apparatus and method for efficiently coding plural channels of an acoustic signal at low bit rates
US5852614A (en) * 1997-05-29 1998-12-22 Trw Inc. Weighted interleaving for correlated channel coding
GB2369518B (en) * 1997-07-18 2002-07-17 British Broadcasting Corp Switching compressed video bitstreams
CN1124590C (zh) * 1997-09-10 2003-10-15 三星电子株式会社 改善话音信号编码器性能的方法
US6253173B1 (en) * 1997-10-20 2001-06-26 Nortel Networks Corporation Split-vector quantization for speech signal involving out-of-sequence regrouping of sub-vectors
US7733966B2 (en) * 1997-12-30 2010-06-08 Summit Technology Systems, Lp System and method for space diversified linear block interleaving
US6104994A (en) * 1998-01-13 2000-08-15 Conexant Systems, Inc. Method for speech coding under background noise conditions
JP3268750B2 (ja) * 1998-01-30 2002-03-25 株式会社東芝 音声合成方法及びシステム
JP3553356B2 (ja) * 1998-02-23 2004-08-11 パイオニア株式会社 線形予測パラメータのコードブック設計方法及び線形予測パラメータ符号化装置並びにコードブック設計プログラムが記録された記録媒体
CA2246532A1 (en) * 1998-09-04 2000-03-04 Northern Telecom Limited Perceptual audio coding
SE519563C2 (sv) 1998-09-16 2003-03-11 Ericsson Telefon Ab L M Förfarande och kodare för linjär prediktiv analys-genom- synteskodning
US6209094B1 (en) 1998-10-14 2001-03-27 Liquid Audio Inc. Robust watermark method and apparatus for digital signals
US6320965B1 (en) 1998-10-14 2001-11-20 Liquid Audio, Inc. Secure watermark method and apparatus for digital signals
US6219634B1 (en) * 1998-10-14 2001-04-17 Liquid Audio, Inc. Efficient watermark method and apparatus for digital signals
US6330673B1 (en) 1998-10-14 2001-12-11 Liquid Audio, Inc. Determination of a best offset to detect an embedded pattern
US6345100B1 (en) 1998-10-14 2002-02-05 Liquid Audio, Inc. Robust watermark method and apparatus for digital signals
US6665646B1 (en) * 1998-12-11 2003-12-16 At&T Corp. Predictive balanced multiple description coder for data compression
JP4482237B2 (ja) * 1999-01-07 2010-06-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 無損失エンコーダにおけるサイド情報の効率的な符号化
US6278385B1 (en) * 1999-02-01 2001-08-21 Yamaha Corporation Vector quantizer and vector quantization method
CA2290037A1 (en) * 1999-11-18 2001-05-18 Voiceage Corporation Gain-smoothing amplifier device and method in codecs for wideband speech and audio signals
US7010482B2 (en) * 2000-03-17 2006-03-07 The Regents Of The University Of California REW parametric vector quantization and dual-predictive SEW vector quantization for waveform interpolative coding
US6356213B1 (en) * 2000-05-31 2002-03-12 Lucent Technologies Inc. System and method for prediction-based lossless encoding
US7035873B2 (en) * 2001-08-20 2006-04-25 Microsoft Corporation System and methods for providing adaptive media property classification
US6963975B1 (en) * 2000-08-11 2005-11-08 Microsoft Corporation System and method for audio fingerprinting
SE519976C2 (sv) * 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
WO2002037476A1 (en) * 2000-11-03 2002-05-10 Koninklijke Philips Electronics N.V. Sinusoidal model based coding of audio signals
US6996522B2 (en) * 2001-03-13 2006-02-07 Industrial Technology Research Institute Celp-Based speech coding for fine grain scalability by altering sub-frame pitch-pulse
WO2002091599A2 (en) * 2001-05-08 2002-11-14 Comsat Corporation Method and apparatus for measuring adjacent satellite interference
US7242863B2 (en) * 2001-05-09 2007-07-10 Ciena Corporation Method and system for coordinating and utilizing channel power information in an optical communications network
WO2002091646A1 (en) * 2001-05-09 2002-11-14 Ciena Corporation Method and system for coordinating and utilizing channel power information in an optical communications network
US7243295B2 (en) * 2001-06-12 2007-07-10 Intel Corporation Low complexity channel decoders
JP4296752B2 (ja) * 2002-05-07 2009-07-15 ソニー株式会社 符号化方法及び装置、復号方法及び装置、並びにプログラム
US7275030B2 (en) * 2003-06-23 2007-09-25 International Business Machines Corporation Method and apparatus to compensate for fundamental frequency changes and artifacts and reduce sensitivity to pitch information in a frame-based speech processing system
US7672838B1 (en) * 2003-12-01 2010-03-02 The Trustees Of Columbia University In The City Of New York Systems and methods for speech recognition using frequency domain linear prediction polynomials to form temporal and spectral envelopes from frequency domain representations of signals
WO2006009074A1 (ja) * 2004-07-20 2006-01-26 Matsushita Electric Industrial Co., Ltd. 音声復号化装置および補償フレーム生成方法
ATE442644T1 (de) * 2004-08-26 2009-09-15 Panasonic Corp Mehrkanalige signal-dekodierung
CN101116137B (zh) * 2005-02-10 2011-02-09 松下电器产业株式会社 语音编码中的脉冲分配方法
EP1691348A1 (de) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametrische kombinierte Kodierung von Audio-Quellen
EP1858006B1 (de) * 2005-03-25 2017-01-25 Panasonic Intellectual Property Corporation of America Toncodierungseinrichtung und toncodierungsverfahren
US8271275B2 (en) * 2005-05-31 2012-09-18 Panasonic Corporation Scalable encoding device, and scalable encoding method
DE102005039621A1 (de) * 2005-08-19 2007-03-01 Micronas Gmbh Verfahren und Vorrichtung zur adaptiven Reduktion von Rausch- und Hintergrundsignalen in einem sprachverarbeitenden System
RU2008114382A (ru) * 2005-10-14 2009-10-20 Панасоник Корпорэйшн (Jp) Кодер с преобразованием и способ кодирования с преобразованием
US20070094035A1 (en) * 2005-10-21 2007-04-26 Nokia Corporation Audio coding
US8332216B2 (en) * 2006-01-12 2012-12-11 Stmicroelectronics Asia Pacific Pte., Ltd. System and method for low power stereo perceptual audio coding using adaptive masking threshold
US7590523B2 (en) * 2006-03-20 2009-09-15 Mindspeed Technologies, Inc. Speech post-processing using MDCT coefficients
WO2007114290A1 (ja) * 2006-03-31 2007-10-11 Matsushita Electric Industrial Co., Ltd. ベクトル量子化装置、ベクトル逆量子化装置、ベクトル量子化方法及びベクトル逆量子化方法
US8392176B2 (en) * 2006-04-10 2013-03-05 Qualcomm Incorporated Processing of excitation in audio coding and decoding
BR122019024992B1 (pt) 2006-12-12 2021-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Codificador, decodificador e métodos para codificação e decodificação de segmentos de dados representando uma corrente de dados de domínio de tempo
WO2008072736A1 (ja) * 2006-12-15 2008-06-19 Panasonic Corporation 適応音源ベクトル量子化装置および適応音源ベクトル量子化方法
US20080201490A1 (en) * 2007-01-25 2008-08-21 Schuyler Quackenbush Frequency domain data mixing method and apparatus
US8719012B2 (en) * 2007-06-15 2014-05-06 Orange Methods and apparatus for coding digital audio signals using a filtered quantizing noise
US20090198500A1 (en) * 2007-08-24 2009-08-06 Qualcomm Incorporated Temporal masking in audio coding based on spectral dynamics in frequency sub-bands
US8428957B2 (en) 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
KR101545350B1 (ko) * 2008-02-01 2015-08-18 삼성전자주식회사 통신 시스템에서 기준 신호 송/수신 장치 및 방법
ES2406422T3 (es) * 2008-06-24 2013-06-06 Telefonaktiebolaget L M Ericsson (Publ) Esquema multimodo para codificación mejorada de audio
KR101756834B1 (ko) 2008-07-14 2017-07-12 삼성전자주식회사 오디오/스피치 신호의 부호화 및 복호화 방법 및 장치
EP2546994B1 (de) * 2010-03-09 2016-12-28 Nippon Telegraph And Telephone Corporation Kodierverfahren, dekodierverfahren sowie vorrichtung dafür, programm dafür und aufzeichnungsmedium
EP2661746B1 (de) * 2011-01-05 2018-08-01 Nokia Technologies Oy Mehrkanalige kodierung und/oder dekodierung
US8620646B2 (en) * 2011-08-08 2013-12-31 The Intellisis Corporation System and method for tracking sound pitch across an audio signal using harmonic envelope
JP5975243B2 (ja) * 2011-08-24 2016-08-23 ソニー株式会社 符号化装置および方法、並びにプログラム
CN103325373A (zh) 2012-03-23 2013-09-25 杜比实验室特许公司 用于传送和接收音频信号的方法和设备
US9460729B2 (en) 2012-09-21 2016-10-04 Dolby Laboratories Licensing Corporation Layered approach to spatial audio coding
CA2898677C (en) * 2013-01-29 2017-12-05 Stefan Dohla Low-frequency emphasis for lpc-based coding in frequency domain
US9312826B2 (en) * 2013-03-13 2016-04-12 Kopin Corporation Apparatuses and methods for acoustic channel auto-balancing during multi-channel signal extraction
US20150025894A1 (en) * 2013-07-16 2015-01-22 Electronics And Telecommunications Research Institute Method for encoding and decoding of multi channel audio signal, encoder and decoder
CN104751850B (zh) * 2013-12-25 2021-04-02 北京天籁传音数字技术有限公司 一种用于音频信号的矢量量化编解码方法及装置
CN106165013B (zh) * 2014-04-17 2021-05-04 声代Evs有限公司 在声音信号编码器和解码器中使用的方法、设备和存储器
JP6387117B2 (ja) * 2015-01-30 2018-09-05 日本電信電話株式会社 符号化装置、復号装置、これらの方法、プログラム及び記録媒体
CN105957533B (zh) * 2016-04-22 2020-11-10 杭州微纳科技股份有限公司 语音压缩方法、语音解压方法及音频编码器、音频解码器
EP3617904A4 (de) * 2017-04-28 2020-04-29 Sony Corporation Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
US11538489B2 (en) 2019-06-24 2022-12-27 Qualcomm Incorporated Correlating scene-based audio data for psychoacoustic audio coding
US11361776B2 (en) * 2019-06-24 2022-06-14 Qualcomm Incorporated Coding scaled spatial components
CN113129910A (zh) * 2019-12-31 2021-07-16 华为技术有限公司 音频信号的编解码方法和编解码装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1184023B (it) * 1985-12-17 1987-10-22 Cselt Centro Studi Lab Telecom Procedimento e dispositivo per la codifica e decodifica del segnale vocale mediante analisi a sottobande e quantizzazione vettorariale con allocazione dinamica dei bit di codifica
EP0364647B1 (de) * 1988-10-19 1995-02-22 International Business Machines Corporation Vektorquantisierungscodierer
US4963030A (en) * 1989-11-29 1990-10-16 California Institute Of Technology Distributed-block vector quantization coder
DE69232343D1 (de) * 1991-08-13 2002-02-14 Canon Kk Bildübertragungsvorrichtung
JP3446216B2 (ja) * 1992-03-06 2003-09-16 ソニー株式会社 音声信号処理方法

Also Published As

Publication number Publication date
EP0684705A3 (de) 1997-02-05
EP0684705A2 (de) 1995-11-29
DE69531471D1 (de) 2003-09-18
US5651090A (en) 1997-07-22
EP0684705B1 (de) 2003-08-13

Similar Documents

Publication Publication Date Title
DE69531471T2 (de) Mehrkanalsignalkodierung unter Verwendung gewichteter Vektorquantisierung
DE60120766T2 (de) Indizieren von impulspositionen und vorzeichen in algebraischen codebüchern zur codierung von breitbandsignalen
DE69828725T2 (de) Sprachcodier- und -decodiersystem
DE69531642T2 (de) Synthese eines Anregungssignals bei Ausfall von Datenrahmen oder Verlust von Datenpaketen
DE69633633T2 (de) Mehrkanaliger prädiktiver subband-kodierer mit adaptiver, psychoakustischer bitzuweisung
DE60124274T2 (de) Codebuchstruktur und suchverfahren für die sprachkodierung
DE69915400T2 (de) Vorrichtung zur Kodierung und Dekodierung von Audiosignalen
DE69634179T2 (de) Verfahren und Vorrichtung zur Sprachkodierung und -dekodierung
DE60011051T2 (de) Celp-transkodierung
DE69724126T2 (de) Audiosignalkodier- und dekodierverfahren und audiosignalkodierer und -dekodierer
DE60126149T2 (de) Verfahren, einrichtung und programm zum codieren und decodieren eines akustischen parameters und verfahren, einrichtung und programm zum codieren und decodieren von klängen
DE60006271T2 (de) Celp sprachkodierung mit variabler bitrate mittels phonetischer klassifizierung
DE602005002833T2 (de) Kompensation von multikanal-audio energieverlusten
EP1502255B1 (de) Vorrichtung und verfahren zum skalierbaren codieren und vorrichtung und verfahren zum skalierbaren decodieren eines audiosignales
DE60121405T2 (de) Transkodierer zur Vermeidung einer Kaskadenkodierung von Sprachsignalen
DE69133458T2 (de) Verfahren zur Sprachquantisierung und Fehlerkorrektur
DE69815650T2 (de) Sprachkodierer
DE69634645T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE69910239T2 (de) Verfahren und vorrichtung zur adaptiven bandbreitenabhängigen grundfrequenzsuche für die kodierung breitbandiger signale
EP1495464B1 (de) Vorrichtung und verfahren zum codieren eines zeitdiskreten audiosignals und vorrichtung und verfahren zum decodieren von codierten audiodaten
DE69731677T2 (de) Verbessertes Kombinationsstereokodierverfahren mit zeitlicher Hüllkurvenformgebung
DE69932460T2 (de) Sprachkodierer/dekodierer
EP0858067B1 (de) Verfahren und Vorrichtung zur mehrkanaligen akustischen Signalkodierung und -dekodierung
DE19647298C2 (de) Kodiersystem
DE4320990B4 (de) Verfahren zur Redundanzreduktion

Legal Events

Date Code Title Description
8364 No opposition during term of opposition