DE69825180T2 - Audiokodier- und dekodierverfahren und -vorrichtung - Google Patents

Audiokodier- und dekodierverfahren und -vorrichtung Download PDF

Info

Publication number
DE69825180T2
DE69825180T2 DE69825180T DE69825180T DE69825180T2 DE 69825180 T2 DE69825180 T2 DE 69825180T2 DE 69825180 T DE69825180 T DE 69825180T DE 69825180 T DE69825180 T DE 69825180T DE 69825180 T2 DE69825180 T2 DE 69825180T2
Authority
DE
Germany
Prior art keywords
speech
noise level
excitation
code
time series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69825180T
Other languages
English (en)
Other versions
DE69825180D1 (de
Inventor
Tadashi Chiyoda-ku YAMAURA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BlackBerry Ltd
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=18439687&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69825180(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of DE69825180D1 publication Critical patent/DE69825180D1/de
Publication of DE69825180T2 publication Critical patent/DE69825180T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/135Vector sum excited linear prediction [VSELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0004Design or structure of the codebook
    • G10L2019/0005Multi-stage vector quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0007Codebook element generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0012Smoothing of parameters of the decoder interpolation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0016Codebook for LPC parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Description

  • Technisches Gebiet
  • Diese Erfindung bezieht sich auf Verfahren zur Sprachcodierung und -decodierung und auf Vorrichtungen zur Sprachcodierung und -decodierung zur Durchführung einer Verdichtungscodierung und -decodierung eines Sprachsignals in ein digitales Signal. Insbesondere bezieht sich diese Erfindung auf ein Verfahren zur Sprachcodierung, ein Verfahren zur Sprachdecodierung, eine Vorrichtung zur Sprachcodierung und eine Vorrichtung zur Sprachdecodierung für die Wiedergabe einer Sprache mit hoher Qualität bei niedrigen Bitraten.
  • Stand der Technik
  • Im Stand der Technik ist die Codierung mit codeerregter linearer Vorhersage (codeerregte lineare Vorhersage: CELP) bekannt als ein wirkungsvolles Sprachcodierverfahren, und seine Technik ist beschrieben in "Code-excited linear prediction (CELP): High-quality speech at very low bit rates", ICASSP '85, Seiten 937 – 940, von M. R. Shroeder und B. S. Atal 1985.
  • 6 illustriert ein Beispiel einer Gesamtkonfiguration eines CELP-Sprachcodier- und -decodierverfahrens. In 6 sind ein Codierer 101, ein Decodierer 102, eine Multiplexvorrichtung 103 und eine Teilungsvorrichtung 104 illustriert.
  • Der Codierer 101 enthält eine Linearvorhersage-Parameteranalysevorrichtung 105, eine Linearvorhersage-Parametercodiervorrichtung 106, ein Synthesefilter 107, ein adaptives Codebuch 108, ein Erregungscodebuch 109, eine Verstärkungscodiervorrichtung 110, eine Abstandsberechnungsvorrichtung 111 und eine Gewichtungsadditionsvorrichtung 138. Der Decodierer 102 enthält eine Linearvorhersage-Parameterdecodiervorrichtung 112, eine Synthesefilter 113, ein adaptives Codebuch 114, ein Erregungscodebuch 115, eine Verstärkungsdecodiervorrichtung 116 und eine Gewichtungsadditionsvorrichtung 139.
  • Bei der CELP-Sprachcodierung wird eine Sprache in einem Rahmen von etwa 5 – 50 ms in Spektruminformationen und Erregungsinformationen geteilt und codiert.
  • Erläuterungen erfolgen hinsichtlich der Operationen bei dem CELP-Sprachcodierverfahren. In dem Codierer 101 analysiert die Linearvorhersage-Parameteranalysevorrichtung 105 eine Eingangssprache S101 und zieht einen Linearvorhersageparameter heraus, der die Spektruminformationen der Sprache darstellt. Die Linearvorhersage-Parametercodiervorrichtung 106 codiert den Linearvorhersageparameter und setzt einen codierten Linearvor hersageparameter als einen Koeffizienten für das Synthesefilter 107.
  • Erläuterungen erfolgen hinsichtlich der Codierung von Erregungsinformationen.
  • Ein altes Erregungssignal wird in dem adaptiven Codebuch 108 gespeichert. Das adaptive Codebuch 108 gibt einen Zeitserienvektor entsprechend einem durch die Distanzberechnungsvorrichtung 111 eingegebenen adaptiven Code aus, der durch periodisches Wiederholen des alten Erregungssignals erzeugt wird.
  • Mehrere Zeitserienvektoren, die durch Herabsetzen einer Verzerrung zwischen einer Sprache zum Trainieren und ihrer codierten Sprache trainiert sind, werden beispielsweise in dem Erregungscodebuch 109 gespeichert. Das Erregungscodebuch 109 gibt einen Zeitserienvektor entsprechend einem von der Distanzberechnungsvorrichtung 111 eingegebenen Erregungscode aus.
  • Jeder der von dem adaptiven Codebuch 108 und dem Erregungscodebuch 109 ausgegebenen Zeitserienvektoren wird gewichtet durch Verwendung einer jeweiligen Verstärkung, die von der Verstärkungscodiervorrichtung 110 erhalten wird, und durch die Gewichtungsadditionsvorrichtung 138 hinzugefügt. Dann wird ein Additionsergebnis zu dem Synthesefilter 107 als Erregungssignale geliefert und eine codierte Sprache wird erzeugt. Die Abstandsberechnungsvorrichtung 111 berechnet einen Abstand zwischen der codierten Sprache und der Eingangssprache 5101 und sucht einen adaptiven Code, einen Erregungscode und Verstärkungen zum Minimieren des Abstands. Wenn die vorgenannte Codierung vorbei ist, werden ein Linearvorhersage-Parametercode und der adaptive Code, der Erregungscode und Verstär kungscodes zum Minimieren einer Verzerrung zwischen der Eingangssprache und der codierten Sprache als ein Codierergebnis ausgegeben.
  • Erläuterungen erfolgen hinsichtlich der Operationen bei dem CELP-Sprachdecodierverfahren.
  • In dem Decodierer 102 decodiert die Linearvorhersage-Parameterdecodiervorrichtung 112 den Linearvorhersage-Parametercode in den Linearvorhersageparameter und setzt den Linearvorhersageparameter als einen Koeffizienten für das Synthesefilter 113. Das adaptive Codebuch 114 gibt einen Zeitserienvektor entsprechend einem adaptiven Code aus, der erzeugt ist durch periodisches Wiederholen eines alten Erregungssignals. Das Erregungscodebuch 115 gibt einen Zeitserienvektor entsprechend einem Erregungscode aus. Die Zeitserienvektoren werden durch Verwendung jeweiliger Verstärkungen gewichtet, die aus den Verstärkungscodes durch die Verstärkungsdecodiervorrichtung 116 decodiert sind, und hinzugefügt sind durch die Gewichtungsadditionsvorrichtung 139. Ein Additionsergebnis wird zu dem Synthesefilter 113 als ein Erregungssignal geliefert und eine Ausgangssprache S103 wird erzeugt.
  • Unter dem CELP-Sprachcodier- und -decodierverfahren wird ein verbessertes Sprachcodier- und -decodierverfahren zum Erzeugen von Sprache hoher Qualität gemäß dem Stand der Technik beschrieben in "Phonetically – based vector excitation coding of speech at 3.6 kbps", ICASSP '89, Seiten 49 – 52, von S. Wang und A. Gersho, 1989.
  • 7 zeigt ein Beispiel für eine Gesamtkonfiguration des Sprachcodier- und -decodierverfahrens gemäß dem Stand der Technik, und dieselben Zeichen werden verwendet für Mittel, die den Mitteln in 6 entsprechen.
  • In 7 enthält der Codierer 101 eine Sprachzustands-Bestimmungsvorrichtung 117, eine Erregungscodebuch-Schaltvorrichtung 118, ein erstes Erregungscodebuch 119 und ein zweites Erregungscodebuch 120. Der Decodierer 102 enthält eine Erregungscodebuch-Schaltvorrichtung 121, ein erstes Erregungscodebuch 122 und ein zweites Erregungscodebuch 123.
  • Erläuterungen von Operationen bei dem Codier- und Decodierverfahren gemäß dieser Konfiguration werden durchgeführt. In dem Codierer 101 analysiert die Sprachzustands-Bestimmungsvorrichtung 117 die Eingangssprache S101 und bestimmt, welchen von zwei Zuständen ein Zustand der Sprache hat, beispielsweise mit Stimme oder ohne Stimme. Die Erregungscodebuch-Schaltvorrichtung 118 schaltet die bei der Codierung zu verwendenden Erregungscodebücher auf der Grundlage eines Sprachzustands-Bestimmungsergebnisses. Wenn beispielsweise die Sprache mit Stimme ist, wird das erste Erregungscodebuch 119 verwendet, und wenn die Sprache ohne Stimme ist, wird das zweite Erregungscodebuch 120 verwendet. Dann codiert die Erregungscodebuch-Schaltvorrichtung 118, welches Erregungscodebuch bei der Codierung verwendet wird.
  • In dem Decodierer 102 schaltet die Erregungscodebuch-Schaltvorrichtung 121 das erste Erregungscodebuch 122 und das zweite Erregungscodebuch 123 auf der Grundlage eines Codes, der zeigt, welches Erregungscodebuch in dem Codierer 101 verwendet wurde, so dass das Erregungscodebuch, das in dem Codierer 101 verwendet wurde, in dem Decodierer 102 verwendet wird. Gemäß dieser Konfiguration werden Erregungscodebücher, die zum Codieren in verschiedenen Sprachzuständen geeignet sind, erhalten, und die Erregungscodebücher werden auf der Grundlage eines Zustands einer Eingangssprache geschaltet. Daher kann Sprache mit hoher Qualität wiedergegeben werden.
  • Ein Sprachcodier- und -decodierverfahren zum Schalten mehrerer Erregungscodebücher ohne Erhöhen einer Übertragungsbitzahl gemäß dem Stand der Technik wird in der veröffentlichten ungeprüften Japanischen Patentanmeldung 8-185198 offenbart. Die mehreren Erregungscodebücher werden geschaltet auf der Grundlage einer in einem adaptiven Codebuch ausgewählten Tonhöhenfrequenz, und ein für Eigenschaften einer Eingangssprache geeignetes Erregungscodebuch kann verwendet werden ohne Erhöhung der Übertragungsdaten.
  • Wie festgestellt ist, wird bei dem in 6 illustrierten Sprachcodier- und -decodierverfahren gemäß dem Stand der Technik ein einzelnes Erregungscodebuch verwendet, um eine synthetische Sprache zu erzeugen. Rauschfreie Zeitserienvektoren mit vielen Impulsen sollten in dem Erregungscodebuch gespeichert werden, um eine codierte Sprache hoher Qualität selbst bei niedrigen Bitraten zu erzeugen. Wenn daher eine Rauschsprache, z.B. Hintergrundrauschen, Reiblautkonsonant usw. codiert und zusammengesetzt wird, besteht ein Problem, dass eine codierte Sprache einen unnatürlichen Ton erzeugt, z.B. "Jiri-Jiri" und "Chiri-Chiri". Dieses Problem kann gelöst werden, wenn das Erregungscodebuch nur Rauschzeitserienvektoren enthält. Jedoch wird in diesem Fall die Qualität der codierten Sprache insgesamt verschlechtert.
  • Bei dem in 7 illustrierten verbesserten Sprachcodier- und -decodierverfahren nach dem Stand der Technik werden die mehreren Erregungscodebücher geschaltet auf der Grundlage des Zustands der Eingangssprache zum Erzeugen einer codierten Sprache. Daher ist es möglich, ein Erregungscodebuch enthaltend Rauschzeitserienvektoren in einer Rauschperiode der Eingangssprache ohne Stimme und beispielsweise ein Erregungscodebuch enthaltend rauschfreie Zeitserienvektoren in einer Periode mit Stimme, die eine andere als die Rauschperiode ohne Stimme ist, zu verwenden. Wenn daher eine Rauschsprache codiert und zusammengesetzt wird, wird ein unnatürlicher Ton, z.B. "Jiri-Jiri", nicht erzeugt. Da jedoch das beim Codieren verwendete Erregungscodebuch auch bei der Decodierung verwendet wird, wird es erforderlich, Daten zu codieren und zu übertragen, deren Erregungscodebuch verwendet wurde. Es wird ein Hindernis für das Herabsetzen von Bitraten.
  • Gemäß dem Sprachcodier- und -decodierverfahren zum Schalten der mehreren Erregungscodebücher ohne Erhöhung einer Übertragungsbitzahl gemäß dem Stand der Technik werden die Erregungscodebücher geschaltet auf der Grundlage einer in dem adaptiven Codebuch ausgewählten Tonhöhenperiode. Jedoch unterscheidet sich die in dem adaptiven Codebuch ausgewählte Tonhöhenperiode von einer tatsächlichen Tonhöhenperiode einer Sprache, und es ist unmöglich, nur anhand eines Wertes der Tonhöhenperiode zu bestimmen, ob ein Zustand einer Eingangssprache Rauschen oder Nichtrauschen ist. Daher kann das Problem, das die codierte Sprache in der Rauschperiode der Sprache unnatürlich ist, nicht gelöst werden.
  • Die Erfindung beabsichtigt, die vorgenannten Probleme zu lösen. Insbesondere zielt die Erfindung darauf ab, Sprachcodier- und -decodierverfahren sowie -vorrich tungen zum Wiedergeben von Sprache hoher Qualität selbst bei niedrigen Bitraten zu erhalten.
  • Offenbarung der Erfindung
  • Um die vorgenannten Problem gemäß einem ersten Aspekt der Erfindung zu lösen, weist ein Sprachcodierverfahren gemäß der codeerregten linearen Vorhersage (CELP) auf:
    Auswerten eines Geräuschpegels einer Sprache in einer betreffenden Codierperiode durch Verwendung eines Codes oder Codierergebnisses von zumindest einer von einer Spektrumsinformation, Leistungsinformation oder Tonhöheninformation; und Ändern eines Geräuschpegels von Zeitserienvektoren, die von einem Erregungscodebuch ausgegeben wurden, auf der Grundlage eines Auswertungsergebnisses.
  • Gemäß einem zweiten Aspekt der Erfindung weist ein Sprachdecodierverfahren gemäß der codeerregten linearen Vorhersage (CELP) auf:
    Auswerten eines Geräuschpegels einer Sprache in einer betreffenden Decodierperiode durch Verwendung eines Codes oder Decodierergebnisses von zumindest einer von der Spektrumsinformation, Leistungsinformation und Tonhöheninformation; und Ändern eines Geräuschpegels von Zeitserienvektoren, die von einem Erregungscodebuch ausgegeben wurden, auf der Grundlage eines Auswertungsergebnisses.
  • Bei einem bevorzugten Ausführungsbeispiel verwendet die Auswertung des Geräuschpegels der Sprache den Code oder das Decodierergebnis der Leistungsinformation.
  • Gemäß einem dritten Aspekt der Erfindung weist eine Sprachcodiervorrichtung gemäß der codeerregten linearen Vorhersage (CELP) auf:
    eine Geräuschpegel-Auswertungsvorrichtung zum Auswerten eines Geräuschpegels einer Sprache in einer betreffenden Codierperiode durch Verwendung eines Codes oder Codierergebnisses von zumindest einer von der Spektrumsinformation, Leistungsinformation und Tonhöheninformation; und eine Geräuschpegel-Steuervorrichtung zum Ändern eines Geräuschpegels von Zeitserienvektoren, die von einem Erregungscodebuch ausgegeben wurden, auf der Grundlage eines Auswertungsergebnisses der Geräuschpegel-Auswertungsvorrichtung.
  • Gemäß einem vierten Aspekt der Erfindung weist eine Sprachdecodiervorrichtung gemäß der codeerregten linearen Vorhersage (CELP) auf:
    eine Geräuschpegel-Auswertungsvorrichtung zum Auswerten eines Geräuschpegels einer Sprache in einer betreffenden Decodierperiode durch Verwendung eines Codes oder Decodierergebnisses von zumindest einer von der Spektrumsinformation, Leistungsinformation und Tonhöheninformation; und eine Geräuschpegel-Steuervorrichtung zum Ändern eines Geräuschpegels von Zeitserienvektoren, die von einem Erregungscodebuch ausgegeben wurden, auf der Grundlage eines Auswertungsergebnisses der Geräuschpegel-Auswertungsvorrichtung.
  • Bei einem bevorzugten Ausführungsbeispiel dieser Vorrichtung verwendet die Geräuschpegel-Auswertungsvorrichtung den Code oder das Decodierergebnis der Leistungsinformation.
  • Kurzbeschreibung der Zeichnungen
  • 1 zeigt ein Blockschaltbild einer Gesamtkonfiguration einer Sprachcodierungs- und Sprachdecodierungsvorrichtung nach dem Ausführungsbeispiel 1 dieser Erfindung.
  • 2 zeigt eine Tabelle zum Erläutern einer Auswertung eines Geräuschpegels bei dem Ausführungsbeispiel 1 dieser in 1 illustrierten Erfindung.
  • 3 zeigt ein Blockschaltbild einer Gesamtkonfiguration einer Sprachcodier- und Sprachdecodiervorrichtung nach dem Ausführungsbeispiel 3 dieser Erfindung.
  • 4 zeigt ein Blockschaltbild einer Gesamtkonfiguration einer Sprachcodierungs- und Sprachdecodierungsvorrichtung nach dem Ausführungsbeispiel 5 dieser Erfindung.
  • 5 zeigt ein schematisches Liniendiagramm zum Erläutern eines Bestimmungsprozesses der Gewichtung bei dem in 4 illustrierten Ausführungsbeispiel 5.
  • 6 zeigt ein Blockschaltbild einer Gesamtkonfiguration einer CELP-Sprachcodier- und -decodiervorrichtung gemäß dem Stand der Technik.
  • 7 zeigt ein Blockschaltbild einer Gesamtkonfiguration einer verbesserten CELP-Sprachcodier- und -decodiervorrichtung nach dem Stand der Technik.
  • Beste Art der Ausführung der Erfindung
  • Es werden Erläuterungen von Ausführungsbeispielen dieser Erfindung mit Bezug auf die Zeichnungen gemacht.
  • Ausführungsbeispiel 1
  • 1 illustriert die Gesamtkonfiguration eines Sprachcodierverfahrens und eines Sprachdecodierverfahrens nach dem Ausführungsbeispiel 1 gemäß dieser Erfindung. In 1 sind ein Codierer 1, eine Decodierer 2, ein Multiplexer 3 und eine Teilungsvorrichtung 4 illustriert. Der Codierer 1 enthält eine Linearvorhersageparameter-Analysevorrichtung 5, einen Linearvorhersageparameter-Codierer 6, ein Synthesefilter 7, ein adaptives Codebuch 8, einen Verstärkungscodierer 10, eine Abstandsberechnungsvorrichtung 11, ein erstes Erregungscodebuch 19, ein zweites Erregungscodebuch 20, eine Geräuschpegel-Auswertungsvorrichtung 24, einen Erregungscodebuchschalter 25 und einen Gewichtungsaddierer 38. Der Decodierer 2 enthält einen Linearvorhersageparameter-Decodierer 12, ein Synthesefilter 13, ein adaptives Codebuch 14, ein erstes Erregungscodebuch 22, ein zweites Erregungscodebuch 23, eine Geräuschpegel-Auswertungsvorrichtung 26, einen Erregungscodebuchschalter 27, eine Verstärkungsdecodierer 16 und einen Gewichtungsaddierer 39. In 1 ist die Linearvorhersageparameter-Analysevorrichtung 5 eine Spektrumsinformations-Analysevorrichtung zum Analysieren einer Eingangssprache S1 und zum Herausziehen eines Linearvorhersageparameters, der die Spektrumsinformation der Sprache ist. Der Linearvorhersageparameter- Codierer 6 ist ein Spektruminformations-Codierer zum Codieren des Linearvorhersageparameters, der die Spektrumsinformation ist, und zum Setzen eines codierten Linearvorhersageparameters als einen Koeffizienten des Synthesefilters 7. Die ersten Erregungscodebücher 19 und 22 speichern mehrere Nichtgeräusch-Zeitserienvektoren, und die zweiten Erregungscodebücher 20 und 23 speichern mehrere Geräusch-Zeitserienvektoren. Die Geräuschpegel-Auswertungsvorrichtungen 24 und 26 werten einen Geräuschpegel aus, und die Erregungscodebuchschalter 25 und 27 schalten die Erregungscodebücher auf der Grundlage des Geräuschpegels um.
  • Die Arbeitsweise wird erläutert.
  • In dem Codierer 1 analysiert die Linearvorhersageparameter-Analysevorrichtung 5 die Eingangssprache S1 und zieht einen Linearvorhersageparameter heraus, der die Spektrumsinformation der Sprache ist. Der Linearvorhersageparameter-Codierer 6 codiert den Linearvorhersageparameter. Dann setzt der Linearvorhersageparameter-Codierer 6 einen codierten Linearvorhersageparameter als einen Koeffizienten für das Synthesefilter 7 und gibt auch den codierten Linearvorhersageparameter zu der Geräuschpegel-Auswertungsvorrichtung 24 aus.
  • Es wird die Codierung von Erregungsinformationen erläutert.
  • Ein altes Erregungssignal ist in dem adaptiven Codebuch 8 gespeichert, und ein Zeitserienvektor entsprechend einem adaptiven Code, der von der Abstandsberechnungsvorrichtung 11 eingegeben ist, der erzeugt ist durch periodisches Wiederholen eines alten Erre gungssignals, wird ausgegeben. Die Geräuschpegel-Auswertungsvorrichtung 25 wertet einen Geräuschpegel in einer betreffenden Codierperiode aus auf der Grundlage des codierten Linearvorhersageparameters, der von dem Linearvorhersageparameter-Codierer 6 eingegeben wurde, und des adaptiven Codes, beispielsweise eines Spektrumgradienten, der Kurzzeit-Vorhersageverstärkung und der Tonhöhenschwankung, wie in 2 gezeigt ist, und gibt ein Auswertungsergebnis zu dem Erregungscodebuchschalter 25 aus. Der Erregungscodebuchschalter 25 schaltet Erregungscodebücher für die Codierung um auf der Grundlage des Auswertungsergebnisses des Geräuschpegels. Wenn beispielsweise der Geräuschpegel niedrig ist, wird das erste Erregungscodebuch 19 verwendet, und wenn der Geräuschpegel hoch, wird das zweite Erregungscodebuch 20 verwendet.
  • Das erste Erregungscodebuch 19 speichert mehrere Nichtgeräusch-Zeitserienvektoren, z.B. mehrere Zeitserienvektoren, die trainiert wurden durch Herabsetzen einer Verzerrung zwischen einer Sprache für das Trainieren und ihrer codierten Sprache. Das zweite Erregungscodebuch 20 speichert mehrere Geräusch-Zeitserienvektoren, beispielsweise mehrere Zeitserienvektoren, die aus Zufallsgeräuschen erzeugt sind. Jeweils das erste Erregungscodebuch 19 und das zweite Erregungscodebuch 20 geben einen Zeitserienvektor aus entsprechend einem durch die Abstandsberechnungsvorrichtung 11 eingegebenen Erregungscode. Jeder der Zeitserienvektoren von dem adaptiven Codebuch 8 und entweder dem ersten Erregungscodebuch 19 oder dem zweiten Erregungscodebuch 20 wird gewichtet durch Verwendung einer jeweiligen Verstärkung, die von dem Verstärkungscodierer 10 geliefert wird, und durch den Gewichtungsaddierer 38 hinzugefügt wird. Ein Additi onsergebnis wird als Erregungssignale zu dem Synthesefilter 7 geliefert und eine codierte Sprache wird erzeugt. Die Abstandsberechnungsvorrichtung 11 berechnet einen Abstand zwischen der codierten Sprache und der eingegebenen Sprache S1 und sucht einen adaptiven Code, einen Erregungscode und eine Verstärkung zum Minimieren des Abstands. Wenn diese Codierung vorbei ist, werden der Linearvorhersageparameter-Code und ein adaptiver Code, ein Erregungscode und ein Verstärkungscode zum Minimieren der Verzerrung zwischen der eingegebenen Sprache und der codierten Sprache als ein Codierergebnis S2 ausgegeben. Dies sind charakteristische Operationen bei dem Sprachcodierverfahren nach dem Ausführungsbeispiel 1.
  • Es wird der Decodierer 2 erläutert. In dem Decodierer 2 decodiert der Linearvorhersageparameter-Decodierer 12 den Linearvorhersageparameter-Code in den Linearvorhersageparameter und setzt den decodierten Linearvorhersageparameter als einen Koeffizienten für das Synthesefilter 13 und gibt den decodierten Linearvorhersageparameter zu der Geräuschpegel-Auswertungsvorrichtung 26 aus.
  • Es wird die Decodierung von Erregungsinformationen erläutert. Das adaptive Codebuch 14 gibt einen Zeitserienvektor entsprechend einem adaptiven Code aus, der durch periodisches Wiederholen eines alten Erregungssignals erzeugt wird. Die Geräuschpegel-Auswertungsvorrichtung 26 wertet einen Geräuschpegel aus durch Verwendung des durch den Linearvorhersageparameter-Decodierer 12 eingegebenen decodierten Linearvorhersageparameter und des adaptiven Codes nach demselben Verfahren wie dem der Geräuschpegel-Auswertungsvorrichtung 24 in dem Codierer 1 und gibt ein Auswertungsergebnis zu dem Erregungscodebuch schalter 27 aus. Der Erregungscodebuchschalter 27 schaltet das erste Erregungscodebuch 22 und das zweite Erregungscodebuch 23 um auf der Grundlage des Auswertungsergebnisses des Geräuschpegels nach demselben Verfahren wie dem des Erregungscodebuchschalters 25 in dem Codierer 1.
  • Mehrere Nichtgeräusch-Zeitserienvektoren, beispielsweise mehrere Zeitserienvektoren, die durch Trainieren zum Verringern einer Verzerrung zwischen einer Sprache zum Trainieren und ihrer codierten Sprache erzeugt wurden, werden in dem ersten Erregungscodebuch 22 gespeichert. Mehrere Geräusch-Zeitserienvektoren, beispielsweise mehrere Vektoren, die aus Zufallsgeräuschen erzeugt wurden, werden in dem zweiten Erregungscodebuch 23 gespeichert. Jeweils das erste und das zweite Erregungscodebuch geben einen Zeitserienvektor entsprechend einem Erregungscode aus. Die Zeitserienvektoren von dem adaptiven Codebuch 14 und entweder dem ersten Erregungscodebuch 22 oder dem zweiten Erregungscodebuch 23 werden durch Verwendung jeweiliger Verstärkungen gewichtet, durch den Verstärkungsdecodierer 16 von Verstärkungscodes decodiert und durch den Gewichtungsaddierer 39 hinzugefügt. Ein Additionsergebnis wird als ein Erregungssignal zu dem Synthesefilter 13 geliefert und eine Ausgangssprache S3 wird erzeugt. Dies sind charakteristische Operationen bei dem Sprachdecodierverfahren nach Ausführungsbeispiel 1.
  • Bei dem Ausführungsbeispiel 1 wird der Geräuschpegel der eingegebenen Sprache ausgewertet durch Verwendung des Codes und des Codierergebnisses, und verschiedene Erregungscodebücher werden auf der Grundlage des Auswertungsergebnisses verwendet. Daher kann eine Sprache hoher Qualität mit einer kleinen Datenmenge wie dergegeben werden.
  • Bei dem Ausführungsbeispiel 1 werden die mehreren Zeitserienvektoren in jedem der Erregungsbücher 19, 20, 22 und 23 gespeichert. Jedoch kann dieses Ausführungsbeispiel realisiert werden, soweit zumindest ein Zeitserienvektor in jedem der Erregungscodebücher gespeichert ist.
  • Ausführungsbeispiel 2
  • Bei dem Ausführungsbeispiel 1 werden zwei Erregungscodebücher umgeschaltet. Jedoch ist es auch möglich, dass drei oder mehr Erregungscodebücher vorgesehen sind und auf der Grundlage eines Geräuschpegels umgeschaltet werden.
  • Bei dem Ausführungsbeispiel 2 kann ein geeignetes Erregungscodebuch selbst für eine mittlere Sprache, beispielsweise leicht geräuschbehaftet, zusätzlich zu zwei Arten von Sprache, d.h. geräuschbehaftet und nicht geräuschbehaftet verwendet werden. Daher kann eine Sprache hoher Qualität wiedergegeben werden.
  • Ausführungsbeispiel 3
  • 3 zeigt eine Gesamtkonfiguration eines Sprachcodierverfahrens und eines Sprachdecodierverfahrens nach Ausführungsbeispiel 3 dieser Erfindung. In 3 werden dieselben Zeichen für Einheiten verwendet, die den Einheiten in 1 entsprechen. In 3 speichern Erregungscodebücher 28 und 30 Geräusch-Zeitserienvektoren, und Abtastvorrichtungen 29 und 31 setzen einen Amplitudenwert einer Abtastung mit einer niedrigen Amplitude in den Zeitserienvektoren auf null.
  • Die Arbeitsweise wird erläutert. In dem Codierer 1 analysiert die Linearvorhersageparameter-Analysevorrichtung 5 die eingegebene Sprache S1 und zieht einen Linearvorhersageparameter heraus, der die Spektrumsinformation der Sprache ist. Der Linearvorhersageparameter-Codierer 6 codiert den Linearvorhersageparameter. Dann setzt der Linearvorhersageparameter-Codierer 6 einen codierten Linearvorhersageparameter als einen Koeffizienten für das Synthesefilter 7 und gibt auch den codierten Linearvorhersageparameter zu der Geräuschpegel-Auswertungsvorrichtung 24 aus.
  • Die Codierung von Erregungsinformationen wird erläutert. Ein altes Erregungssignal wird in dem adaptiven Codebuch 8 gespeichert, und ein Zeitserienvektor entsprechend einem durch die Abstandsberechnungsvorrichtung 11 eingegebenen adaptiven Code, der durch periodisches Wiederholen eines alten Erregungssignals erzeugt ist, wird ausgegeben. Die Geräuschpegel-Auswertungsvorrichtung 24 wertet einen Geräuschpegel in einer betreffenden Codierperiode aus durch Verwenden des codierten Linearvorhersageparameters, der von dem Linearvorhersageparameter-Codierer 6 eingegeben ist, und eines adaptiven Codes, beispielsweise eines Spektrumgradienten, einer kurzzeitigen Vorhersageverstärkung und einer Tonhöhenschwankung, und gibt ein Auswertungsergebnis zu der Abtastvorrichtung 29 aus.
  • Das Erregungscodebuch 28 speichert mehrere Zeitserienvektoren, die beispielsweise aus Zufallsgeräuschen erzeugt sind, und gibt einen Zeitserienvektor entsprechend einem von der Abstandsberechnungsvorrichtung 11 eingegebenen Erregungscode aus. Wenn der Geräuschpegel in dem Auswertungsergebnis des Geräusches niedrig ist, gibt die Abtastvorrichtung 29 ei nen Zeitserienvektor aus, in welchem eine Amplitude einer Abtastung mit einer Amplitude unterhalb eines bestimmten Wertes in den Zeitserienvektoren, eingegeben von dem Erregungscodebuch 28, beispielsweise auf null gesetzt ist. Wenn der Geräuschpegel hoch ist, gibt die Abtastvorrichtung 29 den von dem Erregungscodebuch 28 eingegebenen Zeitserienvektor ohne Veränderung aus. Jeder der Zeitserienvektoren von dem adaptiven Codebuch 8 und der Abtastvorrichtung 29 wird gewichtet durch Verwenden einer jeweiligen, von dem Verstärkungscodierer 10 erhaltenen Verstärkung und wird durch den Gewichtungsaddierer 38 hinzugefügt. Ein Additionsergebnis wird als Erregungssignals zu dem Synthesefilter 7 geliefert, und eine codierte Sprache wird erzeugt. Die Abstandsberechnungsvorrichtung 11 berechnet einen Abstand zwischen der codierten Sprache und der eingegebenen Sprache S1 und sucht einen adaptiven Code, einen Erregungscode und eine Verstärkung zum Minimieren des Abstands. Wenn die Codierung vorbei ist, werden der Linearvorhersageparameter-Code und der adaptive Code, der Erregungscode und der Verstärkungscode zum Minimieren einer Verzerrung zwischen der eingegebenen Sprache und der codierten Sprache als ein Codierergebnis S2 ausgegeben. Dies sind charakteristische Operationen bei dem Sprachcodierverfahren nach Ausführungsbeispiel 3.
  • Der Decodierer 2 wird erläutert. In dem Decodierer 2 decodiert der Linearvorhersageparameter-Decodierer 12 den Linearvorhersageparameter-Code in den Linearvorhersageparameter. Der Linearvorhersageparameter-Decodierer 12 setzt den Linearvorhersageparameter als einen Koeffizienten für das Synthesefilter 13 und gibt auch den Linearvorhersageparameter zu der Geräuschpegel-Auswertungsvorrichtung 26 aus.
  • Die Decodierung der Erregungsinformation wird erläutert. Das adaptive Codebuch 14 gibt einen Zeitserienvektor entsprechend einem adaptiven Code aus, der durch periodisches Wiederholen eines alten Erregungssignals erzeugt ist. Die Geräuschpegel-Auswertungsvorrichtung 26 wertet einen Geräuschpegel aus durch Verwenden des von dem Linearvorhersageparameter-Decodierer 12 eingegebenen decodierten Linearvorhersageparameters und des adaptiven Codes nach demselben Verfahren wie dem der Geräuschpegel-Auswertungsvorrichtung 24 in dem Codierer 1 und gibt ein Auswertungsergebnis zu der Abtastvorrichtung 31 aus.
  • Das Erregungscodebuch 30 gibt einen Zeitserienvektor entsprechend einem Erregungscode aus. Die Abtastvorrichtung 31 gibt einen Zeitserienvektor aus auf der Grundlage des Auswertungsergebnisses des Geräuschpegels nach demselben Verfahren wie dem der Abtastvorrichtung 29 in dem Codierer 1. Jeder der von dem adaptiven Codebuch 14 und der Abtastvorrichtung 31 ausgegebenen Zeitserienvektoren wird gewichtet durch Verwendung einer jeweiligen, von dem Verstärkungsdecodierer 16 erhaltenen Verstärkung und durch den Gewichtungsaddierer 39 hinzugefügt. Ein Additionsergebnis wird als ein Erregungssignal zu dem Synthesefilter 13 geliefert, und eine Ausgangssprache S3 wird erzeugt.
  • Bei dem Ausführungsbeispiel 3 ist das Geräusch-Zeitserienvektoren speichernde Erregungscodebuch vorgesehen, und eine Erregung mit einem niedrigen Geräuschpegel kann erzeugt werden durch Abtasten von Erregungssignalabtastungen auf der Grundlage eines Auswertungsergebnisses des Geräuschpegels in der Sprache. Daher kann eine Sprache hoher Qualität mit einer geringen Datenmenge wiedergegeben werden. Weiterhin kann, da es nicht erforderlich ist, mehrere Erregungscodebücher vorzusehen, die Speichermenge zum Speichern des Erregungscodebuchs herabgesetzt werden.
  • Ausführungsbeispiel 4
  • Bei dem Ausführungsbeispiel 3 werden die Abtastungen in den Zeitserienvektoren entweder abgetastet oder nicht. Jedoch ist es auch möglich, einen Schwellenwert einer Amplitude zum Abtasten der Abtastungen auf der Grundlage des Geräuschpegels zu ändern. Bei dem Ausführungsbeispiel 4 kann ein geeigneter Zeitserienvektor erzeugt werden und auch für eine mittlere, beispielsweise leicht geräuschbehaftete Sprache zusätzlich zu den zwei Typen von Sprache, d.h. geräuschbehaftet und nicht geräuschbehaftet verwendet werden. Daher kann eine Sprache hoher Qualität wiedergegeben werden.
  • Ausführungsbeispiel 5
  • 4 zeigt eine Gesamtkonfiguration eines Sprachcodierverfahrens und eines Sprachdecodierverfahrens nach dem Ausführungsbeispiel 5 dieser Erfindung, und dieselben Zeichen werden für Einheiten entsprechend den Einheiten in 1 verwendet.
  • In 4 speichern erste Erregungscodebücher 32 und 35 Geräusch-Zeitserienvektoren, und zweite Erregungscodebücher 33 und 36 speichern Nichtgeräusch-Zeitserienvektoren. Die Gewichtungsbestimmungsvorrichtungen 34 und 37 sind ebenfalls illustriert.
  • Die Arbeitsweise wird erläutert. In dem Codierer 1 analysiert die Linearvorhersageparameter- Analysevorrichtung 5 die Eingangssprache S1 und zieht einen Linearvorhersageparameter heraus, der die Spektrumsinformation der Sprache ist. Der Linearvorhersageparameter-Codierer 6 codiert den Linearvorhersageparameter. Dann setzt der Linearvorhersageparameter-Codierer 6 einen codierten Linearvorhersageparameter als einen Koeffizienten für das Synthesefilter 7 und gibt auch den codierten Vorhersageparameter zu der Geräuschpegel-Auswertungsvorrichtung 24 aus.
  • Die Codierung der Erregungsinformation wird erläutert. Das adaptive Codebuch 8 speichert ein altes Erregungssignal und gibt einen Zeitserienvektor entsprechend einem durch die Abstandsberechnungsvorrichtung 11 eingegebenen adaptiven Code aus, der durch periodisches Wiederholen eines alten Erregungssignals erzeugt ist. Die Geräuschpegel-Auswertungsvorrichtung 24 wertet einen Geräuschpegel in einer betreffenden Codierperiode aus durch Verwendung des codierten Linearvorhersageparameters, der von dem Linearvorhersageparameter-Codierer 6 eingegeben ist, und des adaptiven Codes, beispielsweise eines Spektrumgradienten, einer Kurzzeit-Vorhersageverstärkung und einer Tonhöhenschwankung, und gibt ein Auswertungsergebnis zu der Gewichtungsbestimmungsvorrichtung 34 aus.
  • Das erste Erregungscodebuch 32 speichert mehrere Geräusch-Zeitserienvektoren, die beispielsweise aus Zufallsgeräuschen erzeugt sind, und gibt einen Zeitserienvektor entsprechend einem Erregungscode aus. Das zweite Erregungscodebuch 33 speichert mehrere Zeitserienvektoren, die durch Trainieren zum Verringern einer Verzerrung zwischen einer Sprache zum Trainieren und ihrer codierten Sprache erzeugt sind, und gibt einen Zeitserienvektor entsprechend einem von der Abstandsberechnungsvorrichtung 11 eingegebenen Erre gungscode aus. Die Gewichtungsbestimmungsvorrichtung 34 bestimmt eine für den Zeitserienvektor von dem ersten Erregungscodebuch 32 und den Zeitserienvektor von dem zweiten Erregungscodebuch 33 vorgesehene Gewichtung auf der Grundlage des Auswertungsergebnisses des von der Geräuschpegel-Auswertungsvorrichtung 24 eingegebenen Geräuschpegels, wie beispielsweise in 5 illustriert ist. Jeder der Zeitserienvektoren von dem ersten Erregungscodebuch 32 und dem zweiten Erregungscodebuch 33 wird gewichtet durch Verwenden der von der Gewichtungsbestimmungsvorrichtung 34 gelieferten Gewichtung, und hinzugefügt. Der von dem adaptiven Codebuch 8 ausgegebene Zeitserienvektor, und der Zeitserienvektor, der erzeugt ist durch Gewichtung und hinzugefügt ist, werden gewichtet durch Verwendung jeweiliger von dem Verstärkungscodierer 10 gelieferter Verstärkungen, und durch den Gewichtungsaddierer 38 hinzugefügt. Dann wird ein Additionsergebnis zu dem Synthesefilter 7 als Erregungssignale geliefert, und eine codierte Sprache wird erzeugt. Die Abstandsberechnungsvorrichtung 11 berechnet einen Abstand zwischen der codierten Sprache und der eingegebenen Sprache S1 und sucht einen adaptiven Code, einen Erregungscode und eine Verstärkung zum Minimieren des Abstands. Wenn die Codierung vorbei ist, werden der Linearvorhersageparameter-Code, der adaptive Code, der Erregungscode und der Verstärkungscode zum Minimieren einer Verzerrung zwischen der eingegebenen Sprache und der codierten Sprache als ein Codierergebnis ausgegeben.
  • Der Decodierer 2 wird erläutert. In dem Decodierer 2 decodiert der Linearvorhersageparameter-Decodierer 12 den Linearvorhersageparameter-Code in dem Linearvorhersageparameter. Dann setzt der Linearvorhersageparameter-Decodierer 12 den Linearvorhersageparameter als einen Koeffizienten für das Synthesefilter 13 und gibt auch den Linearvorhersageparameter zu der Geräuschauswertungsvorrichtung 26 aus.
  • Die Decodierung der Erregungsinformation wird erläutert. Das adaptive Codebuch 14 gibt einen Zeitserienvektor entsprechend einem adaptiven Code durch periodisches Wiederholen eines alten Erregungssignals aus. Die Geräuschpegel-Auswertungsvorrichtung 26 wertet einen Geräuschpegel aus durch Verwenden des decodierten Linearvorhersageparameters, der von dem Linearvorhersageparameter-Decodierer 12 eingegeben ist, und des adaptiven Codes nach demselben Verfahren wie bei der Geräuschpegel-Auswertungsvorrichtung 24 in dem Codierer 1 und gibt ein Auswertungsergebnis zu der Gewichtungsbestimmungsvorrichtung 37 aus.
  • Das erste Erregungscodebuch 35 und das zweite Erregungscodebuch 36 geben Zeitserienvektoren entsprechend Erregungscodes aus. Die Gewichtungsbestimmungsvorrichtung 37 gewichtet auf der Grundlage des von der Geräuschpegel-Auswertungsvorrichtung 26 eingegebenen Geräuschpegel-Auswertungsergebnisses nach demselben Verfahren wie bei der Gewichtungsbestimmungsvorrichtung 34 in dem Codierer 1. Jeder der Zeitserienvektoren von dem ersten Erregungscodebuch 35 und dem zweiten Erregungscodebuch 36 wird gewichtet durch Verwenden eines von der Gewichtungsbestimmungsvorrichtung 37 gelieferten jeweiligen Gewichts, und hinzugefügt. Der von dem adaptiven Codebuch 14 ausgegebene Zeitserienvektor und der Zeitserienvektor, der durch Gewichten erzeugt und hinzugefügt ist, werden gewichtet durch Verwenden jeweiliger durch den Verstärkungsdecodierer 16 von den Verstärkungscodes decodierter Verstärkungen, und durch den Gewichtungsaddierer 39 hinzugefügt. Dann wird ein Additionser gebnis zu dem Synthesefilter 13 als ein Erregungssignal geliefert und eine Ausgangssprache S3 wird erzeugt.
  • Bei dem Ausführungsbeispiel 5 wird der Geräuschpegel der Sprache ausgewertet durch Verwendung eines Codes und eines Codierergebnisses, und der Geräusch-Zeitserienvektor oder Nichtgeräusch-Zeitserienvektor wird gewichtet auf der Grundlage des Auswertungsergebnisses und hinzugefügt. Daher kann eine Sprache hoher Qualität mit einer geringen Datenmenge wiedergegeben werden.
  • Ausführungsbeispiel 6
  • Bei den Ausführungsbeispielen 1 – 5 ist es auch möglich, Verstärkungscodebücher auf der Grundlage des Auswertungsergebnisses des Geräuschpegels zu ändern. Bei dem Ausführungsbeispiel 6 kann ein geeignetestes Verstärkungscodebuch verwendet werden auf der Grundlage des Erregungscodebuchs. Daher kann eine Sprache hoher Qualität wiedergegeben werden.
  • Ausführungsbeispiel 7
  • Bei den Ausführungsbeispielen 1 – 6 wird der Geräuschpegel der Sprache ausgewertet und die Erregungscodebücher werden auf der Grundlage des Auswertungsergebnisses umgeschaltet. Jedoch ist es auch möglich, das Einsetzen einer Stimme, einen Verschlusskonsonanten usw. zu bestimmen und auszuwerten und die Erregungscodebücher auf der Grundlage eines Auswertungsergebnisses umzuschalten. Bei dem Ausführungsbeispiel 7 wird zusätzlich zu dem Geräuschzustand der Sprache die Sprache detaillierter klassifiziert, z.B. durch Einsatz der Stimme, Verschlusskon sonanten usw., und ein geeignetes Erregungscodebuch kann für jeden Zustand verwendet werden. Daher kann eine Sprache hoher Qualität wiedergegeben werden.
  • Ausführungsbeispiel 8
  • Bei den Ausführungsbeispielen 1 – 6 wird der Geräuschpegel in der Codierperiode durch Verwendung eines Spektrumgradienten, einer Kurzzeit-Vorhersageverstärkung, einer Tonhöhenschwankung ausgewertet. Jedoch ist es auch möglich, den Geräuschpegel durch Verwendung eines Verhältnisses eines Verstärkungswertes gegenüber einem Ausgangssignal von dem adaptiven Codebuch auszuwerten.
  • Gewerbliche Anwendbarkeit
  • Bei dem Sprachcodierverfahren, dem Sprachdecodierverfahren, der Sprachcodiervorrichtung und der Sprachdecodiervorrichtung gemäß dieser Erfindung wird ein Geräuschpegel einer Sprache in einer betreffenden Codierperiode ausgewertet durch Verwendung eines Codes oder eines Codierergebnisses von zumindest einer von der Spektrumsinformation, der Leistungsinformation und der Tonhöheninformation, und verschiedene Erregungscodebücher werden verwendet auf der Grundlage des Auswertungsergebnisses. Daher kann eine Sprache hoher Qualität mit einer geringen Datenmenge wiedergegeben werden.
  • Bei dem Sprachcodierverfahren und dem Sprachdecodierverfahren gemäß dieser Erfindung werden mehrere Erregungscodebücher, die Erregungen mit verschiedenen Geräuschpegeln speichern, vorgesehen, und die mehreren Erregungscodebücher werden auf der Grundlage des Auswertungsergebnisses des Geräuschpegels der Sprache umgeschaltet. Daher kann eine Sprache hoher Qualität mit einer geringen Datenmenge wiedergegeben werden.
  • Bei dem Sprachcodierverfahren und dem Sprachdecodierverfahren gemäß dieser Erfindung werden die Geräuschpegel der in den Erregungscodebüchern gespeicherten Zeitserienvektoren geändert auf der Grundlage des Auswertungsergebnisses des Geräuschpegels der Sprache. Daher kann eine Sprache hoher Qualität mit einer geringen Datenmenge wiedergegeben werden.
  • Bei dem Sprachcodierverfahren und dem Sprachdecodierverfahren gemäß dieser Erfindung ist ein Geräusch-Zeitserienvektoren speicherndes Erregungscodebuch vorgesehen, und ein Zeitserienvektor mit einem geringen Geräuschpegel wird erzeugt durch Abtasten von Signalabtastungen in den Zeitserienvektoren auf der Grundlage des Auswertungsergebnisses des Geräuschpegels der Sprache. Daher kann eine Sprache hoher Qualität mit einer geringen Datenmenge wiedergegeben werden.
  • Bei dem Sprachcodierverfahren und dem Sprachdecodierverfahren gemäß dieser Erfindung sind das erste, Geräusch-Zeitserienvektoren speichernde Erregungscodebuch und das zweite, Nichtgeräusch-Zeitserienvektoren speichernde Erregungscodebuch vorgesehen, und der Zeitserienvektor in dem ersten Erregungscodebuch oder der Zeitserienvektor in dem zweiten Erregungscodebuch wird gewichtet auf der Grundlage des Auswertungsergebnisses des Geräuschpegels der Sprache, und hinzugefügt, um einen Zeitserienvektor zu erzeugen. Daher kann eine Sprache hoher Qualität mit einer geringen Datenmenge wiedergegeben werden.

Claims (6)

  1. Sprachcodierverfahren gemäß der Code erregten linearen Vorhersage (CELP), gekennzeichnet durch Auswerten eines Geräuschpegels einer Sprache in einer betreffenden Codierperiode durch Verwendung eines Codes oder Codierergebnisses von zumindest einer von einer Spektrumsinformation, Energieinformation und Tonhöheninformation; und Ändern des Geräuschpegels von Zeitserienvektoren, die von einem Erregungscodebuch (19, 20) ausgegeben werden, auf der Grundlage eines Auswertungsergebnisses.
  2. Sprachdecodierverfahren gemäß der Code erregten linearen Vorhersage (CELP), gekennzeichnet durch Auswerten eines Geräuschpegels einer Sprache in einer betreffenden Decodierperiode durch Verwendung eines Codes oder Decodierergebnisses von zumindest einer von der Spektrumsinformation, Energieinformation und Tonhöheninformation; und Ändern eines Geräuschpegels von Zeitserienvektoren, die von einem Erregungscodebuch (22, 23) ausgegeben werden, auf der Grundlage eines Auswertungsergebnisses.
  3. Sprachcodiervorrichtung gemäß der Code erregten linearen Vorhersage (CELP), gekennzeichnet durch eine Geräuschpegel-Auswertungsvorrichtung (24) zum Auswerten eines Geräuschpegels einer Sprache in einer betreffenden Codierperiode durch Verwendung eines Codes oder Codierergebnisses von zumindest einer von der Spektrumsinformation, Energieinformation und Tonhöheninformation; und eine Geräuschpegel-Steuervorrichtung (25) zum Ändern eines Geräuschpegels von Zeitserienvektoren, die von einem Erregungscodebuch (19, 20) ausgegeben werden, auf der Grundlage eines Auswertungsergebnisses der Geräuschpegel-Auswertungsvorrichtung (24).
  4. Sprachdecodiervorrichtung gemäß der Code erregten linearen Vorhersage (CELP), gekennzeichnet durch eine Geräuschpegel-Auswertungsvorrichtung (26) zum Auswerten eines Geräuschpegels einer Sprache in einer betreffenden Decodierperiode durch Verwendung eines Codes oder Decodierergebnisses von zumindest einer von der Spektrumsinformation, Energieinformation und Tonhöheninformation; und eine Geräuschpegel-Steuervorrichtung (27) zum Ändern eines Geräuschpegels von Zeitserienvektoren, die von einem Erregungscodebuch (22, 23) ausgegeben werden, auf der Grundlage eines Auswertungsergebnisses der Geräuschpegel-Auswertungsvorrichtung (26).
  5. Sprachdecodierverfahren nach Anspruch 2, bei dem die Auswertung des Geräuschpegels der Sprache den Code oder das Decodierergebnis der Energieinformation verwendet.
  6. Sprachdecodiervorrichtung nach Anspruch 4, bei der die Geräuschpegel-Auswertungsvorrichtung (26) zum Auswerten des Geräuschpegels der Sprache den Code oder das Decodierergebnis der Energieinformation verwendet.
DE69825180T 1997-12-24 1998-12-07 Audiokodier- und dekodierverfahren und -vorrichtung Expired - Fee Related DE69825180T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP35475497 1997-12-24
JP35475497 1997-12-24
PCT/JP1998/005513 WO1999034354A1 (en) 1997-12-24 1998-12-07 Sound encoding method and sound decoding method, and sound encoding device and sound decoding device

Publications (2)

Publication Number Publication Date
DE69825180D1 DE69825180D1 (de) 2004-08-26
DE69825180T2 true DE69825180T2 (de) 2005-08-11

Family

ID=18439687

Family Applications (3)

Application Number Title Priority Date Filing Date
DE69736446T Expired - Lifetime DE69736446T2 (de) 1997-12-24 1998-12-07 Audio Dekodierverfahren und -vorrichtung
DE69837822T Expired - Lifetime DE69837822T2 (de) 1997-12-24 1998-12-07 Verfahren und Vorrichtung zur Dekodierung von Sprachsignalen
DE69825180T Expired - Fee Related DE69825180T2 (de) 1997-12-24 1998-12-07 Audiokodier- und dekodierverfahren und -vorrichtung

Family Applications Before (2)

Application Number Title Priority Date Filing Date
DE69736446T Expired - Lifetime DE69736446T2 (de) 1997-12-24 1998-12-07 Audio Dekodierverfahren und -vorrichtung
DE69837822T Expired - Lifetime DE69837822T2 (de) 1997-12-24 1998-12-07 Verfahren und Vorrichtung zur Dekodierung von Sprachsignalen

Country Status (11)

Country Link
US (18) US7092885B1 (de)
EP (8) EP1426925B1 (de)
JP (2) JP3346765B2 (de)
KR (1) KR100373614B1 (de)
CN (5) CN100583242C (de)
AU (1) AU732401B2 (de)
CA (4) CA2636552C (de)
DE (3) DE69736446T2 (de)
IL (1) IL136722A0 (de)
NO (3) NO20003321L (de)
WO (1) WO1999034354A1 (de)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1426925B1 (de) * 1997-12-24 2006-08-02 Mitsubishi Denki Kabushiki Kaisha Audio Dekodierverfahren und -vorrichtung
EP1116219B1 (de) * 1999-07-01 2005-03-16 Koninklijke Philips Electronics N.V. Robuste sprachverarbeitung von verrauschten sprachmodellen
EP1190494A1 (de) * 1999-07-02 2002-03-27 Tellabs Operations, Inc. Adaptive pegelregelung komprimierter sprache im kodebereich
JP2001075600A (ja) * 1999-09-07 2001-03-23 Mitsubishi Electric Corp 音声符号化装置および音声復号化装置
JP4619549B2 (ja) * 2000-01-11 2011-01-26 パナソニック株式会社 マルチモード音声復号化装置及びマルチモード音声復号化方法
JP4510977B2 (ja) * 2000-02-10 2010-07-28 三菱電機株式会社 音声符号化方法および音声復号化方法とその装置
FR2813722B1 (fr) * 2000-09-05 2003-01-24 France Telecom Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif
JP3404016B2 (ja) * 2000-12-26 2003-05-06 三菱電機株式会社 音声符号化装置及び音声符号化方法
JP3404024B2 (ja) 2001-02-27 2003-05-06 三菱電機株式会社 音声符号化方法および音声符号化装置
JP3566220B2 (ja) 2001-03-09 2004-09-15 三菱電機株式会社 音声符号化装置、音声符号化方法、音声復号化装置及び音声復号化方法
KR100467326B1 (ko) * 2002-12-09 2005-01-24 학교법인연세대학교 추가 비트 할당 기법을 이용한 음성 부호화 및 복호화를위한 송수신기
US20040244310A1 (en) * 2003-03-28 2004-12-09 Blumberg Marvin R. Data center
EP1881487B1 (de) * 2005-05-13 2009-11-25 Panasonic Corporation Audiocodierungsvorrichtung und spektrum-modifikationsverfahren
CN1924990B (zh) * 2005-09-01 2011-03-16 凌阳科技股份有限公司 Midi音讯的播放架构和方法与其应用的多媒体装置
WO2007129726A1 (ja) * 2006-05-10 2007-11-15 Panasonic Corporation 音声符号化装置及び音声符号化方法
US8712766B2 (en) * 2006-05-16 2014-04-29 Motorola Mobility Llc Method and system for coding an information signal using closed loop adaptive bit allocation
DK2102619T3 (en) * 2006-10-24 2017-05-15 Voiceage Corp METHOD AND DEVICE FOR CODING TRANSITION FRAMEWORK IN SPEECH SIGNALS
EP2538405B1 (de) * 2006-11-10 2015-07-08 Panasonic Intellectual Property Corporation of America Vorrichtung und Verfahren zum Dekodieren von einem Parameter eines CELP-kodierten Sprachsignals
JPWO2008072732A1 (ja) * 2006-12-14 2010-04-02 パナソニック株式会社 音声符号化装置および音声符号化方法
US8160872B2 (en) * 2007-04-05 2012-04-17 Texas Instruments Incorporated Method and apparatus for layered code-excited linear prediction speech utilizing linear prediction excitation corresponding to optimal gains
WO2009114656A1 (en) * 2008-03-14 2009-09-17 Dolby Laboratories Licensing Corporation Multimode coding of speech-like and non-speech-like signals
US9056697B2 (en) * 2008-12-15 2015-06-16 Exopack, Llc Multi-layered bags and methods of manufacturing the same
US8649456B2 (en) 2009-03-12 2014-02-11 Futurewei Technologies, Inc. System and method for channel information feedback in a wireless communications system
US8675627B2 (en) * 2009-03-23 2014-03-18 Futurewei Technologies, Inc. Adaptive precoding codebooks for wireless communications
US9070356B2 (en) * 2012-04-04 2015-06-30 Google Technology Holdings LLC Method and apparatus for generating a candidate code-vector to code an informational signal
US9208798B2 (en) 2012-04-09 2015-12-08 Board Of Regents, The University Of Texas System Dynamic control of voice codec data rate
IN2015DN02595A (de) 2012-11-15 2015-09-11 Ntt Docomo Inc
PL3008726T3 (pl) 2013-06-10 2018-01-31 Fraunhofer Ges Forschung Urządzenie i sposób kodowania obwiedni sygnału audio, przetwarzania i dekodowania przez modelowanie reprezentacji sumy skumulowanej z zastosowaniem kwantyzacji i kodowania rozkładu
SG11201603000SA (en) 2013-10-18 2016-05-30 Fraunhofer Ges Forschung Concept for encoding an audio signal and decoding an audio signal using speech related spectral shaping information
CN105723456B (zh) 2013-10-18 2019-12-13 弗朗霍夫应用科学研究促进协会 自适应编码及解码音频信号的编码器、解码器、编码和解码方法
CN104934035B (zh) 2014-03-21 2017-09-26 华为技术有限公司 语音频码流的解码方法及装置
EP3706121B1 (de) * 2014-05-01 2021-05-12 Nippon Telegraph and Telephone Corporation Tonsignalcodierungsvorrichtung, tonsignalcodierungsverfahren, programm und aufzeichnungsmedium
US9934790B2 (en) * 2015-07-31 2018-04-03 Apple Inc. Encoded audio metadata-based equalization
JP6759927B2 (ja) * 2016-09-23 2020-09-23 富士通株式会社 発話評価装置、発話評価方法、および発話評価プログラム
EP3537432A4 (de) * 2016-11-07 2020-06-03 Yamaha Corporation Sprachsyntheseverfahren
US10878831B2 (en) 2017-01-12 2020-12-29 Qualcomm Incorporated Characteristic-based speech codebook selection
JP6514262B2 (ja) * 2017-04-18 2019-05-15 ローランドディー.ジー.株式会社 インクジェットプリンタおよび印刷方法
CN112201270B (zh) * 2020-10-26 2023-05-23 平安科技(深圳)有限公司 语音噪声的处理方法、装置、计算机设备及存储介质
EP4053750A1 (de) * 2021-03-04 2022-09-07 Tata Consultancy Services Limited Verfahren und system zur zeitreihendatenprädiktion auf grundlage von saisonalen verzögerungen

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0197294A (ja) 1987-10-06 1989-04-14 Piran Mirton 木材パルプ等の精製機
CA2019801C (en) 1989-06-28 1994-05-31 Tomohiko Taniguchi System for speech coding and an apparatus for the same
JPH0333900A (ja) * 1989-06-30 1991-02-14 Fujitsu Ltd 音声符号化方式
US5261027A (en) * 1989-06-28 1993-11-09 Fujitsu Limited Code excited linear prediction speech coding system
JP2940005B2 (ja) * 1989-07-20 1999-08-25 日本電気株式会社 音声符号化装置
CA2021514C (en) * 1989-09-01 1998-12-15 Yair Shoham Constrained-stochastic-excitation coding
US5754976A (en) * 1990-02-23 1998-05-19 Universite De Sherbrooke Algebraic codebook with signal-selected pulse amplitude/position combinations for fast coding of speech
JPH0451200A (ja) * 1990-06-18 1992-02-19 Fujitsu Ltd 音声符号化方式
US5293449A (en) * 1990-11-23 1994-03-08 Comsat Corporation Analysis-by-synthesis 2,4 kbps linear predictive speech codec
JP2776050B2 (ja) 1991-02-26 1998-07-16 日本電気株式会社 音声符号化方式
US5680508A (en) 1991-05-03 1997-10-21 Itt Corporation Enhancement of speech coding in background noise for low-rate speech coder
US5396576A (en) * 1991-05-22 1995-03-07 Nippon Telegraph And Telephone Corporation Speech coding and decoding methods using adaptive and random code books
JPH05232994A (ja) 1992-02-25 1993-09-10 Oki Electric Ind Co Ltd 統計コードブック
JPH05265496A (ja) * 1992-03-18 1993-10-15 Hitachi Ltd 複数のコードブックを有する音声符号化方法
JP3297749B2 (ja) 1992-03-18 2002-07-02 ソニー株式会社 符号化方法
US5495555A (en) 1992-06-01 1996-02-27 Hughes Aircraft Company High quality low bit rate celp-based speech codec
DE69328399T2 (de) * 1992-09-30 2000-10-19 Hudson Soft Co Ltd Sprachdaten-Verarbeitung
CA2108623A1 (en) * 1992-11-02 1994-05-03 Yi-Sheng Wang Adaptive pitch pulse enhancer and method for use in a codebook excited linear prediction (celp) search loop
JP2746033B2 (ja) * 1992-12-24 1998-04-28 日本電気株式会社 音声復号化装置
EP0654909A4 (de) * 1993-06-10 1997-09-10 Oki Electric Ind Co Ltd Celp kodierer und dekodierer.
JP2624130B2 (ja) 1993-07-29 1997-06-25 日本電気株式会社 音声符号化方式
JPH0749700A (ja) 1993-08-09 1995-02-21 Fujitsu Ltd Celp型音声復号器
CA2154911C (en) * 1994-08-02 2001-01-02 Kazunori Ozawa Speech coding device
JPH0869298A (ja) 1994-08-29 1996-03-12 Olympus Optical Co Ltd 再生装置
JP3557662B2 (ja) * 1994-08-30 2004-08-25 ソニー株式会社 音声符号化方法及び音声復号化方法、並びに音声符号化装置及び音声復号化装置
JPH08102687A (ja) * 1994-09-29 1996-04-16 Yamaha Corp 音声送受信方式
JPH08110800A (ja) * 1994-10-12 1996-04-30 Fujitsu Ltd A−b−S法による高能率音声符号化方式
JP3328080B2 (ja) * 1994-11-22 2002-09-24 沖電気工業株式会社 コード励振線形予測復号器
JPH08179796A (ja) * 1994-12-21 1996-07-12 Sony Corp 音声符号化方法
JP3292227B2 (ja) * 1994-12-28 2002-06-17 日本電信電話株式会社 符号励振線形予測音声符号化方法及びその復号化方法
DE69609089T2 (de) * 1995-01-17 2000-11-16 Nec Corp Sprachkodierer mit aus aktuellen und vorhergehenden Rahmen extrahierten Merkmalen
KR0181028B1 (ko) 1995-03-20 1999-05-01 배순훈 분류 디바이스를 갖는 개선된 비디오 신호 부호화 시스템
JPH08328598A (ja) * 1995-05-26 1996-12-13 Sanyo Electric Co Ltd 音声符号化・復号化装置
JP3515216B2 (ja) 1995-05-30 2004-04-05 三洋電機株式会社 音声符号化装置
US5864797A (en) 1995-05-30 1999-01-26 Sanyo Electric Co., Ltd. Pitch-synchronous speech coding by applying multiple analysis to select and align a plurality of types of code vectors
JPH0922299A (ja) 1995-07-07 1997-01-21 Kokusai Electric Co Ltd 音声符号化通信方式
US5819215A (en) * 1995-10-13 1998-10-06 Dobson; Kurt Method and apparatus for wavelet based data compression having adaptive bit rate control for compression of digital audio or other sensory data
JP3680380B2 (ja) * 1995-10-26 2005-08-10 ソニー株式会社 音声符号化方法及び装置
ATE192259T1 (de) 1995-11-09 2000-05-15 Nokia Mobile Phones Ltd Verfahren zur synthetisierung eines sprachsignalblocks in einem celp-kodierer
FI100840B (fi) * 1995-12-12 1998-02-27 Nokia Mobile Phones Ltd Kohinanvaimennin ja menetelmä taustakohinan vaimentamiseksi kohinaises ta puheesta sekä matkaviestin
JP4063911B2 (ja) 1996-02-21 2008-03-19 松下電器産業株式会社 音声符号化装置
JPH09281997A (ja) * 1996-04-12 1997-10-31 Olympus Optical Co Ltd 音声符号化装置
GB2312360B (en) 1996-04-12 2001-01-24 Olympus Optical Co Voice signal coding apparatus
JP3094908B2 (ja) 1996-04-17 2000-10-03 日本電気株式会社 音声符号化装置
KR100389895B1 (ko) * 1996-05-25 2003-11-28 삼성전자주식회사 음성 부호화 및 복호화방법 및 그 장치
JP3364825B2 (ja) 1996-05-29 2003-01-08 三菱電機株式会社 音声符号化装置および音声符号化復号化装置
JPH1020891A (ja) * 1996-07-09 1998-01-23 Sony Corp 音声符号化方法及び装置
JP3707154B2 (ja) * 1996-09-24 2005-10-19 ソニー株式会社 音声符号化方法及び装置
JP3174742B2 (ja) 1997-02-19 2001-06-11 松下電器産業株式会社 Celp型音声復号化装置及びcelp型音声復号化方法
WO1998020483A1 (fr) 1996-11-07 1998-05-14 Matsushita Electric Industrial Co., Ltd. Generateur de vecteur de source sonore, codeur et decodeur vocal
US5867289A (en) * 1996-12-24 1999-02-02 International Business Machines Corporation Fault detection for all-optical add-drop multiplexer
SE9700772D0 (sv) 1997-03-03 1997-03-03 Ericsson Telefon Ab L M A high resolution post processing method for a speech decoder
US6167375A (en) 1997-03-17 2000-12-26 Kabushiki Kaisha Toshiba Method for encoding and decoding a speech signal including background noise
US5893060A (en) 1997-04-07 1999-04-06 Universite De Sherbrooke Method and device for eradicating instability due to periodic signals in analysis-by-synthesis speech codecs
US6058359A (en) 1998-03-04 2000-05-02 Telefonaktiebolaget L M Ericsson Speech coding including soft adaptability feature
US6029125A (en) 1997-09-02 2000-02-22 Telefonaktiebolaget L M Ericsson, (Publ) Reducing sparseness in coded speech signals
JPH11119800A (ja) 1997-10-20 1999-04-30 Fujitsu Ltd 音声符号化復号化方法及び音声符号化復号化装置
EP1426925B1 (de) * 1997-12-24 2006-08-02 Mitsubishi Denki Kabushiki Kaisha Audio Dekodierverfahren und -vorrichtung
US6415252B1 (en) * 1998-05-28 2002-07-02 Motorola, Inc. Method and apparatus for coding and decoding speech
US6453289B1 (en) * 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
US6385573B1 (en) * 1998-08-24 2002-05-07 Conexant Systems, Inc. Adaptive tilt compensation for synthesized speech residual
US6104992A (en) 1998-08-24 2000-08-15 Conexant Systems, Inc. Adaptive gain reduction to produce fixed codebook target signal
ITMI20011454A1 (it) 2001-07-09 2003-01-09 Cadif Srl Procedimento impianto e nastro a base di bitume polimero per il riscaldamento superficiale ed ambiantale delle strutture e delle infrastrutt

Also Published As

Publication number Publication date
EP1686563A2 (de) 2006-08-02
NO323734B1 (no) 2007-07-02
US7747433B2 (en) 2010-06-29
US7092885B1 (en) 2006-08-15
EP2154679A2 (de) 2010-02-17
US20080065394A1 (en) 2008-03-13
CN1790485A (zh) 2006-06-21
JP4916521B2 (ja) 2012-04-11
US8352255B2 (en) 2013-01-08
US8447593B2 (en) 2013-05-21
AU1352699A (en) 1999-07-19
US20080071525A1 (en) 2008-03-20
EP1052620A4 (de) 2002-08-21
CA2636684A1 (en) 1999-07-08
EP1052620A1 (de) 2000-11-15
US20080071527A1 (en) 2008-03-20
WO1999034354A1 (en) 1999-07-08
US20120150535A1 (en) 2012-06-14
US20140180696A1 (en) 2014-06-26
US7747432B2 (en) 2010-06-29
US20160163325A1 (en) 2016-06-09
CA2636684C (en) 2009-08-18
EP2154679B1 (de) 2016-09-14
CN1283298A (zh) 2001-02-07
US20050171770A1 (en) 2005-08-04
NO20035109L (no) 2000-06-23
CN100583242C (zh) 2010-01-20
US20130204615A1 (en) 2013-08-08
US9263025B2 (en) 2016-02-16
US7937267B2 (en) 2011-05-03
AU732401B2 (en) 2001-04-26
US20080071524A1 (en) 2008-03-20
EP1596368A2 (de) 2005-11-16
US20080065375A1 (en) 2008-03-13
IL136722A0 (en) 2001-06-14
CA2722196C (en) 2014-10-21
US20070118379A1 (en) 2007-05-24
JP2009134303A (ja) 2009-06-18
US7383177B2 (en) 2008-06-03
US7747441B2 (en) 2010-06-29
EP1596368A3 (de) 2006-03-15
CA2315699C (en) 2004-11-02
EP2154681A2 (de) 2010-02-17
US20130024198A1 (en) 2013-01-24
EP1686563A3 (de) 2007-02-07
DE69736446D1 (de) 2006-09-14
EP2154679A3 (de) 2011-12-21
JP3346765B2 (ja) 2002-11-18
US7742917B2 (en) 2010-06-22
US8688439B2 (en) 2014-04-01
KR100373614B1 (ko) 2003-02-26
DE69837822T2 (de) 2008-01-31
EP2154680A2 (de) 2010-02-17
NO20035109D0 (no) 2003-11-17
NO20003321D0 (no) 2000-06-23
US7363220B2 (en) 2008-04-22
KR20010033539A (ko) 2001-04-25
EP1052620B1 (de) 2004-07-21
EP1426925B1 (de) 2006-08-02
EP1596367A2 (de) 2005-11-16
EP1596368B1 (de) 2007-05-23
DE69825180D1 (de) 2004-08-26
CA2315699A1 (en) 1999-07-08
CA2722196A1 (en) 1999-07-08
US9852740B2 (en) 2017-12-26
CN1143268C (zh) 2004-03-24
DE69736446T2 (de) 2007-03-29
CN1658282A (zh) 2005-08-24
US20050256704A1 (en) 2005-11-17
US8190428B2 (en) 2012-05-29
EP1426925A1 (de) 2004-06-09
NO20003321L (no) 2000-06-23
EP2154680B1 (de) 2017-06-28
US20080065385A1 (en) 2008-03-13
US20080071526A1 (en) 2008-03-20
US20110172995A1 (en) 2011-07-14
EP2154680A3 (de) 2011-12-21
EP1596367A3 (de) 2006-02-15
US20090094025A1 (en) 2009-04-09
CA2636552A1 (en) 1999-07-08
NO20040046L (no) 2000-06-23
EP2154681A3 (de) 2011-12-21
CA2636552C (en) 2011-03-01
CN1737903A (zh) 2006-02-22
CN1494055A (zh) 2004-05-05
DE69837822D1 (de) 2007-07-05

Similar Documents

Publication Publication Date Title
DE69825180T2 (de) Audiokodier- und dekodierverfahren und -vorrichtung
DE69832358T2 (de) Verfahren zur Sprachkodierung und -dekodierung
DE60006271T2 (de) Celp sprachkodierung mit variabler bitrate mittels phonetischer klassifizierung
DE602004007786T2 (de) Verfahren und vorrichtung zur quantisierung des verstärkungsfaktors in einem breitbandsprachkodierer mit variabler bitrate
DE60201766T2 (de) Verbesserung der Periodizität der CELP-Anregung für die Sprachkodierung und -dekodierung
DE69727895T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE69928288T2 (de) Kodierung periodischer sprache
DE60117144T2 (de) Sprachübertragungssystem und verfahren zur behandlung verlorener datenrahmen
DE60121405T2 (de) Transkodierer zur Vermeidung einer Kaskadenkodierung von Sprachsignalen
DE19604273C2 (de) Verfahren und Vorrichtung zum Durchführen einer Suche in einem Kodebuch im Hinblick auf das Kodieren eines Klangsignales, Zellkommunikationssystem, Zellnetzwerkelement und mobile Zell-Sender-/Empfänger-Einheit
DE69926821T2 (de) Verfahren zur signalgesteuerten Schaltung zwischen verschiedenen Audiokodierungssystemen
DE60219351T2 (de) Signaländerungsverfahren zur effizienten kodierung von sprachsignalen
DE69636209T2 (de) Vorrichtung zur Sprachkodierung
DE69932460T2 (de) Sprachkodierer/dekodierer
DE2945414C2 (de) Sprachsignal-Voraussageprozessor und Verfahren zur Verarbeitung eines Sprachleistungssignals
DE69828725T2 (de) Sprachcodier- und -decodiersystem
DE69925515T2 (de) Sprachkodierung unter Verwendung einer sanften Adaptation
DE69729527T2 (de) Verfahren und Vorrichtung zur Kodierung von Sprachsignalen
DE60126149T2 (de) Verfahren, einrichtung und programm zum codieren und decodieren eines akustischen parameters und verfahren, einrichtung und programm zum codieren und decodieren von klängen
DE60133757T2 (de) Verfahren und vorrichtung zur kodierung von stimmloser sprache
DE69929069T2 (de) Verfahren und vorrchtung zur celp kodierung und dekodierung
DE19715126C2 (de) Sprachsignal-Codiervorrichtung
DE19647298A1 (de) Kodiersystem
DE60028500T2 (de) Sprachdekodierung
EP1080464B1 (de) Verfahren und anordnung zur sprachcodierung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R085 Willingness to licence withdrawn

Ref document number: 1052620

Country of ref document: EP

R085 Willingness to licence withdrawn

Ref document number: 1052620

Country of ref document: EP

Effective date: 20110818

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Ref document number: 1052620

Country of ref document: EP

R081 Change of applicant/patentee

Ref document number: 1052620

Country of ref document: EP

Owner name: RESEARCH IN MOTION LIMITED, CA

Free format text: FORMER OWNER: MITSUBISHI DENKI K.K., TOKYO, JP

Effective date: 20120216

R082 Change of representative

Ref document number: 1052620

Country of ref document: EP

Representative=s name: WITTMANN HERNANDEZ PATENTANWAELTE, 81379 MUENCHEN,