CN101454825B - 用于提取和改变音频输入信号的混响内容的方法和装置 - Google Patents

用于提取和改变音频输入信号的混响内容的方法和装置 Download PDF

Info

Publication number
CN101454825B
CN101454825B CN2007800192372A CN200780019237A CN101454825B CN 101454825 B CN101454825 B CN 101454825B CN 2007800192372 A CN2007800192372 A CN 2007800192372A CN 200780019237 A CN200780019237 A CN 200780019237A CN 101454825 B CN101454825 B CN 101454825B
Authority
CN
China
Prior art keywords
signal
reverberation
impulse response
omega
amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2007800192372A
Other languages
English (en)
Other versions
CN101454825A (zh
Inventor
吉尔伯特·A·J·索洛德里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman International Industries Ltd
Crown Audio Inc
Original Assignee
Crown Audio Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Crown Audio Inc filed Critical Crown Audio Inc
Priority to CN201310317164.2A priority Critical patent/CN103402169B/zh
Publication of CN101454825A publication Critical patent/CN101454825A/zh
Application granted granted Critical
Publication of CN101454825B publication Critical patent/CN101454825B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H7/00Measuring reverberation time ; room acoustic measurements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements

Abstract

提供了用于提取和改变音频输入信号的混响内容的方法和装置。估计混响系统的脉冲响应的方法包括:将具有脉冲响应的混响系统的信号抽样为块的序列;为序列的每个块,确定与先前块的幅度相关的幅度;使用确定出的幅度作为有限脉冲响应滤波器的参数形成脉冲响应的估计。利用来自混响系统的具有较少声道的信号生成多声道信号的方法包括:将来自具有脉冲响应的混响系统的信号抽样为块的序列;为序列的每个块,确定与先前块的幅度相关的幅度;使用确定的幅度作为有限脉冲响应滤波器的参数形成脉冲响应的估计;对信号应用估计的脉冲响应的求逆以得出直接信号分量和混响信号分量其中至少之一;且重组直接信号分量和混响信号分量以生成多声道信号。

Description

用于提取和改变音频输入信号的混响内容的方法和装置
技术领域
本发明涉及对输入信号的混响和非混响分量的分解和变更,且更具体而言涉及减弱或增强输入信号的分量的可辨性。该方法能特定地用于减弱或增强音频信号中的混响。 
在很多情况下,信号中发现的混响不适于其最终用途,因此我们希望有变更混响的方法。而且我们希望不用直接测量混响被记录的声学空间就能够变更这种混响。 
背景技术
几乎所有的音频信号都由原始干信号(original dry signal)和混响的组合构成。混响源于干信号经过混响系统。例如,考虑在音乐厅表演的歌手。在这种情况下,歌手的声音是干信号,且音乐厅是混响系统。如果我们在音乐厅中的某个位置放置麦克风以记录产生的声音,我们将得到其上叠加了音乐厅的混响特性的干语音信号。即,麦克风捕获了歌手直接发出的声音分量以及由于声音在音乐厅中传播而产生的混响分量的混合。 
一旦原始干信号上叠加了声学空间的混响特性,则极难恢复原始干信号(或直接信号分量)。类似地,极难改变混响分量的特性或强度。难点部分地在于混响依赖于原始干信号这一事实。即,混响是从原始干信号生成的。 
而且,我们通常不存取关于混响系统的任意相关信息。利用音乐厅中的歌手的示例,麦克风不直接记录音乐厅的声学细节。而是,它记录了歌手声音在叠加了音乐厅的声学特性之后的声音。 
在诸如音乐录制之类的某些应用中,十分希望有一定量的混响,因为它能对每个音符进行令人愉悦的扩展并能提供有深度和围绕的感觉。当然,某些声学空间(例如,音乐厅)就是比其他声学空间更令人感到愉悦。然而,人们一般不能进入最令人感到愉悦的声学空间,所以记录的声音的混响分量可能不会像希望的那样好。即,混响不能完全适用于该记录声音。当前,在这种情况下,不能做出什么来变更记录声音的分量。如果记录声音缺少混响 能量,则可以通过人工混响设备处理记录声音来添加更多的混响能量。然而,这些设备产生的混响听上去不自然,且不能补充记录声音中已经存在的混响的音程。相反,如果记录声音具有太多的混响,则当前也不能做什么来减小混响分量的水平。如果记录声音具有正确的混响量,但是不具有正确的特性,则当前不能做什么来变更混响特性。在这些情况其中每一种情况下,若能够修改直接的声音分量以及混响能量的水平和特性以获得合适的混响特性,则是非常有益的。 
在其他应用中,即使适度的混响也是不适当的,因为它抑制了信号的清晰度和可理解性。例如,在诸如通常使用免提电话的电信会议的应用情况中,办公室或会议室的混响可能会具有使语音信号声音“空洞”的不利影响。这通常被称为雨桶效果。在诸如安全、监视和取证之类的其他相关应用中,混响是极不希望有的,因为它可能减弱语音信号的可理解性。然而,在这些情况下,典型地不可能对声学空间的混响特性做任何控制。在语音识别系统中,混响降低了系统正确地识别词语的能力,且因而降低了识别率。如果识别率变得太低,则语音识别系统可能变得不可用。对于有听力障碍的人,混响可能会造成独特的困难,因为不希望的混响效应通常会被他们的听力障碍所增大。对于有听力障碍的人而言,混响对语音可理解性的负面影响通常更为严重。当听力辅助设备放大声学信号以使得声学信号更容易被听到时,它同时放大了直接声音分量和混响分量。因此,放大的信号不帮助克服混响的不利影响。在每一种这样的应用情况中,若能够减小混响分量的水平使得它相对于直接声音分量处于合适的水平将是十分有利的。试图减小音频信号中的混响量一个通常的方法,是使用定向麦克风或麦克风阵列。定向麦克风和麦克风阵列接受从某些方向到达的声音,且拒绝从其他方向到达的声音。因此,如果麦克风被放置得很恰当,则它将接受所需的干信号,同时拒绝某些混响部分。 
定向麦克风和麦克风阵列的成功使用,需要人们知道所需信号所处的位置。如果该位置未知,或它随时间变化,则该方法不能令人满意地工作,因为所需的信号也可能被拒绝。而且,由于麦克风阵列的物理尺寸,所需的硬件资源(例如,麦克风、放大器等)的数量的增加以及导致的成本增加,该方法不适于用在某些应用中。相反,在不知道声学空间的任何知识并且不知道声源的位置的情况下能够用单个非定向麦克风来盲目地将混响分量水平 减小到合适的水平,是极其有利的。 
在电影和电视作品中,我们听到的声音(例如,对话和声效)具有与我们在屏幕上所见的图像相配的混响特性是很重要的。例如,如果图像指示场景发生在小房间中,则声音应具有小房间的混响特性,即使声音可能实际是在很大的摄影棚中记录的。术语“房间音调(room tone)”通常在电影和电视作品中用来描述声学空间的声学特性。一般而言,电影和电视作品中的声音通常是在极其不同的地点记录的。例如,一部分对话可能在拍摄电影时记录,而其他部分对话可能在录音或“配音”室中记录。这里,演员在观看他们表演的视频的同时吟诵他们的台词。这种处理已知为自动对白替换(ADR),且是十分常用的作法。为了使对话的各个部分听起来自然而真实,必须匹配不同记录声音的房间音调,使得它们听起来就好像它们在同样的声学空间中记录的一样。而且,人们通常希望使记录声音听起来就好像它们在具有特定房间音调的特定声学空间中记录的一样。 
在ADR示例中,记录声音通常是非常干的,因为录音或配音室通常是精心控制的声学空间。即,通常在记录中几乎没有混响。在这种情况下,人们可能希望向记录声音中强加以特定房间的混响特性。如果不能直接获得房间的声学特性,这可能是十分困难的。然而,该房间中记录的其他记录声音是可以获得的。在这种情况下,能够从记录声音中提取声学空间的声学特性将是十分有用的。能够向记录声音中强加以适当的声学空间的混响特性也是很有用的。 
在对话的不同部分在不同的声学空间中记录而在每一个声学空间均具有相当大的混响量的情况下,则任务是以某种方式匹配不同记录声音的混响特性。为了完成这点,必须在应用合适的声学空间的混响特性之前,首先去除进行录音的房屋的混响特性。如上所述,这是很困难的任务,至今不能得到满意的解决。在这种情况下,能够去除记录声音的声学特性且然后应用适当的声学空间的声学特性是十分有用的。 
在一类情形中,音频信号中发现的混响是不恰当的,因为混响限制了人们以某种方式处理信号的能力。例如,在音频数据缩减系统中,目标是压缩信号,使得较少量的数据用于存储或发射信号。这种系统使用编码器来压缩信号,且使用解码器来用于在以后恢复信号。这些音频数据缩减系统可以是“无损耗的”,在这种情况下,没有信息因为压缩处理而丢失,所以能在解 码器处完美地恢复原始信号。其他版本是“有损耗的”,所以在解码器处恢复的信号并不与原始输入信号完全相同。音频数据缩减系统依赖于在音频信号中存在高度冗余。即它们在“可预测”的音频信号上工作得最好。然而,音频信号中的混响降低了音频信号的可预测性。当前没有克服混响效果以改善音频数据缩减系统的性能的方法。非常希望能够在解码器压缩信号之前将信号分解成其直接声音分量和混响分量,且然后在解码了压缩信号之后恢复混响信号。 
混响限制了处理信号的能力的另一示例是音频水印(audiowatermarking)。在音频水印中,目标是在音频信号中隐藏信息。该隐藏的信息可用于诸如歌曲的版权保护之类的事情。音频水印系统通过对音频信号做少量修改来操作。若水印成功,这些修改必须是听不见的。这里,人们将希望在歌曲中的非常特殊的时间点处做出修改。然而,如果直接声音分量和混响分量由于修改而不再彼此匹配,这种修改就可能变得可听见。非常希望能够去除音频信号的混响分量,插入音频水印,然后将混响分量添加回信号。 
在另一类情形中,作为某些处理的结果,信号中发现的混响变得不恰当。例如,通常对信号进行处理以去除背景噪声或变更其动态范围。该处理通常变更记录中的直接声音分量和混响分量之间的关系,使得该关系不再恰当。当前没有在这种处理之后校正混响分量的方法。 
通常不便于或不可能测量声学空间的声学特性。使用我们早先的示例,尽管我们容易获得音乐厅中的歌手的记录声音,但我们很少进入音乐厅中。而且,即使我们进入音乐厅,我们也不可能再现录制时的声学条件(例如,歌手和麦克风的位置,观众的存在等)。因此,我们希望能够从混响系统内做出的记录声音(或实时信号)中提取对该混响系统的描述。最重要的是,我们希望能够提取对混响系统的感知相关方面的描述。至今,没有方法能足以满足这种需要。混响系统的描述可用于分析混响系统,作为用于修改或减弱记录声音中的混响特性的系统的一部分,或者作为用于向记录声音中强加混响特性的系统的一部分。 
最早的音频记录声音(电影、音乐、电视等)是单声道的。即它们仅被记录到一个声道。立体声音频记录声音一般更加使人愉快,因为它们在再现声学空间的混响特性的空间方面做得更好。已经开发出各种处理来将单声道记录声音转换成立体声形式。这些技术被这样的事实所限制,即它们处理直 接声音分量,也处理混响分量。如果能够分别地处理直接声音分量和混响分量,这些技术将得到极大的改善。当前,没有令人满意的方法来将信号分解成直接声音分量和混响分量以使得它们被分别处理。 
多声道环绕声系统变得越来越流行。尽管立体声系统具有两个声道(且因而具有两个扬声器),但多声道环绕声系统具有多个声道。典型的多声道环绕声系统使用5个声道,且因此使用5个扬声器。当前,可用的多声道音频记录声音的数目是十分有限的。相反,存在很多数目可用的单声道和立体声记录声音。因此十分希望能够利用单声道或立体声音频信号,从其产生多声道音频信号。完成这点的当前方法使用称为“矩阵解码”的方法。这些方法将利用立体声记录声音,并将记录声音的不同部分放置到多声道系统的各个声道中。在音乐记录声音的情况下,某些乐器将听上去位于听众后面。这在某些情形下是不希望产生的结果。例如,当播放管弦乐记录声音时,人们一般不希望某些乐器听上去位于听众后面。而是,人们一般希望乐器听上去位于听众前面,并具有听上去从听众的周围到达的音乐厅混响效果。 
解决该问题的一个方法是向前面的扬声器发送原始立体声信号,同时还通过人造混响设备处理立体声信号。人造混响设备的输出旨在提供对音乐厅混响的模拟,且这种输出将被发送到后面(周围)的扬声器。由于若干原因,该方法并不令人满意。首先,该方法在立体声信号中已经存在的混响之上添加了额外的混响。因此,该方法会使得混响的总量不适于该特定记录。而且,通过人造混响设备添加的混响可能不匹配立体声记录中的混响特性。这将使得所得的多声道信号听起来不自然。更好的方法将是将立体声信号分解成其直接声音分量和其混响分量。 
通过将原始信号分解成直接声音分量和混响分量,人们可以选择通过多声道人造混响设备处理直接声音分量来生成多声道音频信号。该方法将避免添加额外混响的问题,因为信号的混响分量已被去除。该方法还将避免人造混响与原始记录中的混响不匹配的问题。 
可替换的,通过将原始信号被分解成直接和混响分量,人们可以选择通过发送直接分量到前面的扬声器来生成多声道音频信号。这将维持在再现的声场中的乐器的正面布置。原始信号的混响分量将被发送到后扬声器,或者它将被分解成子分量且以适当的方式分布在所有的扬声器上。该方法将具有完全从原始记录声音的分量生成多声道信号的显著优点,因而,生成更自然 的声音结果。当前没有可用方法能将信号分解成直接和混响分量使得以这种方式产生多声道信号。 
一般而言,如果人们具有混响系统中的声音的记录,且人们可以某种方式直接测量该混响系统的声学特性,则,可以从数学上对混响系统求逆(invert),且完全恢复原始干声音。该处理已知为逆滤波(inverse filtering)。然而,没有精确测量混响系统的提取声学特性,就不能完成逆滤波。而且,所得的逆滤波器专用于一组声学特性。不可能通过利用从不同混响系统测量的声学特性,使用逆滤波器从给定混响系统中的记录声音来恢复原始干信号。例如,为房间中的一个位置得出的逆滤波器对于相同房间中的任意其他位置是不适用的。使用逆滤波器的其他问题在于它们需要进行大量的计算,且它们在所得信号上增加了显著的延迟。在很多实时应用中,这种延迟是不能被接受的。因此,我们希望具有一种方法,在克服逆滤波器在大多数真实世界应用中不实际的限制的同时,获得逆滤波器的益处。当前没有可用的方法足以承担该任务。 
如上所述,在很多情况下,音频信号中发现的混响不适于它的最终应用。因此,需要能够修改音频信号的直接声音分量和/或混响声音分量。而且,我们希望能够修改混响而不用直接测量它被记录的声学空间。这些问题至今还没有被满意地解决。 
发明内容
根据本发明的一个方面,本发明通过提供用于识别和变更音频信号的混响分量的方法和装置来解决上述需求。 
通过在其中记录或捕获信号的混响系统确定信号的混响分量。混响系统的特性完全由其(声源和麦克风之间的)脉冲响应描述。通过计算其傅立叶变换(或某些其他变换),脉冲响应还可以在频域中观察。傅立叶表达提供了幅度响应和相位响应。本发明依赖于将代表混响系统的脉冲响应分割成块,其中每个块代表脉冲响应的一部分。本发明还依赖于通过每个块的频域表达的幅度响应估计,来估计脉冲响应。因为人耳听觉系统对短时间内的相位相对不敏感,基于幅度响应的表达形成了真实脉冲响应的感知适度估计。 
根据本发明的一个方面,提出了一种方法,用于基于跟踪时间和频率上的信号水平的变化,基于脉冲响应的表达,得出幅度响应的基于块的估计。 该方法从信号直接得出脉冲响应的幅度响应的基于块的估计,而不需要直接测量脉冲响应。该方法依赖于这一事实,即,在任意给定时间点,信号中的能量由当前干信号中的能量加上所有先前信号的混响分量中的能量总和组成。 
本发明使用脉冲响应的幅度响应的基于块的估计来识别和提取与信号的混响分量相关的能量。 
根据本发明的另一方面,信号的混响分量的特性可以通过调节脉冲响应的幅度响应的基于块的估计来变更。 
根据本发明的另一方面,从第一信号得出的源混响系统的混响特性可应用于第二信号。 
本发明的各个方面允许信号的混响分量被变更,使得它更适于其所旨的最终应用。 
所述方法和装置还可以包括感知模型。感知模型的主要目的是减小源于处理的任意人为的能听度。这可以通过确定混响信号的哪些部分被混响信号的其他部分屏蔽来完成。屏蔽是人耳听觉系统中发生的现象,通过它,由于其他信号的存在,使本来能听见的声音变得听不见。通过在处理中包括感知模型,仅混响信号的可听部分被提取,因而减小了原始信号的频率被修改的数量。感知模型还提供了内部参数随时间和频率的交互,以反应人耳的屏蔽特性。因此,源于修改这些频率导致的人为影响得到减小。 
所述方法和装置还可以包括一个或多个源模型。一个源模型的目的是提供原始干声源的声学特性的模型。第二源模型的目的是提供混响系统的特性的模型。通过知道原始干信号和混响系统的声学特性,可以对输入信号的哪些部分源于干信号而哪些部分源于混响做出更好的判断。例如,大多数混响系统(房间)可以被很好地建模为随时间指数衰减的系统。 
附图说明
图1示出了具有声源和接收麦克风的混响室。 
图2示出了具有基于块的分解的表达的脉冲响应的分量。 
图3示出了信号处理器5的示意图。 
图4示出了时域中的基于块的卷积。 
图5示出了频域中的基于块的卷积。
图6示出了信号向干分量和混响分量的频域的基于块的分解。 
图7示出了分解处理器38的频域的基于块的卷积操作。 
图8示出了从立体声输入信号生成多声道输出信号的方法。 
具体实施方式
本发明提供一种改变信号的混响分量的方法。这一般通过首先获得潜在混响系统的脉冲响应的频域表达的感知(perceptually)相关估计来完成。通过使用脉冲响应的这种估计,信号被处理,从而提取信号的混响分量,因而获得干信号的估计和混响信号的估计。如有需要,可以对干信号和混响信号作进一步的处理。 
声学空间的脉冲响应提供了对混响系统的完整描述。使用早先的音乐厅中歌手的例子,混响系统(在这种情况,音乐厅)可以通过歌手和记录麦克风之间的脉冲响应来完整描述。应当意识到,各种声学空间(例如,音乐厅相对于浴室)的被感知的混响条件可能非常不同。这些差异通过各个空间的脉冲响应中的差异来描述。 
通过参考图1,能够更好地理解混响系统的脉冲响应,图1示出了混响室2中的声源s(t)1与记录麦克风3。如果声源由脉冲声音组成,则记录在麦克风上的将是声源与麦克风之间的混响系统的脉冲响应。脉冲响应包括直接声音分量4,它是到达麦克风的第一声音,因为它具有声源与麦克风之间的最短距离。直接声音分量之后,将是一系列反射的声音(反射物),如图中的虚线所示。反射物的到达时间和幅度决定了混响系统的特性。直接声音分量之后到达的反射物构成了混响分量。因此,混响系统的一个效果是向原始干信号添加混响。即,混响向原始干信号添加了能量。从数学上,这可以表示为m(t)=s(t)+r(t),其中r(t)是混响信号分量,源于信号s(t)经过由脉冲响应h(t)描述的混响系统。 
图2给出了脉冲响应的一个示例。第一垂直线代表直接声音4,而剩余的线代表反射物。每条线的高度表示它的幅度,时间轴上的位置表示它的到达时间。随着时间的流逝,反射物的数目增加到不再可能识别单个反射物的程度。最后,反射发展为弥散指数衰减系统。这一般称为脉冲响应的混响拖 尾(reverberant tail)11。 
所谓的早期反射声音12在直接声音分量之后很快到达,且具有与混响拖尾不同的感知效果。这些早期反射声音(early reflections)提供了关于房间大小以及声源与麦克风之间的距离的感知线索。早期反射声音十分重要的原因还在于它们提供了声音的改善的清晰度和可理解性。混响拖尾也提供关于声学空间的感知线索。一般将声学空间的脉冲响应划分成三个概念上的部分-直接声音4、早期反射声音12和混响拖尾11。 
注意声学空间不具有单个脉冲响应是十分重要的。使用图1的示例,我们看出,当声源1位于特定位置处且麦克风3位于给定位置时,存在一种关于房屋的脉冲响应。如果声源和麦克风被移动(即使是少量移动),则我们会具有不同的脉冲响应。因此,对于任意给定房间,实际上存在无数个可能的脉冲响应,因为实际上存在无限数目的位置1和3的可能的组合。 
通过计算其傅立叶变换(或其他变换),还可以在频域观察脉冲响应,且所以混响系统可以完全以频域表达H(ω)描述。变量ω表示频率。脉冲响应的傅立叶表达式为我们提供了幅度响应和相位响应。一般而言,幅度响应提供了关于脉冲响应中的不同频率分量的相对水平的信息,而相位信息提供了关于频率分量的时间方面的信息。将声源1和麦克风3从房间中的一个位置移动到附近的位置,并不会对幅度响应具有太多的影响,但它对相位响应具有明显的影响。即,房间中的邻近脉冲响应具有类似的幅度响应,但是将具有非常不同的相位响应。 
长久以来的经验告诉我们,我们对于给定房间内的脉冲响应中的差异并不敏感。例如,当我们在房间周围移动的同时听到某人谈话时,即使在我们移动时脉冲响应连续发生变化,我们也不会听出某人说话的声音中的明显改变。我们听不出明显差异的原因在于,因为耳朵主要对脉冲响应的总特征敏感而对于具体细节不敏感。更具体而言,与脉冲响应的幅度响应中的变化相比,耳朵对于相位响应中的变化更不敏感。一般地,耳朵对短时间段中的相位十分不敏感(D.L.Wang and J.S.Lim,“The unimportance of phasein speech enhancement,”IEEE Trans.Acoust.Speech,Signal Processing, vol.ASSP-30,no.4,pp.679-681,Aug.1982)。如上所述,房间中的各种脉冲响应将具有类似的幅度响应,但是具有十分不同的相位响应。 
本发明通过对输入信号中的混响能量的幅度的估计产生频域估计来操作。将混响能量的幅度的这种估计从输入信号中减去,由此提供对输入信号的幅度的估计。混响输入信号的相位被用于约计原始干信号的相位。如果通过使用整个脉冲响应作为整体来完成该处理,则在处理过的信号中将听得到严重的时域失真。因此,在本发明中,整个脉冲响应的估计被分成短的块,且处理以基于块的方式执行。块的长度被选择得足够短,使得耳朵不能觉察到由于处理过的输出信号的相位中的误差导致的任意时域失真。 
一般地,在本发明中,信号处理器5对输入信号m(t)3进行操作,以将它分解成其不同分量6。这些分量可以包括原始干信号s(t)1的估计
Figure G2007800192372D00101
和混响分量r(t)的估计
Figure G2007800192372D00102
混响分量的估计还可以进一步分解成代表混响信号的不同部分的估计
Figure G2007800192372D00104
......,
Figure G2007800192372D00106
的子分量。一般地,信号处理器5还可以修改干信号分量估计和混响信号分量估计中的任意部分或全部。本发明在频域中对m(t)进行操作。通过对时间样本的块应用重叠分析窗口21,输入信号m(t)3被转换成频域表达。时域-频域处理器22响应于输入时间样本产生输入谱。为了获得时域-频域的转换,时域-频域处理器可以执行离散傅立叶变换(DFT)、小波变换或其他变换,或可以被分析滤波器组所代替或实施为分析滤波组。在该实施例中,使用DFT。应当意识到,输入信号m(t)不需要如图1所示从麦克风获得。本发明可以对任意音频信号进行操作,而不管该信号怎样产生。 
脉冲响应估算器24在输入信号M(ω)25的频域表达上操作,以生成脉冲响应H(ω)的频域表达的感知相关估计23。一般地,脉冲响应估算器24对输入信号进行操作以产生H(ω)的基于块的估计。脉冲响应的基于块的估计包括多个块的估计
Figure G2007800192372D00108
Figure G2007800192372D001010
......16,它们对应于如图2所示的脉冲响应的块h0(t),h1(t),h2(t),......15的频域估计。 
混响调节处理器26可操作以响应于脉冲响应的一个或多个频域块估计16,调节输入信号谱M(ω)的频率分量,以产生包括输入信号谱M(ω)的经 调节的频率分量的一个或多个混响调节频率谱27。一般地,混响调节处理器26得出一个或多个混响调节频率谱27,这些谱27将基于输入信号的某个分量是原始干信号的部分还是混响信号的部分,而不予处理、放大或减弱输入信号的该分量。 
信号调节器(signal modifier)28可操作以修改和混合混响调节频率谱27以及输入信号谱25的频率分量,以产生一个或多个输出频谱Z1(ω),Z2(ω),......,ZL(ω)29。 
频域-时域处理器30可操作,以响应于输出频谱产生时间样本的输出帧z1(t),z2(t),......,zL(t)32。频域-时域处理器一般执行时域-频域处理器22的反函数。因此,在优选实施例中,每个频域-时域处理器执行反离散傅立叶变换(IDFT)。 
分解处理器33使用脉冲响应H(ω)的频域表达的基于块的估计
Figure G2007800192372D00111
23且在输入信号的频域表达M(ω)25上操作,以产生原始干信号的估计
Figure G2007800192372D00112
34和一个或多个混响信号分量的估计
Figure G2007800192372D00114
......,
Figure G2007800192372D00115
35。 
干信号调节器36可操作以调节原始干信号的估计
Figure G2007800192372D00116
34的频域分量,以产生原始干信号的经修改的估计
Figure G2007800192372D00117
混响信号调节器37可操作以独立地调节混响信号分量的一个或多个估计
Figure G2007800192372D00118
Figure G2007800192372D00119
......,
Figure G2007800192372D001110
的频率分量,以产生混响信号分量的经修改的估计。 
一般地,重组处理器38获取原始干信号的经修改的估计
Figure G2007800192372D001111
和混响信号分量的经修改的估计
Figure G2007800192372D001112
Figure G2007800192372D001113
......,
Figure G2007800192372D001114
且产生一个或多个混响调节频谱27。 
第二输入信号s2(t)40可以被提供给重组处理器,以向第二输入信号中添加混响。通过向时间样本的块应用重叠分析窗口41,输入信号s2(t)40被转换成频率表达。时域-频域处理器42响应输入时间样本而产生输入谱。添加的混响的特性由脉冲响应23的基于块的估计来确定。 
通过在脉冲响应估算器24中包括一个或多个源模型43,可以改善本发明的性能。源模型可用于说明混响系统的物理特性。例如,混响系统(房间)的响应倾向于随时间指数衰减。
通过脉冲响应估算器24得出的基于块的估计能够被存储44和检索,以用于以后的使用。脉冲响应调节器45可操作以独立地调节脉冲响应的基于块的估计的频率分量,以产生脉冲响应的经修改的基于块的估计。 
通过包括源模型46,可以改善分解处理器33的性能。源模型的一个目标可以是在判定给定频带将怎样衰减或放大时说明干声源的物理特性。通过包括感知模型47,也可以改善分解处理器33的性能。感知模型的一个目标是限制频带被修改的量,使得在提取干信号时,不希望有的混响分量仅被抑制到其被干信号屏蔽的程度。类似地,在提取混响信号时,不希望有的干信号分量仅被抑制到被混响信号屏蔽的程度。实际上,感知模型和源模型的方面可以组合起来。 
通过包括源模型48可以改善重组处理器38的性能。源模型的一个目标可以是当判定给定频带将怎样衰减或放大时计算干声源的物理特性。以通过包括感知模块49也可以改善分解处理器38的性能。感知模块的一个目标是限制频带被修改的量,使得在混响调节谱时,不希望的干和混响分量仅被抑制到它们被所需信号分量呢屏蔽的点。实际上,感知模型和源模型的方面可以组合。 
实际上,源模型46、48和感知模型47、49的方面可以组合且可以在分解处理器33和重组处理器38之间共享。 
本发明的各个部分的操作可通过控制器50来独立地控制。 
优选实施例 
下面描述用于将输入信号分解成其原始干信号分量和混响分量的优选实施例。混响分量被进一步分解成多个子分量。该优选实施例将在很多应用中使用,包括改变语音或音乐信号以获得所需的混响特性、增强语音信号的可理解性,以及从单声道、立体声或多声道输入信号生成额外的音频声道。 
该优选实施例是针对输入信号是单声道的情况描述的。在描述该实施例时,假设输入信号m(t)3由干声音源s(t)1与混响信号分量r(t)组成,其中r(t)是s(t)经过具有脉冲响应h(t)的混响系统的结果。应当理解,输入 信号3可以通过其他方法生成。 
在22,输入信号m(t)被转换成频域表达。在本实施例中,采用具有50%的重叠的根汉宁窗口(root-Hanning window)21的离散傅立叶变换(DFT)的快速实施。本领域技术人员将意识到,可以采用其他频域表达,包括但不限于离散余弦变换或小波变换。备选地,可以采用滤波器组以提供频域表达。还应当理解其他窗口函数可以被采用,且重叠量不限于50%。应当意识到,可以在时域-频域转换中使用时间样本的零值填充(zero-padding),以减小处理可能导致的任意时间混淆失真。输入信号的频域表达是M(ω)25。 
脉冲响应估算器24在输入信号的频域表达上操作,以产生脉冲响应的频域表达的基于块的估计
Figure G2007800192372D00131
23。如图2所示,脉冲响应h(t)被划分成由h0(t),h1(t),......,hB(t)15组成的B+1个块,其相应的频域表达为H0(ω),H1(ω),......,HB(ω)16。在本优选实施例中,所有的块具有相同的尺寸,每个块的长度为D。脉冲响应估算器产生H0(ω),H1(ω),......,HB(ω)的一组感知相关估计(perceptually relevant estimate)。在本实施例中,这些感知相关估计
Figure G2007800192372D00132
Figure G2007800192372D00133
......,分别基于H0(ω),H1(ω),......,HB(ω)的幅度估计。 
本领域技术人员将意识到,若滤波器具有足够的长度,则脉冲响应h(t)可以合理地通过有限脉冲响应(FIR)滤波器来近似。因此,信号m(t)可以通过具有脉冲响应等于h(t)的FIR滤波器处理干信号s(t)来获得。可以使用脉冲响应的基于块的表达15等价地实施这种滤波或卷积操作。基于块的实施在图4中示出。 
通过脉冲响应等于h0(t),h1(t),......,hB(t)的B+1个FIR滤波器处理信号s(t)。为了时间对准这些FIR滤波器的输出,信号s(t)被一系列的延迟元件δ(t-D)17来延迟。每个延迟元件提供对D个样本的延迟,这对应于块FIR滤波器的长度。每个延迟元件可以实施为长度D的FIR滤波器,这种滤波器中只有最后的滤波器抽头不等于零且最后的滤波器抽头等于1。基于块的FIR滤波操作可以在数学上描述如下: 
m(t)=s(t)*h0(t)+s(t)*δ(t-D)*h1(t)+...+s(t)*δ(t-BD)*hB(t)
或等效地: 
m ( t ) = Σ i = 0 B s ( t ) * δ ( t - iD ) * h 1 ( t )
其中*代表卷积操作。 
如图4所示,该数学描述可以扩展,以明确示出直接信号分量和混响分量,如下: 
m(t)=s(t)*h0(t)+r(t) 
m ( t ) = s ( t ) * h 0 ( t ) + Σ i = 1 B s ( t ) * δ ( t - iD ) * h 1 ( t )
其中 
s(l)*h0(l) 
包括直接信号分量,且 
r ( t ) = Σ i = 1 B s ( t ) * δ ( t - iD ) * h 1 ( t )
是混响信号分量7。实际上,因为h0(t)的长度为D,我们期望混响信号的最初部分的一部分在s(t)*h0(t)中。如果D选择得足够短,这一般不是问题。如果D足够短,则由于人类听觉系统的掩蔽属性,s(t)*h0(t)内的混响信号的部分将不被听见。因此,可以说,s(t)*h0(t)是直接信号分量的感知相关表达,而r(t)是混响信号分量的感知相关表达。 
本领域技术人员将意识到,在时域的卷积等价于频域中的乘积。因此,图4中示出的基于块的FIR滤波处理可以备选地如图5所示在频域执行。图4中的B+1个FIR滤波器h0(t),h1(t),......,hB(t)现在被它们的频域等价物H0(ω),H1(ω),......,HB(ω)代替。延迟元件现在由Z-D18表示,其中D代表延迟长度。频域处理因此可以给出为: 
M(ω)=S(ω)H0(ω)+S(ω)z -DH1(ω)+...+S(ω)z-BDHB(ω) 
或等价地:
M ( ω ) = Σ i = 0 B S ( ω ) z - iD H 1 ( ω )
如图5所示,该数学描述可以扩展,以明确示出直接信号分量和混响分量,如下: 
M(ω)=S(ω)H0(ω)+R(ω) 
M ( ω ) = S ( ω ) H 0 ( ω ) + Σ i = 1 B S ( ω ) z - iD H 1 ( ω )
其中 
S(ω)H0(ω) 
是包含直接信号分量的频域表达,且 
R ( ω ) = Σ i = 1 B S ( ω ) z - iD H 1 ( ω )
是混响信号分量19的频域表达。 
本领域技术人员将意识到,FIR滤波器的效果可以用适当的无限脉冲响应(IIR)滤波器来取消。因此,如果精确地知道B+1个FIR滤波器h0(t),h1(t),......,hB(t),则可以使用合适的IIR滤波器结构来从m(t)恢复原始干信号s(t)。如果已知FIR滤波器的频域表达H0(ω),H1(ω),......,HB(ω),也可以恢复原始干信号。本发明利用了这种概念。 
在很多情形中,不可能测量或得出H0(ω),H1(ω),......,HB(ω)的精确值,且因而不可能精确地从m(t)恢复s(t)。在本发明中,H0(ω),H1(ω),......,HB(ω)的感知相关估计用于得出S(ω)的估计。这些感知相关估计
Figure G2007800192372D00154
......,
Figure G2007800192372D00156
分别基于H0(ω),H1(ω),......,HB(ω)的幅度的估计。 
脉冲响应的频域表达的基于块的估计
Figure G2007800192372D00157
23被提供到分解处理器33。分解处理器在输入信号的频域表达M(ω)25上操作,以生成直接信号分量34的估计和混响分量35的估计。在优选实施例中,分解处理器如图6所示那样操作。从图中可以看出,分解处理器使用感知相关滤波器估计
Figure G2007800192372D00161
......,
Figure G2007800192372D00162
来生成基于块的IIR滤波器结构。IIR滤波器结构使用M(ω)作为其输入,且产生直接信号分量的谱的估计
Figure G2007800192372D00163
34和混响信号成分的谱的估计
Figure G2007800192372D00164
35。处理可以数学地描述如下: 
S ‾ ( ω ) H ‾ 0 ( ω ) = M ( ω ) - ( S ( ω ) z - D H ~ 1 ( ω ) + . . . + S ( ω ) z - BD H ~ B ( ω ) )
S ‾ ( ω ) = M ( ω ) - ( S ( ω ) z - D H ~ 1 ( ω ) + . . . + S ( ω ) z - BD H ~ B ( ω ) ) H ~ 0 ( ω )
为更好地理解该操作,考虑对于输入信号M0(ω)的给定块的处理是有用的。M0(ω)包括:当前干信号块与H0(ω)的卷积,加上先前干信号块与H1(ω)的卷积,以及对先前的B个干信号块做类似操作的结果。我们现在使用下标表示干信号的块,这样Si(ω)代表干信号分量的先前第i个块的频域表达。倘若如此,分解处理器的操作可以从数学上如下描述: 
S ~ 0 ( ω ) H ~ 0 ( ω ) = M 0 ( ω ) - ( S ‾ 1 ( ω ) H ‾ 1 ( ω ) + . . . + S ~ B ( ω ) H ~ B ( ω ) )
S ‾ 0 ( ω ) = M 0 ( ω ) - ( S ‾ 1 ( ω ) H ‾ 1 ( ω ) + . . . + S ~ B ( ω ) H ~ B ( ω ) ) H ‾ 0 ( ω )
其中
Figure G2007800192372D00169
是Si(ω)的真实值的估计。在优选实施例中,
Figure G2007800192372D001610
被假设等于1,因而,得出: 
S ~ 0 ( ω ) = M 0 ( ω ) - ( S ‾ 1 ( ω ) H ‾ 1 ( ω ) + . . . + S ~ B ( ω ) H ~ B ( ω ) )
因此,在本发明的优选实施例中,干信号分量34的当前块的估计从干信号的先前块的估计以及混响系统的脉冲响应的基于块的估计获得。应当注意,上面等式的  ( S ~ 1 ( ω ) H ~ 1 ( ω ) + . . . + S ~ B ( ω ) H ~ B ( ω ) ) 是对混响信号分量35的估计。即, 
R ~ 0 ( ω ) = S ~ 1 ( ω ) H ~ 1 ( ω ) + . . . + S ~ B ( ω ) H ~ B ( ω )
在该优选实施例中,全部的混响信号分量被划分成K个混响子分量 
Figure G2007800192372D00171
Figure G2007800192372D00172
...,如下: 
R ~ 0 , k ( ω ) = p 1 , k ( ω ) S ~ 1 ( ω ) H ~ 1 ( ω ) + . . . + p B , k ( ω ) S ~ B ( ω ) H ~ B ( ω )
其中pi,k(ω)[i=0,...,Bandk=1,..,K]是与频率相关的增益向量,其允许全部混响信号分量被选择性地在时间和频率上进行分割。这使得人们可以选择性地提取由干声音与脉冲响应特定部分卷积得出的混响信号的恰当部分。例如,由于早期反射声音12产生的混响信号分量可独立于混响拖尾11导致的混响信号分量来提取。类似地,早期响应和/或混响拖尾的不同部分可以分别提取。而且,pi,k(ω)的值可以被选择,以选择性地分离混响信号的不同分量的低频和高频。 
在优选实施例中,基于块的脉冲响应通过B+1个块的频域表达的幅度来估计。因此,上述等式可以修改为: 
| S ~ 0 ( ω ) | 2 = | M 0 ( ω ) | 2 - ( | S ~ 1 ( ω ) | 2 | H ~ 1 ( ω ) | 2 + . . . + | S ~ B ( ω ) | 2 | H ‾ B ( ω ) | 2 )
| R ~ 0 ( ω ) | 2 = | S ‾ 1 ( ω ) | 2 | H ~ 1 ( ω ) | 2 + . . . + | S ~ B ( ω ) | 2 | H ~ B ( ω ) | 2
| R ~ 0 , k ( ω ) | 2 = p 1 , k ( ω ) | S ‾ 1 ( ω ) | 2 | H ~ 1 ( ω ) | 2 + . . . + p B , k ( ω ) | S ~ B ( ω ) | 2 | H ‾ B ( ω ) | 2
输入信号M0(ω)的相位被用作
Figure G2007800192372D00178
以及
Figure G2007800192372D00179
Figure G2007800192372D001710
...,
Figure G2007800192372D001711
的相位响应。 
在该优选实施例中,分解处理器通过对输入信号应用不同增益向量操作: 
S ~ 0 ( ω ) = G S ( ω ) M 0 ( ω )
R 0,1 ( ω ) = G R 1 ( ω ) M 0 ( ω )
R 0,2 ( ω ) = G R 2 ( ω ) M 0 ( ω )
R 0 , K ( ω ) = G R K ( ω ) M 0 ( ω )
用于干信号分量的增益向量通过下式得出: 
G S ( ω ) = S ~ 0 ( ω ) / M 0 ( ω )
G S ( ω ) = | M 0 ( ω ) | 2 - ( | S ‾ 1 ( ω ) | 2 | H ‾ 1 ( ω ) | 2 + . . . + | S ~ B ( ω ) | 2 | H ~ B ( ω ) | 2 ) | M 0 ( ω ) | 2
G S ( &omega; ) = MinGain ( &omega; ) ; G S ( &omega; ) < MinGain ( &omega; ) G S ( &omega; ) ; otherwise
频率相关参数MinGain(ω)防止GS(ω)落到某些期望值以下。 
在该优选实施例中,增益向量是实值向量,因而它仅影响M0(ω)的幅度。因此,具有和M0(ω)相同的相位响应。以类似的方式找到用于混响信号分量的增益向量。 
通过采用感知模型47和源模型46进一步改善增益向量GS(ω),
Figure G2007800192372D00186
Figure G2007800192372D00187
的值。感知模型计算人耳听觉系统的屏蔽属性,而源模型计算声源的物理特性。在本实施例中,两个模型被组合且提供在时间和频率上对增益向量GS(ω),...,
Figure G2007800192372D00189
的平滑。时间上的平滑按以下这样获得: 
G S , &tau; &prime; ( &omega; ) = ( 1 - &gamma; ( &omega; ) ) &CenterDot; G S , &tau; - 1 &prime; ( &omega; ) + &gamma; ( &omega; ) &CenterDot; G S , &tau; ( &omega; )
G R 1 , &tau; &prime; ( &omega; ) = ( 1 - &gamma; ( &omega; ) ) &CenterDot; G R 1 , &tau; - 1 &prime; ( &omega; ) + &gamma; ( &omega; ) &CenterDot; G R 1 , &tau; ( &omega; )
G R 2 , &tau; &prime; ( &omega; ) = ( 1 - &gamma; ( &omega; ) ) &CenterDot; G R 2 , &tau; - 1 &prime; ( &omega; ) + &gamma; ( &omega; ) &CenterDot; G R 2 , &tau; ( &omega; )
               … 
G R K , &tau; &prime; ( &omega; ) = ( 1 - &gamma; ( &omega; ) ) &CenterDot; G R K , &tau; - 1 &prime; ( &omega; ) + &gamma; ( &omega; ) &CenterDot; G R K , &tau; ( &omega; )
其中τ表示处理的当前时间帧。γ(ω)为每个频带确定随时间应用于增益向量GS(ω),
Figure G2007800192372D00191
...,
Figure G2007800192372D00192
的平滑量。应当意识到,γ(ω)的不同值可用于每个增益向量。还应当意识到,γ(ω)的值可以随频率变化。γ(ω)的值还可以随时间变化,且它们依赖于输入信号,或依赖于增益向量的值。 
人耳听觉系统的同步屏蔽属性可以看成是在频率上平滑和扩展能量的一种形式。在本实施例中,同步屏蔽可以如下计算: 
Masking S ( &omega; ) = spread 1 ( &omega; ) &CenterDot; G S , &tau; &prime; ( &omega; ) + spread 2 ( &omega; ) &CenterDot; Masking S ( &omega; - 1 )
Masking R 1 ( &omega; ) = spread 1 ( &omega; ) &CenterDot; G R 1 , &tau; &prime; ( &omega; ) + spread 2 ( &omega; ) &CenterDot; Masking R 1 ( &omega; - 1 )
Masking R 2 ( &omega; ) = spread 1 ( &omega; ) &CenterDot; G R 2 , &tau; &prime; ( &omega; ) + spread 2 ( &omega; ) &CenterDot; Masking R 2 ( &omega; - 1 )
                   … 
Masking R K ( &omega; ) = spread 1 ( &omega; ) &CenterDot; G R K , &tau; &prime; ( &omega; ) + spread 2 ( &omega; ) &CenterDot; Masking R K ( &omega; - 1 )
变量spread1(ω)和spread2(ω)确定了频率上的同步屏蔽量。在本实施例中,spreadl(ω)和spread2(ω)被设计成能考虑到这一事实,即,听觉滤波器的带宽随着频率增加而增加,且因此在较高的频率处施加更大的扩展。 
通过添加估计的屏蔽  G S , &tau; &prime; &prime; ( &omega; ) = G S , &tau; &prime; ( &omega; ) + &mu; ( &omega; ) &CenterDot; Masking S ( &omega; ) 的影响,来改善增益向量。频率相关参数μ(ω)确定屏蔽估计被添加到先前计算的增益向量值的水平: 
G R 1 , &tau; &prime; &prime; ( &omega; ) = G R 1 , &tau; &prime; ( &omega; ) + &mu; ( &omega; ) &CenterDot; Masking R 1 ( &omega; )
G R 2 , &tau; &prime; &prime; ( &omega; ) = G R 2 , &tau; &prime; ( &omega; ) + &mu; ( &omega; ) &CenterDot; Masking R 2 ( &omega; )
           … 
G R K , &tau; &prime; &prime; ( &omega; ) = G R K , &tau; &prime; ( &omega; ) + &mu; ( &omega; ) &CenterDot; Masking R K ( &omega; )
该步骤可能导致增益向量值超过1.0。尽管其他限制也是可行的,在本 实施例中,最大增益值限制为1.0: 
G S , &tau; &prime; &prime; ( &omega; ) = 1.0 ; G S , &tau; &prime; &prime; ( &omega; ) > 1.0 G S , &tau; &prime; &prime; ( &omega; ) ; otherwise
对其余的增益向量执行类似的操作。这些最终的增益向量被应用于输入信号M(ω),以产生干信号分量34和混响信号分量35。如有需要,干信号分量34可以通过干信号调节器36修改。在本实施例中,修改可以包括但不限于水平调节、频率滤波以及动态范围处理。混响信号分量35通过混响信号调节器37来操作,其中在本实施例中,修改可以包括但不限于水平调节、频率滤波以及动态范围处理。 
S ~ &prime; ( &omega; ) = Modify [ S &OverBar; ( &omega; ) ]
R 1 &prime; ( &omega; ) = Modify [ R 1 ( &omega; ) ]
R 2 &prime; ( &omega; ) = Modify [ R 2 ( &omega; ) ]
R K &prime; ( &omega; ) = Modify [ R K ( &omega; ) ]
重组处理器38组合修改过的干声音估计
Figure G2007800192372D00206
以及混响信号子分量的修改过的估计  R 1 &prime; ( &omega; ) , R 2 &prime; ( &omega; ) , . . . , R K &prime; ( &omega; ) , 以产生一个或多个混响调节频谱27。重组处理器执行的另一操作是向信号X(ω)60应用基于块的脉冲响应,以产生如图7所示的输出信号Y(ω)61。基于块的脉冲响应可以包括通过脉冲响应估算器24得出的原始
Figure G2007800192372D00208
或修改的形式
Figure G2007800192372D00209
62。该处理的输入信号X(ω)可以包括
Figure G2007800192372D002010
Figure G2007800192372D002011
Figure G2007800192372D002012
...,
Figure G2007800192372D002013
中的一个或多个,或辅助输入信号S2(ω)。
Figure G2007800192372D002014
的不同形式可用于不同的输入信号。该基于块的卷积处理的输出信号提供了附加的混响调节频谱27。重组处理器38包括源模型和感知模型。在本实施例中,源模型48和感知模型49与分解处理器23的源模型46和感知模型47相组合。
未处理的输入信号M(ω)25和混响调节频谱27被提供到信号调节器28。信号调节器产生最终的L个输出频谱Z1(ω),Z2(ω),......,ZL(ω),它们被转换到时域以获得所需的输出信号z1(t),z2(t),......,zL(t)32。在本实施例中,频域-时域转换器30由反向离散傅立叶变换(IDFT)的快速实施以及其后的根汉宁窗口31组成。 
对于将本发明用于生成单声道输出信号(即,L=1)的应用情况,信号调节器28对混响调节频谱27进行操作以将它们组合起来,从而生成具有修改过的混响特性的输入信号的修改形式。 
对于将本发明用于从单声道输入信号产生额外音频声道的应用情况,信号调节器28的操作包括对混响调节频谱27进行操作以组合它们,从而生成两个或更多的独特的输出频谱Z1(ω),Z2(ω),......,ZL(ω)。 
在某些应用中,不需要信号调节器28修改未经处理的信号M(ω)25或经混响调节的频谱27,且所以信号调节器可以简单地使这些信号通过,从而产生最终的输出频谱Z1(ω),Z2(ω),......,ZL(ω)。 
优选实施例中的先前的步骤需要混响系统的脉冲响应的合适的基于块的估计。脉冲响应估算器24在输入信号M(ω)25的频域表达上操作,以生成脉冲响应的基于块的估计
Figure G2007800192372D00211
Figure G2007800192372D00212
......,
两个因素组合起来确定混响输入信号M(ω)25在给定频率处衰减(或增长)速度。第一因素是干声源s(t)1的衰减(或增长)的速度,第二因素是混响系统的衰减速度。尽管在给定频率混响系统(例如音乐厅)的衰减速度在时间上相对恒定,但干声源的衰减速度连续地变化。使用早先的歌手的示例,在给定频率,歌手声音的水平随时间连续地上升和下降。因此,在给定频率,输入信号M(ω)25的最快衰减速度发生在干声源s(t)1停止时,且信号中的衰减完全由于混响系统的衰减。 
如果人们考虑给定频率,则可以看出估计
Figure G2007800192372D00214
的最佳机会是干声源s(t)1在该频率停止的时刻。此时刻之后的是信号的混响分量r(t),且混响系统的衰减可以被观察到。倘若如此,可以通过观察当前块|M0(ω)|2的幅度与先前块|Mi(ω)|2的幅度的比率且估计该比率的最小值来获得估计
Figure G2007800192372D00215
其中Biasi(ω)是大于1.0的某个值,且ε是某一较小值。频率相关参数Biasi(ω)防止|Ci(ω)|2在不正确的最小值被捕获,而ε防止|Ci(ω)|2在零值被捕获。上述比率的最小值对应于该频率的信号的最快衰减速度,且因此对应于该频率的
Figure G2007800192372D00222
的估计。为所有的块[i=1,...,B]在每个频率ω执行该处理。 
在本实施例中,源模型如下实施: 
| C i ( &omega; ) | 2 = Max Value i ( &omega; ) ; | C i ( &omega; ) | 2 > MaxValu e i ( &omega; ) | C i ( &omega; ) | 2 ; otherwise i = 1 , . . . , B
参数MaxValuei(ω)防止|Ci(ω)|2
Figure G2007800192372D00224
超出预期在真实声学空间中不会出现的某一值。MaxValuei(ω)可以随时间和块变化。时间平滑操作被应用以提供对
Figure G2007800192372D00225
的更稳定的估计: 
| H ~ i , &tau; ( &omega; ) | 2 = &alpha; i ( &omega; ) | H ~ i , &tau; - 1 ( &omega; ) | 2 + ( 1 - &alpha; i ( &omega; ) ) | C i ( &omega; ) | 2
其中τ表示处理的当前时间帧,αi(ω)是控制时间平滑量的频率相关参数。αi(ω)还可以随时间和块变化,且其值可以依赖于输入信号的当前块以及输入信号的先前的块。 
在本实施例中,
Figure G2007800192372D00227
在频率上的平滑被实施为源模型的一部分。平滑量通过βi(ω)的值确定。βi(ω)可以随频率和块变化。 
| H ~ i &prime; ( &omega; ) | 2 = &beta; i ( &omega; ) | H &OverBar; i ( &omega; ) | 2 + 1 - &beta; i ( &omega; ) 2 ( | H ~ i ( &omega; - 1 ) | 2 + | H ~ i ( &omega; + 1 ) | 2 )
采用基于块的脉冲响应的最终估计
Figure G2007800192372D00229
来得出用于得出干声音的估计以及混响分量的估计的增益向量。
已经描述了关于输入信号是单声道的情况的优选实施例。应当意识到,本发明可以直接扩展成对立体声和多声道输入信号进行操作。当输入信号具有多于一个的声道时,应当理解本发明可以独立地在每个声道上操作,或者声道上的操作可以相组合,关于给定声道的信息可以用于其他声道的处理。 
  一阵阵缥缈的声音,像什么人在唱歌,似乎唱得十分认真,那声调却很奇怪……就像是……断了的舌头的唱出来的歌。
  他睁开了眼睛,看着正对着他床榻的窗子。
脉冲响应的B+1个块15可以重叠,或者它们可以如图2所示没有任何重叠。在块重叠的情况下,窗口函数可用于提供从块到块的平滑过渡。在优选实施例中,块具有50%的重叠。 
在优选实施例中,在处理中使用信号和脉冲响应的频域表达的幅度平方 应当意识到可以使用幅度的其他次幂
Figure DEST_PATH_GSB00001059508100012
对于混响被添加到第二输入信号s2(t)40的应用情况中,重组处理器可包括如图7所示的基于块的频域FIR滤波器结构。该滤波器由脉冲响应块的幅度的修改的估计
Figure DEST_PATH_GSB00001059508100013
组成。在优选实施例中,重组处理器通过向输入信号应用增益向量完成这点。 
在优选实施例中,分解处理器33和重组处理器38彼此独立地操作。应当意识到,在某些实施例中,两个处理器的各方面可以组合。 
在优选实施例中,分解处理器33和重组处理器38彼此独立地操作。应当意识到,在某些实施例中,两个处理器的各方面可以组合。 
本发明一般可用于基于输入信号M(ω)25生成附加音频声道。即,本发明可用于从具有U个声道的输入信号M(ω)25生成V个输出声道,其中V>U。其示例包括从单声道信号生成立体声或多声道信号;从立体声输入信号生成多声道信号;以及从多声道输入信号生成额外的声道。一般地,这通过提取信号的混响分量和将信号的混响分量分解为不同的子分量R1(ω),R2(ω),...,RK(ω)35,且分布它们到不同的输出声道实现。混响信号的给定子分量可以被分配给多于一个的输出声道。生成的声道还可以包括干信号分量的估计
Figure DEST_PATH_GSB00001059508100014
34和输入信号M(ω)25。 
在优选实施例中,分解处理器33采用了脉冲响应的基于块的估计 对输入信号M(ω)25进行操作,以得出一组合适的感 知混响子分量。重组处理器38对干信号的估计
Figure DEST_PATH_GSB00001059508100021
34和混响子分量35进行操作,以得出一组经混响调节的频谱27。在某些情况下,信号调节器28可以将经混响调节的频谱直接分配到最终的V个输出频谱Z1(ω),Z2(ω),...,ZV(ω)29。最终的输出频谱被转换到时域30,且被划分窗口31,以提供由z1(t),z2(t),...,zV(t)32组成的多声道音频信号。 
在其他情况下,信号调节器28可以选择性地组合两个或更多的经混响调节的频谱27,以生成V输出频谱。信号调节器还可以在V输出频谱其中的一个或多个中包括未经处理的输入信号M(ω)25。 
作为示例,参考图8考虑从立体声输入信号(U=2)生成5声道(V=5)输出信号的方法
Figure DEST_PATH_GSB00001059508100029
输入信号MLeft(ω)70被分解成其直接信号分量和混响信号分量
Figure DEST_PATH_GSB00001059508100023
右声道直接信号分量
Figure DEST_PATH_GSB00001059508100024
被发送到左输出声道72,而左声道混响信号分量
Figure DEST_PATH_GSB00001059508100025
被发送到左环绕输出声道75。类似地,右输入信号MRight(ω)71被分解,且右声道直接信号分量
Figure DEST_PATH_GSB00001059508100026
被发送到右输出声道73,而右声道混响信号分量被发送到右环绕输出声道74。中间的输出声道74由某种混合
Figure DEST_PATH_GSB00001059508100028
构成,其中g1、g2、g3和g4确定分量混合在一起的相对水平。应当意识到,该示例仅是虚拟不受限方法之一,通过该方法,本发明可以分解输入信号以生成额外的音频声道。 
本发明的其他实施例: 
1.一种方法,通过使用脉冲响应的频域表达的基于块的估计分解信号,将混响信号分解成直接声音分量和/或一个或多个混响分量。 
1.1、根据概念1所述的方法,其中仅基于所述脉冲响应的频域表达的描述的幅度表达,将所述信号分解成直接声音分量和/或一个或多个混响分量。 
1.2、根据概念1所述的方法,其中使用变换表达,将所述信号分解成直接声音分量和/或一个或多个混响分量。 
1.3、根据概念1所述的方法,其中使用滤波器组表达,将所述信 号分解成直接声音分量和/或一个或多个混响分量。 
1.4、根据概念1所述的方法,其中所述信号被分解成直接声音分量和/或一个或多个混响分量,且仅仅所述直接声音分量被输出。 
1.5、根据概念1所述的方法,其中所述信号被分解成直接声音分量和/或一个或多个混响分量,且仅输出混响分量中的一个或多个。 
2.一种方法,通过首先使用根据概念1所述的方法分解混响信号并在重组所述直接声音分量和/或一个或多个混响分量之前修改它们,来生成输出信号。 
2.1、根据概念2所述的方法,其中所述处理用于减小电话或电信会议装置中的混响。 
2.2、根据概念2所述的方法,其中所述处理用于增强混响语音信号的可理解性。 
2.3、根据概念2所述的方法,其中所述处理用于减小混响,以增大语音识别系统的识别率。 
2.4、根据概念2所述的方法,其中所述处理用于通过减小由于放大的信号导致的混响来减小公共广播系统(public address system)中的声学反馈。 
2.5、根据概念2所述的方法,其中所述处理用于增强听力辅助设备中的混响语音信号的可理解性。 
2.6、根据概念2所述的方法,其中仅所述直接声音分量被提取和修改。 
2.7、根据概念2所述的方法,其中在将所述直接声音分量与一个或多个所述混响分量重组之前,修改所述直接声音分量。 
2.7.1、根据概念2.7所述的方法,其中所述修改包括对所述直接声音分量应用减噪(noise reduction)。 
2.7.2、根据概念2.7所述的方法,其中所述修改包括向所述直接声音分量添加音频水印。 
2.8、根据概念2所述的方法,其中在将所述混响分量与所述直接 声音分量重组之前,修改所述混响分量。 
2.9、根据概念2所述的方法,其中在将所述混响分量中的一个或多个与直接声音分量组合之前,修改这些分量。 
2.10、根据概念2所述的方法,其中在组合所述直接声音和混响分量之前,修改所述直接声音与混响声音的比率。 
2.11、根据概念2所述的方法,其中在与所述直接声音分量重组之前,仅修改某些混响分量。 
3.一种方法,使用脉冲响应的频域表达的基于块的估计,生成由直接声音分量和/或一个或多个混响分量组成的输出信号。 
3.1、根据概念3所述的方法,其中所述输出信号仅基于所述脉冲响应的频域表达的幅度表达生成。 
3.2、根据概念3所述的方法,其中使用所述脉冲响应的变换表达来生成所述输出信号。 
3.3、根据概念3所述的方法,其中使用所述脉冲响应的滤波器组表达来生成所述输出信号。 
3.4、根据概念3所述的方法,其中所述脉冲响应的频域表达被修改,以生成多个混响输出信号。 
3.4.1、根据概念3.4所述的方法,其中所述多个混响输出信号用于从单声道信号生成立体声信号。 
3.4.2、根据概念3.4所述的方法,其中所述多个混响输出信号被用在多声道环绕声音系统中。 
3.4.3、根据概念3.4所述的方法,其中所述多个混响输出信号被用在三维耳机系统中。 
3.5、根据概念3所述的方法,其中通过向第二信号的直接声音分量应用从第一信号得出的脉冲响应的频域表达,来生成所述输出信号。 
3.5.1、根据概念3.5所述的方法,其中使用根据概念1所述的方法来得出所述第二信号的所述直接声音分量。 
4.一种通过以下步骤从混响信号提取混响系统的描述的方法: 
-将基本混响系统的总脉冲响应分解成一系列代表脉冲响应部分的块; 
-通过比较当前帧与先前帧中的信号的频域表达,来提取关于每个块的脉冲响应的频域表达的估计; 
4.1、根据概念4所述的方法,其中所述频域表达的比较基于对所述信号的频率分量的变化率的跟踪。 
4.1.1、根据概念4.1所述的方法,其中最大变化率被使用。 
4.1.1.1、根据概念4.1.1所述的方法,其中用于块i的所述频域表达Hi(ω)基于min{Mo(ω)/Mi(ω)}。 
4.1.2、根据概念4.1所述的方法,其中所述变化率被平滑。 
4.2、根据概念4所述的方法,其中通过物理模型限制关于每个块的脉冲响应的频域表达。 
4.2.1、根据概念4.2所述的方法,其中所述混响系统的物理模型假设给定时间之后的指数衰减。 
4.3、根据概念4所述的方法,其中使用感知模型得出关于每个块的脉冲响应的频域表达。 
4.3.1、根据概念4.3所述的方法,其中所述感知模型计算耳朵的与频率相关的灵敏度。 
4.4、根据概念4所述的方法,其中不必直接测量真实声学空间的脉冲响应,就能捕获所述真实声学空间的感知相关混响特性。 
5.一种方法,通过根据概念1所述的方法分解信号且修改直接声音分量和/或脉冲响应的频域表达的基于块的估计,根据概念3所述的方法生成输出信号。 
5.1、根据概念5所述的方法,其中在生成所述输出信号之前,仅所述直接声音分量被修改。 
5.1.1、根据概念5.1所述的方法,其中所述修改包括对所述直接声学分量进行减噪。 
5.1.2、根据概念5.1所述的方法,其中所述修改包括向所述直接声音分量添加音频水印。 
5.1.3、根据概念5.1所述的方法,其中所述修改包括所述直接声音分量的音频数据缩减编码和解码。 
5.1.3.1、根据概念5.1.3所述的方法,其中所述分解和压缩编码由一个设备执行,且所述压缩解码和输出信号生成由另一设备执行。 
5.1.3.2、根据概念5.1.3所述的方法,其中所述脉冲响应的频域表达的基于块的估计被包括在所述经压缩的音频位流中。 
5.2、根据概念5所述的方法,其中根据概念4所述的方法,得出脉冲响应的频域表达的基于块的估计。 

Claims (36)

1.一种估计混响系统的脉冲响应的方法,包括以下步骤:
将来自混响系统的信号抽样为块的序列,其中该混响系统具有脉冲响应;
对于所述序列的每个块,确定各自的当前样本的幅度与各自的先前样本的幅度的比率;
估计该比率的最小值;
通过使用确定的比率和该最小值形成说明混响系统的估计的脉冲响应。
2.根据权利要求1所述的方法,其中所述抽样步骤是基于时域的。
3.根据权利要求1所述的方法,其中所述抽样步骤是基于频域的。
4.根据权利要求1所述的方法,其中所述抽样步骤提供相等的块。
5.根据权利要求4所述的方法,其中所述块是交迭的。
6.根据权利要求1所述的方法,其中所述抽样步骤使用窗口。
7.根据权利要求1所述的方法,其中所述确定步骤包括求出当前幅度的平方与先前幅度的平方的比率。
8.根据权利要求1所述的方法,其中所述确定步骤包括求出当前幅度的q次幂与先前幅度的q次幂的比率。
9.根据权利要求1所述的方法,其中所述抽样步骤使用滤波器组。
10.根据权利要求1所述的方法,其中所述形成估计的步骤包括平滑步骤。
11.一种分解来自混响系统的信号的方法,包括以下步骤:
将来自混响系统的信号抽样为块的序列,其中该混响系统具有脉冲响应;
对于所述序列的每个块,确定与先前块的幅度相关的幅度;
通过使用确定出的幅度作为用于有限脉冲响应滤波器的参数,形成所述脉冲响应的估计;以及
对所述信号应用估计的脉冲响应的求逆,以得出所述信号的直接信号分量和混响信号分量其中至少之一。
12.根据权利要求11所述的方法,其中所述抽样步骤是基于时域的。
13.根据权利要求11所述的方法,其中所述抽样步骤是基于频域的。
14.根据权利要求11所述的方法,其中所述抽样步骤提供相等的块。
15.根据权利要求14所述的方法,其中所述块是交迭的。
16.根据权利要求11所述的方法,其中所述抽样步骤使用窗口。
17.根据权利要求11所述的方法,其中所述确定步骤包括求出当前幅度的平方与先前幅度的平方的比率。
18.根据权利要求11所述的方法,其中所述确定步骤包括求出当前幅度的q次幂与先前幅度的q次幂的比率。
19.根据权利要求11所述的方法,其中所述抽样步骤使用滤波器组。
20.根据权利要求11所述的方法,其中所述形成估计的步骤包括平滑步骤。
21.根据权利要求11所述的方法,还包括修改直接信号分量和混响信号分量其中至少之一的步骤。
22.根据权利要求21所述的方法,还包括重组所述修改的直接信号分量和混响信号分量、修改的直接信号分量和修改的混响信号分量、以及直接信号分量和修改的混响信号分量其中至少之一的步骤。
23.根据权利要求1所述的方法,还包括使用估计的脉冲响应来产生有限脉冲响应滤波器的步骤和向信号应用有限响应滤波器以产生混响信号分量的频谱的估计的步骤。
24.一种分解来自混响系统的信号的方法,包括以下步骤:
将来自混响系统的信号抽样为块的序列,其中该混响系统具有脉冲响应;
对于所述序列的每个块,确定与先前块的幅度相关的幅度;
通过使用确定出的幅度作为用于有限脉冲响应滤波器的参数,形成所述脉冲响应的估计;
对所述信号应用估计的脉冲响应的求逆,以得出直接信号分量;
修改所述有限响应滤波器和所述直接信号分量其中至少之一;以及
重组从其修改后的混响信号。
25.根据权利要求24所述的方法,其中所述抽样步骤是基于时域的。
26.根据权利要求24所述的方法,其中所述抽样步骤是基于频域的。
27.根据权利要求24所述的方法,其中所述抽样步骤提供相等的块。
28.根据权利要求27所述的方法,其中所述块是交迭的。
29.根据权利要求24所述的方法,其中所述抽样步骤使用窗口。
30.根据权利要求24所述的方法,其中所述确定步骤包括求出当前幅度的平方与先前幅度的平方的比率。
31.根据权利要求24所述的方法,其中所述确定步骤包括求出当前幅度的q次幂与先前幅度的q次幂的比率。
32.根据权利要求24所述的方法,其中所述抽样步骤使用滤波器组。
33.根据权利要求24所述的方法,其中所述形成估计的步骤包括平滑步骤。
34.一种使用来自混响系统的具有较少声道的信号生成多声道信号的方法,包括以下步骤:
将来自混响系统的信号抽样为块的序列,其中该混响系统具有脉冲响应;
对于所述序列的每个块,确定与先前块的幅度相关的幅度;
通过使用确定出的幅度作为用于有限脉冲响应滤波器的参数,形成所述脉冲响应的估计;
对所述信号应用估计的脉冲响应的求逆,以得出所述信号的直接信号分量和混响信号分量其中至少之一;
重组所述直接信号分量和所述混响信号分量,以生成多声道信号。
35.根据权利要求34所述的方法,其中所述具有较少声道的信号是单声道信号,且所述多声道信号是立体声信号。
36.根据权利要求34所述的方法,其中所述具有较少声道的信号是立体声信号,且所述多声道信号是环绕声信号。
CN2007800192372A 2006-09-20 2007-09-17 用于提取和改变音频输入信号的混响内容的方法和装置 Active CN101454825B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310317164.2A CN103402169B (zh) 2006-09-20 2007-09-17 用于提取和改变音频输入信号的混响内容的方法和装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/533,707 US8036767B2 (en) 2006-09-20 2006-09-20 System for extracting and changing the reverberant content of an audio input signal
US11/533,707 2006-09-20
PCT/CA2007/001635 WO2008034221A1 (en) 2006-09-20 2007-09-17 Method and apparatus for extracting and changing the reverberant content of an input signal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201310317164.2A Division CN103402169B (zh) 2006-09-20 2007-09-17 用于提取和改变音频输入信号的混响内容的方法和装置

Publications (2)

Publication Number Publication Date
CN101454825A CN101454825A (zh) 2009-06-10
CN101454825B true CN101454825B (zh) 2013-08-21

Family

ID=39201398

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201310317164.2A Active CN103402169B (zh) 2006-09-20 2007-09-17 用于提取和改变音频输入信号的混响内容的方法和装置
CN2007800192372A Active CN101454825B (zh) 2006-09-20 2007-09-17 用于提取和改变音频输入信号的混响内容的方法和装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201310317164.2A Active CN103402169B (zh) 2006-09-20 2007-09-17 用于提取和改变音频输入信号的混响内容的方法和装置

Country Status (5)

Country Link
US (4) US8036767B2 (zh)
EP (1) EP2064699B1 (zh)
JP (3) JP4964943B2 (zh)
CN (2) CN103402169B (zh)
WO (1) WO2008034221A1 (zh)

Families Citing this family (169)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8543390B2 (en) * 2004-10-26 2013-09-24 Qnx Software Systems Limited Multi-channel periodic signal enhancement system
US8093484B2 (en) * 2004-10-29 2012-01-10 Zenph Sound Innovations, Inc. Methods, systems and computer program products for regenerating audio performances
US7598447B2 (en) * 2004-10-29 2009-10-06 Zenph Studios, Inc. Methods, systems and computer program products for detecting musical notes in an audio signal
US8180067B2 (en) * 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
EP2058804B1 (en) * 2007-10-31 2016-12-14 Nuance Communications, Inc. Method for dereverberation of an acoustic signal and system thereof
US20090123523A1 (en) * 2007-11-13 2009-05-14 G. Coopersmith Llc Pharmaceutical delivery system
JP2009128559A (ja) * 2007-11-22 2009-06-11 Casio Comput Co Ltd 残響効果付加装置
DE102008022125A1 (de) * 2008-05-05 2009-11-19 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Klassifikation von schallerzeugenden Prozessen
CN101651872A (zh) * 2008-08-15 2010-02-17 深圳富泰宏精密工业有限公司 多功能无线通信装置及其使用的音频调整方法
KR101546849B1 (ko) 2009-01-05 2015-08-24 삼성전자주식회사 주파수 영역에서의 음장효과 생성 방법 및 장치
EP2237271B1 (en) 2009-03-31 2021-01-20 Cerence Operating Company Method for determining a signal component for reducing noise in an input signal
JP5493611B2 (ja) * 2009-09-09 2014-05-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5400225B2 (ja) * 2009-10-05 2014-01-29 ハーマン インターナショナル インダストリーズ インコーポレイテッド オーディオ信号の空間的抽出のためのシステム
US9210503B2 (en) * 2009-12-02 2015-12-08 Audience, Inc. Audio zoom
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
CN101727892B (zh) * 2009-12-03 2013-01-30 无锡中星微电子有限公司 混响模型生成方法及装置
US8798290B1 (en) 2010-04-21 2014-08-05 Audience, Inc. Systems and methods for adaptive signal equalization
US9558755B1 (en) 2010-05-20 2017-01-31 Knowles Electronics, Llc Noise suppression assisted automatic speech recognition
JP5459069B2 (ja) * 2010-05-24 2014-04-02 ヤマハ株式会社 音声信号に埋め込まれた電子透かし情報を除去する装置、および音声信号に電子透かし情報を埋め込む装置
US8802957B2 (en) * 2010-08-16 2014-08-12 Boardwalk Technology Group, Llc Mobile replacement-dialogue recording system
GB2546026B (en) 2010-10-01 2017-08-23 Asio Ltd Data communication system
US20130051572A1 (en) * 2010-12-08 2013-02-28 Creative Technology Ltd Method for optimizing reproduction of audio signals from an apparatus for audio reproduction
EP2541542A1 (en) * 2011-06-27 2013-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining a measure for a perceived level of reverberation, audio processor and method for processing a signal
JP5348179B2 (ja) 2011-05-20 2013-11-20 ヤマハ株式会社 音響処理装置およびパラメータ設定方法
US9462399B2 (en) 2011-07-01 2016-10-04 Dolby Laboratories Licensing Corporation Audio playback system monitoring
CN103165136A (zh) 2011-12-15 2013-06-19 杜比实验室特许公司 音频处理方法及音频处理设备
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
JP5834948B2 (ja) * 2012-01-24 2015-12-24 富士通株式会社 残響抑制装置、残響抑制方法及び残響抑制用コンピュータプログラム
CN102750956B (zh) * 2012-06-18 2014-07-16 歌尔声学股份有限公司 一种单通道语音去混响的方法和装置
US9690271B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9706323B2 (en) 2014-09-09 2017-07-11 Sonos, Inc. Playback device calibration
US9690539B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration user interface
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9756437B2 (en) * 2012-07-03 2017-09-05 Joe Wellman System and method for transmitting environmental acoustical information in digital audio signals
RU2602346C2 (ru) 2012-08-31 2016-11-20 Долби Лэборетериз Лайсенсинг Корпорейшн Рендеринг отраженного звука для объектно-ориентированной аудиоинформации
JP6085029B2 (ja) * 2012-08-31 2017-02-22 ドルビー ラボラトリーズ ライセンシング コーポレイション 種々の聴取環境におけるオブジェクトに基づくオーディオのレンダリング及び再生のためのシステム
US9135920B2 (en) 2012-11-26 2015-09-15 Harman International Industries, Incorporated System for perceived enhancement and restoration of compressed audio signals
US9407992B2 (en) 2012-12-14 2016-08-02 Conexant Systems, Inc. Estimation of reverberation decay related applications
WO2014091375A1 (en) * 2012-12-14 2014-06-19 Koninklijke Philips N.V. Reverberation processing in an audio signal
CA2903900C (en) 2013-03-05 2018-06-05 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for multichannel direct-ambient decomposition for audio signal processing
US20140270189A1 (en) * 2013-03-15 2014-09-18 Beats Electronics, Llc Impulse response approximation methods and related systems
US9520140B2 (en) 2013-04-10 2016-12-13 Dolby Laboratories Licensing Corporation Speech dereverberation methods, devices and systems
EP2790419A1 (en) 2013-04-12 2014-10-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for center signal scaling and stereophonic enhancement based on a signal-to-downmix ratio
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
US9812150B2 (en) * 2013-08-28 2017-11-07 Accusonus, Inc. Methods and systems for improved signal decomposition
US9426300B2 (en) * 2013-09-27 2016-08-23 Dolby Laboratories Licensing Corporation Matching reverberation in teleconferencing environments
US11087733B1 (en) 2013-12-02 2021-08-10 Jonathan Stuart Abel Method and system for designing a modal filter for a desired reverberation
US10825443B2 (en) * 2013-12-02 2020-11-03 Jonathan Stuart Abel Method and system for implementing a modal processor
US11488574B2 (en) 2013-12-02 2022-11-01 Jonathan Stuart Abel Method and system for implementing a modal processor
US9805704B1 (en) 2013-12-02 2017-10-31 Jonathan S. Abel Method and system for artificial reverberation using modal decomposition
EP2884491A1 (en) 2013-12-11 2015-06-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Extraction of reverberant sound using microphone arrays
CN104768121A (zh) 2014-01-03 2015-07-08 杜比实验室特许公司 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频
CN107770717B (zh) * 2014-01-03 2019-12-13 杜比实验室特许公司 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频
EP3092640B1 (en) * 2014-01-07 2018-06-27 Harman International Industries, Incorporated Signal quality-based enhancement and compensation of compressed audio signals
RU2682864C1 (ru) * 2014-01-16 2019-03-21 Сони Корпорейшн Устройство и способ обработки аудиоданных, и его программа
US10468036B2 (en) 2014-04-30 2019-11-05 Accusonus, Inc. Methods and systems for processing and mixing signals using signal decomposition
US20150264505A1 (en) 2014-03-13 2015-09-17 Accusonus S.A. Wireless exchange of data between devices in live events
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
CN103956170B (zh) * 2014-04-21 2016-12-07 华为技术有限公司 一种消除混响的方法、装置和设备
JP6311430B2 (ja) * 2014-04-23 2018-04-18 ヤマハ株式会社 音響処理装置
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
CN104053120B (zh) * 2014-06-13 2016-03-02 福建星网视易信息系统有限公司 一种立体声音频的处理方法和装置
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
US9510125B2 (en) 2014-06-20 2016-11-29 Microsoft Technology Licensing, Llc Parametric wave field coding for real-time sound propagation for dynamic sources
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US9910634B2 (en) 2014-09-09 2018-03-06 Sonos, Inc. Microphone calibration
US9891881B2 (en) 2014-09-09 2018-02-13 Sonos, Inc. Audio processing algorithm database
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
US9782672B2 (en) 2014-09-12 2017-10-10 Voyetra Turtle Beach, Inc. Gaming headset with enhanced off-screen awareness
CN107112025A (zh) 2014-09-12 2017-08-29 美商楼氏电子有限公司 用于恢复语音分量的系统和方法
WO2016042410A1 (en) * 2014-09-17 2016-03-24 Symphonova, Ltd Techniques for acoustic reverberance control and related systems and methods
US9799322B2 (en) * 2014-10-22 2017-10-24 Google Inc. Reverberation estimator
US20160140950A1 (en) * 2014-11-14 2016-05-19 The Board Of Trustees Of The Leland Stanford Junior University Method and System for Real-Time Synthesis of an Acoustic Environment
CN105791722B (zh) * 2014-12-22 2018-12-07 深圳Tcl数字技术有限公司 电视机声音调整方法及电视机
US10057705B2 (en) 2015-01-13 2018-08-21 Harman International Industries, Incorporated System and method for transitioning between audio system modes
US9972315B2 (en) * 2015-01-14 2018-05-15 Honda Motor Co., Ltd. Speech processing device, speech processing method, and speech processing system
US9584938B2 (en) * 2015-01-19 2017-02-28 Sennheiser Electronic Gmbh & Co. Kg Method of determining acoustical characteristics of a room or venue having n sound sources
WO2016123560A1 (en) 2015-01-30 2016-08-04 Knowles Electronics, Llc Contextual switching of microphones
JP2018509864A (ja) 2015-02-12 2018-04-05 ドルビー ラボラトリーズ ライセンシング コーポレイション ヘッドフォン仮想化のための残響生成
WO2016172593A1 (en) 2015-04-24 2016-10-27 Sonos, Inc. Playback device calibration user interfaces
US10664224B2 (en) 2015-04-24 2020-05-26 Sonos, Inc. Speaker calibration user interface
US9538305B2 (en) 2015-07-28 2017-01-03 Sonos, Inc. Calibration error conditions
FI129335B (en) * 2015-09-02 2021-12-15 Genelec Oy Acoustic room mode control
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
CN108028985B (zh) 2015-09-17 2020-03-13 搜诺思公司 用于计算设备的方法
US10079028B2 (en) * 2015-12-08 2018-09-18 Adobe Systems Incorporated Sound enhancement through reverberation matching
EP3381032B1 (en) 2015-12-24 2021-10-13 Symphonova, Ltd. Apparatus and method for dynamic music performance and related systems and methods
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US11106423B2 (en) 2016-01-25 2021-08-31 Sonos, Inc. Evaluating calibration of a playback device
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
WO2017134973A1 (ja) 2016-02-01 2017-08-10 ソニー株式会社 音響出力装置、音響出力方法、プログラム、音響システム
EP3412039B1 (en) * 2016-02-02 2020-12-09 DTS, Inc. Augmented reality headphone environment rendering
EP3335218B1 (en) * 2016-03-16 2019-06-05 Huawei Technologies Co., Ltd. An audio signal processing apparatus and method for processing an input audio signal
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
US9820042B1 (en) 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones
US9860670B1 (en) 2016-07-15 2018-01-02 Sonos, Inc. Spectral correction using spatial calibration
US9794710B1 (en) 2016-07-15 2017-10-17 Sonos, Inc. Spatial audio correction
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US10728691B2 (en) 2016-08-29 2020-07-28 Harman International Industries, Incorporated Apparatus and method for generating virtual venues for a listening room
GB201617408D0 (en) 2016-10-13 2016-11-30 Asio Ltd A method and system for acoustic communication of data
GB201617409D0 (en) * 2016-10-13 2016-11-30 Asio Ltd A method and system for acoustic communication of data
EP3324407A1 (en) * 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a ratio as a separation characteristic
EP3324406A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
US10930298B2 (en) 2016-12-23 2021-02-23 Synaptics Incorporated Multiple input multiple output (MIMO) audio signal processing for speech de-reverberation
WO2018119470A1 (en) * 2016-12-23 2018-06-28 Synaptics Incorporated Online dereverberation algorithm based on weighted prediction error for noisy time-varying environments
US10616451B2 (en) * 2017-01-04 2020-04-07 Samsung Electronics Co., Ltd. Image processing devices and methods for operating the same
JP2018159759A (ja) * 2017-03-22 2018-10-11 株式会社東芝 音声処理装置、音声処理方法およびプログラム
JP6646001B2 (ja) * 2017-03-22 2020-02-14 株式会社東芝 音声処理装置、音声処理方法およびプログラム
GB201704636D0 (en) 2017-03-23 2017-05-10 Asio Ltd A method and system for authenticating a device
US11373667B2 (en) * 2017-04-19 2022-06-28 Synaptics Incorporated Real-time single-channel speech enhancement in noisy and time-varying environments
US10154346B2 (en) 2017-04-21 2018-12-11 DISH Technologies L.L.C. Dynamically adjust audio attributes based on individual speaking characteristics
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
GB2565751B (en) 2017-06-15 2022-05-04 Sonos Experience Ltd A method and system for triggering events
US11601715B2 (en) 2017-07-06 2023-03-07 DISH Technologies L.L.C. System and method for dynamically adjusting content playback based on viewer emotions
US11096005B2 (en) 2017-08-02 2021-08-17 Audio Analytic Ltd. Sound reproduction
EP3699905A4 (en) * 2017-10-20 2020-12-30 Sony Corporation SIGNAL PROCESSING DEVICE, METHOD AND PROGRAM
KR20230145223A (ko) 2017-10-20 2023-10-17 소니그룹주식회사 신호 처리 장치 및 방법, 그리고 프로그램
US10171877B1 (en) 2017-10-30 2019-01-01 Dish Network L.L.C. System and method for dynamically selecting supplemental content based on viewer emotions
US10559295B1 (en) * 2017-12-08 2020-02-11 Jonathan S. Abel Artificial reverberator room size control
GB2570634A (en) 2017-12-20 2019-08-07 Asio Ltd A method and system for improved acoustic transmission of data
EP3518562A1 (en) 2018-01-29 2019-07-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal processor, system and methods distributing an ambient signal to a plurality of ambient signal channels
CN110097871B (zh) * 2018-01-31 2023-05-12 阿里巴巴集团控股有限公司 一种语音数据处理方法及装置
US10602298B2 (en) 2018-05-15 2020-03-24 Microsoft Technology Licensing, Llc Directional propagation
EP3573058B1 (en) * 2018-05-23 2021-02-24 Harman Becker Automotive Systems GmbH Dry sound and ambient sound separation
JP2021527360A (ja) * 2018-06-14 2021-10-11 マジック リープ, インコーポレイテッドMagic Leap,Inc. 反響利得正規化
WO2020023856A1 (en) * 2018-07-27 2020-01-30 Dolby Laboratories Licensing Corporation Forced gap insertion for pervasive listening
WO2020036813A1 (en) * 2018-08-13 2020-02-20 Med-El Elektromedizinische Geraete Gmbh Dual-microphone methods for reverberation mitigation
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
CN113115175B (zh) * 2018-09-25 2022-05-10 Oppo广东移动通信有限公司 3d音效处理方法及相关产品
US11184725B2 (en) 2018-10-09 2021-11-23 Samsung Electronics Co., Ltd. Method and system for autonomous boundary detection for speakers
US11381915B2 (en) * 2018-11-26 2022-07-05 Lg Electronics Inc. Vehicle and operation method thereof
CN109830244A (zh) * 2019-01-21 2019-05-31 北京小唱科技有限公司 用于音频的动态混响处理方法及装置
US11133017B2 (en) * 2019-06-07 2021-09-28 Harman Becker Automotive Systems Gmbh Enhancing artificial reverberation in a noisy environment via noise-dependent compression
US10721521B1 (en) * 2019-06-24 2020-07-21 Facebook Technologies, Llc Determination of spatialized virtual acoustic scenes from legacy audiovisual media
EP3994874A4 (en) 2019-07-03 2023-01-18 Hewlett-Packard Development Company, L.P. ACOUSTIC ECHO CANCELLATION
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device
EP4014511A1 (en) 2019-08-16 2022-06-22 Dolby Laboratories Licensing Corporation Method and apparatus for audio processing
US10932081B1 (en) 2019-08-22 2021-02-23 Microsoft Technology Licensing, Llc Bidirectional propagation of sound
CN110753297B (zh) * 2019-09-27 2021-06-11 广州励丰文化科技股份有限公司 一种音频信号的混合处理方法及处理装置
US11043203B2 (en) * 2019-09-27 2021-06-22 Eventide Inc. Mode selection for modal reverb
CN110749374B (zh) * 2019-10-22 2021-09-17 国网湖南省电力有限公司 一种建筑物内变压器结构传声分离方法及装置
CN114902688A (zh) * 2019-12-09 2022-08-12 杜比实验室特许公司 基于噪声指标和语音可懂度指标来调整音频和非音频特征
CN111326132B (zh) 2020-01-22 2021-10-22 北京达佳互联信息技术有限公司 音频处理方法、装置、存储介质及电子设备
WO2021186107A1 (en) 2020-03-16 2021-09-23 Nokia Technologies Oy Encoding reverberator parameters from virtual or physical scene geometry and desired reverberation characteristics and rendering using these
DE102020108958A1 (de) 2020-03-31 2021-09-30 Harman Becker Automotive Systems Gmbh Verfahren zum Darbieten eines ersten Audiosignals während der Darbietung eines zweiten Audiosignals
CN111785292B (zh) * 2020-05-19 2023-03-31 厦门快商通科技股份有限公司 一种基于图像识别的语音混响强度估计方法、装置及存储介质
US11246002B1 (en) * 2020-05-22 2022-02-08 Facebook Technologies, Llc Determination of composite acoustic parameter value for presentation of audio content
JP2021189364A (ja) * 2020-06-03 2021-12-13 ヤマハ株式会社 音信号処理方法、音信号処理装置および音信号処理プログラム
JP2021189363A (ja) * 2020-06-03 2021-12-13 ヤマハ株式会社 音信号処理方法、音信号処理装置および音信号処理プログラム
EP3944240A1 (en) * 2020-07-20 2022-01-26 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk Onderzoek TNO Method of determining a perceptual impact of reverberation on a perceived quality of a signal, as well as computer program product
JP2022045086A (ja) * 2020-09-08 2022-03-18 株式会社スクウェア・エニックス 残響を求めるためのシステム
US20220122613A1 (en) * 2020-10-20 2022-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for detecting passenger voice data
US11922921B1 (en) 2021-03-22 2024-03-05 Carmax Enterprise Services, Llc Systems and methods for comparing acoustic properties of environments and audio equipment
CN115862655A (zh) * 2021-09-24 2023-03-28 祖玛视频通讯公司 一次性声学回声生成网络
CN113726969B (zh) * 2021-11-02 2022-04-26 阿里巴巴达摩院(杭州)科技有限公司 混响检测方法、装置及设备
JP2023129849A (ja) * 2022-03-07 2023-09-20 ヤマハ株式会社 音信号処理方法、音信号処理装置および音信号配信システム
EP4247011A1 (en) * 2022-03-16 2023-09-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for an automated control of a reverberation level using a perceptional model

Family Cites Families (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4118599A (en) * 1976-02-27 1978-10-03 Victor Company Of Japan, Limited Stereophonic sound reproduction system
US4066842A (en) * 1977-04-27 1978-01-03 Bell Telephone Laboratories, Incorporated Method and apparatus for cancelling room reverberation and noise pickup
US4159397A (en) * 1977-05-08 1979-06-26 Victor Company Of Japan, Limited Acoustic translation of quadraphonic signals for two- and four-speaker sound reproduction
AU2944684A (en) * 1983-06-17 1984-12-20 University Of Melbourne, The Speech recognition
US4912767A (en) * 1988-03-14 1990-03-27 International Business Machines Corporation Distributed noise cancellation system
WO1990000851A1 (en) * 1988-07-08 1990-01-25 Adaptive Control Limited Improvements in or relating to sound reproduction systems
JP2708105B2 (ja) 1989-04-26 1998-02-04 富士通テン 株式会社 車載用音響再生装置
WO1991010335A1 (en) * 1989-12-29 1991-07-11 Fujitsu Ten Limited Acoustic reproducing device
US5210802A (en) * 1990-04-30 1993-05-11 Bose Corporation Acoustic imaging
DE4134130C2 (de) * 1990-10-15 1996-05-09 Fujitsu Ten Ltd Vorrichtung zum Aufweiten und Ausbalancieren von Schallfeldern
DE4136022C2 (de) * 1990-11-01 2001-04-19 Fujitsu Ten Ltd Vorrichtung zum Aufweiten und Symmetrisieren von Klangfeldern
GB9026906D0 (en) * 1990-12-11 1991-01-30 B & W Loudspeakers Compensating filters
US5594800A (en) 1991-02-15 1997-01-14 Trifield Productions Limited Sound reproduction system having a matrix converter
US5210366A (en) * 1991-06-10 1993-05-11 Sykes Jr Richard O Method and device for detecting and separating voices in a complex musical composition
CA2069356C (en) * 1991-07-17 1997-05-06 Gary Wayne Elko Adjustable filter for differential microphones
JP3107599B2 (ja) * 1991-08-14 2000-11-13 富士通テン株式会社 音場制御装置
JPH0560594A (ja) * 1991-09-05 1993-03-09 Matsushita Electric Ind Co Ltd ハウリングシミユレーシヨン装置
JPH0573082A (ja) * 1991-09-11 1993-03-26 Toda Constr Co Ltd 音場シミユレータ
US5757927A (en) 1992-03-02 1998-05-26 Trifield Productions Ltd. Surround sound apparatus
FR2688371B1 (fr) * 1992-03-03 1997-05-23 France Telecom Procede et systeme de spatialisation artificielle de signaux audio-numeriques.
DE69322805T2 (de) 1992-04-03 1999-08-26 Yamaha Corp Verfahren zur Steuerung von Tonquellenposition
US5440639A (en) * 1992-10-14 1995-08-08 Yamaha Corporation Sound localization control apparatus
GB9222103D0 (en) 1992-10-21 1992-12-02 Lotus Car Adaptive control system
GB2274372A (en) * 1992-12-02 1994-07-20 Ibm Adaptive noise cancellation device
JPH06324689A (ja) * 1993-05-14 1994-11-25 Nippon Hoso Kyokai <Nhk> 音響測定方法
US5761315A (en) * 1993-07-30 1998-06-02 Victor Company Of Japan, Ltd. Surround signal processing apparatus
DE69433258T2 (de) 1993-07-30 2004-07-01 Victor Company of Japan, Ltd., Yokohama Raumklangsignalverarbeitungsvorrichtung
US5394472A (en) * 1993-08-09 1995-02-28 Richard G. Broadie Monaural to stereo sound translation process and apparatus
DE4328620C1 (de) * 1993-08-26 1995-01-19 Akg Akustische Kino Geraete Verfahren zur Simulation eines Raum- und/oder Klangeindrucks
US5386478A (en) * 1993-09-07 1995-01-31 Harman International Industries, Inc. Sound system remote control with acoustic sensor
JPH0833092A (ja) * 1994-07-14 1996-02-02 Nissan Motor Co Ltd 立体音響再生装置の伝達関数補正フィルタ設計装置
GB9417185D0 (en) * 1994-08-25 1994-10-12 Adaptive Audio Ltd Sounds recording and reproduction systems
US5754663A (en) * 1995-03-30 1998-05-19 Bsg Laboratories Four dimensional acoustical audio system for a homogeneous sound field
WO1997013912A1 (en) * 1995-10-12 1997-04-17 Tubular Textile Machinery Corporation Method and apparatus for treating knitted fabric
US5882438A (en) * 1995-12-19 1999-03-16 Bayerische Motoren Werke Aktiengesellschaft Method for the formation of a frangible zone for the fracture separation of a machine part, in particular, a connecting rod for internal combustion engines
US5742689A (en) * 1996-01-04 1998-04-21 Virtual Listening Systems, Inc. Method and device for processing a multichannel signal for use with a headphone
US5848163A (en) 1996-02-02 1998-12-08 International Business Machines Corporation Method and apparatus for suppressing background music or noise from the speech input of a speech recognizer
JP3634490B2 (ja) 1996-03-21 2005-03-30 日本放送協会 音場におけるインパルス応答測定装置
US6850621B2 (en) * 1996-06-21 2005-02-01 Yamaha Corporation Three-dimensional sound reproducing apparatus and a three-dimensional sound reproduction method
US6052470A (en) * 1996-09-04 2000-04-18 Victor Company Of Japan, Ltd. System for processing audio surround signal
US5889867A (en) * 1996-09-18 1999-03-30 Bauck; Jerald L. Stereophonic Reformatter
JP3498888B2 (ja) * 1996-10-11 2004-02-23 日本ビクター株式会社 サラウンド信号処理装置と方法及び映像音声再生方法、記録媒体への記録方法及び記録装置、記録媒体、処理プログラムの伝送方法及び受信方法、並びに記録データの伝送方法及び受信方法
DE19645867A1 (de) * 1996-11-07 1998-05-14 Deutsche Telekom Ag Verfahren zur mehrkanaligen Tonübertragung
US7231035B2 (en) * 1997-04-08 2007-06-12 Walker Digital, Llc Method and apparatus for entertaining callers in a queue
US7003119B1 (en) * 1997-05-19 2006-02-21 Qsound Labs, Inc. Matrix surround decoder/virtualizer
ATE247340T1 (de) * 1997-06-18 2003-08-15 Clarity L L C Verfahren und gerät zur blindseparierung von signalen
EP1040466B1 (en) * 1997-12-19 2004-04-14 Daewoo Electronics Corporation Surround signal processing apparatus and method
JP3722335B2 (ja) * 1998-02-17 2005-11-30 ヤマハ株式会社 残響付加装置
AUPP272698A0 (en) 1998-03-31 1998-04-23 Lake Dsp Pty Limited Soundfield playback from a single speaker system
US6691073B1 (en) * 1998-06-18 2004-02-10 Clarity Technologies Inc. Adaptive state space signal separation, discrimination and recovery
US20040066940A1 (en) * 2002-10-03 2004-04-08 Silentium Ltd. Method and system for inhibiting noise produced by one or more sources of undesired sound from pickup by a speech recognition unit
US7242782B1 (en) * 1998-07-31 2007-07-10 Onkyo Kk Audio signal processing circuit
AU5009399A (en) * 1998-09-24 2000-05-04 Sony Corporation Impulse response collecting method, sound effect adding apparatus, and recording medium
JP2000099061A (ja) 1998-09-25 2000-04-07 Sony Corp 効果音付加装置
WO2000024226A1 (fr) * 1998-10-19 2000-04-27 Onkyo Corporation Systeme d'ambiophonie
EP1035752A1 (en) * 1999-03-05 2000-09-13 Phonak Ag Method for shaping the spatial reception amplification characteristic of a converter arrangement and converter arrangement
US7113609B1 (en) 1999-06-04 2006-09-26 Zoran Corporation Virtual multichannel speaker system
US7194752B1 (en) * 1999-10-19 2007-03-20 Iceberg Industries, Llc Method and apparatus for automatically recognizing input audio and/or video streams
US6243322B1 (en) * 1999-11-05 2001-06-05 Wavemakers Research, Inc. Method for estimating the distance of an acoustic signal
US6549630B1 (en) 2000-02-04 2003-04-15 Plantronics, Inc. Signal expander with discrimination between close and distant acoustic source
US7266501B2 (en) * 2000-03-02 2007-09-04 Akiba Electronics Institute Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
IL134979A (en) * 2000-03-09 2004-02-19 Be4 Ltd A system and method for optimizing three-dimensional hearing
EP1295507A2 (en) 2000-03-31 2003-03-26 Clarity, LLC Method and apparatus for voice signal extraction
US7532943B2 (en) * 2001-08-21 2009-05-12 Microsoft Corporation System and methods for providing automatic classification of media entities according to sonic properties
US6657117B2 (en) * 2000-07-14 2003-12-02 Microsoft Corporation System and methods for providing automatic classification of media entities according to tempo properties
US7065416B2 (en) * 2001-08-29 2006-06-20 Microsoft Corporation System and methods for providing automatic classification of media entities according to melodic movement properties
US20020039425A1 (en) * 2000-07-19 2002-04-04 Burnett Gregory C. Method and apparatus for removing noise from electronic signals
KR100741302B1 (ko) * 2000-08-28 2007-07-23 코닌클리케 필립스 일렉트로닉스 엔.브이. 사운드들을 발생시키기 위한 시스템
EP1194006A3 (en) * 2000-09-26 2007-04-25 Matsushita Electric Industrial Co., Ltd. Signal processing device and recording medium
US7171003B1 (en) * 2000-10-19 2007-01-30 Lear Corporation Robust and reliable acoustic echo and noise cancellation system for cabin communication
US6674865B1 (en) * 2000-10-19 2004-01-06 Lear Corporation Automatic volume control for communication system
US7039197B1 (en) * 2000-10-19 2006-05-02 Lear Corporation User interface for communication system
US6738479B1 (en) * 2000-11-13 2004-05-18 Creative Technology Ltd. Method of audio signal processing for a loudspeaker located close to an ear
US7065338B2 (en) 2000-11-27 2006-06-20 Nippon Telegraph And Telephone Corporation Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound
US6754623B2 (en) * 2001-01-31 2004-06-22 International Business Machines Corporation Methods and apparatus for ambient noise removal in speech recognition
US7095455B2 (en) * 2001-03-21 2006-08-22 Harman International Industries, Inc. Method for automatically adjusting the sound and visual parameters of a home theatre system
DE10118653C2 (de) * 2001-04-14 2003-03-27 Daimler Chrysler Ag Verfahren zur Geräuschreduktion
US6947570B2 (en) * 2001-04-18 2005-09-20 Phonak Ag Method for analyzing an acoustical environment and a system to do so
US20020159607A1 (en) * 2001-04-26 2002-10-31 Ford Jeremy M. Method for using source content information to automatically optimize audio signal
US20030007648A1 (en) * 2001-04-27 2003-01-09 Christopher Currell Virtual audio system and techniques
US6804565B2 (en) * 2001-05-07 2004-10-12 Harman International Industries, Incorporated Data-driven software architecture for digital sound processing and equalization
US7177432B2 (en) * 2001-05-07 2007-02-13 Harman International Industries, Incorporated Sound processing system with degraded signal optimization
US7684577B2 (en) * 2001-05-28 2010-03-23 Mitsubishi Denki Kabushiki Kaisha Vehicle-mounted stereophonic sound field reproducer
JP2003005770A (ja) 2001-06-25 2003-01-08 Tama Tlo Kk 残響生成付加方法とその装置
US20030128848A1 (en) * 2001-07-12 2003-07-10 Burnett Gregory C. Method and apparatus for removing noise from electronic signals
US7142677B2 (en) * 2001-07-17 2006-11-28 Clarity Technologies, Inc. Directional sound acquisition
US6584203B2 (en) * 2001-07-18 2003-06-24 Agere Systems Inc. Second-order adaptive differential microphone array
US7181026B2 (en) 2001-08-13 2007-02-20 Ming Zhang Post-processing scheme for adaptive directional microphone system with noise/interference suppression
JP2003061200A (ja) * 2001-08-17 2003-02-28 Sony Corp 音声処理装置及び音声処理方法、並びに制御プログラム
EP1430472A2 (en) * 2001-09-24 2004-06-23 Clarity, LLC Selective sound enhancement
KR20040063993A (ko) * 2001-12-14 2004-07-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 스펙트럼 에코 테일 추정기를 구비한 에코 소거기
TWI230024B (en) * 2001-12-18 2005-03-21 Dolby Lab Licensing Corp Method and audio apparatus for improving spatial perception of multiple sound channels when reproduced by two loudspeakers
US20030135377A1 (en) * 2002-01-11 2003-07-17 Shai Kurianski Method for detecting frequency in an audio signal
JP3521900B2 (ja) * 2002-02-04 2004-04-26 ヤマハ株式会社 バーチャルスピーカアンプ
US8098844B2 (en) * 2002-02-05 2012-01-17 Mh Acoustics, Llc Dual-microphone spatial noise suppression
JP4019753B2 (ja) 2002-03-12 2007-12-12 ヤマハ株式会社 残響付与装置、残響付与方法、プログラムおよび記録媒体
US20030169887A1 (en) 2002-03-11 2003-09-11 Yamaha Corporation Reverberation generating apparatus with bi-stage convolution of impulse response waveform
JP3979133B2 (ja) 2002-03-13 2007-09-19 ヤマハ株式会社 音場再生装置、プログラム及び記録媒体
JP4016681B2 (ja) * 2002-03-18 2007-12-05 ヤマハ株式会社 効果付与装置
US20030223603A1 (en) 2002-05-28 2003-12-04 Beckman Kenneth Oren Sound space replication
US7567845B1 (en) * 2002-06-04 2009-07-28 Creative Technology Ltd Ambience generation for stereo signals
AU2003242921A1 (en) 2002-07-01 2004-01-19 Koninklijke Philips Electronics N.V. Stationary spectral power dependent audio enhancement system
JP4077279B2 (ja) * 2002-08-30 2008-04-16 アルパイン株式会社 残響レベル制御装置
US7113610B1 (en) * 2002-09-10 2006-09-26 Microsoft Corporation Virtual sound source positioning
FR2847376B1 (fr) * 2002-11-19 2005-02-04 France Telecom Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede
DE10254470B4 (de) * 2002-11-21 2006-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Bestimmen einer Impulsantwort und Vorrichtung und Verfahren zum Vorführen eines Audiostücks
FI118247B (fi) * 2003-02-26 2007-08-31 Fraunhofer Ges Forschung Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa
JP4098647B2 (ja) * 2003-03-06 2008-06-11 日本電信電話株式会社 音響信号の残響除去方法、装置、及び音響信号の残響除去プログラム、そのプログラムを記録した記録媒体
EP1465159B1 (en) * 2003-03-31 2006-03-22 Alcatel Virtual microphone array
JP4134794B2 (ja) 2003-04-07 2008-08-20 ヤマハ株式会社 音場制御装置
US20040213415A1 (en) * 2003-04-28 2004-10-28 Ratnam Rama Determining reverberation time
US7336793B2 (en) 2003-05-08 2008-02-26 Harman International Industries, Incorporated Loudspeaker system for virtual sound synthesis
DE10321986B4 (de) * 2003-05-15 2005-07-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Pegel-Korrigieren in einem Wellenfeldsynthesesystem
JP4349972B2 (ja) 2003-05-26 2009-10-21 パナソニック株式会社 音場測定装置
EP1482763A3 (en) 2003-05-26 2008-08-13 Matsushita Electric Industrial Co., Ltd. Sound field measurement device
US7826622B2 (en) 2003-05-27 2010-11-02 Harman International Industries, Incorporated Constant-beamwidth loudspeaker array
DE10327889B3 (de) * 2003-06-20 2004-09-16 Siemens Audiologische Technik Gmbh Verfahren zum Betrieb eines Hörhilfegerätes sowie Hörhilfegerät mit einem Mikrofonsystem, bei dem unterschiedliche Richtcharakteristiken einstellbar sind und Programmiergerät dafür
DE10328335B4 (de) * 2003-06-24 2005-07-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Wellenfeldsyntesevorrichtung und Verfahren zum Treiben eines Arrays von Lautsprechern
SE0302161D0 (sv) * 2003-08-04 2003-08-01 Akzo Nobel Nv Process for the manufacture of a bitumen-aggregate mix suitable for road pavement
JP4127156B2 (ja) * 2003-08-08 2008-07-30 ヤマハ株式会社 オーディオ再生装置、ラインアレイスピーカユニットおよびオーディオ再生方法
JP2005080124A (ja) * 2003-09-02 2005-03-24 Japan Science & Technology Agency リアルタイム音響再現システム
US8054980B2 (en) * 2003-09-05 2011-11-08 Stmicroelectronics Asia Pacific Pte, Ltd. Apparatus and method for rendering audio information to virtualize speakers in an audio system
JP4114584B2 (ja) * 2003-09-25 2008-07-09 ヤマハ株式会社 指向性スピーカ制御システム
JP4114583B2 (ja) * 2003-09-25 2008-07-09 ヤマハ株式会社 特性補正システム
US20050069143A1 (en) * 2003-09-30 2005-03-31 Budnikov Dmitry N. Filtering for spatial audio rendering
US6937737B2 (en) * 2003-10-27 2005-08-30 Britannia Investment Corporation Multi-channel audio surround sound from front located loudspeakers
JP4254502B2 (ja) * 2003-11-21 2009-04-15 ヤマハ株式会社 アレースピーカ装置
DE10355146A1 (de) 2003-11-26 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Tieftonkanals
JP4504981B2 (ja) * 2004-02-26 2010-07-14 パナソニック株式会社 音響処理装置
US7415117B2 (en) 2004-03-02 2008-08-19 Microsoft Corporation System and method for beamforming using a microphone array
JP2005252467A (ja) * 2004-03-02 2005-09-15 Sony Corp 音響再生方法、音響再生装置および記録メディア
EP1581026B1 (en) * 2004-03-17 2015-11-11 Nuance Communications, Inc. Method for detecting and reducing noise from a microphone array
US7561706B2 (en) 2004-05-04 2009-07-14 Bose Corporation Reproducing center channel information in a vehicle multichannel audio system
KR100644617B1 (ko) 2004-06-16 2006-11-10 삼성전자주식회사 7.1 채널 오디오 재생 방법 및 장치
US20050286727A1 (en) 2004-06-25 2005-12-29 Victor Company Of Japan, Ltd. Apparatus for expanding sound image upward
WO2006011104A1 (en) * 2004-07-22 2006-02-02 Koninklijke Philips Electronics N.V. Audio signal dereverberation
TWI242372B (en) * 2004-08-20 2005-10-21 Coretronic Corp Voice broadcast apparatus
GB0419346D0 (en) 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
KR101118214B1 (ko) * 2004-09-21 2012-03-16 삼성전자주식회사 청취 위치를 고려한 2채널 가상 음향 재생 방법 및 장치
ATE405925T1 (de) * 2004-09-23 2008-09-15 Harman Becker Automotive Sys Mehrkanalige adaptive sprachsignalverarbeitung mit rauschunterdrückung
JP4249729B2 (ja) * 2004-10-01 2009-04-08 日本電信電話株式会社 自動利得制御方法、自動利得制御装置、自動利得制御プログラム及びこれを記録した記録媒体
US7508948B2 (en) * 2004-10-05 2009-03-24 Audience, Inc. Reverberation removal
US9509854B2 (en) * 2004-10-13 2016-11-29 Koninklijke Philips N.V. Echo cancellation
WO2006040727A2 (en) * 2004-10-15 2006-04-20 Koninklijke Philips Electronics N.V. A system and a method of processing audio data to generate reverberation
US8284947B2 (en) * 2004-12-01 2012-10-09 Qnx Software Systems Limited Reverberation estimation and suppression system
TW200621862A (en) 2004-12-24 2006-07-01 Furukawa Electric Co Ltd Thermoplastic resin foam
US7844059B2 (en) * 2005-03-16 2010-11-30 Microsoft Corporation Dereverberation of multi-channel audio streams
JP2006279548A (ja) * 2005-03-29 2006-10-12 Fujitsu Ten Ltd 車載用スピーカシステム及びオーディオ装置
JP4949638B2 (ja) * 2005-04-14 2012-06-13 ヤマハ株式会社 オーディオ信号供給装置
JP4297077B2 (ja) 2005-04-22 2009-07-15 ソニー株式会社 仮想音像定位処理装置、仮想音像定位処理方法およびプログラム並びに音響信号再生方式
GB2426169B (en) 2005-05-09 2007-09-26 Sony Comp Entertainment Europe Audio processing
US20060256978A1 (en) 2005-05-11 2006-11-16 Balan Radu V Sparse signal mixing model and application to noisy blind source separation
US20070047743A1 (en) * 2005-08-26 2007-03-01 Step Communications Corporation, A Nevada Corporation Method and apparatus for improving noise discrimination using enhanced phase difference value
US7774078B2 (en) * 2005-09-16 2010-08-10 Sony Corporation Method and apparatus for audio data analysis in an audio player
US7929709B2 (en) * 2005-12-28 2011-04-19 Yamaha Corporation Sound image localization apparatus
EP1989704B1 (en) 2006-02-03 2013-10-16 Electronics and Telecommunications Research Institute Method and apparatus for control of randering multiobject or multichannel audio signal using spatial cue
WO2007089129A1 (en) 2006-02-03 2007-08-09 Electronics And Telecommunications Research Institute Apparatus and method for visualization of multichannel audio signals
WO2007123788A2 (en) * 2006-04-03 2007-11-01 Srs Labs, Inc. Audio signal processing
US8180067B2 (en) 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US9014377B2 (en) * 2006-05-17 2015-04-21 Creative Technology Ltd Multichannel surround format conversion and generalized upmix
US8379868B2 (en) * 2006-05-17 2013-02-19 Creative Technology Ltd Spatial audio coding based on universal spatial cues
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
JP4949477B2 (ja) 2006-09-25 2012-06-06 ドルビー ラボラトリーズ ライセンシング コーポレイション 高次角度項による信号を抽出することでマルチチャンネルオーディオ再生システムの空間分解能を改善したサウンドフィールド
US8275475B2 (en) 2007-08-30 2012-09-25 Texas Instruments Incorporated Method and system for estimating frequency and amplitude change of spectral peaks
US8306240B2 (en) 2008-10-20 2012-11-06 Bose Corporation Active noise reduction adaptive filter adaptation rate adjusting
JP5400225B2 (ja) 2009-10-05 2014-01-29 ハーマン インターナショナル インダストリーズ インコーポレイテッド オーディオ信号の空間的抽出のためのシステム
US8540522B2 (en) * 2010-10-05 2013-09-24 Lumetric Lighting, Inc. Utility control system and method

Also Published As

Publication number Publication date
US9264834B2 (en) 2016-02-16
JP2014052654A (ja) 2014-03-20
EP2064699A1 (en) 2009-06-03
WO2008034221A1 (en) 2008-03-27
JP2012145962A (ja) 2012-08-02
US20120063608A1 (en) 2012-03-15
US8670850B2 (en) 2014-03-11
US20080069366A1 (en) 2008-03-20
JP4964943B2 (ja) 2012-07-04
JP5635669B2 (ja) 2014-12-03
CN103402169B (zh) 2016-02-10
JP5406956B2 (ja) 2014-02-05
JP2009531722A (ja) 2009-09-03
US20080232603A1 (en) 2008-09-25
US8751029B2 (en) 2014-06-10
EP2064699B1 (en) 2019-10-30
US8036767B2 (en) 2011-10-11
CN101454825A (zh) 2009-06-10
US20120275613A1 (en) 2012-11-01
CN103402169A (zh) 2013-11-20
EP2064699A4 (en) 2012-07-18

Similar Documents

Publication Publication Date Title
CN101454825B (zh) 用于提取和改变音频输入信号的混响内容的方法和装置
JP5149968B2 (ja) スピーチ信号処理を含むマルチチャンネル信号を生成するための装置および方法
US8280077B2 (en) Stream segregation for stereo signals
US7567845B1 (en) Ambience generation for stereo signals
EP2614445B1 (en) Spatial audio encoding and reproduction of diffuse sound
US7912232B2 (en) Method and apparatus for removing or isolating voice or instruments on stereo recordings
EP2974010B1 (en) Automatic multi-channel music mix from multiple audio stems
US7970144B1 (en) Extracting and modifying a panned source for enhancement and upmix of audio signals
EP2191463B1 (en) A method and an apparatus of decoding an audio signal
US20040212320A1 (en) Systems and methods of generating control signals
Avendano et al. Frequency domain techniques for stereo to multichannel upmix
Perez_Gonzalez et al. A real-time semiautonomous audio panning system for music mixing
KR101767330B1 (ko) 신호 대 다운믹스 비율에 기초한 중심 신호 스케일링 및 스테레오 강화을 위한 장치 및 방법
CN103650538A (zh) 用于使用采用谱权重生成器的频域处理分解立体声录音的方法和装置
GB2605970A (en) Content based spatial remixing
Soulodre About this dereverberation business: A method for extracting reverberation from audio signals
US20230254655A1 (en) Signal processing apparatus and method, and program
US8767969B1 (en) Process for removing voice from stereo recordings
AU2013200578B2 (en) Apparatus and method for generating audio output signals using object based metadata
Perez Gonzalez Advanced automatic mixing tools for music

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant