CN1197526A - 说话者验证系统 - Google Patents

说话者验证系统 Download PDF

Info

Publication number
CN1197526A
CN1197526A CN96194550A CN96194550A CN1197526A CN 1197526 A CN1197526 A CN 1197526A CN 96194550 A CN96194550 A CN 96194550A CN 96194550 A CN96194550 A CN 96194550A CN 1197526 A CN1197526 A CN 1197526A
Authority
CN
China
Prior art keywords
speaker
sorter
speech
feature
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN96194550A
Other languages
English (en)
Inventor
R·J·曼蒙
凯文·法雷尔
马尼什·夏尔马
奈克·德旺
张晓宇
哈立德·阿萨雷
刘汉生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rutgers State University of New Jersey
Original Assignee
Rutgers State University of New Jersey
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rutgers State University of New Jersey filed Critical Rutgers State University of New Jersey
Publication of CN1197526A publication Critical patent/CN1197526A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/10Multimodal systems, i.e. based on the integration of multiple recognition engines or fusion of expert systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/20Pattern transformations or operations aimed at increasing system robustness, e.g. against channel noise or different working conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/14Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters

Abstract

本发明涉及一种模式识别系统(图1),它使用数据组合,从而把来自多个提取特征(60、61、62)的数据与多个分类器(70、71、72)组合起来。利用以判别式为基础和以失真为基础的分类器,可准确地验证说话者的模式。可使用一种利用一组“留下一个”的训练数据的新方案,从而以减少的数据组对系统进行训练(图7A、7B、7C)。可使用减小信道效应的极点滤波方法(图11B)以及改善训练和测试数据之间相关性的仿射变换(图14)来改善提取的特征。

Description

说话者验证系统
技术领域
本发明涉及一种模式识别系统,尤其是一种说话者(speaker)验证系统,该系统为了准确地验证所要求的个性,利用数据组合方法把来自多个提取特征和多个分类器的数据相混合。
背景技术
模式识别涉及对模式诸如话音、说话者或图像进行识别。为了从发音中确定存在哪一个说话者,可把识别的说话者模式用于说话者识别系统中。
说话者验证系统的目的是从发音中验证说话者所要求的个性。说话者验证系统的口头输入可以与文本有关或与文本无关。与文本有关的说话者验证系统在验证预定短语或口令的发音后识别说话者。与文本无关的说话者验证系统识别说话者时不管发音如何。从用户的观点来看,常规的与文本无关的系统更方便,因为它们不需要口令。
如名为“说话者识别验证系统”的08/203,988号审查中美国专利申请(该申请已转让给本发明的受让人并在本申请中引用)所述,已利用其中使用在每个话音帧处加权的自适应分量的调制模型,从说话者信息中提取特征。自适应分量加权方法减弱了非元音区域分量,并对提高某个信道上说话者识别的话音分量归一化。
另一种常规的特征提取方法包括从频谱或从线性预报中得到的频谱编码系数中确定倒频谱系数。已使用与说话者无关的数据联用的神经树形网络(NTN)来确定以判别式为基础的说话者间的参数。NTN是一个分层的分类器,该分类器组合了IEEE Transactions on Computers,C-42:221-229,March 1993中A.Sankar和R.J.Mammone在“神经树形网络的发展和删节”中所述的判断树形网络和神经网络的特性。为了进行说话者识别,由所需说话者的数据和来自其它说话者的数据来构成NTN的训练数据。NTN把特征空间分成若干具有给定几率的区域,这些几率反映了说话者将如何产生落在说话者区域内的特征矢量。与文本无关的系统的缺点是需要大量数据来模拟和估计说话者的声学特征。
第4,957,961号美国专利描述了一种神经网络,它能容易被训练成对连接的字进行可靠的识别。使用一种动态编程技术,其中输入层的输入神经细胞单元被分组成为多层神经网络。为了识别输入模式,把每个特征矢量的矢量分量提供给从三个连续编号的输入层帧中选中的输入层中一个输入层的各个输入神经细胞单元,中间层把至少两个输入层帧的输入神经细胞单元连接起来。输出神经细胞单元连到中间层。调节单元连到中间层,用于调节输入-中间和中间-输出的连接,以使输出单元产生一输出信号。当调节单元把输出信号调节到最大值时,神经网络把输入模式作为预定模式予以识别。每个话音模式使用大约四十次训练,对动态神经网络进行训练。
已发现,使用与文本有关的说话者的发音,可减少训练和测试验证系统所需的数据量。有一种与文本有关的常规说话者验证系统使用动态时间偏移(DTW)技术,根据失真对特征鉴别进行时间校准,见IEEE Transactions on Acoustics,Speech,and Signal Processing,ASSP-29:254-272,April 1981中S.Furui的“自动说话者验证的倒频谱分析技术”一文。在测试期间,从一个口令的几个发音中产生基准模板。由说话者的发音失真是否降到低于预定的阈值来判断接受或拒绝说话者所要求的个性。该系统的缺点是精度不高。
如J.J.Naik,L.P.Netsch和G.R.Doddington在Proceedings ICASSP(1989)中的“在长距离电话线上进行说话者验证”一文所述,与DTW系统相比,另一种使用隐性(Hidden)Markov模型(HMM)的技术在性能上有所改进。在与文本有关的说话者验证中已使用几种形式的HMM。例如,对于说话者验证,已考虑使用A.E.Rosenberg,C.H.Lee和F.K.Soong在Proceedings ICASSP,pages 269-272(1990)的“使用隐性Markov模型的子字单元说话者验证”中所述的子字模型以及A.E.Rosenberg,C.H.Lee和S.Gokeen在Proceedings ICASSP,pages 381384(1991)的“使用全字隐性Markov模型的连接字说语者识别”中所述的全字模型。HMM技术的局限性在于,它一般需要足够多的大量数据来估计模型参数。DTW和HMM系统的一个通病是它们只模拟说话者,而不考虑用该系统模拟其它说话者的数据。由于不能进行判别式训练,所以更容易使冒名顶替者侵入这些系统。
最好提供一种能提高模式识别精度的模式识别系统,其中,可在多个预定的分类器中组合多个提取的特征。
发明内容
概括地说,本发明包括一种模式识别系统,该系统在多个分类器中组合了多个提取的特征,所述分类器包括以不同的训练数据和重叠训练基层进行训练(例如下述的“留下一个”的技术)的分类器。此模式识别系统最好用于从说话者发出的话音中提取特征的说话者验证。使用多个分类器对提取的特征进行分类。组合分类输出,以识别说话者发出的话音与预先存储在说话者中的话音的相似性。根据组合的分类输出判定是否接受或拒绝该说话者。最好通过对发出的口令进行验证的动态时间偏移分类器与鉴别其它说话者的经修正的神经树形网络相结合,对话音进行分类。在说话者验证系统中使用判别式训练的分类器,优点是可以准确地把一个说话者从其它说话者中区分出来。
该系统也可包括根据对说话者发出的字(即,说话者的口令)进行字识别来初步确定是否接受或拒绝该说话者。如果说话者的口令被接受,则分类器被使能。最好把多个发音加到分类器而留下一个发音,从而对分类器进行训练。可把留下的发音加到该分类器,以确定0到1之间识别说话者的几率。可把这些几率与分类器的阈值相比较,以判定是否接受或拒绝该说话者。
说话者发出的文本可以与说话者相关或与说话者无关。提取的特征也可分成若干子字。子字最好是音素。可以至少用一个分类器来模拟每个子字。为了提供以子字为基础的验证系统,可组合以子字为基础的分类器的输出。
为了减少对话音的信道效应,最好用极点滤波方法来提取特征。此外,为了减少训练和测试环境之间的失配,可用仿射变换来调节提取的特征。
将参考附图对本发明进行更全面的描述。
附图概述
图1是依据本发明所述的说话者验证系统的示意图。
图2A是图1所示字识别模块在系统训练期间的示意图。
图2B是图1所示字识别模块在系统测试期间的示意图。
图3是一说话者验证模块的示意图,该模块组合了多个提取的特征和多个分类器。
图4是在图1所示说话者验证模块中所使用的经修正的神经树形网络和动态时间偏移分类器组合的示意图。
图5是在图1所示说话者验证模块中所使用的经修正的神经树形网络(MNTN)分类器的示意图。
图6是在图1所示说话者验证模块中所使用的动态时间偏移(DTW)分类器的示意图。
图7A是在说话者验证模块训练中所使用的多个发音的示意图。
图7B是图7A所示多个发音在说话者验证模块中应用的示意图。
图8是一个说话者和其它说话者的得分(score)图。
图9是以子字为基础的说话者验证系统的示意图。
图10A是以子字为基础的分类系统在训练期间的示意图。
图10B是以子字为基础的分类系统在测试期间的示意图。
图11A是已有技术的信道归一化系统的示意图。
图11B是本发明的信道归一化系统的示意图。
图12是极点滤波信道归一化的图。
图13A是一帧话音的频谱图。
图13B是本发明的归一化系统的一帧话音与已有技术归一化系统的一帧的频谱图。
图14是仿射变换系统的示意图。
本发明的较佳实施模式
在此描述中,用相同的的标号来识别示出本发明的不同图中的相同元件。
图1示出依据本发明所示的说话者验证系统10的一个实施例的示意图。说话者11发出话音12。把话音12作为话音输入信号13加到特征提取模块14。特征提取模块14确定代表话音输入信号13的特性参数的话音特征矢量15。最好以线性预报(LP)分析方法确定话音特征矢量15,以确定LP倒频谱系数。可通过用常规技术抬高的正弦窗对LP倒频谱系数进行带通提高,对倒频谱系数进行更好识别。
此外,特征提取模块14还可结合LP分析方法用多种方法来提取特征。例如,可使用上述08/203,988号美国专利中所述的自适应分量加权方法来提取话音特征矢量15。自适应分量加权技术通过对话音输入信号13的预定分量进行加权,从而产生提高信号的元音区域特征而减少非元音区域效果的归一化频谱来提取特征。特征提取模块14也可使用常规的方法,诸如对数面积比、线性频谱对和反射系数等方法从线性预报(LP)系数中产生其它线性预报得出的特征。特征提取模块14也可对线性和对数频率刻度、基频(峰值)、响度系数和过零速率产生快速Fourier变换(FFT)获得的频谱特征。
字识别模块20接收话音特征矢量15并把话音特征矢量15同与话音特征矢量15相关的数据16相比较。数据16可以存储在数据库50中。例如,说话者11可发出一口令当作话音12。话音特征矢量15代表说话者11的口令的发音。一组闭合的口令可以用数据16代表并存储在数据库50中。这组闭合的口令对应于一组说话者个性,包括说话者11的口令。在字识别模块20处,如果在字识别模块20处接收到的话音特征矢量15与存储在数据库50中的数据16匹配,例如与所要求个性的口令匹配,则说话者验证模块30被使能。如果接收到的话音特征矢量15与存储在数据库50中的数据16不匹配,例如存储在数据库50中的口令与所要求的个性不匹配,则在模块21中提醒用户11再次呼叫。
说话者验证模块30最好使用数据组合方法,以把多个分类器与话音特征矢量15相混合,以下将详细描述该技术。在判定组合逻辑模块40处接收到说话者验证模块30的组合分类器输出35。判定组合逻辑模块40最终判定否接受或拒绝所要求的说话者11的个性,从而验证所要求的说话者个性。
图2A和2B分别示出说话者11登记和说话者11测试期间的字识别模块20。在说话者验证系统10的说话者11登记期间,由说话者11发出训练话音22。例如,训练话音22可包括重复四次说话者11的口令。由字匹配识别模块28来识别每次重复。在字匹配识别模块28中最好使用基于DTW的模板匹配算法,以产生识别字23。可把识别字23集结成与说话者有关的模板24。也可使用说话者验证系统10,以识别字23和其它说话者25发出的相同训练话音22的重复数据来产生与说话者无关的模板26。可使用字识别匹配模块28对识别字23的大多数选票来识别说话者11的用户口令27。
在说话者11测试期间,用户11发出话音12,在字识别匹配模块28中把话音12与说话者相关模板24和说话者无关模板26相比较。如果话音12代表说话者11的口令27且与说话者相关字模板24或说话者无关字模板26匹配,则把“接受”响应输出到线29。如果话音12与说话者相关字模板24或说话者无关字模板26都不匹配,则把“拒绝”响应输出到线29。
说话者验证模块30最好使用数据组合方法,从而如图3所示把多个提取的特征60、61和62与多个分类器70、71和72相混合。特征60、61和62可代表用上述多种预定提取方法而提取的话音特征矢量15。分类器70、71和72可代表多种预定分类方法,诸如神经树形网络(NTN)、多层感知(MLP)、隐性Markov模型(HMM)、动态时间偏移(DTW)、高斯混合模型(GMM)和矢量量化(QV)。在另一个实施例中,特征60、61和62可代表其它模式诸如话音或图像的提取特征,分类器70、71和72可代表话音或图像模式的预定分类方法。可在判定组合逻辑模块40中混合来自各个分类器70、71和72的输出73、74和75,从而最终判定是否接受或拒绝说话者11。判定组合模块40可使用常规的技术,例如线性意见库、对数意见库、Baysian混合法则;用投票方法或附加的分类器来把分类器70、71和72组合起来。很清楚可以把任意数目的特征或分类器组合起来。分类器也可包括以不同训练数据和重叠训练数据基层进行训练(例如下述的留下一个的技术)的分类器。
图4示出在本发明的说话者验证系统中所使用的较佳说话者验证模块30。话音特征矢量102被输入神经树形网络(NTN)分类器104、106、108和110以及动态时间偏移(DTW)分类器120、122、124和126。在分类期间,每个NTN分类器104、106、108和110以及126确定特征矢量102是否超过预定的各个阈值,即存储在数据库132中的NTN的“TNTN”。每个DTW分类器120、122、124和126确定特征矢量102是否超过存储在数据库132中的DTW的各个预定阈值“TDTW”。如果特征矢量102超过各个阈值TNTN和TDTW,则把二进制输出“1”分别输出到线240和线241。如果特征矢量102小于各个预定阈值TNTN和TDTW,则把二进制输出“0”分别输出到线240和线241。
在用说话者验证系统10对说话者11进行测试期间,判定模块40接收来自线240和241的二进制输出。在判定模块40的一个较佳实施例中,可取判定模块240中二进制输出的大多数选票来确定是否接受或拒绝说话者11。在此实施例中,如果大多数二进制输出为“1”,则接受该说话者,如果大多数二进制输出为“0”,则拒绝该说话者。
可把指定为经修正的神经树形网络(MNTN)200的较佳分类器用作说话者验证模块30中以判别式为基础的分类器。如图5所示,MNTN 200具有多个互连结点202。204和206。结点204耦合到叶结点208和叶结点210,结点206耦合到叶结点212和叶结点214。由于通过阻止MNTN 200的生长超过预定水平来进行树形的“前向修剪”,所以在每个叶结点208、210、212和214处进行几率测量。
通过使用说话者验证系统10应用来自其它说话者25的数据201,从而对说话者11训练MNTN 200。给标为“Si”的对说话者11所提取的特征矢量15分配标志“1”,给使用说话者识别系统10所提取的其它说话者25的特征矢量分配标志“0”。把数据220、230、240和250分别加到所提取的特征矢量的叶结点208、210、212和214。对每个叶结点208、210、212和214投票。对每个叶结点208、210、212和214规定多数票的标志。把“置信度”定义为大多数的标志数与总标志数的比值。例如,给包括八个“0”特征的数据220分配标志“0”,和“1.0”的置信度。给包括六个“1”特征和四个“0”特征的数据230分配标志“1”和“0.6”的置信度。
可在说话者验证模块30中使用经训练的MNTN 200,以从来自话音12的一系列特征矢量“X”中确定相应的说话者得分。可由以下公式来确定相应的说话者得分PMNTN(X/Si): P MNTN ( X | S i ) = Σ j = l M c j l Σ j = 1 N C j 0 + Σ j = 1 M c j 1
这里,说话者11标为Si,c1是说话者11的置信度得分,C0是其它所有说话者的置信度得分。M和N分别对应于分类为“1”和“0”的矢量数目。
一个较佳的DTW分类器使用图6所示以失真为基础的方案对两个波形或两个特征模式进行时间校正。由X轴上话音特征矢量15的基准模式和Y轴上话音特征矢量15的测试模式来代表波形,其中N代表基准模式的数目,M代表测试模式的数目。包容的约束线270、271、272和273代表对动态时间偏移路径275的限制。可通过常规方法来确定动态时间偏移路径275,这些方法例如H.Sakoe和S.Chiba在IEEE Trans.on Acoustics,Speech and Signal Processing,vol.ASSP-26,no.1,pgs.43-49,Feb.1978的“口述字识别的动态编程算法优化技术”中所述的方法。
相对于其它说话者使用说话者验证系统10而言,最好把根据失真方法的分类器(即,提供与说话者有关的信息的DTW分类器)和根据判别式方法的分类器(提供与说话者有关的信息的NTN或MNTN分类器)组合起来。把DTW分类器与MNTN或NTN分类器组合起来的优点还在于,DTW分类器所提供的临时信息一般不是NTN或MNTN分类器的部分信息。
如图7A和7B所示,可以用训练模块300对NTN分类器104、106、108和110以及DTW分类器120、122、124和126进行训练。训练模块300也可用于对可在说话者验证模块30中使用的MNTN分类器、DTW分类器和其它分类器进行训练。最好在训练模块300中使用一种名为“留下一个”的重复采样技术。从说话者11接收到预定数目的训练话音的发音。在本实施例中,使用话音22(例如说话者的口令)定义为302、304、306和308的四个发音。把四个发音中三个发音的组合加到成对的NTN分类器104、106、108和110与DTW分类器120、122、124和126,而只留下一个发音。这三个发音用于训练这些分类器,而余下的一个发音用作单独测试的情况。例如,可把发音302、304和306加到NTN分类器104和DTW分类器120;可把发音304、306和308加到NTN分类器106和DTW分类器122;可把发音302、306和308加到NTN分类器108和DTW分类器124;以及可把发音302、304和308加到NTN分类器110和DTW分类器126。
在把各三个发音加到每对NTN分类器104、106、108和110与DTW分类器120、122、124和126后,如图7C所示,把留下的一个发音加到各对NTN分类器104、106、108和110与DTW分类器120、122、124和126。例如,把发音308加到NTN分类器104和DTW分类器120,把发音302加到NTN 106和DTW 122,把发音304加到NTN 108和DTW 124,以及把发音306加到NTN110和DTW 126。计算指定为310、312、314和316 0到1之间的几率P。在判定组合逻辑模块40的投票模块321中,把几率310、312、314和316与阈值TDTW相比较,并把几率317、318、319和320与阈值TNTN相比较。
图8是其它说话者25的说话者间得分以及说话者11的说话者间得分图,这些得分可用于确定说话者验证系统10中所使用的分类器的阈值,诸如阈值TDTW和TNTN。由具有平均说话者得分351的图形350来表示说话者11对话音12的说话者间得分。由具有平均说话者得分361的图形360来表示其它说话者25对话音12的说话者间得分。可从以下公式来确定阈值T:
                  T=x*说话者间+y*说话者间
可通过话音12比阈值T大或小的数量来确定软(soft)得分S。每个分类器的得分C在零和1之间,其中零是最确信的拒绝,1是最确信的接受。在阈值T和1之间的接受置信度C接受可从以下公式来定义:在0到阈值T之间的拒绝置信度C拒绝可定义为:
Figure A9619455000132
图9示出以子字为基础的说话者验证系统400的示意图。在特征提取模块14中提取话音特征矢量15后,在子字分割模块402中把话音特征矢量15分割成子字404。子字404最好是音素。可把子字404加到训练说话者模块406和测试说话者模块408。
图10A是基于子字的说话者验证系统400在应用训练说话者模块406期间的示意图。把表示说话者11训练发音的说话者提取特征15以及口令拷贝410加到子字音素级分割模块402。口令拷贝410可由说话者11发出、通过计算机输入或通过卡片扫描,或者可以类似的模式产生。话音分割模块402把说话者提取特征15分割成子字1到M,例如,模块420中的子字“1”,模块422中的子字“m”,以及模块424中的子字“M”,其中M是所分割的子字数目。子字420、422和424可存储在在数据库425中。受监控的学习矢量标注系统430把用于训练话音矢量的标志确定为训练分类器440、442和444用的“0”或“1”。例如,其它说话者25的所有子字可以标注为“0”,说话者15的子字可以标注为“1”。此外,可在数据库425中搜索到最近似的音素。为了对每个子字进行分类,把子字分类器440、442和444加到各个子字420、422和424。子字分类器440、442和444最好使用NTN和MNTN分类方法。
图10B是以子字为基础的说话者验证系统400在应用测试说话者模块408期间的示意图。把表示说话者11测试发音的说话者提取特征15与口令拷贝410一起加到子字音素级分割模块402。子字分类器440、442和444对从表示说话者11测试发音的提取说话者特征15中确定的各个子字420、422和424进行分类。把来自分类器440、442和444的输出445加到判定组合逻辑模块40,以根据上述从分类器440、442和444的组合输出而计得的接受置信度C接受来确定是否接受或拒绝说话者11。
为了产生对信道差是固定的话音特征矢量15,可在特征提取模块14中使用名为“极点滤波”的较佳方法。极点滤波使用所有极点线性预报(LP)滤波器的智能滤波对信道进行归一化。
如果净话音Cs用脉冲响应为h的信道卷积,则原始倒频谱平均的信道倒频谱可表示为 C s = Σ m = 1 M S m + h , 这里 S s = Σ m = 1 M S m 相应于只因以下净话音所引起的平均倒频谱分量。为了使信道匹倒频谱估计值Cs相应于以下实际卷积失真的倒频谱估计值h,净话音引起的分量平均应为零。
根据经验,对于短的发音,净话音所引起的平均倒频谱分量不再为零,对于说话者验证系统10的训练和测试也是同样的情况。
图11A中示出已有技术的信道归一化系统500,其中话音被加到帧内加权模块502。自适应分量加权(ACW)是为信道归一化而进行帧内加权的一个例子。为了除去附加的信道效应,帧内处理模块506处接收到被加权的话音504。一种除去信道效应的常规帧内方法是应用倒频谱平均相减(CMS)。由于信道倒频谱包括信道所引起的大量倒频谱分布以及话音,所以从每个话音帧的倒频谱中消去失真的信道倒频谱估计值的常规方法相当于对不可靠的信道估计值进行解卷积(deconvolve)。
图11B示出本发明的信道归一化系统600。话音12被加到信道估计值极点滤波模块602。极点滤波削弱了话音Ss所引起的不变分量的作用。经整理的信道估计值用于对信道进行归一化。最好以迭代法对信道的倒频谱进行整理。
信道倒频谱的估计值cs依赖于发音中有效的话音帧的数目。在有效的话音发音足够长的情况下,可得到一个接近于实际信道估计值h的信道倒频谱估计值。在大多数的实际情况下,训练或测试用的发音的持续时间不会长到足以允许Ss→0。通过确定极点在话音帧中的占有率及其对信道倒频谱估计值的作用,可提高倒频谱的平均估计值。
通过把平均倒频谱转换成线性预报系数并研究相应复数共轭极点对的占有率,来确定元音区域的每种模式对平均倒频谱的作用。对于话音的一个帧,如果频谱分量相应于最靠近单位圆周复数共轭极点对(最小带宽),则频谱分量的占有率最大,如果频谱分量相应于离单位圆周最远的复数共轭极点对(最大带宽),则频谱分量的占有率最小。
为了在倒频谱域中获得更平滑继而更准确的逆信道估计值,使话音的极点限制成对应于经修正的平均倒频谱, C S P ∫ 从而削弱与话音引起的不变分量有关的倒频谱偏置。经整理的平均倒频谱去除排除了话音引起的大量频谱分布分量,从而提供了一种改进的信道归一化方案。
把从信道极点滤波模块602确定的最佳信道估计值与解卷积模块730中的话音12相结合,以在时域内对它们进行解卷积而提供归一化话音735。可把常规的帧间耦合502和干扰处理506加到归一化话音735,以提供信道归一化话音特征矢量740。可用与图1所示话音特征矢量15相同的模式来利用话音特征矢量740。改善信道估计值的一个较佳方法使用经极点滤波的倒频谱系数PFCC,其中如图12所示,提高窄频带极点的带宽,而其频率保持不变。把极点801、802、803、804、805、806移动到经修正的极点811、812、813、814、815和816。此效果相当于沿相同的半径移动单位圆周内的窄频带极点,从而使频率保持恒定而扩大带宽。
与话音特征矢量15同步,确定话音的极点滤波倒频谱系数PFCC。通过分析帧12中一个极点的带宽是否小于预定的阈值t来确定极点滤波倒频谱系数PFCC。如果话音12小于预定阈值且该极点的带宽固定于阈值t,则可用极点滤波倒频谱系数来估计经修正的平均倒频谱。利用最接近于实际逆信道滤波器的极点滤波倒频谱系数PFCC来获得改善的逆滤波器估计值。从话音的倒频谱帧中减去经修正的平均倒频谱既保留了频谱信息,又更加准确地补偿了信道的频谱倾斜。
图13A示出话音一个帧的样品频谱700。图13B示出从频谱700中减去已有技术平均倒频谱Cs的频谱710。频谱720是从频谱700中减去经极点滤波修正的平均倒频谱
Figure A9619455000161
。频谱720示出对频谱710有所改善的频谱信息。
图14示出仿射变换系统900,它可用于说话者验证系统10的训练和测试。通过对特征提取模块14提取的倒频谱系数进行仿射变换可减小训练和测试环境之间的失配。矢量x的仿射变换y定义为
                             y=Ax+b
这里A是一个表示线性变换的矩阵,b是一个表示转换的非零矢量,y是测试数据,而x对应于训练数据。在话音处理域中,矩阵A模拟噪声引起的各个倒频谱系数的减小,矢量b说明了信道效应所引起的平均倒频谱的偏移。
单数值分解(SVD)描述了具有以下公式的仿射变换的几何形状:
                         y=U∑VT+b
这里U和VT是一元矩阵,∑是斜列。其几何含义是由VT旋转x,被∑重新定标,并再由U旋转。矢量b也引入了一种解释。
已发现实际上用不同的值对每个倒频谱系数进行定标,伴随着倒频谱系数的重新定标,角度稍有变化。可把嘈杂的倒频谱矢量cns表示为净倒频谱矢量c与一矩阵的乘积,即,
                       cns=Ac。
为了同时表示信道和噪声所引起的失真,可使用以下所示的仿射映射
                       c′=Ac+b从以下的仿射变换式来定义仿射变换参数
Figure A9619455000162
x ‾ = A - 1 ( y - b ) 这里 等价于x。使用最小二乘方方法可得到仿射变换参数A和b,以解出以上有关训练或交叉验证数据组的方程。
在说话者验证系统10的训练期间,话音特征矢量15与仿射变换模块902相连,并在测试期间通过分类器输入线901加到分类器904。在训练期间,话音特征矢量15与仿射变换模块902相连,并通过分类器输入线903加到分类器904。分类器804最好是一个矢量量化分类器。例如,分类器804可对应于图2所示的分类器70、71、72或图4所示的NTN分类器104、106、108、110以及DTW分类器120、122、124和126。
在说话者验证系统10中,要求其真实个性的说话者可叫做真实说话者,而要求伪个性的说话者11叫做冒名顶替者。在对说话者进行估计时,说话者验证系统10可产生两种差错:(a)误拒绝(FR)以及误接受(FA)。在要求真实个性的真实说话者被说话者验证系统10拒绝时,产生误拒绝(FR)差错。当冒名顶替者被说话者验证系统10接受时,产生误接受(FA)差错。判定是否接受或拒绝个性依赖于上述阈值T。依据每种差错的代价,可把系统设计成以另一个差错为代价而折衷地选择另一个差错。此外,为了估计竞争技术,可比较系统的等差错率(EER)。当以相等的几率产生两种差错(即,FR和FA)时,可实现等差错率。
在名为YOHO的常规话音集(可通过Philadelphia的语言数据协会(LDC)来获得)上评价本发明以子字为基础的说话者验证系统。在相同的条件下,与以1.66%等差错率(EER)的以常规隐性Markov模型(HMM)为基础的系统相比,本发明以子字为基础的说话者验证系统10可产生0.36%的EER。
本发明的优点是把来自不同分类器的多个标志组合起来,以提供一种可准确识别给定模式的强有力的识别系统。在说话者验证的实施例中,可把以失真为基础的分类器与以判别式为基础的分类器组合起来,以把与说话者有关的标志以及说话者与其它说话者组合起来。最好用神经树形网络对来自说话者和其它说话者的数据进行分类,从而减少处理。字识别使能模块可把较高的精度加到验证系统并减少拒绝说话者处理。此外,分类器可以是以子字为基础的分类器,带有与文本有关或无关的数据。此外,可用留下一个的方法来训练验证系统,从而减少训练系统所需的数据。可使用极点滤波来减轻系统中的信道失真。对提取特征的仿射变换改善了训练和测试数据之间的相关性。为了说明老化现象,系统也可在进行肯定验证后对说话者模型进行更新。
虽然已参考较佳实施例对本发明进行了描述,此描述不是限制。本领域内的那些中等技术人员应理解可对本发明进行修改而不背离本发明的精神和范围。

Claims (21)

1.一种用于说话者验证的方法,其特征在于包括以下步骤:
从所述说话者发出的第一话音中提取至少一个特征;
为了形成多个分类输出,用多个分类器对所述至少一个特征进行分类的装置;
通过确定所述多个分类输出与所述说话者预先发出的第二话音的相似性来识别所述多个分类输出的装置;以及
根据所述经识别的多个分类输出确定是否接受或拒绝所述说话者的装置。
2.如权利要求1所述的方法,其特征在于还包括以下装置:
根据所述经识别的多个分类输出确定置信度。
3.如权利要求2所述的方法,其特征在于在对所述至少一个特征进行分类前,所述方法还包括以下步骤:
为了确定是否预备接受或预备拒绝所述说话者,通过把所述至少一个特征与预先存储的所述说话者的数据相比较,对所述说话者发出的所述第一话音进行字识别;
如果确定预备接受所述说话者,则进行对所述至少一个特征进行分类的所述步骤,如果确定预备拒绝所述说话者,则让回叫模块使能。
4.如权利要求3所述的方法,其特征在于所述第一话音包括所述说话者一口令的至少一个发音。
5.如权利要求4所述的方法,其特征在于所述数据包括预先从说话者发出的第一话音中形成的与说话者有关的模板,以及预先由至少一个第二说话者发出的第一话音形成的与说话者无关的模板。
6.如权利要求1所述的方法,其特征在于由神经树形网络(NTN)分类器和动态时间偏移分类器来进行所述分类步骤。
7.如权利要求1所述的方法,其特征在于由经修正的神经树形网络(MNTN)和动态时间偏移分类器来进行所述分类步骤。
8.如权利要求7所述的方法,其特征在于由以下公式来定义所述MNTN分类器的说话者得分: P MNTN ( X | S i ) = Σ j = 1 M c j 1 Σ j = 1 N C j 0 + Σ j = 1 M c j 1
这里c1是说话者Si的置信度得分,C0是其它所有说话者的置信度得分,M和N分别对应于定为“1”和“0”的矢量的数目。
9.如权利要求1所述的方法,其特征在于通过以下步骤来训练所述识别步骤:把所述说话者的话音的多个第一发音加到所述多个分类器中的一对分类器,在所述发音中留下定义为留下发音的一个发音;
把所述留下发音加到所述分类器对;
计算所述分类器对中每个所述分类器的几率;以及
根据所述几率确定所述分类器对中每个所述分类器的阈值,
其中通过把所述分类器与所述阈值相比较来确定所述多个分类输出的所述相似性。
10.如权利要求1所述的方法,其特征在于为了提取所述至少一个特征,通过对所述第一和第二话音进行极点滤波来进行所述提取步骤。
11.如权利要求1所述的方法,其特征在于还包括以下步骤:
在所述提取步骤后把所述至少一个特征分成子字。
12.如权利要求11所述的方法,其特征在于所述子字是音素。
13.如权利要求12所述的方法,其特征在于所述子字与说话者有关。
14.如权利要求12所述的方法,其特征在于所述子字与说话者无关。
15.如权利要求1所述的方法,其特征在于使用仿射映射变换来校正所述至少一个特征。
16.一种说话者验证系统,其特征在于包括:
从所述说话者发出的第一话音中提取至少一个特征的装置;
为了形成多个分类输出,用多个分类器对所述至少一个特征进行分类的装置;
通过确定所述多个分类输出与所述说话者预先发出的第二话音的相似性来识别所述多个分类输出的装置;以及
根据所述经识别的多个分类输出确定是否接受或拒绝所述说话者的装置。
17.如权利要求16所述的系统,其特征在于还包括:
为了确定是否预备接受或预备拒绝所述说话者,通过把所述至少一个特征与预先存储的所述说话者的数据相比较,以对所述说话者发出的所述第一话音进行字识别的装置;以及
如果确定预备接受所述说话者,则让对所述至少一个特征进行分类的所述装置使能的装置,如果确定预备拒绝所述说话者,则让回叫模块使能的装置。
18.如权利要求17所述的系统,其特征在于所述数据包括从说话者预先发出的第一话音形成的与说话者有关的模板,以及预先由至少一个第二说话者发出的第一话音形成的与说话者无关的模板。
19.如权利要求18所述的系统,其特征在于所述分类装置包括经修正的神经树形网络(MNTN)和动态时间偏移分类器。
20.如权利要求19所述的系统,其特征在于用一全极点滤波器来实施所述提取装置。
21.如权利要求20所述的系统,其特征在于使用仿射变换来校正所述至少一个特征。
CN96194550A 1995-06-07 1996-06-06 说话者验证系统 Pending CN1197526A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/479,012 US5839103A (en) 1995-06-07 1995-06-07 Speaker verification system using decision fusion logic
US08/479,012 1995-06-07

Publications (1)

Publication Number Publication Date
CN1197526A true CN1197526A (zh) 1998-10-28

Family

ID=23902297

Family Applications (1)

Application Number Title Priority Date Filing Date
CN96194550A Pending CN1197526A (zh) 1995-06-07 1996-06-06 说话者验证系统

Country Status (16)

Country Link
US (1) US5839103A (zh)
EP (1) EP0870300B1 (zh)
JP (1) JPH11507443A (zh)
KR (1) KR19990022391A (zh)
CN (1) CN1197526A (zh)
AT (1) ATE323934T1 (zh)
AU (1) AU711496B2 (zh)
CA (1) CA2221415A1 (zh)
DE (1) DE69636057T2 (zh)
FI (1) FI117954B (zh)
IL (1) IL122354A (zh)
NO (1) NO321125B1 (zh)
NZ (1) NZ311289A (zh)
RU (1) RU2161336C2 (zh)
TR (1) TR199701555T1 (zh)
WO (1) WO1996041334A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1308911C (zh) * 2003-07-10 2007-04-04 上海优浪信息科技有限公司 一种说话者身份识别方法和系统
CN100377209C (zh) * 2001-06-19 2008-03-26 塞库里沃克斯公司 说话者识别系统
WO2012068705A1 (en) * 2010-11-25 2012-05-31 Telefonaktiebolaget L M Ericsson (Publ) Analysis system and method for audio data
CN102646416A (zh) * 2006-02-20 2012-08-22 微软公司 说话者验证

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5937381A (en) * 1996-04-10 1999-08-10 Itt Defense, Inc. System for voice verification of telephone transactions
US6038528A (en) * 1996-07-17 2000-03-14 T-Netix, Inc. Robust speech processing with affine transform replicated data
US6003002A (en) * 1997-01-02 1999-12-14 Texas Instruments Incorporated Method and system of adapting speech recognition models to speaker environment
US7630895B2 (en) * 2000-01-21 2009-12-08 At&T Intellectual Property I, L.P. Speaker verification method
US6076055A (en) * 1997-05-27 2000-06-13 Ameritech Speaker verification method
DE69813597T2 (de) * 1997-10-15 2004-02-12 British Telecommunications P.L.C. Mustererkennung, die mehrere referenzmodelle verwendet
WO1999023643A1 (en) * 1997-11-03 1999-05-14 T-Netix, Inc. Model adaptation system and method for speaker verification
US6233555B1 (en) 1997-11-25 2001-05-15 At&T Corporation Method and apparatus for speaker identification using mixture discriminant analysis to develop speaker models
US6243695B1 (en) * 1998-03-18 2001-06-05 Motorola, Inc. Access control system and method therefor
EP1072035A1 (en) * 1998-04-20 2001-01-31 Koninklijke KPN N.V. Theshold setting and training of a speaker verification system
WO1999059136A1 (en) * 1998-05-08 1999-11-18 T-Netix, Inc. Channel estimation system and method for use in automatic speaker verification systems
JP3090119B2 (ja) * 1998-05-15 2000-09-18 日本電気株式会社 話者照合装置、方法及び記憶媒体
DE19824353A1 (de) * 1998-05-30 1999-12-02 Philips Patentverwaltung Vorrichtung zur Verifizierung von Signalen
DE19824354A1 (de) * 1998-05-30 1999-12-02 Philips Patentverwaltung Vorrichtung zur Verifizierung von Signalen
US6178400B1 (en) * 1998-07-22 2001-01-23 At&T Corp. Method and apparatus for normalizing speech to facilitate a telephone call
TW418383B (en) * 1998-09-23 2001-01-11 Ind Tech Res Inst Telephone voice recognition system and method and the channel effect compensation device using the same
US6411930B1 (en) * 1998-11-18 2002-06-25 Lucent Technologies Inc. Discriminative gaussian mixture models for speaker verification
JP2000200098A (ja) * 1999-01-07 2000-07-18 Sony Corp 学習装置および学習方法、並びに認識装置および認識方法
JP2000259198A (ja) * 1999-03-04 2000-09-22 Sony Corp パターン認識装置および方法、並びに提供媒体
US20010044818A1 (en) * 2000-02-21 2001-11-22 Yufeng Liang System and method for identifying and blocking pornogarphic and other web content on the internet
US6735562B1 (en) * 2000-06-05 2004-05-11 Motorola, Inc. Method for estimating a confidence measure for a speech recognition system
US6735563B1 (en) * 2000-07-13 2004-05-11 Qualcomm, Inc. Method and apparatus for constructing voice templates for a speaker-independent voice recognition system
US6671669B1 (en) * 2000-07-18 2003-12-30 Qualcomm Incorporated combined engine system and method for voice recognition
US6728674B1 (en) 2000-07-31 2004-04-27 Intel Corporation Method and system for training of a classifier
US20040190688A1 (en) * 2003-03-31 2004-09-30 Timmins Timothy A. Communications methods and systems using voiceprints
US20020147694A1 (en) * 2001-01-31 2002-10-10 Dempsey Derek M. Retraining trainable data classifiers
US6792434B2 (en) * 2001-04-20 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Content-based visualization and user-modeling for interactive browsing and retrieval in multimedia databases
GB0112749D0 (en) * 2001-05-25 2001-07-18 Rhetorical Systems Ltd Speech synthesis
US7493258B2 (en) * 2001-07-03 2009-02-17 Intel Corporation Method and apparatus for dynamic beam control in Viterbi search
US20050055208A1 (en) * 2001-07-03 2005-03-10 Kibkalo Alexandr A. Method and apparatus for fast calculation of observation probabilities in speech recognition
US7844477B2 (en) 2001-12-31 2010-11-30 Genworth Financial, Inc. Process for rule-based insurance underwriting suitable for use by an automated system
US7895062B2 (en) 2001-12-31 2011-02-22 Genworth Financial, Inc. System for optimization of insurance underwriting suitable for use by an automated system
US7630910B2 (en) 2001-12-31 2009-12-08 Genworth Financial, Inc. System for case-based insurance underwriting suitable for use by an automated system
US7844476B2 (en) 2001-12-31 2010-11-30 Genworth Financial, Inc. Process for case-based insurance underwriting suitable for use by an automated system
US7818186B2 (en) 2001-12-31 2010-10-19 Genworth Financial, Inc. System for determining a confidence factor for insurance underwriting suitable for use by an automated system
US7899688B2 (en) 2001-12-31 2011-03-01 Genworth Financial, Inc. Process for optimization of insurance underwriting suitable for use by an automated system
US8793146B2 (en) * 2001-12-31 2014-07-29 Genworth Holdings, Inc. System for rule-based insurance underwriting suitable for use by an automated system
US8005693B2 (en) 2001-12-31 2011-08-23 Genworth Financial, Inc. Process for determining a confidence factor for insurance underwriting suitable for use by an automated system
US20030149881A1 (en) * 2002-01-31 2003-08-07 Digital Security Inc. Apparatus and method for securing information transmitted on computer networks
US6687672B2 (en) 2002-03-15 2004-02-03 Matsushita Electric Industrial Co., Ltd. Methods and apparatus for blind channel estimation based upon speech correlation structure
US7424425B2 (en) * 2002-05-19 2008-09-09 International Business Machines Corporation Optimization of detection systems using a detection error tradeoff analysis criterion
FR2848715B1 (fr) * 2002-12-11 2005-02-18 France Telecom Procede et systeme de correction multi-references des deformations spectrales de la voix introduites par un reseau de communication
US7734025B2 (en) * 2003-02-28 2010-06-08 Grape Technology Group, Inc. Methods and systems for providing on-line bills for use in communications services
US7801748B2 (en) 2003-04-30 2010-09-21 Genworth Financial, Inc. System and process for detecting outliers for insurance underwriting suitable for use by an automated system
US7383239B2 (en) * 2003-04-30 2008-06-03 Genworth Financial, Inc. System and process for a fusion classification for insurance underwriting suitable for use by an automated system
US7567914B2 (en) 2003-04-30 2009-07-28 Genworth Financial, Inc. System and process for dominance classification for insurance underwriting suitable for use by an automated system
US7813945B2 (en) 2003-04-30 2010-10-12 Genworth Financial, Inc. System and process for multivariate adaptive regression splines classification for insurance underwriting suitable for use by an automated system
US7698159B2 (en) 2004-02-13 2010-04-13 Genworth Financial Inc. Systems and methods for performing data collection
US20050288930A1 (en) * 2004-06-09 2005-12-29 Vaastek, Inc. Computer voice recognition apparatus and method
US7386448B1 (en) 2004-06-24 2008-06-10 T-Netix, Inc. Biometric voice authentication
KR100571574B1 (ko) * 2004-07-26 2006-04-17 한양대학교 산학협력단 비선형 분석을 이용한 유사화자 인식방법 및 그 시스템
US8200495B2 (en) * 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7827032B2 (en) 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US7949533B2 (en) * 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US7865362B2 (en) 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US7895039B2 (en) * 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US7853539B2 (en) * 2005-09-28 2010-12-14 Honda Motor Co., Ltd. Discriminating speech and non-speech with regularized least squares
CN101051463B (zh) * 2006-04-06 2012-07-11 株式会社东芝 说话人认证的验证方法及装置
CN101154380B (zh) * 2006-09-29 2011-01-26 株式会社东芝 说话人认证的注册及验证的方法和装置
US7822605B2 (en) * 2006-10-19 2010-10-26 Nice Systems Ltd. Method and apparatus for large population speaker identification in telephone interactions
JP5418223B2 (ja) 2007-03-26 2014-02-19 日本電気株式会社 音声分類装置、音声分類方法、および音声分類用プログラム
US8886663B2 (en) * 2008-09-20 2014-11-11 Securus Technologies, Inc. Multi-party conversation analyzer and logger
US8145483B2 (en) * 2009-08-05 2012-03-27 Tze Fen Li Speech recognition method for all languages without using samples
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US20120116764A1 (en) * 2010-11-09 2012-05-10 Tze Fen Li Speech recognition method on sentences in all languages
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US9390445B2 (en) 2012-03-05 2016-07-12 Visa International Service Association Authentication using biometric technology through a consumer device
CN102664011B (zh) * 2012-05-17 2014-03-12 吉林大学 一种快速说话人识别方法
EA023695B1 (ru) * 2012-07-16 2016-07-29 Ооо "Центр Речевых Технологий" Способ распознавания речевых сообщений и устройство для его осуществления
US9240184B1 (en) * 2012-11-15 2016-01-19 Google Inc. Frame-level combination of deep neural network and gaussian mixture models
US9230550B2 (en) * 2013-01-10 2016-01-05 Sensory, Incorporated Speaker verification and identification using artificial neural network-based sub-phonetic unit discrimination
US8694315B1 (en) * 2013-02-05 2014-04-08 Visa International Service Association System and method for authentication using speaker verification techniques and fraud model
US9865266B2 (en) * 2013-02-25 2018-01-09 Nuance Communications, Inc. Method and apparatus for automated speaker parameters adaptation in a deployed speaker verification system
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US9621713B1 (en) 2014-04-01 2017-04-11 Securus Technologies, Inc. Identical conversation detection method and apparatus
US10237399B1 (en) 2014-04-01 2019-03-19 Securus Technologies, Inc. Identical conversation detection method and apparatus
CN103986725A (zh) * 2014-05-29 2014-08-13 中国农业银行股份有限公司 一种客户端、服务器端以及身份认证系统和方法
US9922048B1 (en) 2014-12-01 2018-03-20 Securus Technologies, Inc. Automated background check via facial recognition
CN104410697A (zh) * 2014-12-02 2015-03-11 广东安居宝数码科技股份有限公司 考勤信息的处理方法和系统
JP6481939B2 (ja) * 2015-03-19 2019-03-13 株式会社レイトロン 音声認識装置および音声認識プログラム
US10133538B2 (en) * 2015-03-27 2018-11-20 Sri International Semi-supervised speaker diarization
GB2551209B (en) * 2016-06-06 2019-12-04 Cirrus Logic Int Semiconductor Ltd Voice user interface
US20180018973A1 (en) 2016-07-15 2018-01-18 Google Inc. Speaker verification
CN106228976B (zh) * 2016-07-22 2019-05-31 百度在线网络技术(北京)有限公司 语音识别方法和装置
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
CN107886955B (zh) * 2016-09-29 2021-10-26 百度在线网络技术(北京)有限公司 一种语音会话样本的身份识别方法、装置及设备
US10614813B2 (en) * 2016-11-04 2020-04-07 Intellisist, Inc. System and method for performing caller identity verification using multi-step voice analysis
KR102125549B1 (ko) * 2017-04-20 2020-06-22 한국전자통신연구원 심층신경망 기반 음성 인식 시스템을 위한 발화 검증 방법
DK179496B1 (en) * 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10957318B2 (en) * 2018-11-02 2021-03-23 Visa International Service Association Dynamic voice authentication
US11024291B2 (en) 2018-11-21 2021-06-01 Sri International Real-time class recognition for an audio stream
US11114103B2 (en) 2018-12-28 2021-09-07 Alibaba Group Holding Limited Systems, methods, and computer-readable storage media for audio signal processing
US10891318B2 (en) * 2019-02-22 2021-01-12 United States Of America As Represented By The Secretary Of The Navy Temporal logic fusion of real time data
JP7176628B2 (ja) * 2019-06-07 2022-11-22 日本電気株式会社 音声処理装置、音声処理方法、及び、音声処理プログラム
WO2021075012A1 (ja) * 2019-10-17 2021-04-22 日本電気株式会社 話者認証システム、方法およびプログラム
CN111081255B (zh) * 2019-12-31 2022-06-03 思必驰科技股份有限公司 说话人确认方法和装置
CN116153336B (zh) * 2023-04-19 2023-07-21 北京中电慧声科技有限公司 一种基于多域信息融合的合成语音检测方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4837831A (en) * 1986-10-15 1989-06-06 Dragon Systems, Inc. Method for creating and using multiple-word sound models in speech recognition
US4975961A (en) * 1987-10-28 1990-12-04 Nec Corporation Multi-layer neural network to which dynamic programming techniques are applicable
JPH0673080B2 (ja) * 1987-11-25 1994-09-14 日本電気株式会社 連続音声認識方式
DE69030561T2 (de) * 1989-12-28 1997-10-09 Sharp Kk Spracherkennungseinrichtung
US5220640A (en) * 1990-09-20 1993-06-15 Motorola, Inc. Neural net architecture for rate-varying inputs
US5271088A (en) * 1991-05-13 1993-12-14 Itt Corporation Automated sorting of voice messages through speaker spotting
US5430827A (en) * 1993-04-23 1995-07-04 At&T Corp. Password verification system
US5528728A (en) * 1993-07-12 1996-06-18 Kabushiki Kaisha Meidensha Speaker independent speech recognition system and method using neural network and DTW matching technique
WO1995005656A1 (en) * 1993-08-12 1995-02-23 The University Of Queensland A speaker verification system
US5457770A (en) * 1993-08-19 1995-10-10 Kabushiki Kaisha Meidensha Speaker independent speech recognition system and method using neural network and/or DP matching technique
US5522012A (en) * 1994-02-28 1996-05-28 Rutgers University Speaker identification and verification system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100377209C (zh) * 2001-06-19 2008-03-26 塞库里沃克斯公司 说话者识别系统
CN1308911C (zh) * 2003-07-10 2007-04-04 上海优浪信息科技有限公司 一种说话者身份识别方法和系统
CN102646416A (zh) * 2006-02-20 2012-08-22 微软公司 说话者验证
CN102646416B (zh) * 2006-02-20 2014-10-29 微软公司 说话者验证
WO2012068705A1 (en) * 2010-11-25 2012-05-31 Telefonaktiebolaget L M Ericsson (Publ) Analysis system and method for audio data
CN103493126A (zh) * 2010-11-25 2014-01-01 爱立信(中国)通信有限公司 音频数据分析系统和方法
CN103493126B (zh) * 2010-11-25 2015-09-09 爱立信(中国)通信有限公司 音频数据分析系统和方法

Also Published As

Publication number Publication date
KR19990022391A (ko) 1999-03-25
NO975475L (no) 1998-01-21
NZ311289A (en) 1998-12-23
NO321125B1 (no) 2006-03-20
DE69636057D1 (de) 2006-05-24
AU6257696A (en) 1996-12-30
WO1996041334A1 (en) 1996-12-19
AU711496B2 (en) 1999-10-14
EP0870300B1 (en) 2006-04-19
FI117954B (fi) 2007-04-30
EP0870300A1 (en) 1998-10-14
RU2161336C2 (ru) 2000-12-27
EP0870300A4 (en) 1999-04-21
TR199701555T1 (xx) 1998-04-21
DE69636057T2 (de) 2007-04-12
NO975475D0 (no) 1997-11-28
IL122354A (en) 2000-10-31
FI974339A (fi) 1998-02-06
US5839103A (en) 1998-11-17
ATE323934T1 (de) 2006-05-15
JPH11507443A (ja) 1999-06-29
CA2221415A1 (en) 1996-12-19
IL122354A0 (en) 1998-04-05
FI974339A0 (fi) 1997-11-26

Similar Documents

Publication Publication Date Title
CN1197526A (zh) 说话者验证系统
US6401063B1 (en) Method and apparatus for use in speaker verification
Diez et al. On the use of phone log-likelihood ratios as features in spoken language recognition
CN101241699B (zh) 一种远程汉语教学中的说话人确认方法
CN1298172A (zh) 用于中等或大词汇量语音识别的上下文相关声模型
CN107680601A (zh) 一种基于语谱图和音素检索的身份同一性检验方法及装置
CN110675881B (zh) 一种语音校验方法和装置
CN112581964B (zh) 一种面向多领域的智能语音交互方法
Villarreal et al. From categories to gradience: Auto-coding sociophonetic variation with random forests
CN109448756A (zh) 一种语音年龄识别方法及系统
CN105845143A (zh) 基于支持向量机的说话人确认方法及其系统
US20040044528A1 (en) Method and apparatus for generating decision tree questions for speech processing
Alashban et al. Speaker gender classification in mono-language and cross-language using BLSTM network
CN106297769A (zh) 一种应用于语种识别的鉴别性特征提取方法
CN1182513C (zh) 基于局部能量加权的抗噪声语音识别方法
CN110010128A (zh) 一种高识别率的语音控制方法及系统
Mengistu Automatic text independent amharic language speaker recognition in noisy environment using hybrid approaches of LPCC, MFCC and GFCC
WO2002029785A1 (en) Method, apparatus, and system for speaker verification based on orthogonal gaussian mixture model (gmm)
CN2763935Y (zh) 结合语义和声纹信息的说话人身份确认系统
CN114898779A (zh) 融合多模态的语音情感识别方法及系统
Pentapati Enhancement in Speaker Identification through Feature Fusion using Advanced Dilated Convolution Neural Network
Meyer et al. Complementarity of MFCC, PLP and Gabor features in the presence of speech-intrinsic variabilities
Iloanusi et al. Voice recognition and gender classification in the context of native languages and lingua franca
CN110265003A (zh) 一种识别广播信号中语音关键字的方法
CN1262989C (zh) 语言验证方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
C20 Patent right or utility model deemed to be abandoned or is abandoned
REG Reference to a national code

Ref country code: HK

Ref legal event code: WD

Ref document number: 1016727

Country of ref document: HK