CN100370518C - 动态分析言语短暂性的系统和方法 - Google Patents

动态分析言语短暂性的系统和方法 Download PDF

Info

Publication number
CN100370518C
CN100370518C CNB2003801060438A CN200380106043A CN100370518C CN 100370518 C CN100370518 C CN 100370518C CN B2003801060438 A CNB2003801060438 A CN B2003801060438A CN 200380106043 A CN200380106043 A CN 200380106043A CN 100370518 C CN100370518 C CN 100370518C
Authority
CN
China
Prior art keywords
speech
equation
individual
variable
performance analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB2003801060438A
Other languages
English (en)
Other versions
CN1726533A (zh
Inventor
林恩·汉森
乔舒亚·罗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brigham Young University
Original Assignee
Brigham Young University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brigham Young University filed Critical Brigham Young University
Publication of CN1726533A publication Critical patent/CN1726533A/zh
Application granted granted Critical
Publication of CN100370518C publication Critical patent/CN100370518C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00

Abstract

本发明提供一种动态分析个人言语(80)中短暂性的系统和方法,以便选择地分类个人的言语流利程度,和/或选择地基于该动态分析结果提供言语训练(90)。在一个或多个取样(80)中的短暂变量是动态处理过程,所述动态处理过程是从在说母语的人和语言学习者的言语中的短暂性分析(84)导出的,用于提供标识个人的熟练程度的流利程度分数(86)。在一些实施例中,短暂变量是瞬时地测量的。

Description

动态分析言语短暂性的系统和方法
技术领域
本发明涉及提供在任何语言中的动态言语(speech)流利(畅)程度的分析,特别涉及动态分析单个人言语中的短暂性(temporality)以便可选择地分类单个人的言语流畅性的系统和方法。另外的实施例包括基于动态分析结果提供言语训练。
背景技术
当前,个人学习第二语言可以利用各种教育环境。例如,学校和大学提供外语课,其中教师教词汇、语法和发音。教第二语言的其它技术包括教外语的声频和/或视频节目。
在一些情况中,外语是英语。非母语英语课程(“ESL”)节目可用来教个人英语,此时英语不是它们的本国语。虽然ESL节目已表明对希望学英语以便参加英语学校系统(school system)的学生是特别有帮助的,但是在ESL学生当中的英语熟练程度的差别表示出在对ESL学生确定正确的班级位置中存在困难。
例如,英语学校系统的教学人员就个人而言评估ESL学生,以确定每个ESL学生在说和理解英语中的熟练程度。这个个人评估用作将ESL学生排列到适当的班级水平的基础。虽然这项技术目前可用于将ESL学生排列到适当的班级水平,但是个人评估每个ESL学生的时间要求能够表明对于做出熟练程度判断的教学人员是个困难挑战,特别是在有大量的ESL学生生活的地区。并且,在不能利用必需的时间量理解和评估每个ESL学生的熟练程度时,ESL学生会处在说和理解英语的熟练程度的不适当的班级位置中。ESL学生的不适当的班级位置的结果包括造成教学环境对ESL学生的过分的难或过分容易,这两者都妨碍ESL学生的最佳的教育成长。
虽然上述的代表性的例子涉及非母语英语课程,但是对于测试流利程度的能力,在所有的语言中都经历着困难。并且,虽然当前存在用于测试或判定流利程度的技术,但是困难依然是存在的。因此,用其它评价学生口头语言熟练程度的技术增进或甚至代替当前的技术将是在本领域的改进。
发明内容
本发明涉及提供言语流利程度分析。特别是,本发明涉及动态分析个人言语中的短暂性的系统和方法,以便选择地分类个人的言语流利程度。而且,可以基于该动态分析的结果提供言语训练。
本发明的实施与口头流利程度的动态分析过程相关地发生。至少一些实施适于测试学生的言语。而且,在第二语言学生的训练和/测试中可以实施使用本发明。
至少一些实施与计算机装置相关地发生,所述计算机用以量化在言语取样中的选择的短暂变量(temporal variable)。与动态处理过程结合的短暂变量,用于提供标识个人口语熟练程度的流利程度的分数,所述动态处理过程是从说本国语言的人和语言学习者的言语中的短暂变量导出的。在一些实施中,短暂变量是瞬时测量的。
虽然本发明的方法和处理过程已证明在测量口头能力中是特别有用的,但是本领域的技术人员能够理解,该方法和过程能够用于各种不同的应用,其中包括口语的获取和研讨(attrition),在言语中短暂性的交叉语言比较等。
通过以下说明和权利要求将使得本发明的这些和其它特征更明了。利用在权利要求中指出的仪器和它们的结合可以实现这些特征和优点。
另外,通过本发明的实践能够学到或者说从以下的说明可以明显明了本发明的特征和优点。
附图说明
为了获得本发明的上述和其它的特征和优点,参照附图中示出的特定的实施例对本发明做出了更具体说明。应理解,附图仅示出本发明的典型实施例,因此不是限制本发明的范围,通过使用附图用附加的特性和细节说明了本发明。
图1是提供使用本发明的适当的操作环境的代表系统图;
图2是根据本发明实施例的代表系统配置图;和
图3是关于提供言语流利程度分析和训练的实施例的代表处理过程的流程图。
具体实施方式
本发明涉及提供言语流利程度分析。特别是,本发明涉及动态分析个人言语的短暂性的系统和方法,以便选择地分类个人的言语流利程度,并基于该动态分析结果有选择地提供言语训练。
本发明的实施例与口头流利程度的动态分析过程相关地发生。与动态过程结合一个或多个言语取样的短暂变量用于提供标识个人的熟练程度的流利程度分数,所述动态过程是从说本国语的人和语言学习者的言语中的短暂现象的分析中导出的。在一些实施例中,短暂现象是瞬时测量的。
本发明的以下公开分成两个小标题,即“示范操作环境”和“动态分析言语的短暂性”。利用这些小标题仅是为了方便读者而不应理解为限制本发明。
示范操作环境
本发明的至少一些实施例是与计算机装置相关地进行,所述计算机装置用于动态分析言语流利程度,如通过在一个或多个言语取样中量化选择的短暂变量,图1和相应的讨论是用于大体说明可以实施本发明的适当的操作环境。本领域技术人员应理解,也可以用一个或多个计算机和包括网络配置的各种系统配置实施本发明。
本发明的实施例包括一个或多个计算机可读媒体,其中每个媒体可以配置成包括或其上包括数据或用于操纵数据的计算机可执行的指令。计算机可执行的指令包括数据结构、对象、程序、例程或处理系统可以访问存取的其它程序模块,所述处理系统如与能够执行不同功能的通用计算机相关的处理系统,或与能够执行有限数目的功能的专用计算机相关的处理系统。计算机可执行的指令使得该处理系统执行特定功能或功能组,并且是实施在此公开的方法的步骤的程序代码工具(program code means)的例子。另外,特定序列的可执行指令提供可用于实施这些步骤的相应动作的例子。计算机可读媒体的例子包括随机存取存储器(RAM)、只读存储器(ROM)、可编程只读存储器(PROM)、可擦可编程只读存储器(EPROM)、电可擦可编程只读存储器(EEPROM)、只读光盘存储器(CDROM),或是能够提供数据或处理系统可访问的可执行指令的任何其它装置或组件。
参见图1,实施本发明的代表系统包括计算机装置10,它可以是通用或专用计算机。例如计算机装置10可以是个人计算机、笔记本计算机、个人数字助理(PDA)或其它手持装置、工作站、小型机、大型机、超级计算机、多处理器系统、网络计算机、以处理器为基础的消费者电子装置等。
计算机装置10包括系统总线12,它可以配置成连接它的各种组件,并使得数据能够在两个或多个组件之间交换。系统总线12可以包括各种总线结构之一,其中包括存储器总线或存储器控制器,外围总线,或使用各种总线体系任何一个的局域总线。通过系统总线12连接的一般组件包括处理系统14和存储器16。其它组件可以包括一个或多个海量存储装置接口18、输入接口20、输出接口22和/或网络接口24。下面将说明它们每一个。
处理系统14包括一个或多个处理器,如中心处理器,和任选的一个或多个其它处理器,它们设计成执行特定的功能或任务。处理系统14一般执行在计算机可读媒体上提供的指令,所述媒体如存储器16、磁性硬盘、可拆卸磁盘、磁带盒、光盘,或是也可以看作计算机可读媒体的从通信连接来的那些。
存储器16包括一个或多个计算机可读媒体,它门可以配置成包括或其上包括数据或用于操纵数据的指令,并可以通过系统总线12由处理系统14访问。存储器16例如可以包括用于永久存储信息的ROM28,和/或用于临时存储信息的RAM 30。ROM 28可以包括基本输入/输出系统(BIOS),BIOS具有用于例如在启动计算机装置10时建立通信的一个或多个例程。RAM 30可以包括一个或多个程序模块,如一个或多个操作系统、应用程序和/或程序数据。
一个或多个海量存储装置接口18可用于将一个或多个海量存储装置26连接到系统总线12。海量存储装置26可以结合到计算机装置10,或可以是计算机装置10的外围设备,允许计算机装置10保持大量的数据。任选地,一个或多个海量存储装置26是可以从计算机装置10拆卸的。海量存储装置的例子包括硬盘驱动器、磁盘驱动器、磁带驱动器和光盘驱动器。海量存储装置26可在磁硬盘、可拆卸磁盘、磁卡盒、光盘或任何其它计算机可读媒体读出和/或写入。海量存储装置26和它们的相应计算机可读媒体提供数据和/或可执行指令的非易失存储,所述可执行指令可包括一个或多个程序模块(如操作系统)、一个或多个应用程序、其它程序模块或程序数据。这样的可执行指令是执行在此公开的方法的步骤的程序代码工具的例子。
可以采用一个或多个输入接口20使得使用者能够通过一个或多个相应的输入装置32向计算机装置10输入数据和/或指令。这样的输入装置的例子包括键盘和替代的输入装置,如鼠标、跟踪球、光笔、触头或其它指示装置、麦克风、操纵杆、游戏手柄(game pad)、圆盘式卫星电视天线(satellite dish)、扫描仪、摄像机、数字相机,等等。相似地,可用于将输入装置32连接到系统总线12的输入接口20的例子包括串行口、并行口、游戏端口、通用串行总线(USB)、火线(IEEE 1394)或其它接口。
可使用一个或多个输出接口22来将一个或多个相应的输出装置34连接到系统总线12。输出装置的例子包括监视器或显示屏、扬声器、打印机,等等。特定的输出装置34可以与计算机装置10结合或是其外围设备。输出接口的例子包括视频适配器、声频适配器、并行端口等。
一个或多个网络接口24使得计算机装置10能够经由网络38与一个或多个其它本地或远程计算机装置交换信息,如示出的计算机装置36,所述网络38可包括硬连线和/或无线链路。网络接口的例子包括连接到局域网络(LAN)的网络适配器或调制解调器、无线链路,或其它连接到例如互联网等广域网络(WAN)的适配器。网络接口24可与计算机装置10结合或为其外围设备。在网络系统中,可以在远程存储器装置中存储可存取的程序模块或其部分。另外,在网络系统中,计算机装置10可参加到分布式计算环境中,其中通过多个网络计算机装置执行各功能或任务。
虽然本领域技术人员理解本发明可以在带有包括网络环境的多类计算机系统配置的各种计算环境中实施,但是,图2表示出在网络环境中的本发明的实施例,所述网络环境包括通过网络连接到服务器系统的各客户。虽然图2示出的实施例包括连接到网络的多个客户,但是替换实施例也可以包括一个连接到网络的客户,一个连接到网络的服务器,或连接到网络的遍及世界的多个客户,在此网络是如互联网的广域网。而且,本发明的一些实施例包括非网络环境,例如进行根据本发明的动态分析在单一计算机装置中。本发明至少一些实施例还包括至少部分对于短暂变量存在的动态分析,以便在不要求计算机装置的环境中分类言语流利程度。
在图2中,提供进行动态分析的代表性的网络配置。服务器系统40代表包括一个或多个服务器的系统配置。服务器系统40包括网络接口42、一个或多个服务器44、存储装置46。标记为50和60的多个客户经由网络70与服务器系统40通信,网络70可以包括无线网络、局域网络和/或广域网络。网络接口52和62是分别使得客户50和60能够经由网络70与服务器系统40通信的通信机构。例如网络接口52和62可以是网络浏览器或其它网络接口。浏览器允许使用统一资源定位符(URL)或电子链路访问服务器44提供的(sponsored)网页。因此,客户50和60可以独立地获得言语取样,及访问服务器系统40或与服务器系统40交换信息。
如上所述,服务器系统40包括网络接口42、服务器44和存储装置46。网络接口42是使得服务器系统40能够经由网络70与一个或多个客户通信的通信机构。服务器44包括处理和/或保存信息的一个或多个服务器。存储装置46包括保存如特定的数据记录的信息的一个或多个存储装置。存储装置46可以在服务器44内或外。
在图2所述的实施例中,用网络系统进行动态言语流利程度分析。特别是,如下所述,用该代表性系统动态分析个人言语中的短暂性。本领域技术人员应理解,图2的网络系统是根据本发明的代表性系统。因此,本发明实施例包括执行在此公开的方法的其它计算机系统配置。
动态分析言语中的短暂性
如上所述,本发明实施例涉及提供言语流利程度分析。特别是,本发明实施例涉及动态分析个人言语中的短暂性的系统和方法,用以选择地分类个人的言语流利程度,并基于该动态分析结果选择地提供言语训练。
流利程度涉及语言的口头运用能力。特别是,流利程度涉及在没有任何妨碍或歪曲交流等语言问题的情况下,向另一人交流任何数量的意见和/或命令的能力,所述意见无论是抽象的还是具体的。一些人使用该术语来表示没有不适当停顿的说话的能力,或用连贯句子说话的能力。
流利程度是以行为(performance)为基础的。在言语中的短暂变量反映或表示说话者讲出流利的言语的能力。这些短暂变量包括(i)沉默停顿的总数;(ii)沉默时间总量;(iii)沉默停顿平均长度;(iv)连续言语总数;(v)言语时间总量;(vi)连续言语的平均长度;和(vii)其它相似变量。根据本发明的至少一些实施例,动态识别这些短暂变量来确定基准,可以将较不流利的说话者与该基准进行比较,以便识别其各自的流利程度。
短暂变量,如未充满的停顿,是直接与流利程度相关的可量化的变量。另外,短暂变量能够与流利程度一同随时间改变。言语中的短暂性反映或表示口头的熟练程度,并且显著与熟练的定等级人作出的口头熟练程度的等级相关。
现在参考图3,此图提供动态言语流利程度分析的代表性的实施例。在图3中,在步骤80开始执行,在此收集数据。收集的数据可以包括一般信息和/或言语信息。一般信息标识个人,并包括例如个人的姓名、背景、母语、说的其它语言和个人的其它信息特征。言语信息例如包括言语取样,它从该个人获得,如通过计算机装置或其它机构记录。在一些实施例中,以电子格式,如.wav或其它电子格式获得言语取样。
在判定框82,对于是否获得了进行动态分析中用的所有信息做出确定。如果在框82确定没有获得所有信息,则执行返回到获得信息的步骤80。替代地,一旦接收所有信息,则执行前进到步骤84。
在步骤84,动态分析在步骤80获得的一个或多个言语取样。该分析识别或找出在言语取样中的特定短暂变量。在本发明的至少一些实施例中,瞬时地进行该分析。
如上所述,短暂变量包括沉默停顿的总数(SP#)、沉默时间的总量(TTSP)、沉默停顿的平均长度(AveSP)、连续言语总数(Run#)、言语时间总量(TTT)、连续言语平均长度(AveRT)和其它相似短暂变量。沉默停顿总数是个人或测试参加者因任何原因停止说话的次数。在至少一些实施例中,停顿持续最少0.5秒被归为沉默停顿。沉默时间的总量是在个人或测试参加者为了响应而使用的时间期间上的沉默记录的时间总量。沉默停顿平均长度是用沉默的时间总量除以停顿的总数的商,即每个停顿的平均长度。连续言语的总数是个人或测试参加者开始重新说话或在停顿之间开始连续言语的总次数。言语时间总量是个人或测试参加者说话的时间的总量。连续言语平均长度是用连续言语总数除言语时间总量的商,即每次连续言语的平均长度。
一旦在步骤84分析了言语取样,则执行前进到确定个人的流利程度分数的步骤86。下面提供确定个人的流利程度分数的代表性实施例。
使用上述的短暂变量,可以使用以下方程式,表示在不同的流利程度之间的统计性分辨结果。虽然在下述的方程式中使用的数目是性质上特定的,但是它们一直是并且现在仍被认为是能够确定个人流利程度的最终方程式的部分。当从言语取样中提取出每个方程式内的每个变量时,向所有变量加的常数和对每个变量乘的数目一直是并且现在还是在方程式中存在的数目上和下的该数值的10%上检验。在成比例方程式(scaled equation)方面,在限定流利程度水平的可接受范围使用的数目一直是并且现在仍是在方程式中存在的该数目上和下之外的该数目的10%上考虑。
在方程式的结果用作后面的方程式中的变量时,给每个方程式的标记用作它的变量名。成比例方程式使用在其名字中所指的方程式的结果,并且将它应用到限定的比例,以便找到该变量的值。
确定流利程度的水平使用的比例是流利程度的最高水平为值60,最低水平为值20。下面是可用于实施本发明实施例的代表性方程式:
方程式#1:45.773+(-0.510*TTSP)+(0.759*AveRT)
成比例方程式#1:如果方程式#1=0-25,那么成比例方程式#3=20
如果方程式#1=25-38,那么成比例方程式#3=30
如果方程式#1=38-47,那么成比例方程式#3=40
如果方程式#1=47-56,那么成比例方程式#3=50
如果方程式#1=56-最高,那么成比例方程式#3=60
方程式#2:57.287+(-0.591*Run#)+(-0.609*TTSP)
成比例方程式#2:如果方程式#2=0-22,那么成比例方程式#3=20
如果方程式#2=22-37,那么成比例方程式#3=30
如果方程式#2=37-48,那么成比例方程式#3=40
如果方程式#2=48-54,那么成比例方程式#3=50
如果方程式#2=54-最高,那么成比例方程式#3=60
方程式#3:(AveRT*AveRT*AveRT)/2
成比例方程式#3:如果方程式#3=0-1,那么成比例方程式#3=20
如果方程式#3=1-10,那么成比例方程式#3=30
如果方程式#3=10-150,那么成比例方程式#3=40
如果方程式#3=150-2000,那么成比例方程式#3=50
如果方程式#3=2000-最高,那么成比例方程式#3=60
方程式#4:(TTSP*TTSP)
成比例方程式#4:如果方程式#4=0-21,那么成比例方程式#4=20
如果方程式#4=21-70,那么成比例方程式#4=30
如果方程式#4=70-300,那么成比例方程式#4=40
如果方程式#4=300-2000,那么成比例方程式#4=50
如果方程式#4=2000-最高,那么成比例方程式#4=60
方程式#5:16.786+(-0.208*TTSP)+(0.558*成比例方程式#3)+(.203成比例方程式#4)
成比例方程式#5:如果方程式#5=0-25,那么成比例方程式#3=20
如果方程式#5=25-36,那么成比例方程式#3=30
如果方程式#5=36-47,那么成比例方程式#3=40
如果方程式#5=47-55那么成比例方程式#3=50
如果方程式#5=55-最高,那么成比例方程式#3=60
方程式#6:14.374+(-0.182*TTSP)+(0.558*成比例方程式#3)+(0.203*成比例方程式#4)
方程式#7:17.650+(-0.238*TTSP)+(0.710*成比例方程式#5)
方程式#8:(-0.236*成比例方程式#1)+(1.222*方程式#6)、成比例方程式8:如果方程式#9=0-25,那么成比例方程式#3=20
如果方程式#9=25-37,那么成比例方程式#3=30
如果方程式#9=37-46,那么成比例方程式#3=40
如果方程式#9=46-55,那么成比例方程式#3=50
如果方程式#9=55-最高,那么成比例方程式#3=60
方程式#9:(0.900*方程式#8)+4.668
方程式#10:3.259+(0.971*成比例方程式#8)
方程式#11:47.322+(11.422*SP#)+(-2.979*TTSP)+(-7.215*Run#)+(11.635*AveSP)+(-0.962*TTT)+(3.837*AveRT)
方程式#12:42.464+(-0.432*TTSP)+(1.145*AveRT)
方程式#13:63.086+(-3.582*AveSP)+(-1.402*Run#)
方程式14:27.525+(-0.898*SP#)+(0.575*TTT)
方程式#15:30.005+(-0.372*TTSP)+(-0.0121*AveSP#)+(-0.478*Run#)+(3.319*TTT)+(-0.817*AveRT)+(0.0009194*方程式#3)+(0.651*成比例方程式#3)
方程式#16:-
20.649+(1.595*SP#)+(0.0573*TTSP)+(0.668*AveSP)+(0.188*TTT)+(-1.346*Run#)+(-0.539*AveRT)+(-0.0996*成比例方程式#1)+(-0.000737*方程式#3)+(0.0888*成比例方程式#3)+(0.0001802*方程式#4)+(0.308*成比例方程式#4)+(0.998*方程式#10)
方程式#17:-6.416+(0.09514*TTT)+(-0.631*AveRT)+(0.208*成比例方程式#4)+(0.937*方程式#10)
方程式#18:-151.149+(-0.0143*方程式#3)+(4.342*成比例方程式#3)+(-3.032*TTSP)+(20.326*AveSP)+(7.607*Run#)+(-1.449*TTT)+(2.984*AveRT)
根据本代表性实施例可用下面的方程式获得测试参加者的流利程度水平:
流利程度方程式=-151.149+(-0.0143*方程式#3)+(4.342*成比例方程式#3)+(-3.032*TTSP)+(20.326*AveSP)+(7.607*Run#)+(-1.449*TTT)+(2.984*AveRT)
在本实施例中,通过从测试内的每个取样中取每个单独变量的平均来获得初始变量。通过将该初始方程式应用到每个单独取样然后从测试取所有取样的平均,获得初始方程式3#和成比例方程式#3,以将其用于流利程度方程式中。每个测试包括,基于测试参加者提供应答的不同情景抽取的数个取样。
一旦在步骤86获得流利程度分数,在步骤88,将该分数与建立的范围比较。如上所述,在至少一些实施例中,将流利程度分数规范化,并且与用于流利程度比较的标准范围比较。一旦在步骤88做出比较,在步骤90提出表示个人流利程度的报告,所述报告可用于班级排列、训练等。
因此,如在此讨论的,本发明实施例包括提供言语流利程度分析。特别是,本发明实施例涉及动态分析个人的言语短暂性的系统和方法,以选择地分类个人的言语流利程度。其它实施例基于该动态分析结果提供言语训练。
在不偏离本发明的精神或本质特征的情况下,可以以其它特定形式实施本发明。所述的实施例在所有方面都是说明性的,而不是限制性的。本发明的范围由权利要求限定,而不是上述说明。在权利要求等效的意义和范围内的所有改变包括在本发明内。

Claims (8)

1.一种确定个人言语流利程度的方法,该方法包括:
从所述个人获得一个或多个言语取样;
识别在所述言语取样中存在的变量;
获得所述个人的连续言语的平均长度;
获得所述个人的沉默停顿的平均长度;
测量所述个人的沉默时间总量;
测量所述个人的言语时间总量;
测量所述个人的连续言语的总数;
对所述变量进行动态分析和选择性加权,以确定言语流利程度分数;
将所述言语流利程度分数与建立的流利程度范围进行比较;和
基于所述动态分析、加权和比较来指示所述个人的言语流利程度。
2.如权利要求1的方法,进一步包括测量所述个人的沉默停顿的总数。
3.如权利要求1的方法,其中所述获得一个或多个言语取样的步骤包括以电子格式记录所述一个或多个言语取样的步骤。
4.如权利要求3的方法,其中所述电子格式是.wav格式。
5.如权利要求1的方法,其中,所述动态分析短暂变量的步骤包括使用计算机装置来进行所述动态分析和加权中的至少一部分的步骤。
6.如权利要求5的方法,其中,对所述变量进行所述动态分析和选择性加权的步骤包括自动测量在所述言语取样中的变量的步骤。
7.如权利要求6的方法,其中所述变量是瞬时测量的。
8.如权利要求1的方法,其中,对所述变量进行动态分析和选择性加权的步骤包括基于相关性对所述变量进行加权的步骤。
CNB2003801060438A 2002-12-12 2003-12-12 动态分析言语短暂性的系统和方法 Expired - Fee Related CN100370518C (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US43329102P 2002-12-12 2002-12-12
US60/433,291 2002-12-12
US10/734,084 2003-12-11

Publications (2)

Publication Number Publication Date
CN1726533A CN1726533A (zh) 2006-01-25
CN100370518C true CN100370518C (zh) 2008-02-20

Family

ID=32508031

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2003801060438A Expired - Fee Related CN100370518C (zh) 2002-12-12 2003-12-12 动态分析言语短暂性的系统和方法

Country Status (6)

Country Link
US (1) US7324944B2 (zh)
JP (1) JP4303684B2 (zh)
KR (1) KR20050089043A (zh)
CN (1) CN100370518C (zh)
AU (1) AU2003296999A1 (zh)
WO (1) WO2004053834A2 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754632B1 (en) * 2000-09-18 2004-06-22 East Carolina University Methods and devices for delivering exogenously generated speech signals to enhance fluency in persons who stutter
US20070048697A1 (en) * 2005-05-27 2007-03-01 Du Ping Robert Interactive language learning techniques
WO2006136061A1 (en) * 2005-06-24 2006-12-28 Intel Corporation Measurement and presentation of spoken language fluency
US20070043553A1 (en) * 2005-08-16 2007-02-22 Microsoft Corporation Machine translation models incorporating filtered training data
US8756057B2 (en) * 2005-11-02 2014-06-17 Nuance Communications, Inc. System and method using feedback speech analysis for improving speaking ability
US8478596B2 (en) * 2005-11-28 2013-07-02 Verizon Business Global Llc Impairment detection using speech
JP2011502564A (ja) * 2007-11-02 2011-01-27 シーグベルト ワーケンチン, 発語分析による加齢脳および脳疾患によって誘発された脳機能障害の評価のためのシステムおよび方法
WO2010123483A2 (en) * 2008-02-28 2010-10-28 Mcclean Hospital Corporation Analyzing the prosody of speech
US8639512B2 (en) * 2008-04-23 2014-01-28 Nvoq Incorporated Method and systems for measuring user performance with speech-to-text conversion for dictation systems
US8639505B2 (en) 2008-04-23 2014-01-28 Nvoq Incorporated Method and systems for simplifying copying and pasting transcriptions generated from a dictation based speech-to-text system
US8682241B2 (en) * 2009-05-12 2014-03-25 International Business Machines Corporation Method and system for improving the quality of teaching through analysis using a virtual teaching device
US8457967B2 (en) * 2009-08-15 2013-06-04 Nuance Communications, Inc. Automatic evaluation of spoken fluency
US20110213610A1 (en) * 2010-03-01 2011-09-01 Lei Chen Processor Implemented Systems and Methods for Measuring Syntactic Complexity on Spontaneous Non-Native Speech Data by Using Structural Event Detection
CN102237081B (zh) * 2010-04-30 2013-04-24 国际商业机器公司 语音韵律评估方法与系统
US9652551B2 (en) * 2010-08-31 2017-05-16 Disney Enterprises, Inc. Automated effort judgement of user generated content
JP5799410B2 (ja) * 2011-03-20 2015-10-28 国立大学法人 千葉大学 会話支援装置および会話支援方法
US20150310853A1 (en) * 2014-04-25 2015-10-29 GM Global Technology Operations LLC Systems and methods for speech artifact compensation in speech recognition systems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4377158A (en) * 1979-05-02 1983-03-22 Ernest H. Friedman Method and monitor for voice fluency
US5634086A (en) * 1993-03-12 1997-05-27 Sri International Method and apparatus for voice-interactive language instruction
US20020143546A1 (en) * 2001-01-31 2002-10-03 Layng Terrence V. Teaching method and system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2119397C (en) * 1993-03-19 2007-10-02 Kim E.A. Silverman Improved automated voice synthesis employing enhanced prosodic treatment of text, spelling of text and rate of annunciation
US5717828A (en) * 1995-03-15 1998-02-10 Syracuse Language Systems Speech recognition apparatus and method for learning
WO1997021201A1 (en) * 1995-12-04 1997-06-12 Bernstein Jared C Method and apparatus for combined information from speech signals for adaptive interaction in teaching and testing
US6157913A (en) 1996-11-25 2000-12-05 Bernstein; Jared C. Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions
US6076056A (en) * 1997-09-19 2000-06-13 Microsoft Corporation Speech recognition system for recognizing continuous and isolated speech
US6134529A (en) * 1998-02-09 2000-10-17 Syracuse Language Systems, Inc. Speech recognition apparatus and method for learning
US6077085A (en) * 1998-05-19 2000-06-20 Intellectual Reserve, Inc. Technology assisted learning
US6305942B1 (en) * 1998-11-12 2001-10-23 Metalearning Systems, Inc. Method and apparatus for increased language fluency through interactive comprehension, recognition and generation of sounds, words and sentences
US6224383B1 (en) * 1999-03-25 2001-05-01 Planetlingo, Inc. Method and system for computer assisted natural language instruction with distracters
US20040049391A1 (en) * 2002-09-09 2004-03-11 Fuji Xerox Co., Ltd. Systems and methods for dynamic reading fluency proficiency assessment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4377158A (en) * 1979-05-02 1983-03-22 Ernest H. Friedman Method and monitor for voice fluency
US5634086A (en) * 1993-03-12 1997-05-27 Sri International Method and apparatus for voice-interactive language instruction
US20020143546A1 (en) * 2001-01-31 2002-10-03 Layng Terrence V. Teaching method and system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
'Fluency and use of segmental dialect features in theacquisition of a second language (French) by Englishspeakers. ARCHAMBAULT D. ET A.SPOKEN LANGUAGE, 1996 ICSLP 96,Vol.2 . 1996 *

Also Published As

Publication number Publication date
CN1726533A (zh) 2006-01-25
AU2003296999A1 (en) 2004-06-30
US7324944B2 (en) 2008-01-29
WO2004053834A3 (en) 2004-08-05
AU2003296999A8 (en) 2004-06-30
KR20050089043A (ko) 2005-09-07
JP2006510043A (ja) 2006-03-23
WO2004053834B1 (en) 2004-09-16
US20040193409A1 (en) 2004-09-30
JP4303684B2 (ja) 2009-07-29
WO2004053834A2 (en) 2004-06-24

Similar Documents

Publication Publication Date Title
CN100370518C (zh) 动态分析言语短暂性的系统和方法
Higgins et al. A three-stage approach to the automated scoring of spontaneous spoken responses
JP4002401B2 (ja) 被験者能力測定システムおよび被験者能力測定方法
CA2474840C (en) Automatic reading teaching system and methods
US9262941B2 (en) Systems and methods for assessment of non-native speech using vowel space characteristics
D'Agostino et al. An international meta-analysis of Reading Recovery
US20060008781A1 (en) System and method for measuring reading skills
US20070033017A1 (en) Spoken language proficiency assessment by computer
US9652999B2 (en) Computer-implemented systems and methods for estimating word accuracy for automatic speech recognition
US10755595B1 (en) Systems and methods for natural language processing for speech content scoring
US9489864B2 (en) Systems and methods for an automated pronunciation assessment system for similar vowel pairs
US10446044B2 (en) Systems and methods for generating automated evaluation models
US20140045162A1 (en) Device of Structuring Learning Contents, Learning-Content Selection Support System and Support Method Using the Device
Bridgeman Human ratings and automated essay evaluation
Dürlich et al. EFLLex: A graded lexical resource for learners of English as a foreign language
AU2012200812B2 (en) Measuring cognitive load
Van Moere et al. 21. Technology and artificial intelligence in language assessment
Xu et al. Assessing L2 English speaking using automated scoring technology: examining automarker reliability
KR102396833B1 (ko) 음성 분석을 통한 한국어 발음 학습 방법 및 시스템
Al-Ghezi et al. Automatic speaking assessment of spontaneous L2 Finnish and Swedish
Hannah et al. Investigating the effects of task type and linguistic background on accuracy in automated speech recognition systems: Implications for use in language assessment of young learners
US20220309936A1 (en) Video education content providing method and apparatus based on artificial intelligence natural language processing using characters
CN113033329A (zh) 在线教育中题目非正常作答的判定方法以及装置
Chumworatayee et al. The Relationships between the Use of Vocabulary Learning Strategies and Their Usefulness as Perceived by English Major Students in a Thai University.
JP2023076106A (ja) 外国語学習支援装置、外国語学習支援方法及びコンピュータプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20080220

Termination date: 20100112