CN1620149A - 对多个视象物面作显示时间标记和同步的方法 - Google Patents

对多个视象物面作显示时间标记和同步的方法 Download PDF

Info

Publication number
CN1620149A
CN1620149A CNA2004100950994A CN200410095099A CN1620149A CN 1620149 A CN1620149 A CN 1620149A CN A2004100950994 A CNA2004100950994 A CN A2004100950994A CN 200410095099 A CN200410095099 A CN 200410095099A CN 1620149 A CN1620149 A CN 1620149A
Authority
CN
China
Prior art keywords
vop
base
time
video object
modulus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2004100950994A
Other languages
English (en)
Other versions
CN1292598C (zh
Inventor
陈朝庆
申省梅
李作裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Panasonic Intellectual Property Corp of America
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN1620149A publication Critical patent/CN1620149A/zh
Application granted granted Critical
Publication of CN1292598C publication Critical patent/CN1292598C/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

公开了一种埋置于压缩数据中的局部时基编码方法。局部时基被编成两部分码。第一部分有一表示基准时基中的特定间隙的模数时基,而第二部分有一相对于基准时间的时基增量。采用了两种时基增量形式使得有可能有不同的编码顺序和显示顺序。还描述了带有局部时基的多个压缩流的同步机构。还采用了一种时基补偿机构,使得能够进行更精细粒度的多个压缩流的同步。

Description

对多个视象物面作显示时间标记和同步的方法
本申请是题为《对视频序列进行局部时基编码的方法》的CN01115941.3的分案申请;申请人为“松下电器产业株式会社”。
而所称CN01115941.3申请又系申请日为1997.7.3,题为《对多个视象物面作显示时间标记和同步的方法》的CN97190851.6的分案申请,该在先申请的优先权日为1996.7.5,并且在先申请号为176430/96(JP)。
本发明对于为表现一个以上独立编码的视听物需进行同步的视听资料数字编码是有用的。尤其在对非同一视听资料进行短暂取样时特别适用。
在MPEG-1和MPEG-2的标准中,输入的视象是按标准时间间隔取样的象帧组成的。它代表输入的最精细的短暂分辩率。图1示出按照标准时间间隔取样象帧的固定帧速率的一个视象序列。在用MPEG-1和MPEG-2标准编码表示的视象序列中,编码帧的显示次序是用短暂基准表示的。这一参数出现在位流体系的画首。这一参数值在检查显示次序时每译一次帧码要增加一。
在H.263标准中有可能跳帧,因而就可能对可变帧速率的视象序列进行译码。但对象帧的取样仍然固定不变。这样只需将一级增加1改成一级增加1再加上按帧速率未传送的图象数,就能使MEPG-1和MEPG-2标准中所用的短暂基准法仍然合适。
目前的工作正进行在对多重视象物面中的分别象物进行视象编码的领域中。这代表着对相应视象物译码与同步的新的方向。预期这些不同的视象物面可以来自若干源并可以具有不同的帧速率。某些视象物可被复制并具有几乎连续的短暂取样速率。这些视象物面组合成显示的合成图象。因而需要有某些种类的合成的同步。有可能显示的帧速率不同于任何视象物面的帧速率。图2示出一例具有相互不同而且变动的帧速率的两个视象物面。即若在两个视象物面之间能够建立共同的帧速率,也不会自动使此帧速率成为与合成图象输出相同的帧速率。
此后我们将把这一问题归入视象领域。但本发明的同一原理能够扩展到音响领域以及两者的组合中。
上述情况清楚说明现有技术不能满足对视象物面的同步。当不同的视象物面具有互相不成倍数的不同帧速率时,现有技术也不能提供共同的短暂基准。
首先的问题是如何为每一视象物面提供一个共用的局部时基机构。这一时基将有可能提供非常精细的短暂粒度并与此同时能够适应可能在两个连续视象物面之间出现很长间隙的情形。
第二个问题是如何提供对不同帧速率的视象物面进行同步的机构。
以上问题可以通过为所有的局部时基实现使用共同的短暂解象而获解决。为了满足宽广范围的短暂粒度,将局部时基划分成两个不同的部分。第一部分包含提供短时基的细粒度短暂解象。第二部分包含提供长时基的粗粒度短暂解象。短时基包含在每一视象物面上为视象物提供短暂基准。而后使短时基与所有视象物面共用的长时基同步。用它将所有不同的视象物面同步到由主时钟建立的共用时基上。
按照本发明的第一种方式,对压缩数据中的视象音响序列的局部时基进行编码的方法包括有步骤:
经短暂取样获取视象音响序列的实例;
确定所述实例的局部时基编成压缩数据码;
将所述局部时基编成两部分码,它包括标记在局部时基的特定间隙上出现一组均匀间隔时间基准的模数时基和相对于所述均匀间隔时间基准的时基增量;
每当特定间隙消逝就将模数时基插入压缩数据;以及
将时基增量插入所述视象音响序列实例的压缩数据中。
按照本发明的第二种方式,对压缩数据中的视象音响序列的局部时基进行编码的方法包括有步骤:
经短暂取样获取视象音响序列的实例;
确定所述实例的局部时基编成压缩数据码;
按照两种方法中的一种对所述实例进行编码,这两种方法包括不参考任何未来情况的第一压缩方法和参考未来重新组建情况的第二压缩方法;
将所述局部时基编成两部分码,它包括标记在局部时基的特定间隙上出现一组均匀间隔时间基准的模数时基和时基增量;
对用第一压缩方法压缩的实例作为以所述均匀间隔时间为基准的绝对值进行时基增量编码;
对用第二压缩方法压缩的实例作为曾用所述第一方法压缩过的实例的局部时基的相对值进行时基增量编码;
每当特定间隙消逝就将模数时基插入压缩数据;以及
将时基增量插入所述视象音响序列实例的压缩数据中。
按照本发明的第三种方式,一种本发明第一种或第二种方式的方法,基中包含编入局部时基信息码的多个压缩位流经过倍增,它还包括进行倍增的步骤;
通过在倍增的位流中补偿编插时基码使各个压缩位流的局部时基与共用时基同步;
为了接着要将压缩实例放进倍增的位流中对每一压缩位流进行检查,直至所有的压缩位流均达到模数时基;
向倍增位流中插入共用的模数时基并跳过压缩位流的模数时基;以及
重复进行以上两步骤,直至所有的压缩位流流出为止。
按照本发明的第四种方式,一种本发明第一种或第二种方式的方法,基中包含编入局部时基信息码的多个压缩位流经过倍增和解除倍增,它还包括解除倍增的步骤:
对各个压缩位流补偿的时基进引译码;
检查下一个压缩实例的倍增位流并将所述实例放进合适的压缩位流中,直至在倍增的位流中碰到一个模数时基为止;
将模数时基插到每个压缩位流中;以及
重复进和以上两步骤,直至倍增的位流流出为止。
按照本发明的第五种方式,一种由按本发明节一种方式编码的压缩数据时基对一视象音响序列的局部时基进行译码的方法,它包括有步骤:
考虑时基补偿对基准时基进行初始化;
使基准时基增长一段用作解译每个模数时基的特定间隙;
对压缩实例的时基增量进行解译;以及
通过将所述解译的时基增量值加到基准时基上确定所述实例的解译时基。
按照本发明的第六种方式,一种由按本发明第二种方式编码的压缩数据时基对一视象音响序列的局部时基进行译码的方法,它包括有步骤:
考虑时基补偿对基准时基进行初始化;
使基准时基增长一段用作解译每个模数时基的特定间隙;
对压缩实例的时基增量进行解译;以及依据实例编码所用的是第一种还是第二种压缩方法,分别确定绝对还是相对的两种类型中的一类时基增量;
如若属于第一类型时基,则通过将所述解译的时基增量值加到基准时基上确定所述实例的解译时基;以及
如若属于第二类型的时基增量,则通过将所述解译的时基增量值加到用第一压缩方法编码的以往实例的解译时基上,确定所述实例的解译时基。
从以下给出的详细说明以及附图将会得到对本发明更充分的了解,基中:
图1绘示已有技术的短暂取样,其中的视象帧序列是按标准间隔取样的。
图2绘示视象物面及其相互关系的原理图。视象物面的取样可以是无规则的且取样周期可以急剧变动。
图3A绘示本发明用模数时基和VOP(视象物面)时间增量表示视象物的短暂基准。只用I和P VOP绘示。
图3B绘示本发明用模数时基和VOP时间增量表示视象物的短暂基准。用I、P和B VOP绘示。
图4绘示当表示顺序和编码顺序与B-视象物面的结果不同时能够出现含糊不清的一项示例。
图5绘示采用绝对和相对时基对含糊不清求解。
图6绘示两个VOP组合以及采用VOP时间补偿使它们与共用时基同步。
图7绘示时基编码的流程图。
图8绘示一个以上视象物面复合的流程图。
图9绘示一个以上视象物面解除复合的流程图。
图10绘示恢复时间标记表示的流程图。
图11绘示作时基编码的位流编码器的运行方框图。
图12绘示作时基译码的位流译码器的运行方框图。
图13绘示形成位流数据的时卡。
本发明通过提供两种同步形式运行。第一种是附在视象物面上的短时基。以后将此时基称为VOP时间增量。相对于附在要进行解译并组合在一起的一组视象物面上的长时基来说,VOP时间增量是视象物面的计时机构。长时基被称为模数时基。VOP时间增量和模数时基将在以后共同用于确定将视象物面合成为最终显示的合成序列所用的真实时基。
为了便于编排位流以及将不同源的不同视象物面组合成一个新的视象物面组,就需要在个别视象物面的局部时基和共用时基之间能有一个固定补偿量的第三分量。此后将称这一补偿为VOP时间补偿。这样就避免了不同的视象物面不得不以相等的粒度与模数时基间隙同步。对于复合在一起的视象物面组当中的每一视象物面,这一分量必须保持不变。
首先,对模数时基进行说明。
模数时基表示局部时基的粗分解。它没有VOP时间增量那样的数值。事实上它更加属于一种使VOP时间增量与视象物面的局部时基同步的同步机构。它作为记号置于编码的位流中以表示接着的视象物面的VOP时间增量是要重新设置的以及参照的时基要增长一个或一个以上的模数时基间隙单位。在图3A、3B、4、5和6中,将模数时基表示成零的或更多的是后面接一个“0”的“1”的系列,插在VOP时间增量前面的位流首部中。向位流中插入编号“1”取决于自上次码I或P-视象物面以来已消逝的模数时基的单位编号。在编码器和译码器中,模数时基计数器每遇一次“1”就增加一。模数时基计数器的长度有限,因而在实际的系统中,当用完最大值时就将模数时基重新设置为零。在典型的视象序列中,由视象物面形成一组VOP。因而通常在这一组VOP起始时模数时基重新设置。
接着,对VOP时间增量进行说明。
VOP要按能够支持对视象物进行最短暂取样的单位进行时间增量。它也可以是再现视象物的原有时基。因而它代表所需要的或能够支持的最细粒度的短暂分辨率。
然后可用大于或等于整体时基间隙与局部时基分辨率之比的一有限长度编号表示VOP时间增量。图3A示出I和P-视象物面的VOP时间增量并参照模数时基的一项示例。使用绝对时基。每遇一次模数时基就重新设置VOP时间增量。图3B示出使用I、P和B-视象物面的另一示例。除在B-视象物面中重复模数时基之外,其它的运行相同。若在B-视象物面中未重复模数时基,则因译码和表示的顺序不同而出现了模糊不清。这在后面作详细说明。
由于VOP时间增量与表示的时基对应,当编码顺序与表示顺序不同时就会出现潜在的问题。它随B-视象物面而出现。与MPEG-1和MPEG-2的B-画面类似,即使B-视象物面在表示顺序中的基准视象物得到领先,它们仍要在其基准I和p-视象物面之后进行编码。由于VOP时间增量有限而且与模数时基有关,当遇到模数时基时,就要重新设置VOP时间增量。然而,B-视象物面的编码顺序已被推迟。图4示出由此所能出现的模糊不清。它就不可能确定VOP时间增量须重新设置的时间。事实上,当给出了图4A中的编码事件序列时,不可能知道图4B、4C和4D的计时情形中哪一种是试图表示的。由于在与不同的编码和表示顺序相联结的所有不同类型的视象物当中使用一个共享的模数时基,所以出现了这一问题。由于基准信息要符合B-视象物面的要求,因而对编码顺序是无计可施的。而且对于不同的预测类型也不希望具有相互无关的模数时基。因而解决的办法是将B-视象物面的VOP时间增量作为对前面的I或P视象物面的相对值进行编码而且只将模数时基用于I和P-视象物面不用于B-视象物面。这一解决方案绘示在图5中。
接着,对VOP时间补偿进行说明。
除上述情况外,模数时基是在所有视象物面之间共用的,这意味着不同视象物的同步将具有与模数时基间隙相等的粒度。这在由不同组的视象物面组合形成一个新的视象物面组的情况下尤其是无法接收的。图6示出一例用相互补偿两个不同的局部时基编码的两个不同的视象物面。这样,当视象物面复合时,视象物面的同步也作补偿。通过使每一个别视象物面都能得到VOP时间补偿实现了更精细的精度。这意味着当视象物面被处理和复合时,只改变了这一数值。这就无需改变VOP时间增量而且还有可能不经粗粒度的计时差分复合不同的视象物面。图6绘示使用这种时基补偿。
本发明的最佳实施例包括对每个个别视象物面的位流进行时基编码的方法、将不同的视象物面复合成共用时基的方法、将复合的位流解除复合成为分量的方法以及由分量位流恢复时基的方法。
对时基编码进行说明。
在图7中示出时基编码实施例的流程图。在步骤1中首先将编码器中的局部时基初始化至局部的起始时间。流程进至步骤2,编码器确定局部时基的现时值。在步骤3中求局部时基,与以往的编码模数时基相比看其间隙是否超过模数时基间隙。若是间隙已超过控制就进至步骤4,将所需的模数时基号插入位流。若是间隙未超过,则无需专门的操作。流程然后进至步骤5,将VOP时间增量插入位流中。然后在步骤6中进行视象物编码并插入位流中。然后在步骤7中编码器检查判定是否有更多要进行编码的视象物。若有更多要进行编码的视象物,流程再返回步骤2求得局部时基。若是没有更多要进引编码的视象物就结束流程。
下列公式分别用于确定I/P-视象物面和B-视象物面的绝对和相对VOP时间增量。
tGTBn=n×tGTBI+tGTBO(n=0、1、2、3……)           (1)
tAVTI=tTBI/p-tGTBn                                (2)
tRVTI=tETB-tETBI/p                                (3)
其中
tGTBn为用n次编码的模数时基标记的编码器时基,
tGTBI为预定的模数时基间隙,
tGTBO为编码器时基起始时间,
tAVTI为I或p-视象物面的绝对VOP时间增量,
tETBI/P为在I或P-视象物面编码起始时的编码器时基,
tRVTI为B-视象物面的相对VOP时间增量,以及
tETBB为在B-视象物面编码起始时的编码器时基。
接着,对一个以上视象物面的复合进行说明。
当一个以上的视象物面复合在一起时,复合器检查多个视象物面的位流确定复合以及同步的顺序。所包括的操作绘示在图8中。在步骤11中将要复合的每一视象物面的VOP时间补偿插入位流中。然后在步骤12中检查全部要进行复合的视象物面的位流以判定全部物面是否都处于它们各自的模数时基。若它们是这样,则流程进至步骤13,将一共用的模数时基插入复合的位流中。流程然后进至步骤14,将下一个编码的视象物插入复合的位流中。在步骤15中,对要进行复合的视象物面的位流再次进行检查,看是否有更多的视象物要进行复合。若是这样,然后再将控制进至步骤12。否则就结束流程。
对包含一个以上视象物面的位流解除复合进行说明。
在图9中绘示了对包含多个视象物面的位流所进行的解除复合。在步骤21开始流程,对VOP时间补偿进行译码并进至译码器进行同步。然后在步骤22检查复合的位流,看是否找到模数时基。若是找到模数时基则流程进至步骤23,将模数时基插入所有视象物的位流中。然后流程连续至步骤24,检查下一个视象物并插入适当的视象物位流。最后再对复合的位流进行检查,看是否还有要解除复合的视象物。若有,则流程再进至步骤22。否则就终止流程。
对恢复时基进行说明。
图10中示出时基恢复的实施例。在恢复局部时基中,流程在步骤31开始,将由解除复合器解译的VOP时间补偿考虑进去起始局部时基。然后流程进至步骤32,核对位流判定模数时基是否被解译。若模数时基被解译,则流程进至步骤33,按照模数时基的增量增加局部时基。而后流程进至步骤37。若模数时基未被解译,则流程进至步骤34,对视象物进行检查判断它是否就是一个B-视象物。如果是,则流程进至步骤35,根据式(6)计算出B-视象物的解译时基。而后流程进至步骤37。若步骤34的结果不是一个B-视象物,则流程进至步骤36,根据式(5)计算出解译时基。而后流程进至步骤37。在步骤37中检查位流,看是否还有更多要解译的视象物。若是有,则流程再进至步骤32。否则就终止流程。
下列公式用于确定视象物所表示的时间标记;
tGTBn=n×tGTBI+tGTBO(n=0、1、2、3……)   (4)
tDTBI/p=tAVTI+tGTBn                       (5)
tDTBB=tRVTI+tDTBI/p                       (6)
其中
tGTBn为用n次解译模数时基作记号的解译时基,
tGTBI为预定的模数时基间隙,
tGTBO为解译时基起始时间
tDTBI/P为在I或P视象物面解译起始时的解译时基,
tAVTI为I或P视象物面解译的绝对VOP时间增量,
tDTBB为在B-视象物面解译起始时的解译时基,以及
tRVTI为B-视象物面解译的相对VOP时间增量。
对位流编码器的实现进行说明。
图11示出用于对模数时基和VOP时间增量进行编码实现位流编码器的方框图。为了进行这项说明的目的,利用了图3B中的示例。由于使用了双向预告,编码顺序与图3B中所示的表示顺序不同。编码顺序以I-VOP开始,在B-VOP之前接着P-VOP。这在下面的第三段中作了说明。
在起始器步骤41中流程开始,通过将局部时基寄存器起始至时间码的初始值启动位流编码器。将同一时间码值编入位流中。在接着开始I-VOP编码时,在步骤42中时间比较器用I-VOP的表示时间与局部时基寄存器作比较。其结果进至步骤43的模数时基编码器。模数时基编码器将向位流中插入所需的与已消逝的模数时基增量号相等的编号“1”。随后用符号“0”作模数时基码的终结码。局部时基寄存器被校正成为现时的模数时基。然后流程进至步骤44的VOP时基增量编码器,对I-VOP余下的表示时间码进行编码。
然后流程对接着的P-VOP编码视象物面重复进行。在步骤42,时间码比较器用P-VOP表示时间与局部时基寄存器相比。其结果进至步骤43的模数时基编码器。模数时基编码器将插进所需的与已消逝的模数时基增量号相等的编号“1”。随后用符号“0”作模数时基码的终结码。将B-VOP时基寄存器设置成局部时基寄存器的数值,并将局部时基寄存器校正成为现时的模数时基。然后流程进至步骤44的VOP时基增量编码器,对P-VOP余下的表示时间码进行编码。
然后流程对接着的B-VOP编码视象物面重复进行。在步骤42,时间码比较器用B-VOP表示时间与B-VOP时基寄存器相比。其结果进至步骤43的模数时基编码器。模数时基编码器将插进所需的与已消逝的模数时基增量号相等的编号“1”。随后用符号“0”作模数时基码的终结码。在处理B-VOP之后不论是B-VOP时基寄存器还是局部时基寄存器均不改变。然后流程进至步骤44的VOP时基增量编码器,对P-VOP余下的表示时间码进行编码。
在标记下一组VOP开始的接着的I-VOP中重新设置局部时基。
对位流解码器的实现进行说明。
图12绘示实现模数时基与VOP时间增量的解码器以恢复表示时间标记的方框图。如在实现编码器中那样,使用了图3B中的示例。解码顺序与编码顺序相同,I-VOP解码之后接着是在B-VOP之前的P-VOP。在以下段落中对比作出说明。
在步骤51的起始器中流程开始,将局部时基寄存器设置成从位流解译出的时间码值。然后流程进至步骤52的模数时基解码器,对模数时基增量进行解译。全部解译的模数时基增量号在符号“0”之前得到“1”的解码号。接着在步骤53的VOP时基增量中解译VOP时基增量。在步骤54的时基计算器中,恢复I-VOP的表示时间。将全部解译的模数时基增量值加到局部时基寄存器上。而后将VOP时基增量加到局部时基寄存器上求得I-VOP的表示时间。然后流程进至视象物解码器解译视象物。
对于P-VOP,流程在步骤52的模数时基解码器中重复进行,解译模数时基增量。全部解译的模数时基增量号在符号“0”之前得到“1”的解码号。接着在步骤53的VOP时基中解译VOP时基增量。在步骤54的时基计算器中,恢复P-VOP的表示时间。将B-VOP模数时基寄存器设置成局部时基寄存器中的数值。将全部解译的模数时基增量值加到局部时基寄存器上。而后将VOP的时基增量加到局部时基寄存器上求得P-VOP的表示时间。然后流程进至视象物解码器解译视象物。
对于B-VOP,流程在步骤52的模数时基解码器中重复进行,解译模数时基增量。全部解译的模数时基增量号在符号“0”之前得到“1”的解码号。接着在步骤53的VOP时基增量中解译VOP时基增量。在步骤54的时基计数器中,恢复B-VOP的表示时间。将全部解译的模数时基增量值和VOP时基增量加到B-VOP时基寄存器上求得B-VOP的表示时间。无论是B-VOP时基寄存器还是局部时基寄存器均留下未经改变。而后流程进至视象物解码器解译视象物。
在标记下一组VOP开始的下一次I-VOP时重新设置局部时基寄存器。
对特定示例进行说明。
参阅图13,示出了将压缩数据编入位流数据的步骤示例。如在图13的顶端行中所示,压缩的视象数据VOP按照显示顺序I1、B1、B2、P1、B3、P2排列在VOP组的起始处插有一GOP(画面组)首部。在进行显示的同时,用局部时间的时钟对每一VOP实现显示的局部时间进行测量。例如,第一VOP(I1-VOP)从视象数最起始计算显示在1小时23分45秒350毫秒(1:23:45:350);第二VOP(B1-VOP)显示在1:23:45:750;第三VOP(B2-VOP)显示在1:23:46:150;等等。
为了对VOP编码,必需将显示时间数据插到每一VOP中。全时数据的插入包括小时、分、秒和毫秒,在每一VOP的首部占用一定的数据空间。本发明的目的是要减少这样的数据空间并简化要插入每一VOP中的时间数据。
示于图13第一行中的每一VOP在VOP时间增量区存有毫秒的显示时间数据。第一行中的每一VOP还短暂存有小时、分和秒的显示时间数据。GOP首部存有第一VOP(I1-VOP)的小时、分和秒的显示时间。
如图13第二行中所示,VOP是用一缓冲器(未予示出)经过一段预定时间的延迟。当VOP从缓冲器中产生时,按双向预测规则改变VOP的顺序,这使双向VOP,即B-VOP要以P-VOP为基准位居其后。这样,VOP就按照I1、P1、B1、B2、P2、B3的顺序排列。
如图13第三行中所示,在时间T1,即当对GOP首部进行编码时,局部时基寄存器存入在GOP首部所存的小时、分、秒数据。在图13所示的示例中,局部时基寄存器存入1:23:45。然后,在时间T2之前,获得如图13中底端行中所示的有小时、分、秒数据的GOP首部的位流数据。
然后,在时间T2,第一VOP(I1-VOP)开始。时间码比较器将存在局部时基寄存器中的时间(小时、分、秒)与暂时存在第一VOP(I1-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果是相同的。这样,比较器就产生“0”,它表示第一VOP(I1-VOP)发生的秒与局部时基寄存器中所保存的秒数相同。由比较器产生的结果“0”在模数时基区加到第一VOP(I1-VOP)上。与此同时,消除暂时存入第一VOP(I1-VOP)中的小时、分和秒数据。这样,在时间T3之前,获得有插入模数时基区内的“0”和插入VOP时间增量区内的“350”的第一VOP(I1-VOP)的位流。
然后,在时间T3,第二VOP(P1-VOP)开始。时间码比较器将存入局部时基寄存器中的时间(小时、分、秒)与暂时存入第二VOP(P1-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果是暂时存入第二VOP(PI-VOP)中的时间比存入局部时基寄存器中的时间大一秒。这样,比较器就产生“10”,它表示第二VOP(P1-VOP)发生在局部时基寄存器中所保存秒数的下一秒。倘若第二VOP(P1-VOP)发生在局部时基寄存器中所保存秒数的再下一秒,比较器将会产生“110”。
在时间T3之后,将B-VOP时基寄存器设置成与紧接时间T3前局部时基寄存器中所执行的时间相等的时间。在该示例中,B-VOP时基寄存器设置成1:23:45。同样地,在时间T3之后,局部时基寄存器增加到与暂存入第二VOP(P1-VOP)中的时间相等的时间。这样,在该示例中,局部时基寄存器增加到1:23:46。
由比较器所产生的结果“10”在模数时基区加到第二VOP(P1-VOP)上。与此同时,消除暂存入第二VOP(P1-VOP)中的小时、分、秒数据。这样,在时间T4之前,获得有插入模数时基区的“10”和插入VOP时间增量区的“550”的第二VOP(P1-VOP)的位流数据。
然后,在时间T4,第三VOP(B1-VOP)开始。时间码比较器将存入B-VOP时基寄存器中的时间(小时、分、秒)与暂存入第三VOP(B1-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果为相同。这样,比较器就产生“0”,它表示第三VOP(B1-VOP)出现的秒与B-VOP时基寄存器所保存的秒数相同。由比较器产生的结果“0”在模数时基区加到第三VOP(B1-VOP)上。与此同时,消除暂存入第三VOP(B1-VOP)中的小时、分和秒数据。这样,在时间T5之前,获得具有插入模数时基区“0”和插入VOP时间增量区“750”的第三VOP(B1-VOP)的位流数据。
然后,在时间T5,第四VOP(B2-VOP)开始。时间码比较器将存入B-VOP时基寄存器中的时间(小时、分、秒)与暂存入第四VOP(B2-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果为暂存入第四VOP(B2-VOP)中的时间比存入B-VOP时基寄存器中的时间大一秒。这样,比较器就产生“10”,它表示第四VOP(B2-VOP)出现在B-VOP时基寄存器中所保存秒数的下一秒。
在处理B型VOP当中,不论比较器产生的结果如何,不管是局部时基寄存器还是B-VOP时基寄存器均未增加。
由比较器产生的结果“10”在模数时基区加到第四VOP(B2-VOP)上。与此同时,消除存入第四VOP(B2-VOP)中的小时、分和秒数据。这样,在时间T6之前,获得了具有插入模数时基区的“10”和插入VOP时间增量区的“150”的第四VOP(B2-VOP)的位流数据。
然后,在时间T6,第五VOP(P2-VOP)开始。时间码比较器将存入局部时基寄存器中的时间(小时、分、秒)与暂存入第五VOP(P2-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果为暂存入第五VOP(P2-VOP)中的时间比存入局部时基寄存器中的时间大一秒。这样,比较器就产生10”,它表示第五VOP(P2-VOP)出现在局部时基寄存器中所保存秒数的下一秒。
在时间T6之后,B-VOP时基寄存器增加到与紧接时间T6之前在局部时基寄存器中所执行的时间相等的时间。在该示例中,B-VOP时基寄存器增加到1:23:46。同样地,在时间T6之后,局部时基寄存器增加到与暂存入第五VOP(P2-VOP)中的时间相等的时间。这样,在该示例中,局部时基寄存器增加到1:23:47。
由比较器所产生的结果“10”在模数时基区加到第五VOP(P2-VOP)上。与此同时,消除暂存入第五VOP(P2-VOP)中的小时、分、秒数据。这样,在时间T7之前,获得具有插入模数时基区的“10”和插入VOP时间增量区的“350”的第五VOP(P2-VOP)的位流数据。
此后,为形成下列VOP位流数据而进行着类似的运行。
为了解译位流数据,进行着与以上相反的运行。首先,读出在GOP首部执行的时间(小时、分、秒)。读出时间存入局部时基寄存器中。
一俟收到I型或P型的VOP,即除了B型VOP之外,马上读出存在模数时基区中的数据。若读出数据为“0”,即在0之前没有任何1,在局部时基寄存器中未作改变,而且在B-VOP中也未作改变。若读出数据为“10”,存入局部时基寄存器中的时间增加一秒。若读出数据为“110”,存入局部时基寄存器中的时间增加两秒。按照这种方式,需增加的秒数取决于在0之前所插入的1数。同时地,当读出数据为“10”或“110”时,作为存储器B-VOP时基寄存器,录下局部时基寄存器在紧靠最新增长之前曾执行过的时间。然后,在局部时基寄存器中所执行的时间(小时、分、秒)与VOP时间增量区中执行的时间(毫秒)相组合确定I型或P型VOP要出现的特定时间。
一俟收到B型VOP,马上就读出存入模数时基区中的数据。若读出数据为“0”,在B-VOP时基寄存器中执行的时间(小时、分、秒)就与在VOP时间增量区中执行的时间(毫秒)相组合确定B型VOP要出现的特定时间。若读出数据为“10”,在B-VOP时基寄存器中执行的时间(小时、分、秒)增加一秒,而后使增加后的时间与在VOP时间增量区中执行的时间(毫秒)相组合确定B型VOP要出现的特定时间。若读出数据为“110”,就将B-VOP时基寄存器中执行的时间(小时、分、秒)增加两秒,而后使增加后的时间与VOP时间增量区中执行的时间(毫秒)相组合确定B型VOP要出现的特定时间。
本发明的效果能使由不同编码器编码的视象物相复合,它还会使得按照不同来源的压缩数据位流操作的视象物便于产生新的位流。它为视象音响物提供了一种同步的方法。
对本发明所作的如此描述,显然可以经过许多变动途径同样实现。不能把这样的变动视为脱离了本发明的精神和范围,而且所有这类属于专业人员显而易见的改变被规定包括在后面的权利要求范围之内。

Claims (1)

1.一种对视象物面(VOP)的局部时基编码的方法,其特征在于,它包括如下步骤:
编码时基码,其中所述时基码表示一组视象物面(VOP)中的第一视象物面(VOP)的模数部分;
编码两部分中的第一视象物面(VOP)的局部时基,所述两部分包括模数时基和时基增量,其中所述模数时基表示以一秒分辨率为单位从时基码起所经过的时间间隔,所述时基增量表示从所述第一视象物面(VOP)的模数时基标记的基准时间起的时间增量;
编码两部分中第一视象物面(VOP)之后的每个下一视象物面(VOP)的局部时基,所述两部分包括模数时基和时基增量,其中所述模数时基表示以一秒分辨率为单位从一个基准时间起所经过的时间间隔,所述基准时间是由一个在先视象物面(VOP)的模数时基标记的,所述在先视象物面(VOP)位于所述下一视象物面(VOP)之前;所述时基增量表示从所述下一视象物面(VOP)的模数时基标记的基准时间起的时间增量;
将已编码的时间码插入所述一组视象物面(VOP)的画面组(GOP)首部中;并且
将已编码的视象物面(VOP)局部时基码插入所述视象物面(VOP)的位流中。
CNB2004100950994A 1996-07-05 1997-07-03 对多个视象物面作显示时间标记和同步的方法 Expired - Lifetime CN1292598C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP1996176430 1996-07-05
JP17643096 1996-07-05

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CNB011159413A Division CN1184821C (zh) 1996-07-05 1997-07-03 对视频序列进行局部时基编码的方法

Publications (2)

Publication Number Publication Date
CN1620149A true CN1620149A (zh) 2005-05-25
CN1292598C CN1292598C (zh) 2006-12-27

Family

ID=16013573

Family Applications (5)

Application Number Title Priority Date Filing Date
CNB011159413A Expired - Lifetime CN1184821C (zh) 1996-07-05 1997-07-03 对视频序列进行局部时基编码的方法
CN97190851A Expired - Lifetime CN1107418C (zh) 1996-07-05 1997-07-03 显示多个视频物面的时间标记和同步的方法
CNB2004100950994A Expired - Lifetime CN1292598C (zh) 1996-07-05 1997-07-03 对多个视象物面作显示时间标记和同步的方法
CNB011159391A Expired - Lifetime CN1148971C (zh) 1996-07-05 2001-06-06 确定视象物面局部时基的方法
CNB011159405A Expired - Lifetime CN1152579C (zh) 1996-07-05 2001-06-06 确定双向预测码视象物面局部时基的方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CNB011159413A Expired - Lifetime CN1184821C (zh) 1996-07-05 1997-07-03 对视频序列进行局部时基编码的方法
CN97190851A Expired - Lifetime CN1107418C (zh) 1996-07-05 1997-07-03 显示多个视频物面的时间标记和同步的方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
CNB011159391A Expired - Lifetime CN1148971C (zh) 1996-07-05 2001-06-06 确定视象物面局部时基的方法
CNB011159405A Expired - Lifetime CN1152579C (zh) 1996-07-05 2001-06-06 确定双向预测码视象物面局部时基的方法

Country Status (11)

Country Link
US (6) USRE38875E1 (zh)
EP (6) EP1073278B1 (zh)
JP (1) JP3186775B2 (zh)
KR (1) KR100274434B1 (zh)
CN (5) CN1184821C (zh)
DE (5) DE69719828T2 (zh)
ES (5) ES2166746T3 (zh)
HK (4) HK1016390A1 (zh)
SG (1) SG90765A1 (zh)
TW (1) TW359918B (zh)
WO (1) WO1998002003A1 (zh)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL167288A (en) * 1997-04-01 2012-03-29 Sony Corp Image encryption device, image encryption method, image decryption device, image decryption method, and appropriate medium
WO1999021367A1 (fr) * 1997-10-20 1999-04-29 Mitsubishi Denki Kabushiki Kaisha Codeur et decodeur d'image
DE19746611A1 (de) * 1997-10-22 1999-04-29 Bosch Gmbh Robert Verfahren zur Verbesserung der Konturcodierung von Bildsequenzen sowie Anwendung
JP2000013790A (ja) * 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
JP4109772B2 (ja) * 1998-12-03 2008-07-02 キヤノン株式会社 データ処理方法及びその装置
ID24586A (id) * 1998-12-21 2000-07-27 Matsushita Electric Ind Co Ltd Perangkat dan metode penyelarasan waktu dengan menggunakan modul basis waktu dan resolusi peningkatan waktu
US6299998B1 (en) * 1999-03-15 2001-10-09 Reveo, Inc. Movable anode fuel cell battery
CN100348044C (zh) * 1999-03-31 2007-11-07 松下电器产业株式会社 不同帧速率多流混合视频流的无缝译码装置
US7624337B2 (en) * 2000-07-24 2009-11-24 Vmark, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
JP4690635B2 (ja) * 2000-08-15 2011-06-01 マイクロソフト コーポレーション メディアサンプルをタイムコーディングする方法、システム、およびデータ構造
EP1312206A1 (en) * 2000-08-16 2003-05-21 Koninklijke Philips Electronics N.V. Method of playing multimedia applications
WO2002015591A1 (en) * 2000-08-16 2002-02-21 Koninklijke Philips Electronics N.V. Method of playing multimedia data
JP4208398B2 (ja) * 2000-10-05 2009-01-14 株式会社東芝 動画像復号再生装置、動画像復号再生方法及びマルチメディア情報受信装置
US20020089602A1 (en) * 2000-10-18 2002-07-11 Sullivan Gary J. Compressed timing indicators for media samples
WO2002071736A2 (en) * 2001-03-05 2002-09-12 Intervideo, Inc. Systems and methods of error resilience in a video decoder
US20020145622A1 (en) * 2001-04-09 2002-10-10 International Business Machines Corporation Proxy content editing system
US6870887B2 (en) * 2001-04-09 2005-03-22 International Business Machines Corporation Method and system for synchronization between different content encoding formats
US7280738B2 (en) 2001-04-09 2007-10-09 International Business Machines Corporation Method and system for specifying a selection of content segments stored in different formats
US6662176B2 (en) * 2001-05-07 2003-12-09 Hewlett-Packard Development Company, L.P. Database indexing and rolling storage method for time-stamped normalized event data
US20030229549A1 (en) 2001-10-17 2003-12-11 Automated Media Services, Inc. System and method for providing for out-of-home advertising utilizing a satellite network
US7614065B2 (en) * 2001-12-17 2009-11-03 Automated Media Services, Inc. System and method for verifying content displayed on an electronic visual display
US20050075929A1 (en) * 2002-10-17 2005-04-07 Wolinsky Robert I. System and method for partitioning airtime for distribution and display of content
EP1328127A1 (de) * 2002-01-09 2003-07-16 Beta Research GmbH Simultaneinspeisung und Synchronisation von Audio und Videodaten
US7149247B2 (en) 2002-01-22 2006-12-12 Microsoft Corporation Methods and systems for encoding and decoding video data to enable random access and splicing
ATE352171T1 (de) * 2002-01-22 2007-02-15 Microsoft Corp Verfahren zum ermöglichen von direktzugriff und spleissen in einem verschlüsselten videostrom
TWI310137B (en) * 2002-04-19 2009-05-21 Microsoft Corp Methods and systems for preventing start code emulation at locations that include non-byte aligned and/or bit-shifted positions
US7088776B2 (en) * 2002-07-15 2006-08-08 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
AU2013204651B2 (en) * 2002-07-15 2015-12-24 Apple Inc Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
AU2008201106C1 (en) * 2002-07-15 2011-06-09 Apple Inc. Method and bitstream for variable accuracy inter-picture timing specification for digital video encoding
US8254461B2 (en) 2002-07-24 2012-08-28 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US6728315B2 (en) 2002-07-24 2004-04-27 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US7613630B2 (en) * 2002-10-17 2009-11-03 Automated Media Services, Inc. System and method for editing existing footage to generate and distribute advertising content to retail locations
EP1487214A1 (en) * 2003-06-11 2004-12-15 Digital Multimedia Technologies S.P.A. A method and a system for synchronizing MHP applications in a data packet stream
US20050002459A1 (en) * 2003-07-04 2005-01-06 Protocom Technology Corporation Method for determining display order of VOPs in decoder end of MPEG image system and device for executing the same
US7609762B2 (en) 2003-09-07 2009-10-27 Microsoft Corporation Signaling for entry point frames with predicted first field
US7839930B2 (en) * 2003-11-13 2010-11-23 Microsoft Corporation Signaling valid entry points in a video stream
US8213779B2 (en) * 2003-09-07 2012-07-03 Microsoft Corporation Trick mode elementary stream and receiver system
US7924921B2 (en) * 2003-09-07 2011-04-12 Microsoft Corporation Signaling coding and display options in entry point headers
US7852919B2 (en) * 2003-09-07 2010-12-14 Microsoft Corporation Field start code for entry point frames with predicted first field
KR20060135827A (ko) * 2004-04-15 2006-12-29 마쯔시다덴기산교 가부시키가이샤 컨텐츠 생성 장치 및 방법
DE602004009560T2 (de) * 2004-07-22 2008-08-21 Harman Becker Automotive Systems Gmbh Datenübertragungssynchronisationsschema
US8228956B2 (en) * 2005-04-19 2012-07-24 Alcatel Lucent Time stamp offset in data packet bundling
US8315308B2 (en) * 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability
WO2008118183A1 (en) * 2007-03-28 2008-10-02 Motionbox, Inc. System and method for autogeneration of long term media data from networked time-based media
WO2007112445A2 (en) * 2006-03-28 2007-10-04 Motionbox, Inc. A system and data model for shared viewing and editing of time-based media
EP1999674A4 (en) * 2006-03-28 2010-10-06 Hewlett Packard Development Co SYSTEM AND METHOD FOR SOCIAL NAVIGATION IN A NETWORK TIME MEDIA
WO2008073538A1 (en) * 2006-08-18 2008-06-19 Motionbox, Inc. An operational system and architectural model for improved manipulation of video and time-based media
US20090129740A1 (en) * 2006-03-28 2009-05-21 O'brien Christopher J System for individual and group editing of networked time-based media
WO2008060655A2 (en) * 2006-03-29 2008-05-22 Motionbox, Inc. A system, method, and apparatus for visual browsing, deep tagging, and synchronized commenting
EP1855402A1 (en) * 2006-05-11 2007-11-14 Koninklijke Philips Electronics N.V. Transmission, reception and synchronisation of two data streams
JP4607856B2 (ja) * 2006-12-26 2011-01-05 富士通株式会社 符号化復号システム及び符号化復号方法
US7765315B2 (en) * 2007-01-08 2010-07-27 Apple Inc. Time synchronization of multiple time-based data streams with independent clocks
MY157150A (en) * 2007-03-08 2016-05-13 Ericsson Telefon Ab L M Seeking and synchronization using global scene time
KR101372418B1 (ko) * 2007-10-19 2014-03-12 (주)휴맥스 비트스트림 디코딩 장치 및 방법
WO2009100453A2 (en) * 2008-02-08 2009-08-13 Automated Media Services, Inc. System and method for creating an in-store media network using traditional media metrics
EP2351372B1 (en) * 2008-10-28 2020-08-05 Cisco Technology, Inc. Stream synchronization for live video encoding
US20100225811A1 (en) * 2009-03-05 2010-09-09 Nokia Corporation Synchronization of Content from Multiple Content Sources
JP6605789B2 (ja) 2013-06-18 2019-11-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置、および、受信装置
US10779057B2 (en) * 2015-06-08 2020-09-15 Qualcomm Incorporated Broadcast content redistribution and ad insertion
US10271069B2 (en) 2016-08-31 2019-04-23 Microsoft Technology Licensing, Llc Selective use of start code emulation prevention
US10694227B2 (en) * 2017-01-13 2020-06-23 Panasonic Intellectual Property Management Co., Ltd. Video transmission system and video transmission method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364281B2 (ja) * 1993-07-16 2003-01-08 パイオニア株式会社 時分割ビデオ及びオーディオ信号の同期方式
US5467139A (en) * 1993-09-30 1995-11-14 Thomson Consumer Electronics, Inc. Muting apparatus for a compressed audio/video signal receiver
US5430485A (en) * 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
GB9424429D0 (en) 1994-12-02 1995-01-18 Philips Electronics Uk Ltd Audio/video timing discrepancy management
US5953073A (en) * 1996-07-29 1999-09-14 International Business Machines Corp. Method for relating indexing information associated with at least two indexing schemes to facilitate the play-back of user-specified digital video data and a video client incorporating the same
US5784422A (en) * 1996-08-05 1998-07-21 Transcrypt International, Inc. Apparatus and method for accurate synchronization with inbound data packets at relatively low sampling rates

Also Published As

Publication number Publication date
HK1060463A1 (en) 2004-08-06
USRE40664E1 (en) 2009-03-17
EP1073278A1 (en) 2001-01-31
EP1343330B1 (en) 2007-08-15
US6075576A (en) 2000-06-13
EP1073277A1 (en) 2001-01-31
EP1111933A1 (en) 2001-06-27
DE69704481D1 (de) 2001-05-10
DE69707720D1 (de) 2001-11-29
CN1152579C (zh) 2004-06-02
DE69707720T2 (de) 2002-08-08
TW359918B (en) 1999-06-01
WO1998002003A1 (en) 1998-01-15
DE69707929D1 (de) 2001-12-06
DE69738035T2 (de) 2008-04-30
CN1184821C (zh) 2005-01-12
EP1111934B1 (en) 2001-10-24
ES2194801T3 (es) 2003-12-01
KR19990044406A (ko) 1999-06-25
USRE39344E1 (en) 2006-10-17
EP1111933B1 (en) 2003-03-12
DE69738035D1 (de) 2007-09-27
DE69719828T2 (de) 2003-12-24
KR100274434B1 (ko) 2000-12-15
USRE38875E1 (en) 2005-11-15
ES2169019T3 (es) 2002-07-01
DE69719828D1 (de) 2003-04-17
USRE38923E1 (en) 2005-12-20
SG90765A1 (en) 2002-08-20
CN1107418C (zh) 2003-04-30
CN1347250A (zh) 2002-05-01
HK1075345A1 (en) 2005-12-09
ES2158570T3 (es) 2001-09-01
USRE39115E1 (en) 2006-06-06
CN1347251A (zh) 2002-05-01
ES2166746T3 (es) 2002-05-01
DE69707929T2 (de) 2002-06-20
EP0864228B1 (en) 2001-04-04
EP0864228A1 (en) 1998-09-16
EP1343330A2 (en) 2003-09-10
HK1016390A1 (en) 1999-10-29
ES2291563T3 (es) 2008-03-01
CN1148971C (zh) 2004-05-05
EP1111934A1 (en) 2001-06-27
HK1016392A1 (en) 1999-10-29
CN1364032A (zh) 2002-08-14
EP1343330A3 (en) 2006-05-10
JP3186775B2 (ja) 2001-07-11
DE69704481T2 (de) 2001-10-31
CN1292598C (zh) 2006-12-27
JPH11513222A (ja) 1999-11-09
EP1073278B1 (en) 2001-10-31
CN1197579A (zh) 1998-10-28

Similar Documents

Publication Publication Date Title
CN1292598C (zh) 对多个视象物面作显示时间标记和同步的方法
EP1431887A3 (en) System and method to compose a slide show
CN1237815C (zh) 字幕彩色划变与定位方法及装置
MXPA04007020A (es) Agrupamiento de cuadros de imagen para codificacion de video.
CN1132421C (zh) 数字记录和重放装置
EP2544451A3 (en) Method and system for digital decoding 3D stereoscopic video images
CN1976448A (zh) 用于音频和视频传输的方法和系统
EP2083574A3 (en) Stereoscopic video sequences coding system and method
CN1738438A (zh) 使静止图像与运动图像流同步的方法
EP1549054A3 (en) Motion compensated frame rate conversion
HUP0402623A2 (hu) Eljárás videokódolásra, kép videodekódolására, videokódoló, videodekódoló, számítógépes programtermék, valamint videojel
CN1781313A (zh) 图像编码方法
EP2099228A3 (en) Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
CN1781314A (zh) 图像编码方法
EP1150515A3 (en) Method for supplementing digital image with picture element, and digital image encoder and decoder using the same
CN101419827A (zh) 在音频视频交叉文件中进行音频与视频数据同步的方法
CN105306837A (zh) 多图像拼接方法及装置
CN1286875A (zh) 利用模数时基和时间增量分辨率的时间戳印的装置和方法
CO5650195A2 (es) Analizador de video
TW200603636A (en) A video encoder and method of video encoding
CN1777292A (zh) 数据处理装置和方法
CN106060580A (zh) 图像同步显示方法及装置
EP1641262B1 (en) Circuit for processing video signal containing information such as closed caption
CN1110951C (zh) Hdtv视频解码器中的系统控制器
EP0888014A3 (en) Method for regenerating the original data of digitally coded video film, and apparatus for carrying out the method

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1075345

Country of ref document: HK

C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20140715

C41 Transfer of patent application or patent right or utility model
C56 Change in the name or address of the patentee
CP03 Change of name, title or address

Address after: Osaka Japan

Patentee after: Matsushita Electric Industrial Co.,Ltd.

Address before: Osaka Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.

TR01 Transfer of patent right

Effective date of registration: 20140715

Address after: California, USA

Patentee after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Osaka Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.

CX01 Expiry of patent term

Granted publication date: 20061227

CX01 Expiry of patent term