CN1107418C - 显示多个视频物面的时间标记和同步的方法 - Google Patents

显示多个视频物面的时间标记和同步的方法 Download PDF

Info

Publication number
CN1107418C
CN1107418C CN97190851A CN97190851A CN1107418C CN 1107418 C CN1107418 C CN 1107418C CN 97190851 A CN97190851 A CN 97190851A CN 97190851 A CN97190851 A CN 97190851A CN 1107418 C CN1107418 C CN 1107418C
Authority
CN
China
Prior art keywords
vop
time
base
video object
modulus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
CN97190851A
Other languages
English (en)
Other versions
CN1197579A (zh
Inventor
陈朝庆
申省梅
李作裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN1197579A publication Critical patent/CN1197579A/zh
Application granted granted Critical
Publication of CN1107418C publication Critical patent/CN1107418C/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

公开了一种埋置于压缩数据中的局部时基编码方法。局部时基被编成两部分码。第一部分有一表示基准时基中的特定间隙的模数时基,而第二部分有一相对于基准时间的时基增量。采用了两种时基增量形式使得有可能有不同的编码顺序和显示顺序。还描述了带有局部时基的多个压缩流的同步机构。还采用了一种时基补偿机构,使得能够进行更精细粒度的多个压缩流的同步。

Description

显示多个视频物面的时间标记和同步的方法
技术领域
本发明用于在需要对一个以上要表现的独立编码的视听对象进行同步的情况下数字视听资料的编码。尤其是适合在视听资料的临时取样不相同时使用。
背景技术
在MPEG-1和MPEG-2的标准中,输入的视频是由按标准时间间隔取样的图象帧组成的。它代表输入的最精细的临时分辩率。图1示出按照标准时间间隔对图象帧取样的情况下具有固定帧速率的视频序列。在使用MPEG-1和MPEG-2标准的视频序列的编码表示中,解码帧的显示次序是用临时基准表示的。这一参数出现在比特流语法的画面标题。这一参数值对按显示顺序检查的每个解码帧加1。
在H.263标准中,有可能存在跳帧,因而就可能对可变帧速率的视频序列进行解码。但对帧的取样仍然固定不变。这样只需该增量的步长不是1而是改成步长1再加上在该输入帧速率未传送的画面数,就能使MEPG-1和MEPG-2标准中所用的临时基准法仍然适用。
目前的工作是在多重视频物面中编码视频作为分离对象的领域中进行的。这代表着相应视频对象的解码与同步的新的方向。预期这些不同的视频物面可以来自若干个信号源并可以具有不同的帧速率。某些视频对象物可被复制并具有几乎连续的临时取样速率。这些视频物面组合成显示的合成图象。因此该合成需要有某些种类的合成。有可能显示的帧速率不同于任何视频物面的帧速率。图2示出具有相互不同而且变动的帧速率的两个视频物面的例子。即使在两个视频物面之间能够找到共同的帧速率,也不会自动使此帧速率与合成器的输出帧速率相同。
此后我们将参考视频领域中的这一问题。但本发明的同一原理能够扩展到音频领域以及两者的组合中。
上述情况清楚说明现有技术不能满足对视频物面的同步。当不同的视频物面具有互相不成倍数的不同帧速率时,现有技术也不能提供共同的临时基准。
第一个问题是如何为每一视频物面提供一个共用的局部时基机构。这一时基必须能够提供非常精细的临时粒度并与此同时能够适应在视频物面的两个连续样品之间出现很长间隔的可能性。
第二个问题是如何提供同步具有不同帧速率的视频物面的机构。
以上问题可以通过实现用于所有的局部时基的共同临时分辨率来解决。为了满足宽广范围的临时粒度,将局部时基划分成两个不同的部分。第一部分包含提供短时基的细粒度临时分辨率。第二部分包含提供长时基的粗粒度临时分辨率。短时基包含在每一视频物面中,以便向视频对象提供临时基准。而后使短时基与所有视频物面共用的长时基同步。用它将所有不同的视频物面同步到由主时钟提供的共用时基上。
发明内容
按照本发明的第一个方面,提供一种对视频物面(VOP)的局部时基解码的方法,其特征在于:(a)对当前视频物面(VOP)的模数时基解码,所述模数时基表示在解码顺序中从由前一个解码的视频物面(VOP)的模数时基标记的参考时间起已经经过的预定间隔,(b)对当前视频物面(VOP)的时基增量解码,所述时基增量表示从由当前视频物面(VOP)的模数时基标记的参考时间起的时间增量,(c)通过组合所述当前视频物面(VOP)的解码后的时基增量和所述由当前视频物面(VOP)的模数时基标记的参考时间来确定当前视频物面(VOP)的局部时基。
按照本发明的第二个方面,一种本发明第一方面的方法,其中所述预定间隔是以一秒为分辨单位的时间。
附图说明
从以下给出的详细说明以及附图将会得到对本发明更充分的了解,基中:
图1示出已有技术的短暂取样,其中的视频序列的帧是按标准间隔取样的。
图2示出视频物面及其相互关系的原理图。视频物面的取样可以是无规则的且取样周期可以急剧变动。
图3A示出本发明用模数时基和VOP(视频物面)时间增量表示视频对象的临时基准。示出只用I和P VOP。
图3B示出本发明用模数时基和VOP时间增量表示视频对象的临时基准。示出使用I、P和B VOP。
图4示出当表示顺序和编码顺序与B-视频物面的结果不同时可能出现的含糊的一项示例。
图5示出采用绝对和相对时基对含糊性求解。
图6示出两个VOP组合以及采用VOP时间偏移使它们与共用时基同步。
图7示出时基编码的流程图。
图8示出一个以上视频物面复用的流程图。
图9示出一个以上视频物面去复用的流程图。
图10示出恢复表示时间标记的流程图。
图11示出用于时基编码的比特流编码器的运行方框图。
图12示出用于时基解码的位比特流解码器的运行方框图。
图13示出形成比特流数据的时序图。
具体实施方式
本发明通过提供两种同步形式运行。第一种是附在视频物面上的短时基。以后将此时基称为VOP时间增量。相对于附在要进行解码并组合在一起的一组视频物面的长时基来说,VOP时间增量是视频物面的计时机构。长时基被称为模数时基。VOP时间增量和模数时基将在以后共同用于确定将视频物面合成为最终显示的合成序列所用的实际时基。
为了便于编辑比特流以及将来自不同源的不同视频物面组合成一个新的视频物面组,就需要有一个第三分量以允许各个视频物面的局部时基和共用时基之间的固定偏移量。此后将称这一偏移为VOP时间偏移。这样就避免了不同的视频物面不得不以等于模数时基间隔的粒度同步。对于复用在一起的视频物面组当中的每一视频物面,这一分量应该保持不变。
首先,对模数时基进行说明。
模数时基表示局部时基的粗分辨率。它没有VOP时间增量那样的数值。事实上它更是一种使VOP时间增量与视频物面的局部时基同步的同步机制。它作为记号置于编码比特流中以表示跟随的视频物面的VOP时间增量将要复位以及对局部时基的基准要增长一个或一个以上的模数时基间隔单位。在图3A、3B、4、5和6中,将模数时基表示成一系列零或在VOP时间增量之前由插入到比特流首部中的“0”终止的“1”。向比特流中插入的“1”的数量取决于自上次的代码I或P-视频物面以来已经过的模数时基的单位数量。在编码器和解码器中,模数时基计数器每遇一次“1”就增加1。模数时基计数器的长度有限,因而在实际的系统中,当用完最大值时就将模数时基复位为零。在典型的视频序列中,由视频物面形成一组VOP。因而通常在这一组VOP起始时将模数时基复位。
接着,对VOP时间增量进行说明。
VOP时间增量要以能够支持视频对象的最短临时取样为单位。它也可以是表现对象的原有时基。因而它代表所需要的或能够支持的临时分辨率的最细粒度。
然后可用大于或等于全局时基间隔与局部时基分辨率之比的一有限长度编号表示VOP时间增量。图3A示出I和P-视频物面的VOP时间增量和对模数时基的基准一个实例。使用绝对时基。每当遇到模数时基就对VOP时间增量复位。图3B示出使用I、P和B-视频物面的另一个实例。除在B-视频物面中重复模数时基之外,其它的运行相同。若在B-视频物面中未重复模数时基,则会因解码和表示顺序中的不同而出现模糊。这在后面作详细说明。
由于VOP时间增量与表示时基对应,当编码顺序与表示顺序不同时就会出现潜在的问题。它随B-视频物面而出现。与MPEG-1和MPEG-2的B-画面类似,即使B-视频物面在表示顺序中在基准视频物前面,要在其基准I和p-视频物面之后对B-视频物面编码。由于VOP时间增量有限而且与模数时基有关,当遇到模数时基时,就要使VOP时间增量复位。然而,B-视频物面的编码顺序已被推迟。图4示出可能出现的模糊性。它不能确定何时应将VOP时间增量复位。事实上,当给出了如图4A中的一序列编码事件时,不可能知道图4B、4C和4D的定时情形中哪一种是试图表示的。由于在与编码和表示顺序之间的差值结合的所有不同类型的视频对象间使用一个共享的模数时基,所以出现了这一问题。由于B-视频对象需要该基准信息,因而对编码顺序是无计可施的。而且对于不同的预测类型也不希望具有相互无关的模数时基。因而解决的办法是将B-视频物面的VOP时间增量作为对前面的I或P视频物面的相对值进行编码而且只将模数时基用于I和P-视频物面而不是B-视频物面。这一解决方案在图5中示出。
接着,对VOP时间偏移进行说明。
除上述情况外,模数时基是在所有视频物面之间共用的,这意味着不同视频对象的同步将具有与模数时基间隔相等的粒度。这在由将来自不同组的视频物面组合形成一个新的视频物面组的情况下尤其是无法接收的。图6示出用相互偏移的两个不同局部时基编码的两个不同视频物面的例子。这样,当复用视频物面时,还偏移视频物面的同步。通过使每一个视频物面具有VOP时间偏移实现了更精细的粒度。这意味着当视频物面被处理和复用时,只改变了这一数值。这就无需改变VOP时间增量而且还有可能不经粗粒度的定时差分来复用不同视频物面。图6示出了这种时基偏移的使用。
本发明的优选实施例包括对每个视频物面的比特流的时基进行编码的方法、将不同的视频物面复用成共用时基的方法、将复用的比特解去复用成为分量的方法以及从分量比特流恢复时基的方法。
对时基编码进行说明。
在图7中示出时基编码实施例的流程图。在步骤1中首先在编码器中将局部时基初始化至局部起始时间。流程进至步骤2,编码器确定局部时基的当前值。在步骤3中将得到的局部时基与前面编码的模数时基比较,以看该间隔是否已超过模数时基间隔。若是己超过该间隔,控制就进至步骤4,将所需数量的模数时基插入比特流。若是仍未超过该间隔,则无需专门的操作。流程然后进至步骤5,将VOP时间增量插入比特流中。然后在步骤6中进行对象编码并插入比特流中。然后在步骤7中编码器检查判定是否要对更多的对象进行编码。如果要对更多的对象进行编码,流程再返回步骤2获得局部时基。如果不要对更多的对象编码,就结束流程。
下列公式分别用于确定I/P-视频物面和B-视频物面的绝对和相对VOP时间增量。
  tGTBn=B×tGTBI+tGTBO(n=0、1、2、3……)      (1)
  tAVTI=tTBI/p-tGTBn                           (2)
  tRVTI=tETB-tETBI/p                           (3)其中tGTBn为用第n个编码的模数时基标记的编码器时基,tGTBI为预定的模数时基间隔,tGTBO为编码器时基起始时间,tAVTI为I或p-视频物面的绝对VOP时间增量,tETBI/P为在I或P-视频物面编码起始时的编码器时基,tRVTI为B-视频物面的相对VOP时间增量,以及tETBB为在B-视频物面编码起始时的编码器时基。
接着,对复用一个以上视频物面进行说明。
当把一个以上的视频物面复用在一起时,复用器检查多个视频物面的比特流以确定复用顺序以及同步。所包括的操作表示在图8中。在步骤11中将要复用的每一个视频物面的VOP时间偏移插入比特流中。然后在步骤12中检查全部要进行复用的视频物面的比特流以判定全部物面是否都处于它们各自的模数时基。若它们是这样,则流程进至步骤13,将一共用的模数时基插入复用的比特流中。流程然后进至步骤14,将下一个编码的视频对象插入复用的比特流中。在步骤15中,对要进行复用的视频物面的比特流再次进行检查,看是否要对更多的视频对象要进行复用。若是这样,控制则再次进至步骤12。否则就结束流程。
对包含一个以上视频物面的比特流去复用进行说明。
在图9中描绘了对包含多个视频物面的比特流进行的去复用。在步骤21开始流程,对VOP时间偏移进行解码并送到解码器进行同步。然后在步骤22检查复用的比特流,看是否找到模数时基。若是找到模数时基则流程进至步骤23,将模数时基插入所有视频对象的比特流中。然后流程连续至步骤24,检查下一个视频对象并插入适当的视频对象比特流。最后再对复用的比特流进行检查,看是否还有要去复用的视频物。若有,则流程再进至步骤22。否则就终止流程。
对恢复时基进行说明。
图10中示出时基恢复的实施例。在恢复局部时基中,流程在步骤31开始,考虑由去复用器解码的VOP时间偏移来初始化局部时基。然后流程进至步骤32,核对比特流以判定模数时基是否被解码。若模数时基被解码,则流程进至步骤33,按照模数时基的增量增加局部时基。而后流程进至步骤37。若模数时基未被解码,则流程进至步骤34,对视频对象进行检查以判断它是否就是一个B一视频对象。如果是,则流程进至步骤35,根据式(6)计算出B-视频对象的解码时基。而后流程进至步骤37。若步骤34的结果不是一个B-视频对象,则流程进至步骤36,根据式(5)计算出解码时基。而后流程进至步骤37。在步骤37中检查比特流,看是否还有更多要解码的视频对象。若是有,则流程再进至步骤32。否则就终止流程。
下列公式用于确定视频对象所表示的时间标记;
tGTBn=n×tGTBI+tGTBO    (n=0、1、2、3……)  (4)
tDTBI/p=tAVTI+tGTBn                           (5)
tDTBB=tRVTI+tDTBI/p                           (6)其中tGTBn为用第n个解码的模数时基作记号的解码时基,tGTBI为预定的模数时基间隔,tGTBO为解码时基起始时间tDTBI/P为在I或P视频物面解码起始时的解码时基,tAVTI为I或P视频物面解码的绝对VOP时间增量,tDTBB为在B-视频物面解码起始时的解码时基,以及tRVTI为B-视频物面解码的相对VOP时间增量。
对比特流编码器的实现进行说明。
图11示出用于实现对模数时基和VOP时间增量进行编码的比特流编码器的方框图。为了进行这项说明的目的,利用图3B中的示例。由于使用了双向预测,编码顺序与图3B中所示的表示顺序不同。编码顺序以I-VOP开始,P-VOP接着I-VOP,在B-VOP之前。这在下面的三段中作了说明。
流程在步骤41在起始器中开始,通过将局部时基寄存器初始至时间码的初始值来启动比特流编码器。将相同的时间码值编码成比特流。在接着开始I-VOP的编码时,在步骤42,时间码比较器用I-VOP的表示时间与局部时基寄存器作比较。该结果在步骤43送到模数时基编码器。模数时基编码器向比特流中插入与已经过的模数时基增量的数量相等的所需数量的“1”。在此后面跟随符号“0”发送到模数时基码的结尾。将局部时基寄存器更新成为当前的模数时基。然后流程在步骤44进至VOP时基增量编码器,对I-VOP余下的表示时间码进行编码。
然后用作为P-VOP的下一个编码的视频物面重复该过程。在步骤42,时间码比较器将P-VOP表示时间与局部时基寄存器比较。其结果在步骤43送到模数时基编码器。模数时基编码器将插进与已经过的模数时基增量的数量相等的所需数量的“1”。在此后面跟随符号“O”送到模数时基码的结尾。将B-VOP时基寄存器设置成局部时基寄存器的数值,并将局部时基寄存器更新成当前的模数时基。然后流程在步骤44进至VOP时基增量编码器,对P-VOP余下的表示时间码进行编码。
然后用作为B-VOP的下一个编码的视频物面重复该过程。在步骤42,时间码比较器将B-VOP表示时间与B-VOP时基寄存器比较。其结果在步骤43送到模数时基编码器。模数时基编码器将插进与已经过的模数时基增量的数量相等的所需数量的“1”。在此后面跟随符号“0”送到模数时基码的结尾。在处理B-VOP之后不论是B-VOP时基寄存器还是局部时基寄存器均不改变。然后流程在步骤44进至VOP时基增量编码器,对B-VOP余下的表示时间码进行编码。
在标记下一组VOP起点的下一个I-VOP将局部时基寄存器复位。
对比特流解码器的实现进行说明。
图12示出实现模数时基与VOP时间增量的解码器以恢复表示时间标记的方框图。如在实现编码器中那样,使用图3B中的示例。解码顺序与编码顺序相同,对I-VOP解码之后接着是P-VOP,在B-VOP之前。在以下段落中对此作出说明。
流程在步骤51的起始器中开始,将局部时基寄存器设置成从比特流解码的时间码值。然后流程在步骤52进至模数时基解码器,对模数时基增量进行解码。由在符号“0”之前解码的“1”的数量给出解码的模数时基增量的总数。接下来,在步骤53,按VOP时基增量对VOP时基增量解码。在步骤54,在时基计算器中,恢复I-VOP的表示时间。将总的解码模数时基增量值加到局部时基寄存器。而后将VOP时基增量加到局部时基寄存器,以获得I-VOP的表示时间。然后流程进至对视频对象解码的视频对象解码器。
对于P-VOP,流程在步骤52在模数时基解码器中重复进行,对模数时基增量解码。由在符号“0”之前解码的“1”的数量给出解码的模数时基增量的总数。接下来,在步骤53,按VOP时基增量对VOP时基增量解码。在步骤54,在时基计算器中,恢复P-VOP的表示时间。将B-VOP模数时基寄存器设置成局部时基寄存器中的数值。将总的解码模数时基增量值加到局部时基寄存器上。而后将VOP的时基增量加到局部时基寄存器以获得P-VOP的表示时间。然后流程进至对视频对象解码的视频对象解码器。
对于B-VOP,流程在步骤52在模数时基解码器中重复进行,对模数时基增量。由在符号“0”之前解码的“1”的数量给出解码的模数时基增量的总数。接下列,在步骤53,按VOP时基增量对VOP时基增量解码。在步骤54,在时基计数器中,恢复B-VOP的表示时间。将总的解码模数时基增量值和VOP时基增量加到B-VOP时基寄存器以获得B-VOP的表示时间。无论是B-VOP时基寄存器还是局部时基寄存器均保持未变。而后流程进至对视频对象解码的视频对象解码器。
在标记下一组VOP的起点的下一个I-VOP复位局部时基寄存器。
对特定示例进行说明。
参阅图13,示出了将压缩数据编码成比特流数据的步骤示例。如在图13的顶端行中所示,压缩的视频数据VOP按照显示顺序I1、B1、B2、P1、B3、P2与插在VOP组的起始处的GOP(画面组)首部对齐。在进行显示的同时,使用局部时间时钟对每一VOP测量实现显示的局部时间。例如,第一VOP(I1-VOP)在从视频数据最开始处计算的1小时23分45秒350毫秒(1:23:45:350)显示;第二VOP(B1-VOP)在1:23:45:750显示;第三VOP(B2-VOP)在1:23:46:150显示;等等。
为了对VOP编码,必需将显示时间数据插到每一VOP中。插入包括小时、分、秒和毫秒的全部时间数据在每个VOP的首部占用一定的数据空间。本发明的目的是要减少这样的数据空间并简化要插入每个VOP中的时间数据。
图13的第一行中所示的每个VOP在VOP时间增量区存有毫秒的显示时间数据。第一行中的每个VOP还临时存有小时、分和秒的显示时间数据。GOP首部存有第一VOP(I1-VOP)的小时、分和秒的显示时间。
如图13的第二行中所示,使用缓冲器(未予示出)将VOP延迟一段预定时间。当VOP从缓冲器中产生时,按双向预测规则改变VOP的顺序,以使双向VOP,即B-VOP,应该位于作为B-VOP基准的P-VOP的后面。这样,VOP就按照I1、P1、B1、B2、P2、B3的顺序排列。
如图13的第三行中所示,在时间T1,即当对GOP首部进行编码时,局部时基寄存器存入在GOP首部所存的小时、分、秒数据。在图13所示的示例中,局部时基寄存器存入1:23:45。然后,在时间T2之前,获得具有如图13的底行中所示插入的小时、分、秒数据的GOP首部的比特流数据。
然后,在时间T2,第一VOP(I1-VOP)开始。时间码比较器将存在局部时基寄存器中的时间(小时、分、秒)与暂时存储在第一VOP(I1-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果是相同的。这样,比较器就产生“0”,它表示第一VOP(I1-VOP)出现在与局部时基寄存器中所保存的秒相同的秒。由比较器产生的结果“0”在模数时基区加到第一VOP(I1-VOP)上。与此同时,消除临时存入第一VOP(I1-VOP)中的小时、分和秒数据。这样,在时间T3之前,获得具有插入在模数时基区内的“0”和插入在VOP时间增量区内的“350”的第一VOP(I1-VOP)的比特流数据。
然后,在时间T3,第二VOP(P1-VOP)开始。时间码比较器将存入局部时基寄存器中的时间(小时、分、秒)与临时存入第二VOP(P1-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果是临时存入第二VOP(PI-VOP)中的时间比存入局部时基寄存器中的时间大一秒。这样,比较器就产生“10”,它表示第二VOP(P1-VOP)出现在局部时基寄存器中所保存秒数的下一秒。倘若第二VOP(P1-VOP)出现在局部时基寄存器中所保存秒数的再下一秒,比较器将会产生“110”。
在时间T3之后,将B-VOP时基寄存器设置成与刚好在时间T3前局部时基寄存器中所包含的时间相等的时间。在该示例中,将B-VOP时基寄存器设置成1:23:45。同样地,在时间T3之后,将局部时基寄存器增加到与临时存入第二VOP(P1-VOP)中的时间相等的时间。这样,在该示例中,局部时基寄存器增加到1:23:46。
由比较器所产生的结果“10”在模数时基区加到第二VOP(P1-VOP)上。与此同时,消除临时存入第二VOP(P1-VOP)中的小时、分、秒数据。这样,在时间T4之前,获得具有插入模数时基区的“10”和插入VOP时间增量区的“550”的第二VOP(P1-VOP)的比特流数据。
然后,在时间T4,第三VOP(B1-VOP)开始。时间码比较器将存入B-VOP时基寄存器中的时间(小时、分、秒)与临时存入第三VOP(B1-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果为相同。这样,比较器就产生“0”,它表示第三VOP(B1-VOP)出现与B-VOP时基寄存器所保存的秒数相同的秒。把由比较器产生的结果“0”在模数时基区加到第三VOP(B1-VOP)上。与此同时,消除临时存入第三VOP(B1-VOP)中的小时、分和秒数据。这样,在时间T5之前,获得具有插入模数时基区的“0”和插入VOP时间增量区的“750”的第三VOP(B1-VOP)的比特流数据。
然后,在时间T5,第四VOP(B2-VOP)开始。时间码比较器将存入B-VOP时基寄存器中的时间(小时、分、秒)与临时存入第四VOP(B2-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果是临时存入第四VOP(B2-VOP)中的时间比存入B-VOP时基寄存器中的时间大一秒。这样,比较器就产生“10”,它表示第四VOP(B2-VOP)出现在B-VOP时基寄存器中所保存的秒数的下一秒。
在处理B型VOP期间,不论比较器产生的结果如何,不管是局部时基寄存器还是B-VOP时基寄存器均未增大。
由比较器产生的结果“10”在模数时基区加到第四VOP(B2-VOP)上。与此同时,消除临时存入第四VOP(B2-VOP)中的小时、分和秒数据。这样,在时间T6之前,获得了具有插入模数时基区的“10”和插入VOP时间增量区的“150”的第四VOP(B2-VOP)的位流数据。
然后,在时间T6,第五VOP(P2-VOP)开始。时间码比较器将存入局部时基寄存器中的时间(小时、分、秒)与临时存入第五VOP(P2-VOP)中的时间(小时、分、秒)作比较。按照该示例,比较的结果是临时存入第五VOP(P2-VOP)中的时间比存入局部时基寄存器中的时间大一秒。这样,比较器就产生10”,它表示第五VOP(P2-VOP)出现在局部时基寄存器中所保存的秒数的下一秒。
在时间T6之后,B-VOP时基寄存器增加到与刚好在时间T6之前局部时基寄存器中所包含的时间相等的时间。在该示例中,B-VOP时基寄存器增加到1:23:46。同样地,在时间T6之后,局部时基寄存器增加到与临时存入第五VOP(P2-VOP)中的时间相等的时间。这样,在该示例中,局部时基寄存器增加到1:23:47。
由比较器所产生的结果“10”在模数时基区加到第五VOP(P2-VOP)上。与此同时,消除临时存入第五VOP(P2-VOP)中的小时、分、秒数据。这样,在时间T7之前,获得具有插入模数时基区的“10”和插入VOP时间增量区的“350”的第五VOP(P2-VOP)的比特流数据。
此后,为形成后面VOP的比特流数据而进行类似的运行。
为了对流数据解码,进行与以上相反的运行。首先,读出在GOP首部包含的时间(小时、分、秒)。读出时间存入局部时基寄存器中。
一旦收到I型或P型的VOP,即除了B型VOP之外,读出存储在模数时基区中的数据。若读出的数据为“0”,即在0之前没有任何1,在局部时基寄存器中没有改变,而且在B-VOP中也没有改变。若读出的数据为“10”,存入局部时基寄存器中的时间增加一秒。若读出的数据为“110”,存入局部时基寄存器中的时间增加两秒。按照这种方式,由0之前所插入的1的数量确定应该增加的秒数。同时地,当读出的数据为“10”或“110”时,作为存储器的B-VOP时基寄存器复制局部时基寄存器刚好在最新增长之前所包含的时间。然后,将局部时基寄存器中所包含的时间(小时、分、秒)与VOP时间增量区中包含的时间(毫秒)相组合以建立I型或P型VOP要出现的特定时间。
一旦收到B型VOP,读出存入模数时基区中的数据。若读出的数据为“0”,将B-VOP时基寄存器中包含的时间(小时、分、秒)与VOP时间增量区中包含的时间(毫秒)相组合以建立B型VOP应该出现的特定时间。若读出的数据为“10”,将B-VOP时基寄存器中包含的时间(小时、分、秒)增加一秒,而后使增加后的时间与VOP时间增量区中包含的时间(毫秒)相组合,以建立B型VOP应该出现的特定时间。若读出的数据为“110”,就将B-VOP时基寄存器中包含的时间(小时、分、秒)增加两秒,而后使增加后的时间与VOP时间增量区中包含的时间(毫秒)相组合,以建立B型VOP应该出现的特定时间。
本发明的效果能够复用由不同编码器编码的视频物面。它还便于来自不同来源的压缩数据的物基比特流操作产生新的比特流。它提供了一种同步视听对象的方法。
对本发明所作的如此描述,显然可以经过许多变动途径同样实现。不能把这样的变动视为脱离了本发明的精神和范围,而且对本领域技术人员显而易见的所有改变包括在所附权利要求范围之内。

Claims (2)

1.一种对视频物面(VOP)的局部时基解码的方法,其特征在于:
(a)对当前视频物面(VOP)的模数时基解码,所述模数时基表示在解码顺序中从由前一个解码的视频物面(VOP)的模数时基标记的参考时间起已经经过的预定间隔,
(b)对当前视频物面(VOP)的时基增量解码,所述时基增量表示从由当前视频物面(VOP)的模数时基标记的参考时间起的时间增量,
(c)通过组合所述当前视频物面(VOP)的解码后的时基增量和所述由当前视频物面(VOP)的模数时基标记的参考时间来确定当前视频物面(VOP)的局部时基。
2.根据权利要求1所述的对视频物面(VOP)的局部时基解码的方法,其特征在于所述预定间隔是以一秒为分辨单位的时间。
CN97190851A 1996-07-05 1997-07-03 显示多个视频物面的时间标记和同步的方法 Expired - Lifetime CN1107418C (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP176430/96 1996-07-05
JP17643096 1996-07-05
JP176430/1996 1996-07-05

Related Child Applications (3)

Application Number Title Priority Date Filing Date
CNB011159413A Division CN1184821C (zh) 1996-07-05 1997-07-03 对视频序列进行局部时基编码的方法
CNB011159405A Division CN1152579C (zh) 1996-07-05 2001-06-06 确定双向预测码视象物面局部时基的方法
CNB011159391A Division CN1148971C (zh) 1996-07-05 2001-06-06 确定视象物面局部时基的方法

Publications (2)

Publication Number Publication Date
CN1197579A CN1197579A (zh) 1998-10-28
CN1107418C true CN1107418C (zh) 2003-04-30

Family

ID=16013573

Family Applications (5)

Application Number Title Priority Date Filing Date
CNB011159413A Expired - Lifetime CN1184821C (zh) 1996-07-05 1997-07-03 对视频序列进行局部时基编码的方法
CN97190851A Expired - Lifetime CN1107418C (zh) 1996-07-05 1997-07-03 显示多个视频物面的时间标记和同步的方法
CNB2004100950994A Expired - Lifetime CN1292598C (zh) 1996-07-05 1997-07-03 对多个视象物面作显示时间标记和同步的方法
CNB011159391A Expired - Lifetime CN1148971C (zh) 1996-07-05 2001-06-06 确定视象物面局部时基的方法
CNB011159405A Expired - Lifetime CN1152579C (zh) 1996-07-05 2001-06-06 确定双向预测码视象物面局部时基的方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CNB011159413A Expired - Lifetime CN1184821C (zh) 1996-07-05 1997-07-03 对视频序列进行局部时基编码的方法

Family Applications After (3)

Application Number Title Priority Date Filing Date
CNB2004100950994A Expired - Lifetime CN1292598C (zh) 1996-07-05 1997-07-03 对多个视象物面作显示时间标记和同步的方法
CNB011159391A Expired - Lifetime CN1148971C (zh) 1996-07-05 2001-06-06 确定视象物面局部时基的方法
CNB011159405A Expired - Lifetime CN1152579C (zh) 1996-07-05 2001-06-06 确定双向预测码视象物面局部时基的方法

Country Status (11)

Country Link
US (6) USRE38875E1 (zh)
EP (6) EP1073278B1 (zh)
JP (1) JP3186775B2 (zh)
KR (1) KR100274434B1 (zh)
CN (5) CN1184821C (zh)
DE (5) DE69719828T2 (zh)
ES (5) ES2166746T3 (zh)
HK (4) HK1016390A1 (zh)
SG (1) SG90765A1 (zh)
TW (1) TW359918B (zh)
WO (1) WO1998002003A1 (zh)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL167288A (en) * 1997-04-01 2012-03-29 Sony Corp Image encryption device, image encryption method, image decryption device, image decryption method, and appropriate medium
WO1999021367A1 (fr) * 1997-10-20 1999-04-29 Mitsubishi Denki Kabushiki Kaisha Codeur et decodeur d'image
DE19746611A1 (de) * 1997-10-22 1999-04-29 Bosch Gmbh Robert Verfahren zur Verbesserung der Konturcodierung von Bildsequenzen sowie Anwendung
JP2000013790A (ja) * 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
JP4109772B2 (ja) * 1998-12-03 2008-07-02 キヤノン株式会社 データ処理方法及びその装置
ID24586A (id) * 1998-12-21 2000-07-27 Matsushita Electric Ind Co Ltd Perangkat dan metode penyelarasan waktu dengan menggunakan modul basis waktu dan resolusi peningkatan waktu
US6299998B1 (en) * 1999-03-15 2001-10-09 Reveo, Inc. Movable anode fuel cell battery
CN100348044C (zh) * 1999-03-31 2007-11-07 松下电器产业株式会社 不同帧速率多流混合视频流的无缝译码装置
US7624337B2 (en) * 2000-07-24 2009-11-24 Vmark, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
JP4690635B2 (ja) * 2000-08-15 2011-06-01 マイクロソフト コーポレーション メディアサンプルをタイムコーディングする方法、システム、およびデータ構造
EP1312206A1 (en) * 2000-08-16 2003-05-21 Koninklijke Philips Electronics N.V. Method of playing multimedia applications
WO2002015591A1 (en) * 2000-08-16 2002-02-21 Koninklijke Philips Electronics N.V. Method of playing multimedia data
JP4208398B2 (ja) * 2000-10-05 2009-01-14 株式会社東芝 動画像復号再生装置、動画像復号再生方法及びマルチメディア情報受信装置
US20020089602A1 (en) * 2000-10-18 2002-07-11 Sullivan Gary J. Compressed timing indicators for media samples
WO2002071736A2 (en) * 2001-03-05 2002-09-12 Intervideo, Inc. Systems and methods of error resilience in a video decoder
US20020145622A1 (en) * 2001-04-09 2002-10-10 International Business Machines Corporation Proxy content editing system
US6870887B2 (en) * 2001-04-09 2005-03-22 International Business Machines Corporation Method and system for synchronization between different content encoding formats
US7280738B2 (en) 2001-04-09 2007-10-09 International Business Machines Corporation Method and system for specifying a selection of content segments stored in different formats
US6662176B2 (en) * 2001-05-07 2003-12-09 Hewlett-Packard Development Company, L.P. Database indexing and rolling storage method for time-stamped normalized event data
US20030229549A1 (en) 2001-10-17 2003-12-11 Automated Media Services, Inc. System and method for providing for out-of-home advertising utilizing a satellite network
US7614065B2 (en) * 2001-12-17 2009-11-03 Automated Media Services, Inc. System and method for verifying content displayed on an electronic visual display
US20050075929A1 (en) * 2002-10-17 2005-04-07 Wolinsky Robert I. System and method for partitioning airtime for distribution and display of content
EP1328127A1 (de) * 2002-01-09 2003-07-16 Beta Research GmbH Simultaneinspeisung und Synchronisation von Audio und Videodaten
US7149247B2 (en) 2002-01-22 2006-12-12 Microsoft Corporation Methods and systems for encoding and decoding video data to enable random access and splicing
ATE352171T1 (de) * 2002-01-22 2007-02-15 Microsoft Corp Verfahren zum ermöglichen von direktzugriff und spleissen in einem verschlüsselten videostrom
TWI310137B (en) * 2002-04-19 2009-05-21 Microsoft Corp Methods and systems for preventing start code emulation at locations that include non-byte aligned and/or bit-shifted positions
US7088776B2 (en) * 2002-07-15 2006-08-08 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
AU2013204651B2 (en) * 2002-07-15 2015-12-24 Apple Inc Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
AU2008201106C1 (en) * 2002-07-15 2011-06-09 Apple Inc. Method and bitstream for variable accuracy inter-picture timing specification for digital video encoding
US8254461B2 (en) 2002-07-24 2012-08-28 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US6728315B2 (en) 2002-07-24 2004-04-27 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US7613630B2 (en) * 2002-10-17 2009-11-03 Automated Media Services, Inc. System and method for editing existing footage to generate and distribute advertising content to retail locations
EP1487214A1 (en) * 2003-06-11 2004-12-15 Digital Multimedia Technologies S.P.A. A method and a system for synchronizing MHP applications in a data packet stream
US20050002459A1 (en) * 2003-07-04 2005-01-06 Protocom Technology Corporation Method for determining display order of VOPs in decoder end of MPEG image system and device for executing the same
US7609762B2 (en) 2003-09-07 2009-10-27 Microsoft Corporation Signaling for entry point frames with predicted first field
US7839930B2 (en) * 2003-11-13 2010-11-23 Microsoft Corporation Signaling valid entry points in a video stream
US8213779B2 (en) * 2003-09-07 2012-07-03 Microsoft Corporation Trick mode elementary stream and receiver system
US7924921B2 (en) * 2003-09-07 2011-04-12 Microsoft Corporation Signaling coding and display options in entry point headers
US7852919B2 (en) * 2003-09-07 2010-12-14 Microsoft Corporation Field start code for entry point frames with predicted first field
KR20060135827A (ko) * 2004-04-15 2006-12-29 마쯔시다덴기산교 가부시키가이샤 컨텐츠 생성 장치 및 방법
DE602004009560T2 (de) * 2004-07-22 2008-08-21 Harman Becker Automotive Systems Gmbh Datenübertragungssynchronisationsschema
US8228956B2 (en) * 2005-04-19 2012-07-24 Alcatel Lucent Time stamp offset in data packet bundling
US8315308B2 (en) * 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability
WO2008118183A1 (en) * 2007-03-28 2008-10-02 Motionbox, Inc. System and method for autogeneration of long term media data from networked time-based media
WO2007112445A2 (en) * 2006-03-28 2007-10-04 Motionbox, Inc. A system and data model for shared viewing and editing of time-based media
EP1999674A4 (en) * 2006-03-28 2010-10-06 Hewlett Packard Development Co SYSTEM AND METHOD FOR SOCIAL NAVIGATION IN A NETWORK TIME MEDIA
WO2008073538A1 (en) * 2006-08-18 2008-06-19 Motionbox, Inc. An operational system and architectural model for improved manipulation of video and time-based media
US20090129740A1 (en) * 2006-03-28 2009-05-21 O'brien Christopher J System for individual and group editing of networked time-based media
WO2008060655A2 (en) * 2006-03-29 2008-05-22 Motionbox, Inc. A system, method, and apparatus for visual browsing, deep tagging, and synchronized commenting
EP1855402A1 (en) * 2006-05-11 2007-11-14 Koninklijke Philips Electronics N.V. Transmission, reception and synchronisation of two data streams
JP4607856B2 (ja) * 2006-12-26 2011-01-05 富士通株式会社 符号化復号システム及び符号化復号方法
US7765315B2 (en) * 2007-01-08 2010-07-27 Apple Inc. Time synchronization of multiple time-based data streams with independent clocks
MY157150A (en) * 2007-03-08 2016-05-13 Ericsson Telefon Ab L M Seeking and synchronization using global scene time
KR101372418B1 (ko) * 2007-10-19 2014-03-12 (주)휴맥스 비트스트림 디코딩 장치 및 방법
WO2009100453A2 (en) * 2008-02-08 2009-08-13 Automated Media Services, Inc. System and method for creating an in-store media network using traditional media metrics
EP2351372B1 (en) * 2008-10-28 2020-08-05 Cisco Technology, Inc. Stream synchronization for live video encoding
US20100225811A1 (en) * 2009-03-05 2010-09-09 Nokia Corporation Synchronization of Content from Multiple Content Sources
JP6605789B2 (ja) 2013-06-18 2019-11-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置、および、受信装置
US10779057B2 (en) * 2015-06-08 2020-09-15 Qualcomm Incorporated Broadcast content redistribution and ad insertion
US10271069B2 (en) 2016-08-31 2019-04-23 Microsoft Technology Licensing, Llc Selective use of start code emulation prevention
US10694227B2 (en) * 2017-01-13 2020-06-23 Panasonic Intellectual Property Management Co., Ltd. Video transmission system and video transmission method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364281B2 (ja) * 1993-07-16 2003-01-08 パイオニア株式会社 時分割ビデオ及びオーディオ信号の同期方式
US5467139A (en) * 1993-09-30 1995-11-14 Thomson Consumer Electronics, Inc. Muting apparatus for a compressed audio/video signal receiver
US5430485A (en) * 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
GB9424429D0 (en) 1994-12-02 1995-01-18 Philips Electronics Uk Ltd Audio/video timing discrepancy management
US5953073A (en) * 1996-07-29 1999-09-14 International Business Machines Corp. Method for relating indexing information associated with at least two indexing schemes to facilitate the play-back of user-specified digital video data and a video client incorporating the same
US5784422A (en) * 1996-08-05 1998-07-21 Transcrypt International, Inc. Apparatus and method for accurate synchronization with inbound data packets at relatively low sampling rates

Also Published As

Publication number Publication date
HK1060463A1 (en) 2004-08-06
USRE40664E1 (en) 2009-03-17
EP1073278A1 (en) 2001-01-31
EP1343330B1 (en) 2007-08-15
US6075576A (en) 2000-06-13
EP1073277A1 (en) 2001-01-31
EP1111933A1 (en) 2001-06-27
DE69704481D1 (de) 2001-05-10
DE69707720D1 (de) 2001-11-29
CN1152579C (zh) 2004-06-02
DE69707720T2 (de) 2002-08-08
TW359918B (en) 1999-06-01
WO1998002003A1 (en) 1998-01-15
CN1620149A (zh) 2005-05-25
DE69707929D1 (de) 2001-12-06
DE69738035T2 (de) 2008-04-30
CN1184821C (zh) 2005-01-12
EP1111934B1 (en) 2001-10-24
ES2194801T3 (es) 2003-12-01
KR19990044406A (ko) 1999-06-25
USRE39344E1 (en) 2006-10-17
EP1111933B1 (en) 2003-03-12
DE69738035D1 (de) 2007-09-27
DE69719828T2 (de) 2003-12-24
KR100274434B1 (ko) 2000-12-15
USRE38875E1 (en) 2005-11-15
ES2169019T3 (es) 2002-07-01
DE69719828D1 (de) 2003-04-17
USRE38923E1 (en) 2005-12-20
SG90765A1 (en) 2002-08-20
CN1347250A (zh) 2002-05-01
HK1075345A1 (en) 2005-12-09
ES2158570T3 (es) 2001-09-01
USRE39115E1 (en) 2006-06-06
CN1347251A (zh) 2002-05-01
ES2166746T3 (es) 2002-05-01
DE69707929T2 (de) 2002-06-20
EP0864228B1 (en) 2001-04-04
EP0864228A1 (en) 1998-09-16
EP1343330A2 (en) 2003-09-10
HK1016390A1 (en) 1999-10-29
ES2291563T3 (es) 2008-03-01
CN1148971C (zh) 2004-05-05
EP1111934A1 (en) 2001-06-27
HK1016392A1 (en) 1999-10-29
CN1364032A (zh) 2002-08-14
EP1343330A3 (en) 2006-05-10
JP3186775B2 (ja) 2001-07-11
DE69704481T2 (de) 2001-10-31
CN1292598C (zh) 2006-12-27
JPH11513222A (ja) 1999-11-09
EP1073278B1 (en) 2001-10-31
CN1197579A (zh) 1998-10-28

Similar Documents

Publication Publication Date Title
CN1107418C (zh) 显示多个视频物面的时间标记和同步的方法
CN1169087C (zh) 多道数据压缩方法
EP0966161A3 (en) Apparatus and method for video encoding and decoding
EP2544451A3 (en) Method and system for digital decoding 3D stereoscopic video images
TW200945901A (en) Flexible sub-stream referencing within a transport data stream
WO2007081477A1 (en) Converting a still image in a slide show to a plurality of video frame images
JP2008166862A (ja) 符号化復号システム、符号化システムおよび復号システム
CN102065319A (zh) 用于多路复用h.264基本流的方法和装置
CN1234945A (zh) 转换视频序列的方法和相应的转换装置和解码系统
CN1147079C (zh) 用于将编码数据解复用的设备
CN1871661A (zh) 提供视频信号的方法和设备
KR20030047769A (ko) 향상된 산술 코딩/디코딩을 위한 장치
JP3174042B6 (ja) B−vopの時刻復号化方法
JP3401505B2 (ja) Vopの時刻符号化方法
JP3174042B2 (ja) B−vopの時刻復号化方法
JP2001148854A (ja) 多重ビデオ対象画の表示時間スタンピング方法と同期化方法
JP3421024B2 (ja) Vopの時刻復号化方法
CN1879332A (zh) 控制数字音频广播系统中的比特速率的方法以及使用该方法来转换媒体流的装置与方法
JP2005252898A (ja) 符号化データの再構成プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20140716

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20140716

Address after: California, USA

Patentee after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Japan Osaka

Patentee before: Matsushita Electric Industrial Co.,Ltd.

CX01 Expiry of patent term
CX01 Expiry of patent term

Granted publication date: 20030430