CN1973556B - 体视图像生成方法和装置 - Google Patents

体视图像生成方法和装置 Download PDF

Info

Publication number
CN1973556B
CN1973556B CN2005800208121A CN200580020812A CN1973556B CN 1973556 B CN1973556 B CN 1973556B CN 2005800208121 A CN2005800208121 A CN 2005800208121A CN 200580020812 A CN200580020812 A CN 200580020812A CN 1973556 B CN1973556 B CN 1973556B
Authority
CN
China
Prior art keywords
image
zone
stereoscopic
exclusionary zone
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2005800208121A
Other languages
English (en)
Other versions
CN1973556A (zh
Inventor
吉良雅贵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN1973556A publication Critical patent/CN1973556A/zh
Application granted granted Critical
Publication of CN1973556B publication Critical patent/CN1973556B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance

Abstract

缓和由体视产生的两眼视场斗争,减轻观察者的疲劳感。两眼观察时的左视图像(320)的点b所对应的融合点成为右视图像(321)的点a。左眼(200)和右眼(201)观察的物不同,所以如果用两眼注视点b,就发生两眼视场斗争。左视图像(320)上的点b是清晰的像,而右视图像(321)上的点a是模糊的像。结果,清晰的点b的像优先,成为感觉的像,位于同距离的对象物B成为优先感觉的像。因此,模糊的点a和周边的对象物A的像成为排除的像。

Description

体视图像生成方法和装置
技术领域
本发明涉及体视(stereoscopic)图像生成方法和装置,更具体而言,涉及提高体视效果或降低两眼视差体视的两眼视场斗争的体视图像生成方法和装置。
背景技术
两眼视差体视是通过左眼用图像和右眼用图像的视差图像的偏移,取得立体感,用左眼观察左眼用图像,同时用右眼观察右眼用图像,在脑中融合两图像,从而感知偏移,从偏移的程度,知觉深度。分别用在左视点和右视点设置的相机拍摄,制作两眼视差体视用的左眼用、右眼用图像。通常,两眼体视用的左右图像用立体摄象机拍摄,生成,但是这时拍摄时的景深印入图像。在全部的位置对焦时,景深印为无限大。此外,有时用一个相机移动视点位置,2次拍摄。
近年,常常用3维计算机图形(3DCG)制作。在3DCG中,仿真现实的相片系统,所以以下在用3DCG生成左右图像时,也使用称作拍摄的语言。
这样生成的左右图像根据拍摄装置(相机或3DCG生成装置)本来具有的性能和设定的条件决定图像的质量。图像的质量例如是景深、焦点位置、构图、缩放(视场角)的设定等相机和透镜的光学特性、胶片和感光剂等的化学特性、CCD等感光器件的特性,反映到拍摄的图像中。其中如果提到光学特性,则在通常的照片中,成为在被拍摄体的特定位置对焦的图像。
一般,体视用右图像和左图像的设定条件除了拍摄时的视点位置不同以外,同一地设定,但是在3DCG中也相同。例如,用2个相机拍摄时,使用同一种类的相机、透镜和胶片,用相同的曝光、相同的快门速度、相同的变焦拍摄。这些左眼用图像和右眼用图像能作为通常观察用的1个图像利用,各图像是与从1视点拍摄的通常的(一个图像用的)图像完全相同的图像。
(两眼视场斗争)
在用两眼观察分别带有视差的图像的两眼体视中,因为观察图像是平面,所以存在无法有效调焦的问题,但是即使不考虑该问题,用左眼观察从左眼位置拍摄的左眼用图像(通常的相片),用右眼观察从右眼位置拍摄的右眼用图像(通常的相片)的单纯的体视对于在现实世界中用两眼观察外界的人,提供非常不自然的视觉作用。这是因为已经存在的体视是疲劳的原因之一,强行用各眼观察基于1眼的图像,所以助长两眼体视时的不自然感。如果在体视用图像中使用照片图像那样的在宽阔区域中对焦的图像,这样的不自然感变得显著。
如果它加剧,就感觉到多个在左右眼不融像的区域,发生在两眼感觉到不同的视觉像的两眼视场斗争,大脑混乱,感觉到摇晃的像。在现实世界中用两眼观察对象物时,人具有降低两眼视场斗争的功能,但是后面描述该事实。
(体视图像的景深的利用)
上述的降低两眼视场斗争的功能之一是在调焦有效地工作的现实世界中观察对象物的人眼具有的基于景深的功能,但是观察两眼体视用图像的体视时,通过调整反映到两眼体视用图像的图像内容中的模糊的量,能利用该功能。观察两眼体视用图像时,观察者的调焦位置位于两眼体视用图像上,是眼的调焦不有效工作的状态。
为了在显示器(在本技术中,HMD)中显示不带有景深的体视用左右图像,提出检测显示的图像的观察者注视的位置,对根据它显示的图像赋予景深,如果注视点移动,就对焦到移动后的注视点位置,把那里作为基点,对图像赋予景深的技术(参照专利文献1)。
即对于不带有景深的(全部对焦)的体视用左右图像,按照观察者的注视点的移动,使赋予景深的基点变化,现实赋予景深的图像。
可是,上述的对图像赋予景深的技术在观察者的注视位置的检测、显示图像的修正上花费时间,难以取得自然的视觉。如果在注视位置的检测中存在误差,就更成为眼疲劳的原因。难以拍摄不赋予景深的(全部对焦的)体视用左右图像、深度图(用浓度表示从视点到对象物的教练的图像),至少无法用通常的相机取代。存在装置变得复杂,花费成本或者只能一个人观察的问题。
此外,视差大的体视用左右图像在融合时偏移过大,成为视场斗争多的图像,体视观察者的生理负担增大。据此,成为眼疲劳、眼痛、恶心、头痛等的原因。
本发明是鉴于这样的问题而提出的,其目的在于,缓和由体视产生的两眼视场斗争,减轻观察者的疲劳感。
专利文献1:特开平10-239634号公报
专利文献1:井上弘著,“探索体视的不可思议”(光电子学社,平成11年2月发行)
非专利文献2:日本相片测量学会编,“立体相片的观察方法、拍摄方法、制作方法”(技术堂出版株式会社)
非专利文献3:“图像和空间的信息处理”岩波讲座多媒体信息学。
发明内容
本发明是鉴于这样的目的而提出的,本发明的体视图像生成方法中,具有体视用的左图像和右图像,其特征在于,包括:在给定显示面上显示的左图像和右图像中抽出分别对应的一对没有融合点的左右的对象区域的对象区域抽出步骤;确定左右的对象区域中的任意一个不显眼一方的区域,把不显眼一方的区域作为排除区域抽出的排除区域抽出步骤;或排除区域加工步骤。使程序执行以上的方法,把执行的程序存储到计算机可读取的媒体中。
此外,本发明的体视图像生成装置具有体视用的左图像和右图像,其特征在于,包括:在给定显示面上显示的左图像和右图像中抽出分别对应的一对没有融合点的左右的对象区域的对象区域抽出部件;确定左右的对象区域中的任意一个不显眼一方的区域,把不显眼一方的区域作为排除区域抽出的排除区域抽出部件;或排除区域加工部件。
本发明的体视的方法体视具有体视用的左图像和右图像的体视图像,其特征在于,包括:在给定显示面上显示的左图像和右图像中抽出分别对应的一对没有融合点的左右的对象区域的对象区域抽出步骤;确定左右的对象区域中的任意一个不显眼一方的区域,把不显眼一方的区域作为排除区域抽出的排除区域抽出步骤;或排除区域加工步骤。
此外,本发明的把体视图像体视的装置体视具有体视用的左图像和右图像的体视图像,其特征在于,包括:在给定显示面上显示的左图像和右图像中抽出分别对应的一对没有融合点的左右的对象区域的对象区域抽出部件;确定左右的对象区域中的任意一个不显眼一方的区域,把不显眼一方的区域作为排除区域抽出的排除区域抽出部件;或排除区域加工部件。
附图说明
下面简要说明附图。
图1A是表示包含对焦的部分和未对焦的部分的图像的图。
图1B是表示包含对焦的部分和未对焦的部分的图像的图。
图2是表示本发明一个实施形态的多个物体以隐藏重叠的关系配置的样子的图。
图3A是表示在图2的平面图中注视点b时的图。
图3B是表示一个实施形态的左和右的视觉像的图。
图4A是表示在图2的平面图中注视点a时的图。
图4B是表示一个实施形态的左和右的视觉像的图。
图5A是表示改变参照图3A、图3B说明的左右眼像的图像的图。
图5B是表示改变参照图4A、图4B说明的左右眼像的图像的图。
图5C是表示改变参照图3A、图3B、图4A、图4B说明的左右眼像的图像的图。
图6是表示本实施形态的处理的程序流程图。
图7是用于说明本实施形态的处理的程序流程图。
图8是说明一个实施形态的改变左右图像的间隔,虚拟面深度移动的图。
图9是说明一个实施形态的改变左右图像的间隔,虚拟面向跟前移动的图。
图10是说明一个实施形态的改变左右图像的间隔,虚拟面移动的图。
图11是说明一个实施形态的缩短左右图像的间隔,虚拟面移动的图。
图12是表示形成虚拟倾斜面地对左右图像进行变形处理的图像的一个例子的图。
图13是表示形成虚拟倾斜面地对左右图像进行变形处理的图像的一个例子的图。
图14是表示形成虚拟倾斜面地对左右图像进行变形处理的图像的一个例子的图。
图15是表示形成虚拟倾斜面地对左右图像进行变形处理的图像的一个例子的图。
图16是表示形成虚拟倾斜面地对左右图像进行变形处理的图像的一个例子的图。
图17是表示站在地上,在没有作为的状态下拍摄的相片的例子的图。
图18是用于说明为了发挥这样的效果而有效的虚拟倾斜面的图。
图19是表示形成虚拟倾斜面地对左右图像进行变形处理的图像的一个例子的图。
图20是表示形成虚拟倾斜面地对左右图像进行变形处理的图像的一个例子的图。
图21是表示本发明的图像生成装置即图像生成系统的一个实施形态的概念图。
图22是表示体视装置是平行法的观察器的图。
图23是表示体视装置是交叉式的观察器的图。
具体实施方式
为了实现本发明的目的,首先说明缓和两眼视场斗争的原理。首先,两眼视场斗争是指通过实验室中进行的用左右眼观察完全不同的像而发生的情形是例外,从两眼视差体视用的一对图像,虽然有程度的大小,但是在各区域中发生,或者不发生。
因此,象以下那样决定两眼视场斗争。
“发生两眼视场斗争的区域”是在左右眼中没有对应的融合点的区域。
“两眼视场斗争缓和”或“两眼视场斗争减少”是通过两眼视场斗争沉静化,结果对观察者的眼不带来负担,疲劳感小。
“两眼视场斗争变得显著”是通过两眼视场斗争变得激烈,像看起来摇晃,无法感觉稳定的像,眼的疲劳感增加。
一般,两眼视场斗争是指用左右眼观察相关性低的像时发生的不稳定的感觉现象,但是在本发明中,把两眼视场斗争作为程度的问题考虑,所以为以上的定义。
(景深和模糊)
下面说明景深和像中出现的模糊的关系。观察者在现实世界中观察外界时,在观察者的注视点的周边对焦,结果能清晰地观察到注视点,其前方和后方不对焦,模糊观察。与离对焦的距离成比例,模糊的量增大。发生所谓的与景深对应的模糊。
须指出的是,模糊不只是物的部分模糊,存在物的轮廓线模糊,侵蚀到后面的物的区域的现象。使用图1A和图1B,说明它。图1A是表示在杯子101对焦的图像的图。后面的杯子102在深度的方向远离,所以模糊。模糊用虚线的2重线表示,用2线的间隔表示模糊的宽度。
跟前的杯子101和后面的杯子102处于隐藏重叠(在跟前的物的背后隐藏后面的物,观察不到隐藏的部分的现象)的关系。在杯子101和杯子102重叠的部分103,能清晰地观察到杯子101的轮廓,杯子102的模糊的区域由杯子101的轮廓清晰地切取。
在前面的物体对焦时,后面的物体模糊时,后面的模糊不侵蚀前面的物体的轮廓。在图1A上,用粗线描绘部分103的轮廓,但是只有这里不是清晰的意思,是为了强调杯子101和杯子102相切的线而描绘的,在清晰度的方面,杯子101的轮廓完全是相同程度。
图1B是表示在杯子102对焦的图像的图。跟前的杯子101从焦点向跟前远离,所以模糊。杯子101和杯子102处于隐藏重叠的关系。在杯子101和杯子102重叠的部分104,杯子101的模糊的区域侵蚀杯子102的轮廓。
在后面的物体对焦,前面的物体模糊时,前面的物体的模糊侵蚀到后面的物体的能清晰观察到的区域。在图1B上用粗虚线描绘部分104,但是只有这里不是用特别的方法说模糊的意思,是为了强调杯子101和杯子102相切位置的模糊而描绘的。
在双方模糊时,跟前的模糊侵蚀到后面的物的模糊。双方清晰时,各边界线清晰地划分。在隐藏重叠和模糊中有这样的相互的现象。
(两眼观察时的模糊的作用)
由于这样的调焦而产生的模糊的现象在用两眼观察外界时起到降低两眼视场斗争的作用。在日常生活中,两眼视场斗争显著发生,用脑无法融像,感觉混乱的外界的像的事情少的一个理由是用左右眼观察不同的物时,一方的眼的像模糊,从而两眼视场斗争不显著发生。因为一方的眼的像模糊,所以即使用左右眼感觉到不同的像,在清楚地观察的像和模糊观察的像赋予优劣,迅速选择优先的像,缓和两眼视场斗争。
在模糊的程度明确地表现时,能瞬间判别能清楚观察的像是“观察的像”,模糊的像是未对焦的“观察不到的像”。这时,模糊的像对于观察者,当然“不是显眼的像”。
可是,景深与距离成比例,所以距离的差小时,模糊的程度的差小,但是距离的差微小时,即使在几何学上考虑,发生两眼视场斗争的区域窄,而且人眼因为景深浅,所以如后所述,由于隐藏重叠的关系而发生两眼视场斗争时,两眼视场斗争很少变得显著。模糊起到把两眼视场斗争沉静化的作用。
一般,人眼与相片和CG相比,景深浅,所以常常发生模糊。景深浅的一方在注视特定的位置时,能在窄的范围中对焦。如果在景深很宽的范围中对焦,就能清楚地观察到各种物体,所以反而不便于只注视这部分。
人与相机相比,景深极浅,但是人眼具有能在短时间频繁移动注视点的能力。因为能实时移动焦点位置,所以景深深的视觉像没必要。浅的一方有利于注视特定的位置。
而基于景深的模糊的现象在相片中也发生,通过调焦,清晰地拍摄对焦的部分,不对焦的部分洇,作为模糊出现在图像上,对焦的被拍摄体的前后与离焦点位置的距离成比例,大幅度模糊拍摄。可是,在模仿人眼制作的相机中,除了特殊的技法,一般拍摄景深深的模糊少的图像。因为无法象人眼那样在图像中以实时改变焦点位置,而且如果图像模糊的部分多,作为相片的实用性就降低。
在这样的人眼和相机中存在不同,但是在比对焦的位置更靠跟前或后方,与离焦点位置的距离成比例,像的模糊增大的基于景深的模糊的性质酷似。用相机拍摄的图像因为景深深,所以在我体视用左右图像使用时,体视观察者观察拍摄的相片,所以存在模糊的量少,两眼视场斗争变得更显著的倾向。
本发明是为了避免该事实而提出的,为了降低把相机拍摄的图像作为体视用左右图像使用时发生的两眼视场斗争,在两眼视场斗争发生的区域,为了使排除的一侧的图像区域变得更不显眼,进行加工修正。
(两眼视场斗争和模糊)
参照附图,说明两眼视场斗争和模糊的关系。须指出的是,在图1A和图1B以外的附图中,在表面的记载上无法正确表现模糊,所以用线的粗细和虚线表示模糊的程度,用单线表示。粗细表示对焦的状态,虚线表示焦点模糊的状态。线的粗细表示模糊的量(宽度)。线越细,模糊的量(宽度)越大。
发生两眼视场斗争的状况多发生在多个物体处于隐藏重叠的关系,位于后面的物只能用一方的眼观察到时。图2是表示本发明一个实施形态的多个物体以隐藏重叠的关系配置的样子的图。从左眼200和右眼201的视点位置深度的方向按顺序配置对象物A、对象物B、对象物D,在对象物A上有点a。点a在连接右眼201和对象物B上的点b的线和对象物A交叉的地方,位于从观察者能观察到的地方。在对象物B上有点b,点b和对象物B的下半部分在从右眼视点201观察时,被对象物A遮住,观察不到。
在对象物D上有点d,点d和对象物D的下半部分在从左眼视点200观察时,被对象物A遮住,观察不到。
(由两眼视场斗争排除的区域)
图3A是表示在图2的平面图中注视点b时的图。左眼200在点b对焦,观察对象物B上的点b,但是对象物D和点d被对象物A的背面遮住,观察不到。可是,能观察到对象物D的上半部分。用右倾斜的阴影线表示从左眼200观察不到的区域。
右眼201也注视点b,但是点b被对象物A遮住,所以观察位于右视线311上的与对象物A交叉的位置的点a。点a成为与左眼200观察的点b对应的右眼201的对应点。左倾斜的阴影线表示从右眼201观察不到的区域。
右倾斜的阴影线和左倾斜的阴影线交叉的区域表示从左眼200和右眼201观察不到的区域。
使用左眼200的左视觉像320(重要的是用左眼能这样观察到)、右眼201的右视觉像321(重要的是用右眼能这样观察到),说明以上的点。图3B是表示一个实施形态的左和右的视觉像的图。
在左视觉像320中,左眼200对焦在对象物B的点b上,所以能最清晰地观察到对象物B和点b。按照离对象物B的距离,能模糊观察到位于比对象物B更远的对象物D。可是,对象物D的下半部分及点d由对象物A遮住,无法观察到。对象物A和点a位于对象物B的跟前,所以按照离对象物B的距离,能模糊观察到。
在右视觉像321中,右眼201对焦在对象物B的点b上,但是点b由对象物A遮住,无法观察到。能观察到对象物B的上半部分,所以能最清晰地观察到这部分。点a位于连接右眼201和点b的右视线上,但是位于点b的跟前,所以模糊观察到点a,也模糊观察到位于同距离的对象物A。对象物D和点d位于对象物B的右后方,与离对象物B的距离成比例,能模糊观察到。
与两眼观察时的左视觉像320的点b对应的融合点成为右视觉像321的点a。左眼200和右眼201观察的物体不同,所以如果用两眼注视点b,就发生两眼视场斗争。
左视觉像320上的点b是清晰的像,而右视觉像321上的点a是模糊像。结果,清晰的点b的像成为优先感觉的像,位于同距离的对象物B也成为优先感觉的像。模糊的点a和周边的对象物A的像即包含点a并且位于与点a和视点的距离几乎相同的距离的区域是不显眼的像,所以迅速排除,两眼视场斗争降低。这里,几乎相同的距离根据图像的结构,但是为包含对象物(在本例子中,对象物A)的主要部分的程度的距离。
用人眼能在三维世界中进行调焦,所以在观察图3A、图3B那样的在深度方向重叠的对象物时发生两眼视场斗争时,调焦的结果生成的像的模糊只在一方一侧的像中发生,所以选择在两眼视场斗争中优先的像,排除不显眼的像变得容易。
这时,点b和点a的距离接近,在点b和点a的距离微小时,即使在几何学上考虑,发生两眼视场斗争的区域窄,而且人眼因为景深浅,所以明确具有隐藏重叠的关系时,两眼视场斗争很少变得显著。
在本实施形态中使用能模糊观察跟前的对象物(对象物A),用一方的眼观察跟前的物体(对象物A)时,与跟前的对象物(对象物A)相比,能更清楚地观察到遮住的后方的对象物(对象物B)时,观察者不观察跟前的对象物(对象物A)的原理成立。
如果换言之,在一方的视觉像中能观察到后方的对象物(对象物B),在另一方的视觉像中由跟前的物体(对象物A)遮住,并且比跟前的物体(对象物A)清晰时,后方的对象物(对象物B)是遮住一侧的视觉像,遮住后方的对象物(对象物B)的跟前的物体(对象物A)的遮挡的部分是由两眼视场斗争排除的部分(区域)。这里,点a和点b的附近成为本发明的对象区域,通过所述的判断,对象区域中排除的部分成为排除区域。
下面说明用两眼注视点a的情形。图4A是说明一个实施形态的注视点a的情形的平面图。用左眼200、右眼201注视对象物A上的点a,在点a对焦,但是未遮挡点a,所以能用两眼观察。
左眼200在对象物A上的点a对焦,注视,但是对象物D和点d由对象物A的背面遮住,所以观察不到。可是,能观察到对象物D的上半部分。右眼201也在对象物A上的点a对焦,注视,但是对象物B和点b由对象物A的背面遮住,所以观察不到。阴影线的说明与图3A相同,所以省略说明。
图4B是表示左视觉图350和右视觉图351的图。在左视觉图350中,左眼在对象物A上的点a对焦,所以能最清晰地观察点a和对象物A,与离视点位置的距离成比例,能按顺序模糊观察对象物B、对象物D。能观察到对象物B和点b,但是对象物D的下半部分和点d由对象物A遮挡,观察不到。
在右视觉图351,与左视觉图350同样,右眼在在对象物A上的点a对焦,所以能最清晰地观察点a和对象物A,与离视点位置的距离成比例,能按顺序模糊观察对象物B、对象物D。对象物B的下半部分和点b由对象物A遮挡,但是能观察到对象物D和点d。
如图4A所述,与右视觉图351上的点a对应的点是左视觉图350上的点a或点b,如果不考虑焦点和辐辏角,就都能选择。可是,左视觉图350的点a对焦,能清楚观察,点b不对焦,所以能模糊观察。因此,模糊的点b和周边的对象物B的像即包含点b并且位于与点b和视点的距离几乎相同距离的区域成为排除的像或区域。
如果从左右视觉像考察,右视觉图351上的点a和左视觉图350上的点b是发生两眼视场斗争的点。可是,一方模糊,所以模糊一方的像成为不观察的区域,两眼视场斗争降低。点b和点a的距离接近,点b和点a的距离微小时,如图3B所述。
在本实施形态中使用能清楚地观察到跟前的对象物(对象物A),从一方的眼观察跟前的物体(对象物A)时,与跟前的对象物(对象物A)相比,更模糊地观察到遮住的后方的对象物(对象物B或对象物D)时,观察者观察跟前的对象物(对象物A)的原理成立。
如果换言之,只在一方的视觉像中能观察到后方的对象物(对象物B),在另一方的视觉像中由跟前的物体(对象物A)遮住,能清晰地观察跟前的对象物(对象物A)时,能观察到后方的对象物(对象物B)一侧的视觉像上的在另一方的像中由跟前的对象物(对象物A)遮挡的后方的对象物(对象物B)的部分是由两眼视场斗争排除的部分(区域)。
(对象区域的抽出和排除区域的确定)
以上,如果整理参照图3A、图3B和图4A、图4B验证的事实,则注视点位置和像的模糊具有相互关系,通过隐藏重叠和模糊的量的比较,首先抽出发生两眼视场斗争的区域(对象区域),能确定两眼观察时发生的两眼视场斗争优先的区域和排除的区域。即能发现以下的原理。
[原理1]处于区域X位于比区域Y更靠跟前的隐藏重叠的关系,用一方的眼能观察区域Y,与区域Y相比,能模糊观察区域X时,观察者不注视区域X(注视区域Y)。
[原理2]处于区域X位于比区域Y更靠跟前的隐藏重叠的关系,并且与区域Y相比,能更清晰地观察区域X时,观察者不注视区域Y(注视区域X)。
以上的事实成立,所以把它应用到两眼体视,抽出两眼体视用左右图像的发生两眼视场斗争的对象区域,确定和抽出排除的区域。
从原理1导出的抽出方法
[抽出法1]处于区域X位于比区域Y更靠跟前的隐藏重叠的关系,用能观察区域Y的一方的眼,观察到区域X比区域Y模糊,更不显眼时,区域X是两眼视场斗争时排除的区域。
从原理2导出的抽出方法
[抽出法2]处于区域X位于比区域Y更靠跟前的隐藏重叠的关系,并且只能用一方的眼观察的区域Y比区域X模糊,更不显眼时,区域Y是两眼视场斗争时排除的区域。
这里,隐藏重叠是指某对象物的一部分处于由于从视点观察,位于跟前的其他对象物,在左图像或右图像的任意一方中隐藏,观察不到的状态。
(实施形态1)
参照图5、图6说明具体应用抽出以上的区域的方法的例子。在图3A、图3B、图4A、图4B中,说明人观察对象物时,基于人眼的景深的观察方法,但是图5A、图5B、图5C、图6表示从相同的视点位置观察用相机拍摄与图3A、图3B、图4A、图4B相同的被拍摄体的情形。
如上所述,在两眼视差体视中,把用相机拍摄的图像作为体视用左右图像用时,观察拍摄的相片或基于CG的图像。观察图像时和直接观察外界时的最大不同是观察图像时,不对焦的部分能在模糊的状态下观察“不观察的区域”。如果正确地说,观察者的眼与图像对焦,但是观察的图像内容模糊。本发明的目的在于,降低两眼视差体视这样的图像时产生的两眼视场斗争。
用肉眼观察外界时,如果把焦点移动到模糊的“不观察的区域”,该区域在瞬间变为对焦的“观察的区域”。相片等的图像景深深,模糊的量少。在图中,无法准确表示模糊的程度,但是图5A、图5B、图5C中表示的模糊的量比图3B、图4B中表示的模糊的量少很多。此外,观察带有景深的图像时,观察者的注视点在图像上移动后,无意识地移动停留在对焦的位置。
(实施例1)
图5A是表示改变参照图3A说明的左右眼像的图像的图。参照图5A,说明使用上述的抽出法的对象区域的抽出和排除区域的确定和抽出。左图像360是由左眼200拍摄的图像,对象物像AL、BL、DL分别是对象物A、B、D反映到由左眼200拍摄的左图像360上的像。点aL和点bL分别是点a和点b反映到左图像360上的像。
同样,右图像361是由右眼201拍摄的图像,对象物像AR、BR、DR分别是对象物A、B、D反映到由右眼201拍摄的右图像361上的像。点aR和点bR分别是点a和点b反映到右图像361上的像。相片和人的视觉像关于模糊,存在量的不同,但是倾向类似,所以表面记载法等与图3A同样的点省略说明。
须指出的是,图5A、图5B上的对象物A(在图中,AL和AR,用虚线表示)的模糊、对象物B(在图中,BL和BR,用虚线表示)的模糊或对象物D(在图中,DL和DR,用虚线表示)的模糊为不成为两眼视场斗争程度的模糊的量(强度)。模糊的量(强度)小,两眼视场斗争增大的情形是图5C所示的在对象物A以及对象物B对焦的情形。
在左图像360上的对象物BL的点bL对焦,所以点bL和对象物BL清晰。在右图像361,对象物BR的下半部分以及点bR(未图示)由对象物AR遮挡,无法观察,但是与它对应的点以及区域在左图像360能观察,所以左图像360上的该区域为区域Y1(用虚线的阴影线表示)。该区域只位于左图像360上,在右图像361上不存在。因此,是两眼视场斗争发生的区域。
对象物A位于对象物B的跟前,比对象物B模糊。在右图像361,对象物BR的下半部分以及点bR由对象物AR遮挡,无法观察,但是在对象物BR对焦,所以对象物AR和点aR模糊。
左图像360上的点bL为基准时,右图像361上的融合点为点aR,此外,右图像361上的点aR为基准时,左图像360上的融合点为点bL或点aL。点bL清晰,点aL模糊。
首先把清晰的点bL优先,作为与它对应的融合点,选择点aR,在左右不同,所以该区域是两眼视场斗争发生的对象区域。如果点bL及其周边为区域Y1(用虚线的阴影线表示),点aR及其周边为区域X1(用实线的阴影线表示),则右图像361上的区域X1在把两个图像360、361作为两眼视差体视用图像进行体视时,比区域Y1模糊,所以从图像内容判定,是观察者不观察的区域,成为由两眼视场斗争排除的区域。
须指出的是,关于对象物D,在左图像360,对象物DL的下半部分隐藏,无法观察,但是在右图像361,能观察对象物DL的下半部分和点dR。只位于右图像361的区域为区域Y2。与右图像的区域Y2对应的左图像361的区域是对象物AL的右半部分的上部,但是两者都模糊。这时,左图像361的区域除了对象物AL的右半部分的上部极端模糊的情形,隐藏重叠的前面一方优先。因此,区域Y2是排除区域。
须指出的是,在本实施形态中,抽出对象区域时,有必要确定和抽出左图像的哪个部分与右图像的哪个部分对应,但是它使用基于本技术领域中知道的图案识别的特定方法。这里省略图案识别的细节,但是如果根据本特定方法,左右图像中表示的图形或象素的排列分别作为图案识别,确定与各自对应的点或区域。也包含其它实施形态,本发明的对象区域是指进行图案识别的结果,在左右的图像中对应的部分或区域只在一方的图像中存在时,在一方的图像中存在的区域、与该区域在几何光学上对应的另一方的图像的部分(如图5A、图5B、图5C所示,存在具有多个对应点的情形)为本说明书中提到的两眼视场斗争发生的对象区域。即确定图像区域的结果,例如给定的图像区域存在于左图像,但是在右图像中不存在时,左图像的该给定的图像区域和与左图像的该区域在几何光学上对应的右图像的图像区域成为对象区域。
按照上述的原理,确定包含排除左图像和右图像的哪个的区域,把确定的区域作为排除区域抽出。这时,更正确地考虑焦距时,排除区域是在本来的三维世界中不符合观察者的焦距的区域,所以用三维分析体视左右图像,能把包含排除区域的离视点的距离在一定范围内的区域作为排除区域。这里,在本实施形态中,从左右图像计算该点的辐辏角,求出离视点的三维距离,或者另外准备深度图(用亮度色标表示深度信息的图像),求出离特定点的视点的距离,但是并不局限于此,能使用本技术领域中知道的其它任意方法。
在本实施形态中,执行本技术领域中知道的图案识别程序,进行该处理,所以对给定的计算机输入左右图像,如果起动程序,就自动执行。然后,通过同样的图案识别技术,判定对象区域中模糊的不显眼的区域。
(实施例2)
在上述的实施例1中,在对象区域的抽出中使用图案识别技术和安装它的程序,但是并不局限于此,也能使用能应用本发明中表示的原理的任意图像处理技术。在本实施例中,说明能应用的这样的技术之一。
如上所述,本发明中使用的立体图像能用基于计算机的程序的计算生成,但是这时的对象区域抽出除了编辑二维图像,生成的方法以外,还能使用三维计算机图形(3DCG)。以下说明选择这时的视差区域,加工的方法的一个例子。
在3DCG中,相机、光线、对象物等全部在计算机内的虚拟空间构筑,但是成为基本的体视用左右图像分别由左右相机表现、制作。接着,在成为基本的体视用左右图像之外,生成左右遮挡图像。在制作遮挡图像时,把各对象设定为白色,用左眼用相机表现左眼用遮挡图像时,从右眼位置照射光,用右眼用相机表现右眼用遮挡图像时,从左眼位置照射光。
通过这样表现,由左眼用相机表现的图像中,从右眼位置能观察的区域变白,无法观察的区域变为影子,变黑。由右眼用相机表现的图像中,从左眼位置能观察的区域变白,无法观察的区域变为影子,变黑。变黑的部分是视差区域。
接着,把这些图像的白的部分设定为透明度0%,把黑的部分设定为透明度100%,作为遮挡图像,粘贴到成为基本的体视用左右图像,只让透明度100%的区域变为能进行图像处理的状态,如后所述,能进行不显眼的加工的图像处理。如果构筑三维模型,就能从一个模型生成左右体视图像和对象区域的抽出,关于这一系列的计算,通过构筑复杂的连立方程式,能用1次计算进行。
此外,相当于全部实施例,但是后面描述的对象区域的加工是比较优先的区域一侧和排除的区域一侧的各自的对应点的位置的颜色信息,进行加工,所以不是加工对象区域,希望用顶点单位调整、加工。
(实施例3)
图5B是表示改变参照图3B说明的左右眼像的图像的图。参照图5B,说明使用上述的抽出法2的对象区域的抽出和排除区域的确定。在图5B中,能清晰地观察跟前的对象物,模糊地观察该对象物后面的对象物,但是为在一方的眼中,由跟前的对象物遮挡,观察不到的状态的图像。
图5B所示的图像在对象物A上的点a把左右视点对焦,所以左图像370上的对象物AL和点aL、右图像371上的对象物AR和点aR清晰。对象物B位于比对象物A更后方,所以在左图像370,对象物BL比对象物AL模糊。
在右图像371,对象物BR比对象物AR模糊,在右图像371,对象物BR的下半部分由对象物AR遮挡。遮挡的区域在左图像370中也存在,如果它为区域Y1,则区域Y1在右图像371上没有。同样,相当于位于比对象物B更后方的对象物D的在右图像371中是对象物DL,比对象物BR模糊。在左图像370,对象物DR的下半部分由对象物AL遮挡,遮挡的区域在右图像371中存在,所以它为区域Y2。区域Y2在右图像371上没有。在右图像371中,对象物DR比对象物BR模糊。
有阴影线的区域Y1、区域Y2是把左图像370和右图像371作为两眼视差体视用图像进行体视时,没有与左图像370和右图像371对应的一对融合点,只在一方的区域上存在的区域(例如点bL、点dR)。在区域Y1、区域Y2,体视观察者的左眼和右眼观察不同的点,所以发生两眼视场斗争。
由于所述的理由,与左图像370上的区域Y1对应的右图像371上的点aR及其周边清晰,所以优先感觉。同样,与右图像371上的区域Y2对应的左图像370上的对象物AR的右半部分清晰,所以优先感觉。
因此,左图像370上的区域Y1和右图像371上的区域Y2在把两图像370、371作为两眼视差体视用图像进行体视时,是排除的一侧的区域。该区域是体视图像中不观察的区域。
(实施例4)
图5C是表示一个实施形态的在对象物A和对象物B双方对焦时的情形的图。如上所述,相片对象的景深深,对焦的范围广,所以能有这样的情形。
这时,在图5A、图5B中不对焦的地方也能认为是对焦的情形和模糊量(强度)小的情形,所以优先点a的情形和优先点b的情形双方都可能。
在本实施例中,一般跟前的物体(对象物A)清晰,更显眼,所以优先跟前的物体(对象物A)。这时,区域Y1成为排除的区域,所以按照原理1。一般,处于隐藏重叠的关系的跟前的像比位于后面的像更显眼,为了使它不显眼,应有的量的模糊是必要的。此外,只在右图像381中能观察的区域Y2不同点在于,对象物dR的下半部分的模糊比图5B小,所以与图5B相同,区域Y2是排除区域。
如上所述,比较两眼视场斗争发生的左图像的区域和右图像的区域,抽出排除的一侧的区域。
本发明的特征在于,局部抽出两眼视场斗争发生的区域中排除的区域。据此,后面描述的加工区域没必要是在景深中模糊的区域,可以是局部的。
(实施形态2)
说明抽出以及确定和排出的排除区域的加工。本发明以用相片等生成的体视左右图像为前提,所以图5B所示的各图像的带有阴影线的区域Y1和区域Y2比较清晰,常常有比在现实世界中观察时更显眼,清楚地拍摄的情形。因此,进行加工,减弱体视观察者感觉左图像370上的区域Y1和右图像371上的区域Y2。此外,图5A中所示的右图像521上的区域X1在模糊量小,两眼体视时,稍微闪烁时,进行加工。一般,存在两眼体视的位于对象物之前的模糊比位于后面的模糊更显眼,两眼视场斗争增大的倾向。在两眼视场斗争发生的区域中,通过使排除的一侧的图像区域更不显眼,能缓和两眼视场斗争。
把从左眼位置拍摄的用左眼1眼完结的左图像、从右眼位置拍摄的用右眼1眼完结的右图像作为用于两眼体视的图像,分别加工修正。如果把加工修正后的各图像个别作为一个通常的图像观察,就成为一部分模糊或衰弱的图像。因此,极端加工修正时,作为一个图像使用时,成为不太适合的图像,只在用两眼体视观察时,成立的图像。
此外,在图5B中,两眼体视用图像是图像,所以能注视模糊的区域,但是说明该情形。例如,注视左图像370的点bL。点bL只存在于左图像370上,所以用左眼观察。如果用右眼在右图像371上寻找与该点对应的点,就从图像内容判断,判明点aR是对应的位置。如果用左眼注视点bL,同时用右眼注视点aR,则两眼视场斗争增大。用右眼能清楚地观察点aR,用左眼能模糊观察点bL,所以观察者把能清楚地观察的一方的点aR优先,用另一方的眼寻找该点的对应点(这时,左眼)。用左眼把注视点向左图像370上的点aL移动,如果用右眼注视点aR,就能融像,并且感觉不到两眼视场斗争增大时感觉的眼睛的疼痛或闪烁的像的摇晃,所以把左图像370上的点aL和右图像371上的点aR作为两眼的对应点(融合点)选择。
在人眼观察图像时,注视点频繁地在图像上移动。如果象两眼体视那样,用左眼观察左图像,用右眼观察右图像,两眼寻找融合点,进行停止行动,取得深度信息。如图5A的点bL所示,也有只用一方的眼观察时能取得正确的深度位置的点。两眼体视用图像无法象观察者观察外界时那样,自由改变焦点位置,进行观察,所以可以说是预先设定感觉的内容的图像。本发明如果考虑以上的事实,可以认为体视用图像是相片等图像,是检测与预先设定的内容不相应的部分,修正的图像。
(排除区域的加工)
根据原理1或2,在左图像和右图像分别抽出两眼视场斗争发生的区域并且不优先的一方的区域,通过加工抽出的区域,把根据左右眼分别生成的有视差的左图像和右图像加工修正为两眼体视用的左图像和右图像。
用左眼和右眼观察不同的视觉像时,如果能清楚地一方的像比另一方的视觉像鲜明,就把观察为鲜明的一方眼的视觉像优先,忽略另一方眼的视觉像,但是用两眼能观察到相同程度时,两眼视场斗争变得显著。这时,左右的视觉像混杂,感觉到混乱的视觉像,通常眼花,疼痛。
因此,说明用怎样的方法加工修正这样的排除区域。这里,如果可以删除排除区域,就简单了,但是只删除图像的一部分,反而变得显眼,单独涂黑,反而变得显眼。
在两眼视场斗争中排除的一侧的区域(加工的区域)是两眼体视时不观察的区域,所以知道把该区域加工修正为不显眼,变为不显眼的状态就可以了(不显眼的状态是模糊,或洇,明暗不清楚,难以注视的状态,色彩素(彩度的对比小),不显眼,难以注视)。
作为具体的加工方法,因为图像由象素构成,所以把以一定的规则排列的象素加工为不显眼的排列。本来用人眼观察三维的世界时,在两眼视场斗争中排除的区域不对焦,模糊变大,变得不显眼。
在人眼中无法编辑网膜像,但是图像时,用图像处理对图像进行各种处理,所以除了单纯增加模糊的量以外,还有多种方法。即具体而言,通过以下的加工(图像处理),能使排除区域变得不显眼,任意组合这些加工方法,能成为最适合于各种图像的特性的加工。
(1)把排除区域晕色
与清晰鲜明的图像相比,模糊的图像不显眼(晕色处理能使用本技术领域中知道的各种方法)。晕色方法如图1A和图1B所示,后面的模糊不侵蚀清晰的跟前的。进行晕色,从而跟前的模糊侵蚀后面的清晰的。须指出的是,以下说明的(2)以后的加工用与晕色加工为同样的条件,侵蚀或不侵蚀边境线,加工。
(2)降低排除区域内的对比度
无论是否模糊,都认为与用一色涂的面相比,对比度强的一方显眼。图像由象素构成,象素具有色调、彩度、亮度(颜色的3要素)。降低对比度是把排除区域内的象素平均化,降低对比度是使色调、彩度、亮度(颜色的3要素)中的任意一个的值接近周边的象素具有的值。在区域内,只通过使具有与平均相差显著的信息的象素接近平均值,就变得不显眼。
(3)降低排除区域内的彩度、亮度
(4)使色调接近冷色系(一般,冷色系的一方成为衰弱的颜色)
(5)使排除区域内的色调、彩度、亮度(颜色的3要素)接近另一方图像的排除区域所对应的区域(两眼视场斗争中优先的区域)。
使色调、彩度、亮度(颜色的3要素)接近两眼视场斗争中优先的区域内的值,变得不显眼。
须指出的是,在本实施形态中,能预先加工左图像和右图像,在显示器上显示之前加工(即使预先加工,也具有本发明的效果)(通过预先加工,具有以下的优点。
把从左眼的视点位置拍摄的左眼用图像、从右眼的视点位置拍摄的右眼用图像加工为两眼观察时的左眼用图像和右眼用图像时,在纸上印刷时,加工修正原来的图像,生成修正图像,使用它。在纸等的定影的图像中,如果不预先加工,加工就变得不可能。
在显示器上显示时,在显示图像之前进行加工,显示加工后的图像。通常在显示器上显示时,预先加工原来的数据,显示加工后的数据(当然,在显示器上显示时,读入原来的数据,通过加工部件对显示器输出,或在实时观察用摄影机拍摄的图像时使用,或在观看过去的体视图像时使用也在本发明的范围中)。
在计算机上显示时,也与在显示器上显示时同样,用计算机上运行的图像加工程序加工修正原来的图像,对显示器输出。一度生成两眼像后,加工,但是在用三维计算图像的过程中,检测排除区域,加工,用1次的计算就可以了。
通过预先加工左图像和右图像,装置变得简单,能轻松进行加工。能由多人鉴赏。
此外,上述的已经存在的技术是预先不加工的方法,加工的方法只是晕色方法。此外,类似的已经存在的技术中,加工方法是晕色方法。本发明在排除区域的加工方法中,还提出基于晕色以外的图像处理的加工方法。检测图像观察者的注视点,在两眼视场斗争发生的区域中确定和抽出排除区域,晕色以外的加工方法不包含在上述的已经存在的技术中。
因此,排除区域的加工中说明的晕色以外的加工方法(2)~(5)是以往未考虑的方法。
(图像处理系统结构)
以上说明了变形处理的一个实施例,但是以下说明用于实施图像处理的系统结构。
图21是表示本发明的图像生成装置即图像生成系统的一个实施形态的概念图。本实施形态的系统具有主体2101、图像输入部2105、图像输出部2107和外部存储装置2106,但是并不局限于此。主体2101包含CPU2102、RAM2103和ROM2104。
从图像输入部2105读入预先生成的体视图像即原来的图像,在主体2101实施上述的图像处理,从图像输出部2107输出图像处理的图像。图像输入部2105如果是把原来的图像记录为相片的部件,就可以是扫描仪,但是如果是任意的数据文件形式,就可以是各种输入接口仪器。此外,图像输出部2107位打印机,能在用纸上输出打印图像,但是也能是显示器或屏幕,直接显示。
在本实施形态中,两眼视场斗争发生的区域以及排除区域的检测和排除区域的图像处理由主体2101进行,但是通常它由图像处理软件进行。如果在图像处理软件的给定程序设定必要的数值,执行图像处理,CPU2102就通过ROM2104中存储的操作系统读出外部存储装置2106中存储的程序,加载到RAM2103中。加载到RAM2103中的程序依次执行其步骤,根据指定的给定的数值,处理输入图像,最终输出图像。
在本实施形态的加工修正和变形中,使用上述的主体2101那样的计算机进行二维图像的图像处理,但是如果使用二维图像的图像处理软件(例如,Adobe Photoshop(注册商标))的图像处理功能,排除区域的图像处理(例如参照“图像和空间的信息处理”,岩波讲座多媒体信息学)。
此外,图6表示以上的处理的流程。
须指出的是,虽然是使用体视装置,进行体视,但是与观察后面描述的赋予虚拟倾斜角的体视图像时同样,可以使用作为体视图像描述的加工后的体视图像,进行体视。
通过在以上说明的缓和两眼视场斗争的方法中应用提高体视效果的方法,能进一步提高已经存在的体视图像的立体感,并且能减轻疲劳感。
(实施形态3)
在上述的实施形态2中,预先处理体视用图像,但是也可以检测观察体视用图像的观察者的注视点,对它追加模糊。在本实施形态中,通过如果注视点移动,就更新它,从而总能追加来自注视点的模糊的方法或装置。即检测观察显示器上显示的体视用图像的观察者的注视点,判定该位置的原来的三维上的深度距离,通过从注视点位置逐渐在前后方向晕色,能新追加体视用图像的观察者的景深。须指出的是,代替模糊的追加,还能应用排除区域的加工方法中说明的不显眼的加工方法的至少一个,能附近模拟的景深的效果。
(实施形态4)
如果考虑本发明的目的,在通过体视只观察体视像时,能感觉有立体感的图像就可以了,所以没必要在严密正确的位置使立体像成像。这时,体视观赏者用左眼观察左图像,用右眼同时观察右图像而取得的成像点的辐辏角不是象相片测量那样由绝对值(测定值)识别,是根据比较的2地点以上的成像点的辐辏角宽的一方位于跟前,辐辏角窄的一方位于里面的相对变化量(相对值),识别。
因此,辐辏角的宽窄和深度位置的前后成比例,如果不特别感觉到形状的变形,则观赏用的体视成立。如果跟前的成像点的辐辏角的角度稍微变宽,则成像位置来到跟前,所以立体像全体的深度感增加,结果,成为立体感增大的动人的立体像。以下详细说明本原理。
首先,观察者观察体视用左右图像时,关于如何决定观察者观察的辐辏角,存在2个侧面。第一侧面是关于拍摄时的辐辏角和观察时的辐辏角,第二侧面是关于观察时的左右图像的间隔。
(拍摄时辐辏角和观察时辐辏角)
第一侧面是关于拍摄时的辐辏角和观察时的辐辏角,但是更正确地说,是拍摄时反映在图像上的各三维的对象物上的点(位置)的辐辏角(以下,把该辐辏角定义为制作时图像辐辏角,把分布的空间定义为制作时图像辐辏角空间)、体视拍摄的图像的体视观察者感觉的辐辏角(以下把该辐辏角定义为观察时图像辐辏角,把分布的空间定义为观察时图像辐辏角空间)。在反映到体视用左右图像中的辐辏角的意思上,称作图像辐辏角。此外,观察时图像辐辏角是左右图像中对应的远点的间隔与两眼宽度相等时取得的辐辏角。
制作时和观察时的状态为相同或相似形,所以在观察时感觉与制作时相同的辐辏角(例如,井上弘著,“探索体视的不可思议”(光电子学社,平成11年2月发行)。可是,非常难以在与拍摄左右的立体相片时相同的状态下观察左右图像。很多时候,观察时的眼基线长度和到相片的距离的关系不同,成不了相似形。
可是,因为眼基线长度比拍摄基线长度短,在体视的航空照片中,发生对象物看起来比实际高的现象,但是把该事实称作过高感(参照日本相片测量学会编,“立体相片的观察方法、拍摄方法、制作方法”(技术堂出版株式会社)。在观察时和制作时,在体视中一般会发生眼基线长度和到相片的距离的关系不同。
一般,制作时图像辐辏角和观察时图像辐辏角具有一定的函数关系,但是对于本发明,这点并不重要,所以省略关于相互关系的说明。
本发明中成为问题的是观察时图像辐辏角和后面描述的基本辐辏角。图7是用于说明本发明一个实施形态的观察时图像辐辏角的图。因为使图像内容的远点分开两眼宽度,配置体视左右图像,所以如果设定视点和到体视左右图像的距离、体视左右图像的比例尺,观察时图像辐辏角就是确定的值。
这里,如果在三维世界中,接近观察者的注视点为近点,从观察者观察,能在远处观察的点即辐辏角的影响外的注视点为远点,则左图像403上的远点为PL1,右图像404上的远点为PR1,左图像403上的近点为PL2,右图像404上的近点为PR2。左图像403上的远点PL1和右图像404上的远点PR1的距离与两眼宽度相等地配置左右图像。
在连接左眼的和左图像上的近点PL2的线的延长线,与连接右眼402和右图像404上的近点PR2的线的延长线交叉,形成辐辏角θ。辐辏角θ是观察时图像辐辏角。
(关于基体辐辏角)
作为第二侧面,说明观察时的左右图像(基体)配置的间隔。一般,左右图像的对应的远点变为两眼宽度的距离地左右分开配置体视用左右图像,但是为了强调立体像出现效果和退出效果,改变左右图像的间隔,分开或接近是通常进行的操作立体像的成像位置的方法之一。
把根据体视用左右图像配置的间隔而发生的辐辏角定义为基体辐辏角,分布的空间为基体辐辏角空间。基体辐辏角的分布因为形成面,所以把由它产生的虚拟的面定义为虚拟面,把对于配置体视用左右图像的显示面,倾斜的面定义为虚拟倾斜面。虚拟倾斜面并不一定是连续的面,也包含图像面和平坦的并且不平行的面。
参照图8、图9,说明基体辐辏角。图8是说明一个实施形态的改变左右图像的间隔,虚拟面向里移动的图,图9是说明一个实施形态的改变左右图像的间隔,虚拟面向跟前移动的图。这里,体视左右图像403、404是左右图像都在显示面801上显示的面。改变左右图像403、404的间隔,接近,或分开,从而如果观察者体视,就产生出现效果和退出效果。这是忽略所述观察时图像辐辏角的纯粹根据图像基体的位置关系而产生的。
在图8、图9中,在左右图像403、404上描述的十字是作为位置信息的点,在各图像中均匀分布(是所谓的图像上的XY坐标)。左右图像403、404上的对应的点Pl和Pr融合,决定成像点。
在图8中,左图像403和右图像404分开,所以虚拟面退出。在图9中,左图像403和右图像404接近,所以虚拟面出现。
可是,这些图是概念的说明,未正确描述辐辏角的成像位置,所以参照图10说明辐辏角。PLa是左图像403上的点,PRa是右图像404上的点,PLb是移动后的左图像1001上的点,PRb是移动后的右图像1002上的点。左图像403上的点PLa和右图像404上的点PRa分开比两眼宽度更窄的间隔配置。须指出的是,PLa、PRa、PLb、PRb分别是对应的图像上的位置信息(点)。
连接左眼401和点PLa的线的延长线、连接右眼402和点PRa的线的延长线相交,在交点Pa2成像。两视线的辐辏角是θa。基于左图像403和右图像404的虚拟面1003能在该位置。接着,把左图像403和右图像404移动,从而两者的距离变窄。即左图像403和面上的点PLa移动到左图像1001和点PLb的位置,右图像404和面上的点PRa移动到右图像1002和点PRb的位置。这里,θ是观察时图像辐辏角,θc是综合辐辏角。
连接左眼401和点PLb的线的延长线、连接右眼402和远点PRb的线的延长线相交,在交点Pb2成像。两视线的辐辏角是θb,基于左图像1001和右图像1002的虚拟面1004能在该位置。
这里,θb>θa,所以从比虚拟面1003更靠观察者一侧观察,虚拟面1004出现在跟前。这是如果体视用左右图像的相互间隔接近,就产生出现的效果的原理,是基体辐辏角的原理。
如上所述,作为根据基体辐辏角的宽窄而产生的现象,能理解立体像全体出现的效果和退出的效果、体视用左右图像的相互间隔的宽窄的相互关系。
(观察时图像辐辏角和基体辐辏角的关系)
以下说明观察时图像辐辏角和基体辐辏角的关系。观察时图像辐辏角如上所述,是分开体视观察者的两眼宽度,配置体视用左右图像的结果图像上的各点和观察者的两眼形成的辐辏角。形成基体辐辏角的点在各图像上均匀分布,所以能是基体辐辏角的基准点与观察时图像辐辏角的远点重合的位置。
因此,因为只分开两眼宽度,所以基体辐辏角是平行即0度。如果体视图像观察者感觉的辐辏角为综合辐辏角,则综合辐辏角=观察时图像辐辏角。参照图7,如果左图像403上的远点PL1和右图像404上的远点PR1的距离等于两眼宽度地配置左右图像,则连接左眼401和左图像403上的近点PL2的线的延长线、连接右眼402和右图像404上的近点PR2的线的延长线交叉,形成辐辏角θ。辐辏角θ是观察时图像辐辏角。
接着,把左右图像接近,但是不变更从视点到图像的距离和图像的比例尺。如图11所示,如果左图像403移动到右图像404一侧的左图像1001,左图像403上的远点PL1和近点PL2就移动到左图像1001上的远点PL3和近点PL4。如果右图像404移动到左图像403一侧的右图像1002,右图像404上的远点PR1和近点PR2就移动到右图像1002上的远点PR3和近点PR4。
连接左眼401和点PL4的线的延长线LL2、连接右眼402和点PR4的线的延长线LR2在交点P4相交,该点是点PL4和点PR4的成像点。因此,两视线的(LL2和LR2)辐辏角为θc。两视点位置同一,点PL4和点PR4的距离比原来的距离缩小,所以变为
θc<θ
此外,连接左眼401和远点PL3的线的延长线LL1、连接右眼402和点PR3的线的延长线LR1在交点P3相交,该点是点PL3和点PR3的成像点。因此,两视线的(LL1和LR1)辐辏角为θd。两视点位置同一,点PL3和点PR3的距离比原来的距离缩小,所以变为
θd>0
这里,θd是基体辐辏角。
因此,如果图像观察者感觉的辐辏角为综合辐辏角,则
综合辐辏角=基体辐辏角+观察时图像辐辏角。可是,该表达式是概念式,不是单纯把两辐辏角相加,是通过综合基体辐辏角、观察时辐辏角,能取得综合辐辏角的意思。
通过改变基体辐辏角,能改变体视观察者感觉的辐辏角(综合辐辏角)。
下面参照附图,说明本发明的实施形态。图12是表示形成虚拟倾斜面地对左右图像进行变形处理的图像的图。如果把显示面上显示的体视左右图像从下部到上部,以一定比例减少辐辏角地变形,基体辐辏角空间就变化,虚拟面倾斜,取得上部向里退出的虚拟倾斜面。此外,如果相反增大辐辏角地变形,就取得上部出现在眼前的虚拟倾斜面。如果辐辏角从上部向下部增减,虚拟面的倾斜就上下颠倒。把该倾斜的面称作虚拟倾斜面,图12所示的虚拟倾斜面是上部向里退出地变形的例子,但是并不局限于此,如果虚拟倾斜面是与显示面相同的平面,就可以是包含曲面的任意平面。
在图12中,在原来的左图像1203上的下部描画点Pl1,在上部描画点Pl2,它们在一个直线上,在原来的右图像1204上,在下部描画点Pr1,在上部描画点Pr2,它们在一个直线上。它们在显示面上左右并列配置(点Pl1和点Pr1的距离=点Pl2和点Pr2的距离)。
把原来的左右图像1203、1204的上部向相反的方向变形。以下,把变形后的体视的左右的图形分别称作变形左图像、变形右图像。原来的左图像1203上的点Pl1和点Pl2在与画面中心相反的方向移动,分别移动到变形左图像1201上的点Ql1和点Ql2的位置。此外,原来的右图像1204上的下部的点Pr1和上部的点Pr2在与画面中心相反的方向移动,分别移动到变形右图像1202上的点Qr1和点Qr2的位置。
点Ql1和点Qr1的距离Dq1比点Ql2和点Qr2的距离Dq2小。即Dq2>Dq1。
(实施例1)
图13是模式地表示一个实施形态的虚拟倾斜面的图。如果用两眼把变形左右图像1201、1202上的点Ql1和点Qr1融合,就在观察者的眼赋予辐辏角QQQ1,在点Ql2和点Qr2赋予辐辏角QQQ2。这里,Dq2>Dq1,所以辐辏角变为
QQQ2<QQQ1。
即在变形左右图像的上部,辐辏角变宽,在下部辐辏角变窄。因此,由观察者的辐辏角形成的虚拟面中,下部向观察者一侧出现,上部向里退出,如图13所示,如果从观察者的位置观察,就生成上坡那样的虚拟倾斜面1301。通过使成为原来的左右图像变形,就能在用体视感觉的立体像中产生虚拟倾斜面。如果使用该原理,就通过对变形处理下工夫,就能生成模拟图像内容的虚拟倾斜面。
因此,虽然赋予和原来的图像具有的辐辏角不同的辐辏角,但是通过以上的处理,观察者的辐辏角的变化量比通常时增大,虚拟空间的远近感也增大,结果没入感增加,具有立体感提高的效果。此外,左右画面变形,融合点移动,如果是可融合界限内,通过人眼本来具有的功能,从左右图像正确抽出左眼右眼的融合点,体视。从图13所示的图像的下部到上部,以一定量减少辐辏角而取得的虚拟倾斜面1301在实际的图像中,例如在跟前生长着草木,在它前面有屋子和树,在更前面有树林和河流,延续到远处的山那样的图像时特别有效。即近处的草木和屋子更接近,远处的山看起来更远,所以能取得良好的立体感。
在通常的体视图像中,象布景那样,深度看起来浅时,根据本发明进行变形处理,能形成丰富、深度深的立体感。
此外,如果参照图20,在体视图像的图像内容是上坡时,如图13所示,如果原来的左右像1203、1204的上部在彼此分开的方向进行变形处理,就生成虚拟面的上部向观察者的深度方向退出的上坡的虚拟倾斜面。(如果使变形左右图像接近,前期虚拟倾斜面全体就出现)通过在左右图像的中间改变变形的值,能形成坡度变化的虚拟倾斜面。结果,在形成的虚拟倾斜面上分配左右图像本来具有的图像辐辏角(观察时图像辐辏角),能形成与图像内容的空间近似或夸张的有深度感的综合辐辏角空间。
接着,比较讨论提高体视的效果的已经存在的方法。首先,把左右图像变形,具体说明辐辏角的变化的值。如果拍摄基线长度变长,辐辏角就变宽,视差增大。这里,根据本发明把左右图像403、404变形,具体表示辐辏角的变化。
如果参照图20,使由拍摄基线长度Da制作的左图像403和右图像404变形。左图像403以点Cl为基点,向光轴一侧变形角度α,右图像404以点Cr为基点,向光轴一侧变形角度α。严密的时候,点Cl和点Cr的上部不变形。左图像403和右图像404变形,成为变形左图像2001和变形右图像2002。
变形左图像2001上的点Cl和变形右图像2002上的点Cr变为与瞳距相同的距离地配置变形左图像2001和变形右图像2002。点Bl和点Br的间隔比变形前缩小。同样,点Al和点Ar1的间隔因为从点Cl和点Cr进一步分离,所以比变形前的点Al和点Ar的间隔缩短,变形后的点Bl和点Br的间隔变窄。
把变形左图像2001和变形右图像2002作为体视左右图像观察时,点C的辐辏角θ3c为0,但是点A的辐辏角θ3a和点B的辐辏角θ3b越到图像之下,变得越宽。辐辏角θ3a最宽,辐辏角θ3b第二宽。结果,在由拍摄基线长度Db制作的左图像501和右图像502成为非常近似的辐辏角的宽窄的分布(Db>Da)。
不增大左右图像的视差,越接近观察者的点,辐辏角越宽,能增大体视观察者感觉的立体感。
这时,如果体视用左右图像象相片图像那样具有感觉的深度线索,就能使由后面描述的本发明产生的矛盾变得不显眼。
(体视装置)
本实施形态中生成的体视图像如果是观察在左右图像中具有视差的体视用图像的体视装置,就在任意装置中能使用。不只是2个图像,在称作多眼式的使用多对体视图像的体视装置中也能使用。例如,可以是把视点每次移动一点的组合4对的8图像式。
图22、图23表示最简单的体视观察器。两者都是用遮光板分离左右图像的体视装置。图22的体视装置是平行法的观察器,图23的体视装置是交叉式观察器。在图23中,在交叉法时,左右图像的配置变为左右相反,所以变形的方向与平行法为相反方向。图22、图23所示的变形图像是变形的例子,能把它微调,变为矩形。
作为已经存在的体视装置,能使用立体照片方式、双凸透镜方式、视差和障碍方式、偏振光分离方式、或者分时分离方式,但是并不局限于此。
此外,体视图像并不局限于在相片那样的用纸上显示,也能是在显示器或屏幕上显示的系统,这时,也能是对上述的生成装置输入原来的图像,变形处理后,在显示器上显示处理的体视图像,进行体视的结构。
(实施例2)
在图13中,是具有比较单调的倾斜的虚拟倾斜面,但是如上所述,并不局限于此,按照拍摄或生成的图像的特性,能考虑各种。例如如图14所示,所述虚拟的倾斜角在途中变化地进行变形处理,生成左右图像1401、1402,成为阶梯状的虚拟倾斜面1403。
(实施例3)
如图15所示,虚拟倾斜面1503也可以是曲面。如图15所示,以象素的行单位把原来的变形前的左右图像变形,从而形成变形左右图像1501、1502。所述变形在把汇总数量的象素的行变形时进行,但是在进行细致的变形时,每隔1行向横向移动。例如变形左右图像1501、1502把各象素的行在中心部最远离,在上部和下部向接近的方向移动,上下端部最接近。
结果,虚拟倾斜面1503成为中央部向里弯曲的形状,能模拟天空。弯曲的虚拟倾斜面1503可以是中央部突出的弯曲,也可以是上部突出的弯曲。如果形成中央部突出的弯曲,就成为近似于透镜效果的的效果。例如,在图像内容中有地平线,想形成在地平线附近成为最里的虚拟倾斜面时,进行图15所示的变形处理是有效的。
(实施例4)
在这样形成的上述的虚拟倾斜面上分配观察时图像辐辏角,能形成具有深度感的综合辐辏角空间,但是如图16所示,也能是对于倾斜面,全体不平坦的带台阶的虚拟倾斜面1603。用于生成各种虚拟倾斜面的图像的变形处理如上所述,能使用已经存在的图像处理软件容易地进行,但是无论变形处理的内容,生成虚拟倾斜面,提高立体感的方法和装置都属于本发明的范围。
(实施例5)
如果具体研究虚拟倾斜面的应用,就能考虑对图17所示的图像应用的变形处理。图17是表示站在地上,在没有作为的状态下拍摄的相片的例子的图,相片的下部成为脚下,从相片的下部到中间反映地平线的深度方向的面,从相片的地平线部分向上成为从地平线部分向观察者一侧来的天空和云。
为了把这样的风景最为体视用图像,有必要把该图像拍摄为具有视差的左右图像。一般,为体视左右相片,为了感觉生动的立体像,必须把拍摄基线长度变长。可是,如果应用本发明,把图像进行变形处理,生成图18所示的虚拟倾斜面,则拍摄基线长度不那么长,通过本发明,也能夸张深度感。图18是用于说明为了发挥这样的效果而有效的虚拟倾斜面的图,地平线部分的附近变为最里地生成虚拟倾斜面1803。
因此,图像的变形在平行法时,如图18所示,在地平线部分的附近,左右图像1801、1802的象素的行最分开(即两眼宽度),图像的上部和下部的象素的行最接近,通过其间连续变化,进行。相当于地面和天空的部分为直线变化的变形。在图18中,在虚拟倾斜面中描绘图像,但是不描绘立体像,是用于说明虚拟倾斜面1803的形状而描绘的图像。立体像在虚拟倾斜面1803的跟前或深度的空间上成像。
(实施例6)
也能在深度方向或左右方向客观倾斜的画面中使用,显示。这时,倾斜的倾斜面上显示的图像是投影变换的图像,但是把左右图像投影到显示左右图像的倾斜的画面上,进行投影变换时,投影的基点不是各视点的附近,如果是比连接左右视点的线上的比视点更远离的位置,就形成虚拟倾斜面。
(实施形态5)
在图19中,对象物A、B、C在左图像位于Al、Bl、Cl的位置,在右图像位于Ar、Br、Cr的位置,它们(Al、Bl、Cl、Ar、Br、Cr)与左右图像的基体分别一体化。左图像1901和右图像1902把左右图像的上部彼此远离地进行变形处理。通过图像变形处理,基体辏角空间即虚拟倾斜面1903的下部成为向观察者一侧突出的上坡。以上与图13的情形同样。
同时,基于左右图像1901、1902上表示的对象物图像的图像辐辏角空间也分别在上部倾斜变形。由左右图像1901、1902各自的融合点形成的虚拟对象物Av、对象物Bv、对象物Cv的观察时图像辐辏角在虚拟倾斜面1903的下边和上边之间分配形成,所以成为深度感增大的综合辐辏角,形成立体感增大的综合辐辏角空间。融合感觉的虚拟对象物Av、Bv、Cv上部倾斜,但是倾斜范围小时,能正常感觉从视点位置观察的像。因为人具有无法识别不可能的形状的心理学特性,按照日常的感觉识别,所以忽略日常不应有的变形。这里,感觉的深度线索起到很大作用。
通过把显示面上显示的体视用左右图像变形,能形成深度方向深的基体辐辏角(基体辐辏角空间),在基体辐辏角空间的区域形成图像固有的图像辐辏角,基于把它们合计的综合辐辏角的综合辐辏角空间成为深度方向深的虚拟空间。
(体视中的矛盾)
在本实施形态中,虚拟对象物Av、Bv、Cv在前后方向位于几乎与虚拟倾斜面1903并列,但是有时也与此不同。例如图19所示的虚拟物Cv如果为位于跟前的对象物,就位于图19的虚线所示的虚拟倾斜面1903的向里的部分,所以即使虚拟物Cv的图像辐辏角大,由于虚拟倾斜面的基体辐辏角的影响,综合辐辏角变小。因此,如果只用辐辏角判断基于体视的虚拟的位置,就变为比本来的位置更靠里一侧。
这与本来的图像内容矛盾。虚拟倾斜面和具有特定位置的对象物的实际位置矛盾时,矛盾在大脑中综合判断,所以加上体视的感觉的体视要素即隐藏重叠(后面的物由前面的物遮挡)、尺寸的恒状性(越大的,越向跟前)等感觉的深度线索,判断矛盾。即人就象看到错觉那样,超越根据日常的“视觉常识”,判断视觉世界的光学、几何学的说明,感觉立体感,所以在虚拟空间中,靠里的物体位于重叠的前面,后面的物体局部遮挡,或者看起来大,如果与后面的物体,更能看清楚,就综合判断这些要素,例如即使辐辏角稍微不同,也判断为存在于跟前。即否定这时的矛盾。
据说基于辐辏角的三维位置的识别的有效范围为20米左右,有辐辏角的效果在33’以下时有效的报告。只用辐辏角不可能立体识别远方。因此,本发明把形成图像内容和前后的位置成比例的虚拟倾斜面的图像例如风景的图像作为特长。即能面向俯瞰和仰望的图像。
(实施形态6)
在体视左右图像,在左右配置同一的图像,进行变形处理,形成虚拟倾斜角。这时,成为使用1个二维图像的模拟体视。这时,综合辐辏角因为图像辐辏角是0,所以变为与基体辐辏角的值相等。
例如,风景照片时,相片的下部在实际空间中成为观察者的跟前的(近的)位置,相片的上部在实际空间中成为远离观察者(远)的位置。这时,观察者的辐辏角在跟前(近)大,越往远处,越小。
在本发明中,对所述左右图像使用左右相同的图像,通过进行实施例2所示的变形处理,形成虚拟倾斜角,形成与实际空间近似的综合辐辏角空间。
例如,相片在平原的前面有山,其上为云时,可以形成平原的部分倾斜角增大,山部为缓和的倾斜角,云带有向跟前突出的相反的倾斜角的虚拟倾斜角空间(这在具有视差的图像中也相同)。可是,没有图像辐辏角,所以在图像和辐辏角矛盾时,所述感觉的深度线索大幅度影响。
本实施形态是结局模拟体视,但是能原封不动地使用现在具有的图像(1个),经费便宜,所以能使用过去的东西的优点大。在本实施形态中,即使左右图像的视差小,通过增大虚拟倾斜角,形成近似于图像内容的虚拟倾斜面,能生成深度深的立体感。
缓和由体视产生的两眼视场斗争,能减轻观察者的疲劳感。

Claims (19)

1.一种体视图像生成方法,该体视图像具有体视用的左图像和右图像,
所述体视图像生成方法包括:
排除区域抽出步骤,确定所述左图像和右图像中分别对应的一对没有融合点的左右的对象区域中的任意一个不显眼一方的区域,将该不显眼一方的区域作为排除区域抽出;和
排除区域加工步骤,对于在所述排除区域抽出步骤中抽出的排除区域,与从所述对象区域除去该排除区域的区域相比较,进行变得更不显眼的加工。
2.一种体视图像生成方法,该体视图像具有体视用的左图像和右图像,
所述体视图像生成方法包括:
排除区域抽出步骤,在给定显示面上显示的所述左图像和右图像中抽出对应的没有融合点的左右的区域作为排除区域;和
排除区域加工步骤,对在所述排除区域抽出步骤中抽出的排除区域,进行变得更不显眼的加工。
3.根据权利要求1所述的体视图像生成方法,其特征在于:
所述变得更不显眼的加工是使所述排除区域晕色的加工。
4.根据权利要求2所述的体视图像生成方法,其特征在于:
所述变得更不显眼的加工是使所述排除区域晕色的加工。
5.根据权利要求1所述的体视图像生成方法,其特征在于:
所述变得更不显眼的加工是降低所述排除区域的对比度的加工。
6.根据权利要求2所述的体视图像生成方法,其特征在于:
所述变得更不显眼的加工是降低所述排除区域的对比度的加工。
7.根据权利要求1所述的体视图像生成方法,其特征在于:
所述变得更不显眼的加工是降低所述排除区域的彩度或亮度的加工。
8.根据权利要求2所述的体视图像生成方法,其特征在于:
所述变得更不显眼的加工是降低所述排除区域的彩度或亮度的加工。
9.根据权利要求1所述的体视图像生成方法,其特征在于:
所述变得更不显眼的加工是使所述排除区域的色调接近冷色系的加工。
10.根据权利要求2所述的体视图像生成方法,其特征在于:
所述变得更不显眼的加工是使所述排除区域的色调接近冷色系的加工。
11.根据权利要求1所述的体视图像生成方法,其特征在于:
所述变得更不显眼的加工是使所述排除区域的色调、彩度、或亮度接近从所述对象区域除去该排除区域的区域的色调、彩度、或亮度的加工。
12.一种体视图像生成装置,该体视图像具有体视用的左图像和右图像,
所述体视图像生成装置包括:
排除区域抽出部件,确定所述左图像和右图像中分别对应的一对没有融合点的左右的对象区域中的任意一个不显眼一方的区域,将该不显眼一方的区域作为排除区域抽出;和
排除区域加工部件,对于在所述排除区域抽出部件中确定的排除区域,与从所述对象区域除去该排除区域的区域相比较,进行变得更不显眼的加工。
13.一种体视图像生成装置,该体视图像具有体视用的左图像和右图像,
所述体视图像生成装置包括:
排除区域抽出部件,在给定显示面上显示的所述左图像和右图像中抽出对应的没有融合点的左右的区域作为排除区域;和
排除区域加工部件,对在所述排除区域抽出部件中确定的排除区域,进行变得更不显眼的加工。
14.一种体视的方法,体视具有体视用的左图像和右图像的体视图像,包括:
排除区域抽出步骤,确定所述左图像和右图像中分别对应的一对没有融合点的左右的对象区域中的任意一个不显眼一方的区域,将该不显眼一方的区域作为排除区域抽出;和
排除区域加工步骤,对于在所述排除区域抽出步骤中抽出的排除区域,与从所述对象区域除去该排除区域的区域相比较,进行变得更不显眼的加工。
15.一种体视的方法,体视具有体视用的左图像和右图像的体视图像,包括:
排除区域抽出步骤,在给定显示面上显示的所述左图像和右图像中抽出对应的没有融合点的左右的区域作为排除区域;和
排除区域加工步骤,对于在所述排除区域抽出步骤中抽出的排除区域,与从所述对象区域除去该排除区域的区域相比较,进行变得更不显眼的加工。
16.一种体视装置,体视具有体视用的左图像和右图像的体视图像,
所述体视装置包括:
排除区域抽出部件,确定所述左图像和右图像中分别对应的一对没有融合点的左右的对象区域中的任意一个不显眼一方的区域,将该不显眼一方的区域作为排除区域抽出;
排除区域加工部件,对于在所述排除区域抽出部件中抽出的排除区域,与从所述对象区域除去该排除区域的区域相比较,进行变得更不显眼的加工;和
显示部件,显示通过所述排除区域加工部件进行了加工的图像。
17.一种体视装置,体视具有体视用的左图像和右图像的体视图像,
所述体视装置包括:
排除区域抽出部件,在给定显示面上显示的所述左图像和右图像中抽出对应的没有融合点的左右的区域作为排除区域;
排除区域加工部件,对在所述排除区域抽出部件中抽出的排除区域,进行变得更不显眼的加工;和
显示部件,显示通过所述排除区域加工部件进行了加工的图像。
18.一种体视图像生成方法,该体视图像具有体视用的左图像和右图像,在给定的显示面上显示的该左图像和右图像中,根据由对应的各点所生成的辐辏角形成虚拟立体像,
所述体视图像生成方法包括:
排除区域抽出步骤,确定所述左图像和右图像中分别对应的一对没有融合点的左右的对象区域中的任意一个不显眼一方的区域,将该不显眼一方的区域作为排除区域抽出;
辐辏角变更步骤,对为了形成所述虚拟立体像而预先生成的体视图像的左图像和右图像进行变形处理,根据给定的规则使由该体视图像的各点所生成的辐辏角增减,使所述虚拟立体像的深度变化,提高体视效果;和
排除区域加工步骤,对于在所述排除区域抽出步骤中抽出的排除区域,与从所述对象区域除去该排除区域的区域相比较,进行变得更不显眼的加工。
19.一种体视图像生成方法,该体视图像具有体视用的左图像和右图像,在给定的显示面上显示的该左图像和右图像中,根据由对应的各点所生成的辐辏角形成虚拟立体像,
所述体视图像生成方法包括:
排除区域抽出步骤,在给定显示面上显示的所述左图像和右图像中抽出对应的没有融合点的左右的区域作为排除区域;和
排除区域加工步骤,对在所述排除区域抽出步骤中抽出的排除区域,进行变得更不显眼的加工。
CN2005800208121A 2004-06-25 2005-06-24 体视图像生成方法和装置 Expired - Fee Related CN1973556B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2004188949 2004-06-25
JP188949/2004 2004-06-25
JP2004319878A JP4707368B2 (ja) 2004-06-25 2004-11-02 立体視画像作成方法および装置
JP319878/2004 2004-11-02
PCT/JP2005/011593 WO2006001361A1 (ja) 2004-06-25 2005-06-24 立体視画像作成方法および装置

Publications (2)

Publication Number Publication Date
CN1973556A CN1973556A (zh) 2007-05-30
CN1973556B true CN1973556B (zh) 2011-07-06

Family

ID=35781811

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2005800208121A Expired - Fee Related CN1973556B (zh) 2004-06-25 2005-06-24 体视图像生成方法和装置

Country Status (6)

Country Link
US (1) US8000521B2 (zh)
EP (1) EP1771014A4 (zh)
JP (1) JP4707368B2 (zh)
KR (1) KR100881800B1 (zh)
CN (1) CN1973556B (zh)
WO (1) WO2006001361A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI458530B (zh) * 2012-08-20 2014-11-01 Au Optronics Corp 娛樂顯示系統及其互動式立體顯示方法

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4530803B2 (ja) * 2004-10-28 2010-08-25 ▲吉▼良 雅貴 立体視画像生成装置および立体視画像生成方法
CN1710852B (zh) * 2005-07-26 2010-08-11 北京飞天诚信科技有限公司 带有生物特征识别功能的智能密码钥匙及其工作方法
JP4857885B2 (ja) * 2006-04-24 2012-01-18 株式会社デンソー 表示装置
JP2007318307A (ja) * 2006-05-24 2007-12-06 Fujifilm Corp 画像処理方法、撮影装置、および画像処理装置
KR101396619B1 (ko) * 2007-12-20 2014-05-16 삼성전자주식회사 3d 영상에 관한 부가 정보를 포함하는 3d 영상파일을생성 및 재생하기 위한 시스템 및 방법
US8208009B2 (en) * 2008-02-05 2012-06-26 Disney Enterprises, Inc. Stereoscopic image generation using retinal rivalry in scene transitions
US9094675B2 (en) * 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
JP4725595B2 (ja) * 2008-04-24 2011-07-13 ソニー株式会社 映像処理装置、映像処理方法、プログラム及び記録媒体
CA2729995C (en) * 2008-07-24 2015-12-22 Panasonic Corporation Playback device capable of stereoscopic playback, playback method, and program
US8330802B2 (en) * 2008-12-09 2012-12-11 Microsoft Corp. Stereo movie editing
JP5491786B2 (ja) * 2009-07-21 2014-05-14 富士フイルム株式会社 画像再生装置及び方法
JP5565001B2 (ja) * 2010-03-04 2014-08-06 株式会社Jvcケンウッド 立体映像撮像装置、立体映像処理装置および立体映像撮像方法
US9049434B2 (en) 2010-03-05 2015-06-02 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
US9188849B2 (en) 2010-03-05 2015-11-17 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
JP5491617B2 (ja) * 2010-03-05 2014-05-14 パナソニック株式会社 立体撮像装置、および立体撮像方法
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP5541974B2 (ja) * 2010-06-14 2014-07-09 任天堂株式会社 画像表示プログラム、装置、システムおよび方法
JP2012023546A (ja) * 2010-07-14 2012-02-02 Jvc Kenwood Corp 制御装置、立体映像撮像装置、および制御方法
JP2012047995A (ja) * 2010-08-27 2012-03-08 Fujitsu Ltd 情報表示装置
JP5545140B2 (ja) * 2010-09-07 2014-07-09 ソニー株式会社 表示制御装置、表示制御方法、及びプログラム
CN102420997B (zh) * 2010-09-28 2014-07-30 承景科技股份有限公司 图像处理方法
US8687914B2 (en) * 2010-10-13 2014-04-01 Ability Enterprise Co., Ltd. Method of producing an image
CN103181173B (zh) * 2010-10-27 2016-04-27 松下知识产权经营株式会社 三维图像处理装置、三维摄像装置以及三维图像处理方法
JP2012100116A (ja) * 2010-11-02 2012-05-24 Sony Corp 表示処理装置、表示処理方法およびプログラム
KR20120051308A (ko) * 2010-11-12 2012-05-22 삼성전자주식회사 3d 입체감을 개선하고 시청 피로를 저감하는 방법 및 장치
JP2012128662A (ja) * 2010-12-15 2012-07-05 Samsung Electronics Co Ltd 表示制御装置、プログラムおよび表示制御方法
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
JP5502211B2 (ja) 2011-01-17 2014-05-28 パナソニック株式会社 立体画像処理装置および立体画像処理方法
US9983685B2 (en) 2011-01-17 2018-05-29 Mediatek Inc. Electronic apparatuses and methods for providing a man-machine interface (MMI)
US8670023B2 (en) * 2011-01-17 2014-03-11 Mediatek Inc. Apparatuses and methods for providing a 3D man-machine interface (MMI)
JP5820985B2 (ja) * 2011-01-19 2015-11-24 パナソニックIpマネジメント株式会社 立体画像処理装置および立体画像処理方法
JP5987267B2 (ja) * 2011-03-28 2016-09-07 ソニー株式会社 画像処理装置および画像処理方法
JP5002066B1 (ja) * 2011-04-06 2012-08-15 シャープ株式会社 画像処理装置、画像処理方法、コンピュータプログラム、および、記録媒体
JP5757790B2 (ja) * 2011-06-03 2015-07-29 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法
JP2012253690A (ja) * 2011-06-06 2012-12-20 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP5782911B2 (ja) * 2011-08-11 2015-09-24 株式会社Jvcケンウッド 三次元画像処理装置及び方法
US8818101B1 (en) 2012-01-03 2014-08-26 Google Inc. Apparatus and method for feature matching in distorted images
US20130241805A1 (en) * 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US9007460B2 (en) 2012-03-30 2015-04-14 General Electric Company Methods and systems for predicting cloud movement
CN102722893A (zh) * 2012-06-29 2012-10-10 王天珍 遮挡存在时双眼图像立体合成的方法
US9185387B2 (en) * 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
CN103546736B (zh) * 2012-07-12 2016-12-28 三星电子株式会社 图像处理设备和方法
US9406105B2 (en) * 2012-08-02 2016-08-02 The Chinese University Of Hong Kong Binocular visual experience enrichment system
US20140132595A1 (en) * 2012-11-14 2014-05-15 Microsoft Corporation In-scene real-time design of living spaces
TWI605418B (zh) * 2013-04-15 2017-11-11 晨星半導體股份有限公司 影像編輯方法以及影像處理裝置
US9792502B2 (en) 2014-07-23 2017-10-17 Gopro, Inc. Generating video summaries for a video using video summary templates
US9685194B2 (en) 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
JP5955373B2 (ja) * 2014-12-22 2016-07-20 三菱電機株式会社 3次元立体表示装置および3次元立体表示信号生成装置
US9734870B2 (en) 2015-01-05 2017-08-15 Gopro, Inc. Media identifier generation for camera-captured media
AU2016252993B2 (en) 2015-04-23 2018-01-04 Apple Inc. Digital viewfinder user interface for multiple cameras
US10713501B2 (en) * 2015-08-13 2020-07-14 Ford Global Technologies, Llc Focus system to enhance vehicle vision performance
US9639560B1 (en) * 2015-10-22 2017-05-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
WO2017085803A1 (ja) * 2015-11-18 2017-05-26 株式会社日立製作所 映像表示装置及び映像表示方法
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US9787862B1 (en) 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
TWI608448B (zh) * 2016-03-25 2017-12-11 晶睿通訊股份有限公司 計數流道設定方法、具有計數流道設定功能的影像監控系統、及其相關的電腦可讀取媒體
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
DK180130B1 (da) 2018-05-07 2020-06-02 Apple Inc. Multi-participant live communication user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) * 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11431891B2 (en) 2021-01-31 2022-08-30 Apple Inc. User interfaces for wide angle video conference
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11360634B1 (en) 2021-05-15 2022-06-14 Apple Inc. Shared-content session user interfaces
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11812135B2 (en) 2021-09-24 2023-11-07 Apple Inc. Wide angle video conference
US20230133026A1 (en) * 2021-10-28 2023-05-04 X Development Llc Sparse and/or dense depth estimation from stereoscopic imaging

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
CN1465196A (zh) * 2001-06-27 2003-12-31 索尼公司 图像处理设备和方法、以及图像拍摄设备
CN1476730A (zh) * 2001-07-27 2004-02-18 皇家菲利浦电子有限公司 具有观看者跟踪系统的自动立体图像显示装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4825393A (en) * 1986-04-23 1989-04-25 Hitachi, Ltd. Position measuring method
JP3269657B2 (ja) * 1992-05-07 2002-03-25 日本電信電話株式会社 両眼立体視装置
JPH078055B2 (ja) * 1992-10-21 1995-01-30 幹次 村上 立体撮像支援装置
US5768404A (en) * 1994-04-13 1998-06-16 Matsushita Electric Industrial Co., Ltd. Motion and disparity estimation method, image synthesis method, and apparatus for implementing same methods
JPH0829725A (ja) * 1994-05-10 1996-02-02 Canon Inc 複眼式画像表示装置
JP3771964B2 (ja) * 1996-03-12 2006-05-10 オリンパス株式会社 立体映像ディスプレイ装置
JPH09322199A (ja) * 1996-05-29 1997-12-12 Olympus Optical Co Ltd 立体映像ディスプレイ装置
GB9611939D0 (en) * 1996-06-07 1996-08-07 Philips Electronics Nv Stereoscopic image display driver apparatus
JP3787939B2 (ja) 1997-02-27 2006-06-21 コニカミノルタホールディングス株式会社 立体映像表示装置
US6157733A (en) * 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US7116323B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
EP1110414A1 (en) * 1998-08-28 2001-06-27 Sarnoff Corporation Method and apparatus for synthesizing high-resolution imagery using one high-resolution camera and a lower resolution camera
US6714672B1 (en) * 1999-10-27 2004-03-30 Canon Kabushiki Kaisha Automated stereo fundus evaluation
JP2003284093A (ja) 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP4069855B2 (ja) * 2003-11-27 2008-04-02 ソニー株式会社 画像処理装置及び方法
US7257272B2 (en) * 2004-04-16 2007-08-14 Microsoft Corporation Virtual image generation
JP4530803B2 (ja) 2004-10-28 2010-08-25 ▲吉▼良 雅貴 立体視画像生成装置および立体視画像生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
CN1465196A (zh) * 2001-06-27 2003-12-31 索尼公司 图像处理设备和方法、以及图像拍摄设备
CN1476730A (zh) * 2001-07-27 2004-02-18 皇家菲利浦电子有限公司 具有观看者跟踪系统的自动立体图像显示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP特开2003-284093A 2003.10.03

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI458530B (zh) * 2012-08-20 2014-11-01 Au Optronics Corp 娛樂顯示系統及其互動式立體顯示方法

Also Published As

Publication number Publication date
WO2006001361A1 (ja) 2006-01-05
CN1973556A (zh) 2007-05-30
JP2006042298A (ja) 2006-02-09
EP1771014A4 (en) 2011-06-08
US20060158730A1 (en) 2006-07-20
US8000521B2 (en) 2011-08-16
JP4707368B2 (ja) 2011-06-22
KR20070034506A (ko) 2007-03-28
KR100881800B1 (ko) 2009-02-03
EP1771014A1 (en) 2007-04-04

Similar Documents

Publication Publication Date Title
CN1973556B (zh) 体视图像生成方法和装置
KR101956149B1 (ko) 이미지 사이의 광학 흐름의 효율적 결정
CN103595988B (zh) 立体图像显示装置、图像处理装置及图像处理方法
US9684946B2 (en) Image making
KR101675961B1 (ko) 적응적 부화소 렌더링 장치 및 방법
CN109816766A (zh) 图像处理装置、图像处理方法及存储介质
JP2008090617A (ja) 立体画像生成装置、方法およびプログラム
JP2010154422A (ja) 画像処理装置
JP5476910B2 (ja) 画像生成装置、画像生成方法、および、プログラム
Liu et al. 3d cinematography principles and their applications to stereoscopic media processing
WO2011099896A1 (ru) Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты)
Zhao et al. Cross-scale reference-based light field super-resolution
TW201707437A (zh) 畫像處理裝置及畫像處理方法
EP3229106A1 (en) Efficient determination of optical flow between images
Hansen et al. Light field rendering for head mounted displays using pixel reprojection
US20090310858A1 (en) Image processing
Rößing et al. Real‐Time Disparity Map‐Based Pictorial Depth Cue Enhancement
EP3903278A1 (en) Device and method for enhancing images
JP5428723B2 (ja) 画像生成装置、画像生成方法、および、プログラム
JP2011082698A (ja) 画像生成装置、画像生成方法、および、プログラム
US20220351653A1 (en) System and method for augmenting lightfield images
Thatte Cinematic virtual reality with head-motion parallax
AU2004226624B2 (en) Image processing
Wang et al. Beautifying fisheye images using orientation and shape cues
CN114219887A (zh) 一种优化的光线追踪立体元图像阵列获取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110706

Termination date: 20140624

EXPY Termination of patent right or utility model