自动驾驶汽车

自动驾驶汽车(Self-piloting automobile )是当今时代迅速发展起来的一种高科技产品,它可以通过智能的软件系统来实现无人驾驶,也被人们称为智能驾驶汽车或无人驾驶汽车。早在20世纪的时候,自动驾驶汽车已经开始有研究了,到21世纪初其具备实用性的趋势才逐

        自动驾驶汽车(Self-piloting automobile )是当今时代迅速发展起来的一种高科技产品,它可以通过智能的软件系统来实现无人驾驶,也被人们称为智能驾驶汽车或无人驾驶汽车。早在20世纪的时候,自动驾驶汽车已经开始有研究了,到21世纪初其具备实用性的趋势才逐渐呈现出来,引起了广泛的关注。这方面具有代表性的事件是,2012年5月谷歌所研发的无人驾驶汽车获得了美国历史上第一个自动驾驶车辆许可证,并且日后会进入市场销售。
        自动驾驶汽车是通过电脑智能系统来在没有任何人的实际操作下进行正常稳定的驾驶汽车,它引用了诸多高科技技术,比如智能雷达、视觉智能计算、人工智能以及全球定位系统等。2014年12月,谷歌第一次将自动驾驶车的原型产品进行公开展示,该车全功能正常运行。紧接着在2015年5月谷歌通告在当年夏天对其自动驾驶汽车进行全面的测试。
        人类在对世界进行观察认识的时候,主要是通过视觉来进行的。而人类仅通过视觉获取的外界信息就占到了所有信息的75%,这就代表视觉系统是人们在获取信息时最有效的方式。人类往往是通过视觉来对周围的场景进行一定意义上的观察进而做出描述和解释,这是视觉的最终目的,这是一个由感觉到知觉的复杂过程。我们所面对的三维世界是人类最熟悉的生活体验。现实中,人们所看到的大部分二维图像基本都是将三维图像经过人眼的透视变换或录像机转换过来的。但由于人类的视觉系统非常精致巧妙,它能够很轻松的通过二维的图像从而获取三维空间的信息,所以为了准确的感知现实世界,智能计算机的主要任务就是通过智能计算机来对现实中的二维图像进行识别计算从而准确的创建和还原现实世界的三维模型。这之间,通过透视变换的图像进行创建还原现实世界的三维模型就是在通过图像还原现实世界的范围之内。现阶段被应用最广的有以下两种方式:一种是通过仿生学的方法,建立在人类视觉系统构造原理的基础之上,制造出相关的处理模块来实现相似的功能和工作;另一种是工程的方法,根据人类视觉系统原理功能的过程来切入,不特意模仿复制人类视觉系统的内部构造,仅通过输入和输出,并且利用任意可行的方式来实现系统的功能。
        20世纪50年代中期,智能计算机立体视觉的首创性工作才正式开始。促使智能计算机立体视觉技术真正诞生的里程碑式事件是,美国麻省理工的Robert在一次研究中将二维图像扩展到三维景物的分析,由此在这之后的20年中,智能计算机立体视觉技术就快速发展成为了新的学科。20世纪70年代末,Marr等开创提出了通过视觉来进行计算的理论,这对立体视觉的进一步发展造成了有力的推动作用,现在已经在从图像获取的信息来还原真实世界这方面形成了较完整的体系。现在立体视觉的研究主要可分为单目立体视觉,双目立视觉以及多目立体视觉。现阶段立体视觉的研究主要包括双目立体视觉、单目立体视觉和多目立体视觉。
        单目立体视觉的原理比较特殊,与另外两种不一样,而双目立体视觉和多目立体视觉之间是类似的,都是通过对获取的对应点视差来对真实世界的景深信息进行提取,所以最主要的问题还是与对应点之间的匹配。这之间主要是增多了摄像机的数量从而可以获取更多的信息,获取到的最终结果也更加精准,但同时计算量也随之变大,因为这对 计算的及时性要求和相关成本要求较高,所以立体视觉研究的最主要的方向还是双目立体视觉。
        在立体视觉的研究中,最主要和最艰难的步骤就是立体匹配,同时也作为我们的重点研究,这在后面的章节中将会深入的介绍立体匹配的原理。
        立体三维图像的信息是可以从不一样角度的两幅以上的二维图像中获取的,在这个处理实现过程中如何科学的进行立体匹配才是最重要的一步。针对在右图像中的一个像素点,在左图像中如何找到其对应点,这就是立体匹配。构造相应的视差图图像是它最主要的目标,而这里面的视差图像就承载了这两幅图之中的相应关系。在实际中,由于多种因素的影响可能会造成对应点在两幅图像中呈现出不一样的特征,比如光照强度的变化、噪声、投影形变以及遮挡等都会造成这样的影响。而针对一幅图像中所具备的某一个特征或某一个区域,经常会在其他的图像中有一些类似的特征与之匹配,所以在实际中要获取更多的约束条件或数据类得到最终准确的匹配结果是非常必要的。
        常见被应用的约束条件都有如下几种:a.唯一性约束:在两幅图像之中的匹配必须是独一的,一点有多点匹配的现象是不能存在的。b.外极线约束:在这种约束条件下,准确匹配的对应点一定是处于两幅图像之中相应的极线上。而针对极线修正过后的图像,精准匹配的对应点一定是处于匹配图像对的扫描线上。c.顺序性约束:针对扫描线沿线上出现的待匹配点,它相应的匹配点按理会在相应的扫描线上以相同的先后顺序来进行排列 。d.连续性约束:跟不连续区域和遮挡区域来相比,局部区域的视差是连续的,光滑的。现阶段基于特征的方法跟基于面积区域的方法,这两种匹配技术是最主要的两大类。由于这一种图像通常不是具有比较大的纹理区域,就是比较光滑,所以在航天航空图像和纹理较多的图像中已经顺利的将基于面积的方法应用到其中。而现实中基于面积的方法可以被用来产生超高密度的视差图像,然而在当图像缺乏纹理特征或正好处在图像边界不连续区域的情况下,这种方法就会非常无效[6]。基于特征的方法,并不是将两幅图像中纹理区域进行匹配,而是将将在图像中抽取的特定特征来进行匹配。因为在投影变换中图像的特征通常很少变化,所以就造成基于特征的方法比基于面积的方法所获取到的视差图像通常来说更加准确。然而这种方法在实际中获取到高密的视差图像有很大的难度,是因为特征分布的不平均性以及特征的系数性所造成的。通常来说,进行线性插值计算才能获取到高密的视差图像。这就造成了视差图像的准确性下降。自动驾驶汽车
 
        把相同空间物理点在多样图像中的成像点实现相互对应从而获取到相对应的视差图像,这是立体匹配的目的。然而在将三维的场景投影转换成二维图像的过程中,在不一样的角度中获取的相同场景的图像之间有很大的差异性,所以立体匹配在实际中难度很大。当下立体匹配技术还存在很多问题需要解决,比如:
     (1)弱纹理和重复纹理。由于在弱纹理区域之内有多个匹配点,所以无法找到准确的匹配像素点;而由于大批的重复颜色信息存在于重复纹理区域,这就会形成像素点的歧义匹配。
     (2)遮挡问题。在不一样的角度对相同的物体进行观察时,通常获取到的图像会有程度不一样的遮挡,造成了无法在一幅图像中找到另一幅图像所对应的像素点,就会使匹配结果发生错误。
     (3)光照问题。由于镜面反射和角度不一等问题,导致摄像机在拍摄图像时匹配结果不准确。
     (4)深度不连续区域。一般来说,该区域是物体的边界,它是在场景之中存在的从背景到前景跳转所产生的的结果,同时也会因为光照强度或物体颜色等因素造成,从而不难在深度图中形成边界模糊。
       在建立在深度信息基础之上的多对象检测算法中,一般在道路情况比较复杂的时候,它所获得的场景和阻碍物图像可能就会发生上面所描述过的四个问题。例如路障和车辆之间的互相遮挡,就会造成问题(2)出现;不同车辆之间的颜色和平滑纹理还有车窗的无光反射形成的平滑纹理,都会造成问题(1)出现;除此之外,还有车辆在视差图中会造成前景与背景之间的跳变,这样可能会使截取到的视差图在车辆周围得到非有效区域。
 

原创文章,作者:写文章小能手,如若转载,请注明出处:https://www.sbvv.cn/chachong/740.html,文章版权申述

(0)
上一篇 2017年10月24日 上午1:00
下一篇 2017年10月25日 上午1:35

相关推荐

My title page contents