计算机视觉基本原理十篇

发布时间:2024-04-26 01:31:22

计算机视觉基本原理篇1

(1)课程内容方面:工程应用价值较小的内容居多;具备工程应用价值的方法,如基于结构光的3D信息获取,在课程内容中却极少出现。

(2)课程定位方面:现有课程体系中未能体现最新研究成果,而掌握世界最新工程应用成果是卓越工程师的基本要求之一。

(3)教学形式方面:传统计算机视觉课程侧重基本原理,尽管范例教学被引入到课堂教学中,在一定程度上帮助学生理解,但卓越工程师培养目标是培养学生解决实际工程问题的能力。针对卓越工程师培养目标,以及目前计算机视觉课程中存在的问题,本文提出工程应用导向型的课程内容、面向最新成果的课程定位、理论实例化与工程实践化的教学形式,以培养具有扎实理论基础及工程实践能力的卓越工程师。

1工程应用导向型的课程内容传统计算机视觉课程围绕marr理论框架展开教学,其中部分原理仅在理想状态或若干假设下成立,不能直接运用到工程实践中。近年来已具备工程应用基础的原理及方法,在传统课程内容中较少出现,如已在工业测量、视频监控、游戏娱乐等领域中应用的主动式三维数据获取方法等。我们对工程应用价值高的课程内容,增加课时,充分讲解其原理及算法,并进行工程实例分析;对工程应用价值较低内容,压缩课时,以介绍方法原理为主。例如,在教授3D信息获取部分时,课时主要投入到工程应用价值较大的内容,如立体视觉、运动恢复结构、基于结构光的3D信息获取等;而对于基于阴影的景物恢复等缺乏应用基础的内容主要介绍其基本原理,并引导学生进行其工程应用的可行性分析,培养学生缜密的思维习惯,训练学生辩证的分析能力。

2面向最新成果的课程定位计算机视觉近十年来发展迅速,新方法和新理论层出不穷,在现有课程体系中未能得以体现。跟进世界最新成果是卓越工程师的基本要求之一,因此计算机视觉课程定位应当面向国际最新成果。为实现这一目标,我们主要从以下两方面入手。

(1)选用涵盖最新成果的教材。我们在教学中加入国际最新科研成果及应用范例,在教材选取上采用2010年RichardSzeliski教授所著《Computervision:algorithmsandapplications》作为参考教材。该书是RichardSzeliski教授在多年mit执教经验及微软多年计算机视觉领域工作经验基础上所著,涵盖计算机视觉领域的主要科研成果及应用范例,参考文献最新引用至2010年。这是目前最新的计算机视觉著作之一,条理清晰,深入浅出,特点在于对计算机视觉的基本原理介绍非常详尽,算法应用紧跟国际前沿。

(2)强化学生调研及自学能力。“授之以鱼”,不如“授之以渔”。在教授学生的同时,更重要的是培养学生调研、跟踪、学习并分析国际最新科研及工程应用成果的能力。为强化学生的知识结构,培养学生跟踪国际前沿的能力,我们在教学中加入10%的课外学时,指导每位学生完成最近三年本领域的国际最新文献调研及工程应用新技术调研,并撰写相关调研论文。同时,设置2学时课内学时,让每位学生介绍调研成果,并进行课堂讨论。在调研基础上,选择相关算法进行了实验证明,进一步强化学习成果。实践证明,由于学生能够根据自己的兴趣,选择本领域感兴趣的课题进行深入调研,极大地调动了学生的积极性,强化了学生调研、跟踪、学习并分析国际最新科研及工程应用成果的能力。

3工程实践化的教学形式我们在教学中提出工程实践化的教学形式,即以人类视觉功能为背景,由相应工程实例引出相关理论,并最终将理论运用到工程实例中的算法和方法传授给学生。

计算机视觉基本原理篇2

关键词:机器视觉;三维重建;图像处理

中图分类号:tp301

文献标识码:a文章编号:1672-7800(2014)003-0013-02

作者简介:罗尤春(1989-),男,华中科技大学机械科学与工程学院硕士研究生,研究方向为机器视觉。

1marr机器视觉框架

在漫漫进化历程中,人类和大部分动物通过视觉、听觉、触觉等来获取周围世界的信息,并通过大脑处理这些信息。而根据调查,人类大脑处理的信息有80%是来自视觉,我们通过双目感受深度信息,通过对不同频率光信号进行判别来获取颜色信息[1]。通过运用摄像机来达到模拟人眼的识别和测量功能,机器视觉成为人工智能研究的重要环节。机器视觉区别于计算机视觉,更偏向于应用,一个机器视觉系统一般通过摄像机之类的光学仪器以图像的形式获取周围世界的信息,通过计算机进行图像处理和图像理解,再根据相应的控制程序和机械驱动设备对智能输出设备发出操作指令,实现智能控制和操作功能。

早期的机器视觉局限于对二维图像的分析、识别和理解上[2]。20世纪80年代初,marr第一次融合图像处理、神经科学的相关研究,提出了里程碑式的视觉系统框架。具体来说,marr框架包括三个层次:计算理论层次、表达与算法层次、硬件实现层次。计算理论层次,可以理解为通过对二维图像的理解来重建三维客观世界的视觉三维重建理论研究。因为现实世界是复杂多变的,如何建立一种通过二维图像来实现三维重建的普适性方法成为机器视觉系统中最重要也是终极的目的。marr提出的这一层次是想通过建立某种普适性模型来获取客观世界任何物体的形状、位置以及运动的信息;表达与算法层次低于计算理论层次,是要解决“软件”的问题,即如何实现机器视觉系统各个模块之间信息输入、输出和信息表达的问题,亦即各种算法的实现;硬件实现层次可理解为如何组建机器视觉系统的硬件实体设备,与表达与算法层次一起为计算理论层次服务。

marr提出的视觉框架中研究最多的是计算理论层次和表达与算法层次,分别对应下节要介绍的三维重建理论和图像处理。

2三维重建

视觉三维重建理论是整个视觉领域研究的重点和前沿。客观世界的物体都是由基本的几何要素组成的:点、直线、二次曲线等。因此,要实现对客观世界的描绘,利用这些最基本的几何要素来组建客观世界是可以实现的。在很多研究中,通过大量的点对匹配得到三维世界中物体的三维点云模型,从而模拟出真实物体的形状。在三维重建研究中,立体视觉或称双目(多目)视觉是最重要的手段。仿照人眼的原理,要获得对周围三维世界的认知,必须知道深度信息,最少需要两个眼睛。与此同理,立体视觉一般都需要两个或者多个摄像机同时工作,才能较好地得到周围世界的三维信息。

2.1摄像机针孔模型

摄像机的普适模型——针孔模型来源于小孔成像现象。简单地说,针孔模型是指空间中一点p与摄像机中一特定点C(称为光心)的连线交摄像机的图像平面于点p,这个点p便是空间点p的成像点,蕴含了空间点p的几何信息。从数学的观点,摄像机的成像模型是一个从三维到二维的映射f:pp,是一个降维映射,丢失掉了深度信息,即处于光心C—空间点p的直线上任意一点Q的投影也都是p。从数学上可以证明,至少需要两幅或以上图像才能重建出空间点p的深度信息zp。

2.2空间点三维重建

采用两个不同的摄像机位拍摄空间中同一点p的图像,分别得到p在左右摄像机图像平面上的投影点p\-L和p\-R,如果事先知道左右摄像机的相对位置关系——称为双目摄像机标定,那么就知道了左右摄像机的光心C\-L和C\-R的位置。简而言之,双目视觉系统能够提供给我们一个坐标系(左或者右摄像机坐标系),在这个坐标系下通过摄像机标定知道两个光心C\-L和C\-R的位置以及投影点p\-L和p\-R的位置,直线C\-Lp\-L和C\-Rp\-R的交点就是要重建的空间点p。

2.3空间直线三维重建

空间直线的重建原理和空间点的重建类似,假如要重建空间直线L,得到L在左右摄像机图像平面上的投影直线l\-L和l\-R,那么左摄像机光心C\-L和左投影l\-L形成一个平面S\-L,同理右摄像机光心C\-R和右投影l\-R形成一个平面S\-R,则空间直线L就是平面S\-L和S\-R的相交直线。

2.4二次曲线三维重建

实二次曲线一般包括椭圆、双曲线、抛物线和圆[3]。关于二次曲线的三维重建,司少华等[4]在1993年提出了一种特征值的方法,其开创性贡献在于首先将二次曲线视为一个几何元素来进行重建,而非利用二次曲线由其上的若干点(至少5个点)决定的原理,更不是利用点云的思想来重建二次曲线。将要重建的对象视作整体而非利用局部元素(点)去拟合逼近的思想是视觉理论更进一步的发展。圆作为最常见的二次曲线特征被广泛应用在物体空间定位上[5]。

3图像处理

图像处理是指利用计算机对图像进行分析,得到需要的信息。所谓图像,其数学模型即一个二元向量函数f(x,y),其坐标(x,y)表示图像的横纵坐标。对于灰度图像,这个向量函数成为一个标量函数,f(x,y)表示对应平面坐标(x,y)的灰度值。对于彩色图像,一般使用RGB三原色来表征,即f=[R,G,B]\+t。图像处理的内容非常丰富,包括了图像滤波去噪、边缘检测、图像复原、形态学处理、图像分割等。其中,为了得到三维重建所必须知道的点、直线、二次曲线等图像信息,边缘检测至关重要。所谓边缘检测,目的是要识别出图像中灰度值变化明显的图像点。图像中突变的位置一般代表了三维世界中的不同属性。现有的边缘检测算子包括Canny算子[6]、Sobel算子、prewitt算子、RobertsCross算子、罗盘算子、marr-Hildreth算子等。

a=imread('Beach.jpg');

B=rgb2gray(a);

C=edge(B,'canny',0.1);

imshow(C)

4机器视觉应用及前景

机器视觉技术广泛应用于机器人、工业检测等领域。由于机器视觉系统是一套光学系统,因此具有非接触式测量的优点。由于计算机的运算速度不断刷新纪录,使得图像处理效率也不断提升,运用机器视觉系统能够为工业中的不同应用提供实时数据。加载视觉系统的智能机器人不仅拥有灵活、快捷的操作手臂,而且配置了灵敏的摄像机充当“眼睛”,还有超强计算能力的计算机充当“大脑”,真正实现了手—眼—脑同体。在工业检测以及测量领域,机器视觉利用自身的独特优势在质量缺陷、生产监控等方面占据了重要地位。机器视觉是一种人工智能技术,在未来的智能化时代,视觉技术必定能成为人机交互的最重要途径之一。

参考文献:

[1]张广军.机器视觉[m].北京:科学出版社,2005.

[2]马颂德,张正友.计算机视觉:计算理论与算法基础[m].北京:科学出版社,2003.

[3]吕林根,许子道.解析几何[m].北京:高等教育出版社,2006.

[4]司少华,马颂德.基于二次曲线的立体视觉[J].自动化学报,1993,19(4):420-427.

计算机视觉基本原理篇3

关键词:三维坐标;多目视觉;双目交汇;硅棒;特征点

中图分类号:tp274.2文献标识码:adoi:10.3969/j.issn.10055630.2013.02.001

引言硅棒的实际尺寸参数与硅棒本身的特征点提取密切相关,获取硅棒特征点的三维坐标信息可有效反映硅棒尺寸参数和产品质量,为产品的质量监控提供依据[1]。然而针对硅棒,无论是整体尺寸还是局部特征的检测,国内目前尚无相关仪器,在我国这些参数的检测还主要是依靠人工完成[2]。人工检测是一种非在线、接触式的传统检测方式,采用直角尺、游标卡尺、钢板尺等工具进行检验,检测精确度和重复性受到检测人员工作状态干扰,很难保证统一标准,总体上来说检测速度和检测精度不高;同时接触式检测过程中需反复搬动样品不可避免地造成对样品的二次伤害,效率低,仪器损耗大[2]。结合视觉成像技术和图像处理技术出现的机器视觉检测技术,不仅摒弃了传统检测方法的不足,满足了实时检测要求,同时还具有非接触、精度高等优点,是现场实时三维坐标测量的首选方法之一[35]。国内外关于三维坐标的相关测量方法主要有:电子经纬仪法和三坐标测量机法[3]。坐标测量机的测量精度可达微米级,但是庞大的机身、厚重的底座、复杂的操作以及昂贵的成本限制了其现场的应用[4];经纬仪、激光跟踪仪便携性好,但采用多点对准,效率低,不适合于现场在线检测[5]。机器视觉检测系统组建非常灵活,既可由单目视觉测量系统构成,亦可选择双目甚至多目视觉测量系统搭建而成。因为单目视觉测量三维空间坐标测量不确定度偏差较大[4],所以选择由四CCD构成的多目视觉系统,该多目视觉检测系统中,相邻的两CCD构成正交双目交汇视觉测量子模块系统,基于双目视觉原理的子模块克服了单目视觉检测的缺陷,精度更高。该多目机器视觉系统在保证较高精度的前提下,作为机器视觉前端采集系统,实现了硅棒全范围大尺寸轮廓检测,检测效率和速度较高。1硅棒坐标检测机器视觉系统组成典型的基于机器视觉的硅棒坐标检测系统组成如图1所示:

图1机器视觉的坐标检测系统组成

Fig.1thedesignofmachinevisionforcoordinatedetectionsystem

硅棒坐标测量系统主要包括上位机界面、数据采集模块、图像处理模块、输入输出接口以及机械搭建平台组成。上位机作为人机交互平台负责数据显示和存储,总体管理数据采集模块和图像处理模块。数据采集系统作为机器视觉检测的核心之一完成硅棒轮廓信息图像采集,涉及光源、镜头、CCD相机以及图像采集卡,采集系统工作流程为:光源照射待测硅棒,CCD相机采集图像信息经过图像采集卡将图像信息转换为数字信息送入上位机并实时保存起来。数据采集完成之后,图像处理模块读取图像通过相应算法提取特征点最终计算特征点空间三维坐标。图1还可以看出整个数据采集模块搭建在机械平台上由执行机构驱动,不仅可以实现待测目标的小范围检测,同时还可以配合机械平台运动,驱动数据采集系统实现待测物体的大范围全尺寸检测。2硅棒特征点三维坐标检测原理

2.1四目视觉全范围检测系统组成硅棒特征点坐标视觉检测技术基于四目视觉原理,整个四目视觉系统作为机器视觉检测系统的数据采集模块负责为后续图像处理模块提供硅棒图像信息,采集的图像质量直接影响到后续图像处理的难易程度和结果的计算精度。四目视觉原理如图2所示:数据采集模块由四台CCD相机组成,分别在待测硅棒每个侧面安装一台CCD面阵相机,保持相机与硅棒待测面垂直放置,在自然光源照射下硅棒表面成像于与之垂直的CCD相机上,则相机分别获得每个硅棒表面特征的图像。该图像可以通过一个四路camelink接口图像采集卡或者2个双路camelink接口图像采集卡送入上位机进行后续图像处理。整个数据采集系统要实现的功能就是确保不降低系统检测精度的前提下,维持尽量大的有效视场范围,实时采集获取清晰的硅棒图像。

2.2四目视觉系统视场约束为了实现最优检测目的,必须保证待测硅棒在检测过程中始终处于四目视觉系统的有效视场范围内,若硅棒对应于相机上像点的坐标为(xi,yi),通过针孔模型透视变换公式就能得出某个特征点在有效视场内的世界坐标为oXwiYwiZwi。图3为四目视觉系统有效视场示意图,以四台CCD交汇中心建立世界坐标系。

图2四目视觉系统组成

Fig.2thecompositionofthe4CCDs

visionsystem图3四目全范围检测原理及有效视场分析

Fig.3theprincipleandtheanalysisofeffective

visionfieldfor4CCDs′fullrangedetection

如图所示:四台面阵相机型号相同,焦距f均为镜头中心到CCD靶面中心的距离,相邻相机之间的基线长度均为B(B=o1o2=o2o3=o3o4=o4o1),o1Xc1Yc1Zc1、o2Xc2Yc2Zc2、o3Xc3Yc3Zc3、o4Xc4Yc4Zc4是分别以CCD相机各自的镜头中心建立相机坐标系,以CCD1和CCD2光轴的交点为原点建立世界坐标系oXwYwZw,o1Xc1Yc1Zc1、o2Xc2Yc2Zc2、o3Xc3Yc3Zc3、o4Xc4Yc4Zc4均位于oXwYwZw内,最终计算时必须将o1Xc1Yc1Zc1、o2Xc2Yc2Zc2、o3Xc3Yc3Zc3、o4Xc4Yc4Zc4这四个相机坐标系转换到同一个参考坐标系oXwYwZw。假设CCD相机像平面平均尺寸为2tx×2ty,相邻相机光轴夹角为2α,则四目视觉系统的有效视场为aBCDeFGH围成的八边形。为了准确描述有效视场,在八边形aBCDeFGH内做内切圆,内切圆面积就反映有效视场的大小,采用内切圆的半径R对有效视场进行描述。考虑tx远远小于焦距f,则有效视场R可以采用如下近似公式描述:R=Bcosβ/2sinα=Bcos(arctan(tx/f))/2sin45°≈22Btx/f(1)由式(1)可知:CCD相机间基线长度B、视场角β以及相机夹角α这三个参数不仅直接限制有效视场的大小,还会严重影响四目视觉系统的测量精度。引起测量精度的误差包括相机本身参数(tx、ty)以及相机分布结构参数、参数本身的测量误差(B、f)[6],它们共同决定了机器视觉采集系统的精度。

2.3双目交会原理如图2可知:四目视觉系统中的任意相邻的两个CCD构成双目交汇视觉测量系统,所以整个四目视觉系统可以看作四个双目交汇视觉子系统组成,其中CCD1和CCD2构成子系统1,CCD2和CCD3构成子系统2,CCD3和CCD4构成子系统3,CCD4和CCD1构成子系统4。因为每个子系统光轴互相垂直,所以子系统基于正交双目交汇视觉原理。正交双目交汇测量比单目测量准确度高,它的相机夹角2α=90°有效降低安装误差[7],保证基线长度,形成相对较大的有效视场利于实现大尺寸检测,同时α=45°满足α∈(40°-70°)放置时测量误差最小要求[4]。以双目交汇视觉子系统1为例:CCD1和CCD2分别满足针孔成像模型:zc1u

(3)其中矩阵m是由相机内部参数(r1~r9)和相机外部参数(t1~t3)构成的一个3×4的综合矩阵。联立式(2)和式(3)求解则可得到CCD1和CCD2的采集图像上的公共特征点的三维坐标,即硅棒第1对棱边上的特征点坐标,同理对于双目交汇视觉子系统2、双目交汇视觉子系统3、双目交汇视觉子系统4可依次求得第2对、第3对、第4对棱边上的特征点坐标,从而在保证精度前提下实现硅棒全范围检测目的。3硅棒特征点三维坐标检测方法的实现为了验证硅棒特征点三维坐标视觉检测系统的可行性,在实验室搭建了机器视觉检测试验样机进行试验,完成四目视觉采集系统的相机标定实验,同时以CCD1和CCD2构成的正交双目子系统为例进行一对硅棒表面图像的数据采集实验,基于VisualStudio2008平台编写核心图像处理算法。

3.1标定实验相机标定是视觉测量过程中不可缺少的关键技术,标定通过针孔成像原理求取相机内部属性参数和外部位置参数从而确定空间坐标系中物点和像点的对应关系[8]。针对本文的多目视觉系统首先对每个相机进行单目标定。单目标定选择一种介于传统标定技术和自标定技术之间的方法:张氏平面标定法。标定流程为:首先将自制一个大小为11×11标准棋盘格模板,每个棋盘格大小为10mm×10mm。该模板置于视觉系统有效视场内,改变模板位置多角度(不小于3个)分别拍摄,拍摄完成后进行角点检测,单应性矩阵求解和参数优化,每个CCD获得一个相应的相机标定文件calib_CCD_1.mat、calib_CCD_2.mat、calib_CCD_3.mat、calib_CCD_4.mat。这种标定方法比传统标定简单,算法计算量减少且精度高于自标定方法。通过单目标定得到X方向和Y方向有效焦距(ax,ay)、CCD靶面中心坐标(u0,v0)以及径向或者切向畸变等相机内部参数,由于切向畸变较小,此处忽略不计,主要考虑径向畸变参数(k1,k2),单目标定结果见表1。单目标定完成之后进行立体标定,分别获得相机坐标系o1Xc1Yc1Zc1、o2Xc2Yc2Zc2、o3Xc3Yc3Zc3、o4Xc4Yc4Zc4相对于世界坐标系的旋转矩阵R和平移矩阵t。立体标定结果见表2。表1单目相机标定结果

tab.1theresultofmonocularcameracalibration

CCD1CCD2CCD3CCD4(ax,ay)(1537.644971864.83493)(1533.415091857.50018)(1535.344071860.93201)(1539.70031865.79331)(u0,v0)(350.60211272.77893)(360.14942285.26816)(357.02119279.77549)(351.33908288.44109)(k1,k2)(-0.382631.71026)(-0.372052.034223)(-0.367811.90127)(-0.380091.94737)像素误差(0.321280.37039)(0.275690.22316)(-0.332810.20127)(-0.339610.29127)

表2多目相机标定结果

tab.2theresultofmulticameracalibration

o1Xc1Yc1Zc1o2Xc2Yc2Zc2o3Xc3Yc3Zc3o4Xc4Yc4Zc4R10010.00370.04310.00290.004310.00370.0403010-0.00361-0.00650.04361-0.0465-0.00711-0.0473001-0.00450.06681-0.00390.06171-0.00650.05791t0.24281000.22900999.23370.10020.29750.44170.0209-998.00190.19951002.33670.0197

图4硅棒图像

Fig.4imagesofsiliconrods3.2图像采集实验实验采用四个impeRX面阵CCD相机、相机配接15mm的标准镜头,两个X64CLprio图像采集卡,两个镜头基线距离为1408.6mm搭建实验样机,有效线视场为236.544mm,将待测硅棒置于CCD交汇的有效视场范围内,配置图像采集卡输出格式为CameralinkBasemono#1,导入ipX_VGa210相机.cfg配置文件,通过X64CLprio图像采集卡将一对像素为640×480黑白硅棒图像实时送入上位机。其中正交双目视觉子模块1采集到的一对图像如图4所示。

3.3图像处理特征点坐标检测视觉系统第二个核心组成是图像处理模块,该模块通过完成对采集数据的后续图像处理获得目标特征点的三维空间坐标,技术难点在于机器视觉数据采集模块中CCD相机得到的是二维图像信息,而系统最终要求是得到目标特征点的空间三维坐标。针对问题论文提出一种二维图像上恢复特征兴趣点三维坐标的解决方法:首先提取待处理图像上的特征兴趣点,建立特征兴趣点对应关系即同名点识别,接着通过同名点立体匹配获取对应点视差从而得到特征兴趣点3D坐标。

3.3.1Harris角点检测论文以硅棒角点作为研究的特征兴趣点,采用一种基于灰度值相关的角点检测算子:Harris算子进行硅棒角点检测。Harris角点检测的目的是提取待测目标的特征点,依靠特征点来传递图像所表征的参数信息,算法不受相机姿态及光照影响,检测精度达到像素级别[9]。Harris算子数学表达形式为:m=G(S)gxgxgy

gxgygy(4)

i=Det(m)-k×trace2(5)m为自相关联系矩阵、Det(m)为自相关矩阵行列式的值,trace为矩阵的迹,k为默认常数,取0.04。式(5)称为Harris算法响应函数,该函数给出局部范围内的兴趣值大小。Harris算法采用局部范围内的极大兴趣值对应的像素点作为特征点,因此通过对算法中的门限阈值、局部邻域大小、高斯窗口大小和高斯方差多次调整,保证在局部邻域内只留下最大极值点作为兴趣点,实现特征最优角点的提取。

3.3.2特征点立体匹配特征点立体匹配就是在待匹配图像上寻找标准图像上每个特征点的同名点,从而将不同图像中原本独立的特征兴趣点联系起来[1011],特征点匹配不是盲目进行,它遵循一定约束条件,本文同名点匹配基于极线约束。极线约束规定了一幅图像上任意一点在另一幅图像上的对应点只可能位于一条特定的极线上,通过该约束特征点匹配搜索空间从二维降为一维,减少计算量[10]。匹配流程为:首先在现有图像中设定一个标准图像,对于标准图像中的特征点pl,找出待匹配图像中与其有最近欧氏距离的前两个特征点pr1和pr2,计算两个特征点中最近的距离Dmin与次近的距离pcmin的比值,如果该比值小于匹配阈值,则表示待匹配图像上欧氏距离最近的点是标准图像中pl特征最优匹配点。其次以待匹配图像中pr1为特征点,重复步骤1的过程,求取标准图像中pr1的候选匹配点p′l。最后如果pl和p′l是相同点,则pl和pr1匹配成功,否则弃之。重复这个流程,直到匹配完成。同名点匹配完成之后,由双目视觉视差公式即可得出特征点3D坐标。最后对采集系统拍摄的两幅硅棒图像进行角点检测及匹配算法验证,获得了图像中的4对公共角点3D点坐标值,结果见表3。

表3特征点3D坐标计算结果

tab.3thecalculationresultofcharacteristicpoints′3Dcoordinatemm

特征角点X实测值X理论值Y实测值Y理论值Z实测值Z理论值153.59154-79.833-80.5-63.422-63263.32263-80.032-80.5-53.709-54353.6195480.20080.5-63.192-63463.2096379.90280.5-53.991-54

通过表3可以看出:理论计算结果和实际测量结果基本吻合,且实际测量精度明显高于理论计算精度。4结论论文提出一种基于机器视觉的非接触、实时硅棒特征点检测技术,搭建了多目视觉硅棒采集系统进行图像采集实验,重点研究了多目视觉有效视场确定和正交双目交汇视觉测量原理,基于VisualStudio2008平成了硅棒角点特征提取以及同名角点立体匹配等后续图像处理算法,整个检测过程时间不超过0.5min。实验结果表明,该技术可准确快速获取待检测硅棒的特征点三维坐标,检测精度可以达到像素级别,适合于硅棒参数的非接触式高精度检测。为下一步开展硅棒面形检测研究奠定了基础。参考文献:

[1]郭海霞,解凯.焦点检测技术研究[J].哈尔滨师范大学自然科学学报,2007,23(2):73-75.

[2]徐岳生,刘彩池,王海云,等.直拉硅的现状与发展[C]∥中国有色金属学会第六届学术年会论文集.长沙:中南大学出版社,2005:62-69.

[3]彭凯,刘丽冰.双摄像机光学三坐标测量系统的研究[J].工艺与检测,2008,10(9):115-117.

[4]彭凯,刘丽冰,刘书桂.基于双相机的计算机视觉坐标测量系统[J].光电工程,2008,35(7):95-98.

[5]管业鹏,童林夙.双目立体视觉测量方法研究[J].仪器仪表学报,2003,24(6):581-588.

[6]刘佳音,王忠立,贾云得.一种双目立体视觉系统的误差分析方法[J].光学技术,2003,29(3):354-360.

[7]郭玉波,姚郁.双目视觉测量系统结构参数优化问题研究[J].红外与激光工程,2006,35(增刊):506-509.

[8]罗世民,李茂西.双目视觉测量中三维坐标的求取方法研究[J].计算机工程与设计,2006,27(19):3622-3624.

[9]张春生.基于点特征匹配的SUSanHarris算子比较[J].西安科技大学学报,2007,27(4):608-616.

计算机视觉基本原理篇4

1视觉跟踪算法

1.1KCF算法

KCF(KernelCorrelationFilter)核相关滤波算法通过目标样本去训练判别分类器,训练判别分类器分析当前跟踪的目标是被跟踪目标周围的背景信息还是被跟踪目标,如图1所示。KCF通过岭回归分类器的学习来完成对目标的跟踪,通过快速傅里叶变化实现算法的加速运算。KCF跟踪算法在训练阶段,利用循环矩阵理论,对视频目标区域进行稠密采样,获取正负样本,提取方向梯度直方图(HoG)特征,通过岭回归分类器分析所以样本进行训练。在检测阶段,以视频前一帧目标位置为中心进行稠密采样,将得到的所有样本输入到岭回归分类器,经过岭回归分类器的分类,得到目标的位置。

1.2tLD算法

tLD(tracking-Learning-Detection)目标跟踪算法由跟踪模块(tracking)、检测模块(Detection)、学习模块(Learning)三部分组成,如图2所示。该算法首先由跟踪模块的作用是将被跟踪目标的运动轨道处理成轨道碎片提供给学习模块进行学习,学习模块根据跟踪模块的处理结果进行学习并对检测模块的错误进行分析,通过学习处理后生成训练样本,检测模块在接收到训练样本后对相关参数和目标模型进行跟新并对跟踪模块重新初始化,其中跟踪模块为中值流跟踪器,学习模块为p-n目标模型学习。

1.3视觉跟踪算法改进

KCF跟踪算法的运行速度方面和在目标环境变化不大的情况下跟踪速度表现优异,但其在被跟踪目标出现遮挡、形变、跟丢后无法找回目标,反观tLD解决了被跟踪目标被遮挡、目标跟丢无法重新找回的情况,因此将两个算法互相融合,取长补短能提高算法的运算速度和追踪效果。融合方法:利用KCF克服tLD的中值流跟踪器的缺点,将KCF替换tLD的中值流跟踪器,能够加快tLD的目标跟踪速度。当被跟踪目标在当前图像帧中消失后,KCF会把盲目地在背景中寻找被跟踪目标,当被跟踪重新出现时,KCF算法依然在背景中寻找被跟踪目标,导致跟踪失败,为了避免这个错误的方法,KCF与tLD融合的算法包含了原tLD学习模块,当判断目标丢失时不再盲目地在背景内寻找目标,当目标重新出现时重新跟踪目标,进一步提高算法的跟踪性能。虽然这两个算法的融合方法很简单,但融合后的算法确实解决了KCF不能跟踪被遮挡的物体以及目标跟踪后不能找回的缺点,而且算法速度上高于原tLD算法,提高了算法的性能和适用性。

2机器人控制系统设计

机器人系统总体框架如图4所示,USB摄像头拍摄到的图像信以视频帧的形式传入到程序中。首先先进行KCF的滤波和特征跟踪,再经由tLD算法的处理运算出目标状态,再通过整合模块把得到被跟踪目标的位置信息转换为云台舵机转动命令发送,通过CH340模块将指令由USB转为ttL电平,机器人下位机通过Stm32单片机直接或间接地控制各个模块实现机器人的各个功能。Stm32单片机在接收到pS2手柄模块和CH340模块的控制信号后,根据程序存储器对应的指令执行行动,如前进、水弹枪射击等。Stm32单片机实时接收各模块的信息,例如编码电机的电机转速,陀螺仪的欧拉角等,根据各模块的信息及时调整机器人的运动状态实现机器人运动底盘的灵活移动。摄像头所拍摄的图像信息并不会直接交给Stm32单片机除了,而是先经由上位机nUC通过视觉追踪算法运算过后所得的控制指令发送给单片机接收,单片机接收到通过CH340转换的控制指令后控制舵机云台转动追踪目标。

3机器人目标跟踪算法软件设计

目标跟踪算法软件实现流程图如图5所示。由于该目标跟踪算法的运算结果只返回一个跟踪框,并没有实际的跟踪结果,所以需要获取被跟踪目标所在图像中的坐标,获取包围被跟踪目标的矩形重心后,才能方便实现目标跟踪算法。计算出被跟踪目标的矩形包围框的重心后,先对图像帧区域进行划分,使用渐近式接近目标区域为核心思想,将每一帧的图像划分为许多相同的矩形区域。随后根据KCF+tLD目标跟踪算法运算得出的结果框的重心与图像正中心对比,计算出被跟踪目标与图像正中心坐标的偏移量,再通过舵机控制算法计算出舵机云台的转动量,逐帧接近目标所在位置,达到跟踪效果。

4系统视觉跟踪算法测试

计算机视觉基本原理篇5

关键词:三目摄像机;标定;立体视觉;外部参数

一、绪论

1.1研究的背景及意义

计算机视觉是当今极为重要的学科之一,它在具有很强的挑战性的同时又拥有广泛的应用前景和实用价值。计算机视觉以视觉理论为中心,以图像处理、模式识别、计算机技术和生理学、心理学为基础,研究内容主要有两个方面:一是开发从输入图像数据自动构造场景描述的图像处理系统;二是理解人类视觉机理,用机器代替人去做人类难以达到或根本无法达到的工作[1]。

计算机视觉应用的广泛性体现在其不仅用于文字、指纹、面部、商标以及图像数据库、检测集成电路芯片、多媒体技术这些图像方面,还应用到机器人导航、工业检测和产品的自动装配、Ct图像器官重建和遥感照片解释等空间物体的定位、识别以及重建上。现如今,计算机视觉已经应用到机器人、地理、医学、物理、化学、天文等各大的研究领域。

作为多个学科交叉与融合中心的计算机视觉,摄像机是其研究的重要工具,而摄像机标定又是计算机视觉研究的一个关键问题,故摄像机的标定越来越受到广泛的重视。摄像机标定是通过物体空间上的点与图像中的对应点的几何关系,来确定摄像机的内外参数的过程。标定结果是否准确影响着三维测量的精度和三维重建的结果,而且实时的标定更能满足自动导航机器视觉的需要[2]。

伴随着应用的发展,摄像机广泛地被应用于三维立体的测量、视觉检测、运动检测等领域。由此,对摄像机标定的精度要求也日益增加。摄像机标定结果的优劣影响了计算机视觉在各领域的应用。摄像机标定的准确与否,对能否提高计算机视觉在各领域测量的准确度有重要影响[3]。因此,研究摄像机标定方法具有重要的理论研究意义和实际应用价值。

1.2摄像机标定技术研究的发展及现状

摄像机有一个图像平面和提供三维空间到图像平面转换的镜头。由于镜头会产生畸变,不能把这个转化过程简单描述为投射变换。所以它表示的是畸变的模型,这些模型近似于真实数据,而其精确性则依靠于建立的模型及模型参数的准确性。

首先进行摄像机标定工作的是加拿大的Deville,他于1910年建立实验室,使用多个瞄准仪对他的“测量摄像机”(surveyingcamera)进行标定[4]。上个世纪三十年代后期,美国标准局发明了一种精确镜头,用来检测摄像机,同时将它用在摄像机标定上。四十年代后期,该项工作得到进一步加深,有了更多对高精度的需求和对易操作设备的需求。1955年,Carman出版了《棋盘平面度的干涉测量和控制》,该书引起了社会各界对摄像机标定的关注。二战时期,随着飞机的大规模使用,航空摄影与制图兴起,为得到更加精确的测量结果,对摄像机镜头的校正要求也变得更高。五十到七十年代也是镜头校正技术发展最为迅速的时间段。在这期间,各种镜头像差的表达式逐步被提出并且得到普遍认同与采用,建立了很多的镜头像差的模型,D.C.Brown等人作出了比较大的贡献,他们导出了近焦距情况下给定位置处径向畸变表达式并证明了近焦距情况下测量出镜头两个位置的径向畸变就可以求出任何位置的径向畸变[5]。这些径向与切向像差表达式成为后来各摄像机的标定非线性模型的基础。这段时间里,研究的重点是如何校正镜头与用何种方法补偿镜头像差,这些研究对促进各性能镜头组的研制起到了重要作用。在1999年,张正友提出了一种简便的摄像机标定方法,该方法介于传统标定和自标定之间,操作方便灵活,能够得到不错的精度,满足了众多拥有桌面视觉系统的用户在摄像机标定方面的需求。

1.3本文的主要研究内容

本文的主要研究多个摄像机的标定问题。标定主要是对摄像机内外参的测量计算,利用这些参数对多个摄像机识别的物体尺寸进行衡量并建立起多摄像机系统的数字环境。

论文的内容包括:

第一章为绪论,介绍摄像机标定相关的研究背景、国内外研究现状。

第二章为摄像机标定理论基础:主要介绍标定的坐标系与待标定的参数。

第三章提出本文的多摄像机标定方法与实验过程。

第四章进行全文的总结。

二、摄像机标定方法研究

2.1摄像机标定原理

摄像机通过透镜将三维物体投影到--维图像平面上,这个成像变换的过程称为摄像机成像模型。摄像机成像模型有多种,最常用的为小孔成像模型。由于实际的摄像机镜头会发生一定的畸变,使得空间点所成的像不在线性模型描述的位置而会发生一定的偏移,为了能准确的标定摄像机参数,标定的过程中要考虑非线性畸变因子。

一般来说,得到标定结果后要对其精度进行评估,然而很难得到准确的摄像机标定参数真值作为参考,其中基于图像坐标和世界坐标的绝对和相对误差的评价方法应用广泛,本文将对这些方法的原理进行探讨。

2.2摄像机标定坐标系建立

首先定义了四个坐标系,如图1所示,图像坐标系的坐标原点为o0,列与行由坐标轴u和v表示;成像平面坐标系的原点是摄像机光轴与图像坐标系的交点0l,x、y轴分别与u、v轴平行;在摄像机坐标系中,坐标原点0c即为在摄像机的光心,Xc、Yc轴与x、y轴平行,与图像平面垂直是摄像机光轴作为Zc轴,0c0l为摄像机焦距f;世界坐标系是假想的参考坐标系,可固定于场景中某物体上,用于描述摄像机的位置,由Xw,Yw,Zw轴组成。

图(1)

2.3摄像机外部参数构成

主动视觉传感器从在笛卡尔直角坐标系中的运动表现为相应的旋转矩阵和平移矩阵,故摄像机外部参数表现为旋转矩阵R和平移矩阵t,则摄像机坐标系与世界坐标系的转化关系可以表示成:

上式中(Xc,Yc,Zc)表示空间点在摄像机坐标系下的坐标,(Xw,Yw,Zw)表示空间点在世界坐标系下的坐标。根据靶标点在像空间坐标系和物方空间坐标系中的坐标,通过分解旋转矩阵线性计算像空间坐标系与物方空间坐标之间的转换参数,即外方位元素(摄站参数)[6]。

2.4各摄像机相对位置确定

三目摄像机拥有三个视觉传感器,而三个传感器之间的相对位置可通过已获得的外部参数进行确定。将三个摄像机坐标系设置为,ocixciycizci(i=1,2,3),由2.3中所介绍的内容可知,这三个摄像机坐标系与世界坐标系的关系为:

i=(1,2,3)

由此我们可以得到任意两个摄像机i,j的坐标系转换关系:

其中:==i,j=1,2,3

三、摄像机标定实验过程及结果

3.1实验系统介绍

实验中被用来标定的是一个多摄像机系统,摄像机标定有关的基本参数、系统组成和开发环境如下:

(1)硬件环境

标定板、三目摄像机和图像采集卡等。

(2)软件环境

openCV开源视觉库,它仅由一系列C函数和少量C++类构成,为python、matLaB等语言提供了接口,在图像处理和计算机视觉方面实现了很多通用算法。

3.2实验过程

本系统以棋盘格模板作为标定模板。采用激光打印机打印棋盘格黑白方块间隔纸,方块边长为3cm,共6行9列,将打印纸固定在一块平板上,作为标定模板,如图(2)。安装三目摄像机系统,调节固定好个摄像机位置,如图(3)。手持标定板在三目摄像机前方各个位置拍摄5组共15张各姿态的照片,利用Canny算子进行像点灰度中心提取、同名像点匹配并解算出三个摄像机在标定板坐标系中的外部参数值。

3.3标定结果

摄像机1:

R=t=

摄像机2:

R=t=

摄像机3:

R=t=

四、总结

随着计算机技术的高速发展,计算机视觉成为当今热门的研究课题,受到了广泛关注。本文就如何在机器视觉的理论基础上对三目视觉系统进行标定进行了研究,讨论了计算机视觉理论知识,分析摄像机标定原理以及标定坐标系的建立。同时通过计算机视觉知识的分析讨论了基于三目视觉系统的摄像机标定技术,完成了三目视觉系统的外部参数标定实验。三目摄像机测量系统外部参数的标定能够解决测量作业现场、测量控制场建立难的问题,为快速地建立简单实用的控制场提供了方案,有一定的实用价值。

参考文献

[1]荆丽秋.双目视觉系统标定与匹配的研究与实现[D].哈尔滨工程大学,2009.Doi:10.7666/d.y1489086.

[2]马颂德.计算机视觉―计算理论与算法基础[m].北京:科学出版社,1998.

[3]王荣一.摄像机标定及关键技术研究[D].哈尔滨理工大学,2011.Doi:10.7666/d.y2012483.

[4]Clarketa,FryerJG.thedevelopmentofcameracalibrationmethodsandmodels.photogrammetricRecord,1998,16(91):51-66

[5]BrownDC.Decenteringdistortionoflenses.photogrammetricengineering,1966,32(3):444-462.

[6]范亚兵,黄桂平,高宝华等.三目立体工业摄影测量系统外部参数的快速标定[J].测绘工程,2012,21(5):48-52.Doi:10.3969/j.issn.1006-7949.2012.05.013

计算机视觉基本原理篇6

关键词:openCV;计算机视觉技术;三维模拟技术

中图分类号:tp391文献标识码:a文章编号:1009-3044(2015)30-0137-02

21世纪是国际计算机技术高度发展的时代,人们生活中的每个角落都可以看到计算机技术的身影,尤其是现代计算机视觉技术和图像处理功能发展更加迅猛,各技术分支也逐渐趋于成熟。计算机视觉技术主要指的就是利用智能计算机系统来代替人类的眼睛对现实三维世界进行辨识和理解,整个过程均是计算机自我学习的过程,而随着这项技术研究的不断深入,其不再仅仅包含计算机技术科学,同时还涉猎了包括生理学、神经学、物理学、应用数学等多门学科,为人类科技的进步提供了有效的动力。

1计算机对视频中运动物体检测的原理概述

在现代计算机技术基础下,对视频当中的运动物体检测原理主要包括两种,分别是从微观和宏观的角度出发。其中宏观检测技术指的是当计算机截取了视频中的某一个图像,其以整幅图像为对象进行检测;微观检测技术是指在截取图像后,根据实际需求对某一区域内的图像内容进行检测。在计算机视觉技术实际应用时,其第一步就是对图像的采集,第二步是对已经采集的图像进行预分析处理,如果采用宏观检测技术则对图像整体进行分析;如果采用微观检测技术则首先将图像进行分割,然后对分割后各图像内容中出现的运动物体影像进行分析。在图像数据获取过程中应用的是背景差分法,这一技术主要是将背景和运动物体进行分离提取,以获取没有背景图像的运动物体影像数据。还可以利用帧间差分法,这种方法主要是对一个视频图像的逐帧画面进行差别比较,从而获得各帧图像上的差值,而将这些差值帧图结合起来就是一个物体在计算机视觉下的运动轨迹。现代研究者更倾向于将背景和帧间差分法进行结合运用,这样可以获得无背景下的运动物体轨迹,进而提升计算机视觉系统捕捉数据的准确性。

2openCV的应用概述

openCV是现代计算机视觉技术当中具有开源性的视觉库,其最早是由俄罗斯intel分公司所研发,不仅高效,而且具有兼容的优势。同时与传统ipL图像处理系统相比,openCV所处理的图像数据等级更高,例如在对运动物体进行特征跟踪、目标分割、运动轨迹分析以及三维模型重建等方面都有着巨大的优势。

openCV本身编辑的源代码是开放式的,编写过程简洁且方便,并且程序中大多数函数已经通过了汇编的最优化,使其能够更加高效地被应用。在使用openCV的摄像机标定模块已经为用户设计了实用性较强的接口,并且能够支持windows界面的操作平台,使得这一技术的操作更加简便。这一技术本身操作简便,对于编程人员和检验人员个人技能素质要求并不高,视觉技术系统研发人员可以利用简便的操作来检验其设想是否能够实现,这就使得现代计算机视觉技术开发团队能够形成更好的协作研发关系,进一步提升技术研究效率。目前已知openCV编程系统在航空航天定位、卫星地图绘制、工厂大规模生产视觉检测等方面得到了广泛的应用,同时对于无人飞行器的视觉捕捉技术也有极大的帮助。最为重要的是openCV编程语言的兼容性较强,编程人员可以根据自己的意愿对源代码进行披露,并且国内也已经形成了规模较大的交流社区,给更多同行业者提供答疑解惑的场所,进一步扩大了openCV的应用范围。

3基于openCV的计算机视觉技术

3.1基于openCV下的运动物体检测技术

在常规运动物体检测技术下,均是直接通过图像背景和运动物体的区分来实现运动物体的捕捉。而基于openCV下的运动物体检测技术则不仅能够针对于图像背景的分离实现运动物体的观察,还可通过物体本身特定的信息来进行检测,主要包括形状、轮廓以及颜色等。这样就能够实现在复杂的背景当中将特定的运动物体完整抽离出来。其基本流程包括:首先,对影像数据当中某一时间点的图像进行捕捉,然后对这一视频图像的格式进行转化;其次,对转化格式后的视频图像进行早期处理,并将运动物体和复杂的背景区分开,降低周围各环境因素对运动物体主体图像的影响;第三,根据完成提取后的运动物体图像进行辨识,然后再从视频当中捕捉拥有相同特征的物体,并对该物体进行跟踪识别。而这一过程的实质则在于先利用图像捕捉技术对画面进行截取,然后同时利用背景差分法和帧间差分法对图像进行分割,逐帧地将运动物体完成提取出来,以供计算机进行视觉跟踪处理。

3.2基于openCV的图像预处理技术

一般情况下,计算机视觉处理技术应用的环境情况较为复杂,大多数应用环境当中均有光照的变化,并且部分计算机视觉处理设备还需要在露天环境下进行工作,此时周围环境中的风、温度、光照、气候以及运动物体数量等对视频图像的采集均有着极大的影响。环境因素会使图像采集的质量大幅度降低,同时图像当中的噪点问题也难以避免,而噪点是视觉捕捉和图像处理当中最大的影响因素。因此,在基于openCV下的计算机视觉技术在捕捉视频图像之后先对其进行预处理,然后再由系统对运动物体进行分离、检测和跟踪。一般的预处理过程主要包括平滑度滤波、图像填充、背景实时更新等。

1)图像的平滑度滤波预处理技术

由于在实际计算机视觉捕捉过程中图像噪点是难以避免的问题,以此在对图像中运动物体进行检测前,应该相对这些噪点进行预处理,降低环境噪声对图像的影响。图像的平滑度滤波处理共分为两种方式,分别为线性和非线性。其中线性处理方式就是通过计算机处理设备的简单运算,对图像当中的噪点进行直接清除,但这一技术使用后会造成截获图像模糊不清的情况,因此仅对噪点较少的图像采用该处理方式;非线性滤波处理则是利用复杂的图像处理运算,将截获图像当中的噪点无限缩小,使其不对图像整体造成影响,并且可以有效保证图像的局部调整,但这种处理方式在运算时速度没有线性滤波处理快,因此需应用在噪点较多,图像信息较复杂的处理当中。

2)图像的填充预处理技术

这一处理技术在使用过程中运算速度较慢,主要是由于其需要对逐帧的图像均进行处理,也包括两种处理方式,分别为边缘填充和腐蚀膨胀处理。其中边缘填充处理主要指的是在确定运动物体之后,利用计算机系统自身的边缘检测处理技术,对物体的轮廓进行辨识,并利用形态学上的漫水填充方式对运动物体周围的噪点进行颜色填充,减小其对画面整体元素的影响。而腐蚀膨胀处理与边缘填充处理原理相类似,但这种处理技术主要是针对于噪点进行腐蚀和膨胀,使其在画面当中所占比例扩大,但对运动物体本身不造成影响,这使运动物体和噪点之间的差异就会更加明显,就可以将噪点的影响降到最低,但这种处理方法的效果和摄像机本身的性能、质量等有着密切的关联。

3)背景的实时更新预处理技术

在进行运动物体和背景分离过程中,计算机系统需要对图像上的背景元素进行辨识,并对其开展初始化处理,这样就能够为后期实时背景图像的差异进行凸显,以增加前景图像的效果,降低噪点对图像的影响。在运用这一技术时,首先要先对第一帧的图像进行确定,并将第一帧图像当中的背景图像元素进行辨识,然后在后期图像更新和运动物体检测过程中对背景进行实时更新处理。在更新的过程中其流程主要包括:首先,系统要对所读取的画面进行有效的判断,了解该图像是否为第一帧;其次,将opencv处理的图像转变为单通道灰度值;第三,对转变后的图像进行高斯平滑度滤波处理,将图像当中的噪点进行去除;第四,采用形态学噪点填充技术对图像当中的噪点进行二次处理,以获得所需要更新的背景图像。

3.3前景运动物体的提取技术

在计算机视觉技术进行运动物体的检测时,只有有效保障检测流程的准确度,才能够有效保障对前景运动物体的跟踪效果。其主要分为两大步骤,其一是对二值化后的图像数据进行分割处理;其二是在图像分析前对其进行充分的填充处理,保证前景图数据的完整性。同时,在前景图像提取的过程中也分为多个步骤,其包括:首先,对所提出的前景图像和背景图像进行差分处理;其次,将差分处理后的图像二值化处理;第三,对背景当中前景物体的轮廓或边缘进行辨识,根据前景图像的轮廓对其进行填充。由于在实际操作过程中,摄像头所处环境的变化较大,并且会在不同场所内的不同角度捕捉画面,因此就需要在前景图像提取时有效提高背景图像实时更新的效果。

利用阀值二值化的分割方式能够有效将前景图像和背景图像分离开,从而使目标运动物体能够呈现独立化,并且阀值分割方式开展前要相对每个像素点进行确定,判断其是否位于灰度值的范围内。而将该图像的像素灰度和阀值进行对比后会出现两种结果,分别是灰度值低于或高于阀值。在实际应用过程中,有效确定图像的分割阀值t,就能够降低环境当中光照因素对图像质量的影响。

4计算机视觉技术当中的三维重建技术

1)三维重建的视觉系统

计算机视觉技术在对图像进行捕捉时可以视为是对大量的图像信息进行处理,从摄像机的视觉角度出发,其所输入的图像一般为二维属性,但输出的信息确是三维数据,而这种三维空间数据能够提升对运动物体所处空间位置、距离等描述的准确性。在三维重建视觉系统工作过程中,其相对基本的图像数据框架进行确定,然后利用一个坐标点建立2.5D图像数据,即以此点为视角能够观察到的图像数据,再将2.5D图像数据进行整合从而建立三维图像。

2)双目视觉系统

当人体利用双眼在不同角度、同一时间内观察同一个物体时,就可以利用算法来测量该物体和人体之间的距离,而这种方法也被称为双目立体感,其应用的原理主要是人体视觉差所带来的影响。同时利用两台摄像机对同一图像从不同角度进行观察,就能够获得人体双目观察后的效果,因此这一三维重建技术也被称为“双目视觉系统”。两台不同的摄像机即可代表人体双眼,其对图像进行逐帧捕获,但由于角度不同和环境影响因素的差异,因此造成了图像差异,必须对其捕捉的图像进行预处理。

3)三维重构算法

在计算机视觉技术中对于视频流的采集主要依靠的是彩色摄像机、红外摄像机、红外接收摄像头等设备。还可以利用微软所提供的Kinect设备,在进行运动物体检测前能够对nUi进行初始化处理,将系统内函数的参数设定为用户信息深度图、彩图、骨骼追踪图等数据。在使用Kinect设备对视频流进行打开时,其可以遵循三个步骤,其一是彩色和深度数据的处理;其二是根据数据的索引添加颜色信息,并将其引入到深度图数据当中;其三是骨骼追踪数据。

5结束语

计算机视觉捕捉技术是现代计算机应用当中较为先进的内容,其应用范围较广,对于运动物体的捕捉准确度较高,能够有效推进现代计算机模拟技术的发展。

参考文献:

[1]张海科.基于opencv的人手识别与跟踪定位技术研究与实现[D].昆明:云南大学,2013.

计算机视觉基本原理篇7

关键词:计算机智能视频监控;运动目标检测方法;目标跟踪方法

中图分类号:tp311文献标识码:a文章编号:1674-7712(2012)10-0104-01

随着人工智能技术日新月异的发展,基于人工智能的计算机视觉技术也得到了广泛的推广和应用,成为计算机智能领域一个重要的发展方向。到目前为止,计算机视觉技术已经过20余年的发展,其在社会人文,军事技术及工业生产领域得到了广泛的应用,并以其独具特色的技术优势逐渐形成了一门具有一定先进理论支撑的独立学科。其中,著名学者marr提出的视觉计算理论已成为计算机智能视频监控领域的主导思想,为大多数该领域内的研究人员所接受。从广义上讲,计算机视觉技术的实质就是实现对在复杂环境中运动物体的几何尺寸、形状及相关运动状态的识别和认知,即把实际空间中的三维对象转换为计算机视觉系统识别的二维图像。近年来,计算机视觉技术以其迅猛的发展态势及成熟的应用技术成为了业界的新宠,并得到了广泛的应用,取得了瞩目的成绩。

一、运动目标检测方法分析

(一)运动目标在静止背景条件下的检测分析

1.差分检测法

将同一背景不同时刻两幅图像进行比较,可以反映出一个运动物体在此背景下运动的结果,比较简单的一种方法是将两图像做“差分”或“相减”运算,从相减后的图像中,很容易发现运动物体的信息。在相减后的图像中,灰度不发生变化的部分被减掉,则前区为正,后区为负,其他部分为零。由于减出的部分可以大致确定运动目标在图像上的位置,使用相关法时就可以缩小搜索范围。

2.自适应运动检测方法

当两帧图像的背景图像起伏较大时,简单的差分法难以得到满意的解。此时可以考虑用自适应背景对消的方法,该方法可以在低信杂比的情况下压制背景杂波和噪声,检测出非稳态图像信息。在背景杂波较大时,常用的门限分割不能分出这种运动目标。在图像序列中,每一个像素点的灰度值都是这一点所对应传感器的输出信号值与噪声值的叠加,因此,如何克服噪声的影响确定一个最佳门限将目标与背景分离,就成为弱小目标检测的一个重要环节。

(二)目标在运动背景条件下的检测方法分析

块匹配法是目标在运动背景条件下的主要检测方法。基于块的运动分析在图像运动估计和其他图像处理和分析中得到了广泛的应用,比如说在数字视频压缩技术中,国际标准mpeG1-2采用了基于块的运动分析和补偿算法。块运动估计与光流计算不同,它无需计算每一个像素的运动,而只是计算由若干像素组成的像素块的运动,对于许多图像分析和估计应用来说,块运动分析是一种很好的近似。这里主要介绍块匹配方法。块匹配方法实质上是在图像序列中做一种相邻帧间的位置对应人物。它首先选取一个图像块,然后假设块内的所有像素做相同的运动,以此来跟踪相邻帧间的对应位置。各种块匹配算法的差异主要体现在:匹配准则、搜索策略及块尺寸选择方法上。

1.匹配准则

典型的匹配准则有:最大互相关准则、最小均方差准则、最小平均绝对值差准则、最大匹配像素数量准则等。

2.搜索策略

为了求得最佳位移估计,可以计算所有可能的位移矢量对应的匹配误差,然后选择最小匹配误差对应的矢量就是最佳位移估计值。因此,人们提出了各种快速搜索策略。这种策略的最大优点是可以找到全局最优值,但十分浪费时间。因此,人们提出了各种快速搜索策略。尽管快速搜索策略得到的可能是局部最优值,但由于其快速计算的实用性,在实际中得到了广泛的应用。下面讨论两种快速搜索方法:二维对数及三步搜索法。

二维对数搜索法开创了快速搜索算法的先例,分多个阶段搜索,逐渐缩小搜索范围,直到不能再小而结束。其基本思想是从当前像素点开始,以十字形分布的5个点构成每次搜索的点群,通过快速搜索跟踪最小误差mBD点。

三步搜索法与二位对数法类似,由于简单、健壮、性能良好等特点,为人们所重视。例如其最大搜索长度为7,搜索精度取一个像素,则步长为4、2、1,只需三步即可满足要求,因此而得名三步法。其基本思想是采用一种由粗到细的搜索模式,从原点开始,按一定步长取周围8个点构成每次搜索的点群,然后进行匹配计算,跟踪最小块误差mBD点。

三、运动目标跟踪方法

成像跟踪系统经过图像的预处理、图像的分割识别等一系列信息处理,最终实现对目标位置的实时精确测量。跟踪策略基本上可分为两大类:波门跟踪和相关跟踪。

(一)波门跟踪法分析

参考被跟踪目标外观的实际尺寸形态,事先确定好跟踪窗口就是我们通常所定义的“波门”的概念。与传统的图像处理方法不同,采用波门跟踪法进行图像的分析和处理,其原始状态的图像数据仅仅限于波门内的数据,这样系统一旦捕捉到目标,不仅可以避免传统技术对整幅图像处理过程的耗时缺点,而且这种跟踪技术应用和操作更为简单,跟踪及成像效果也能够得到切实的保障。

(二)相关跟踪法分析

当被跟踪的目标物体出现运动、姿态的调整或由于自然条件等因素造成了背景的杂波干扰时,目标图像的分割及提取工作由于目标矩心及形心的不确定将难于进行。这种情况下,就可以采用相关跟踪的方式进行处理。这种基于图像匹配为基础的相关跟踪技术是以图像相识性度量为基础,获取现场图像中实时的最接近目标图像值的一种跟踪方式。由于分析及处理过程中,不需对用于分割及提取的特征值进行处理,因而可以应用于对图像数据的原始资料的处理方面,这种方法不仅可以使图像的信息得以全部的保留,而且适合众多复杂的环境及场景,是一种操作简单,结果精确的测量方法。

四、结语

近年来,各行各业对视频监控的需求不断升温,但已有的视频监控产品不能满足日益增长的需要。因此,计算机视觉和应用研究学者适时提出新一代监控—视频智能监控。它是目前国内外计算机视觉研究领域热点问题之一。因而,在生产实践中,不断加强对其的分析和研究具有非常重要的现实意义。

参考文献:

计算机视觉基本原理篇8

关键词:计算机图形图像设计视觉传达设计辩证分析

中图分类号:tp391.41文献标识码:a文章编号:1007-9416(2015)11-0000-00

视觉传达作为一种概念,从很早前就已经存在并为人所熟知。但从科学的角度看,视觉传达则是一种新兴的概念与领域。视觉传达的主要内容,是将人们的视觉作为信息传递的通道,通过视觉符号传递信息、沟通交流。视觉传达主要利用了人类的信息处理习惯,人类将信息中的70%左右通过视觉进行处理并反馈。而如果人们对两种信息产生矛盾时,则会首先对视觉信息进行反应与反馈。可见视觉信息在人们沟通交流中占据了非常重要的地位。视觉信息除了人与人沟通交流外,还与商业活动、美术艺术、宣传等有着密切的联系,在生活中的政治宣传、公共宣传、展示设计、广告设计等领域均有明显的应用与发展。计算机图形图像设计是通过计算机科学技术,将图形图像进行设计与展示的科学。计算机图形图像设计在影视、广告、建筑、机械等方面有着广泛的应用与发展,计算机图形图像设计与视觉传达设计都为当代的图形图像设计产生了巨大的影响,本文将对二者进行分析和比较。

1计算机图形图像设计软件概述

计算机图形图像设计主要是通过计算机科学技术进行的现代化专业技术,计算机图形图像设计不单单在技术上有一定的优势,在艺术性、传媒性、创造力等方面也较为领先,成为当前应用最为广泛的图形图像设计技术。

计算机图形图像设计主要在影视、包装、建筑、服装、机械等方面有着主要的应用与发展,为各个行业提供了非常宝贵的技术支持。在建筑、机械等行业中,计算机技术中的CorelDraw软件能够对焊接、修建活动尽心模拟。而在广告、影视等行业中,设计人员能够利用3DStudiomaX软件和photoshop软件将商标、名片、宣传单页、明信片等进行文字设计与图像设计。而医学当中如螺旋Ct核磁共振成像技术、X光断层扫描成像技术、以及虚拟成像技术等,都为医院以及患者带来了巨大的便利。

2视觉传达设计方法的概述

2.1对客体进行提炼

视觉传达设计会对客体进行提炼,客体的主要概念是指一般直观能够观察到的客观物体的形象。如花瓶、勺子、故宫等。这些客体形象都是视觉传达设计的灵感来源,许多设计人员心中有数。在进行视觉传达设计时,除了要求视觉传达设计的内容特点鲜明外,还要求设计的简单概括,能够通过最为简洁明了的方法与效果,突出设计内容的内涵与价值。在对客体进行提炼时,主要包括两个部分,一是对设计任务中的客体进行提炼,二是对与主题思想有关的多个客体进行提炼。提炼的关键在于设计人员是否抓住了客体的个性特征并适当的表露出来。

2.2对图形进行重组

图形重组是视觉传达设计的主要方法之一,在视觉传达设计中得到了非常广泛的应用,图形重组是指将设计的图形的各个部分重新搭配和组合,使图形的搭配能够最为科学与合理化。图形重组的重点在于图形的基本素材的掌握,基本素材相当于加工原料,在重组时是重要的组成元素,图形重组的主要方法包括同构、置换、轮廓线共生、正负、矛盾等。其中同构的方法是将两个或两个以上的图形重组和融合起来,构成一个新的图形。同构后的图形能够表达另一种图形所要表达的含义与特征,同构图形的方法能够将图形的特点更为鲜明的表达出来,给人更为超现实的视觉冲击,更加生动的体现所要表达的思想。

2.3对图形进行升华

图形升华是一种较为高深的视觉表达设计方法,图形升华需要设计人员对设计的目的、要求、主题、理念有明确的理解和掌握,才能够按照设计的要求进行图形的提炼和掌握。在进行图形的升华时,设计人员需要将升华的元素进行分析和研究,找到一些能够代表这一概念的元素加以利用,并在这些元素中寻找能够为人所熟知的元素,务必保证元素在未来宣传中能够给人以直观、深刻的印象。在选择好元素图像后,将这些图像进行升华,将单一的元素组合成具有对应形象的、较高辨识度的、能够为人所熟知的图像,并将这一图像作为升华的最终图像结果。

3计算机图形图像设计与视觉传达设计的异同分析

计算机图形图像设计与视觉传达设计有着一定的相同点和不同点,在图形图像的设计、应用以及理念上都有一定的系统和相通之处。

3.1计算机图形图像设计与视觉传达设计的共同点

计算机图形图像设计与视觉传达设计的共同点中,首先较为明确的共同点是二者的应用基础,设计人员如果要进行计算机图形图像设计或视觉传达设计,首先均要有色彩、绘画、平面设计等专业知识与技能。而在发展历史与发展现状的学习中,二者也是相通的,计算机图形图像设计与视觉传达设计都有设计发展的历史基础,并以当代的设计思潮为引导,在设计创作上,均以美的艺术为前提,通过点、线、面、体、光线等进行排列和组合,将上述基础元素应用于设计当中,将符号等设计元素应用于设计当中,并将上述元素进行再创造,得到新的设计效果,也拥有相通的社会背景、历史文化背景。

3.2计算机图形图像设计与视觉传达设计的不同点

计算机图形图像设计与视觉传达设计的不同点包括设计背景不同、目标任务不同、创作原则不同、技巧方法不同等。

设计背景不同主要体现在二者的出现时间上,视觉传达设计的产生时间是二战后,在广告设计中融入了绘画的元素并加以推广,这种广告设计方法使得商品的流通传播方式得以转变,并由此改变了以后的沟通系统。而计算机图形图像设计则发生于计算机产生之后,其产生时间为上个世纪末。计算机以及网络技术的兴起与发展,改变了许多行业的工作方式,特别是打印机的配备,使得图形图像设计由传统的人工手动设计转变为计算机的图形图像设计,并将设计的精度与广度大大的提高。

目标任务不同,虽然计算机图形图像设计与视觉传达设计都在某些相同的领域有发展和应用,但在目标任务上却完全不同,视觉传达设计的设计任务是创造美感与动感,设计具有特点的形象与媒体动态的图像。而计算机图形图像设计的主要热舞,则是将动态图像与静态图像相结合,在计算机当中创造二维或三维空间。

创作原则上,计算机图形图像设计的主要创作原则是通过软件的帮助,将色彩与图形相结合,从而创造出更为立体的图像素材。而视觉传达设计则主要关注在形象、意象等方面的设计,图像素材无需自行创造,图像素材的融合才是视觉传达设计的主要方式。

技巧方法不同主要体现在核心技术方面,视觉传达设计的主要核心技术是广告设计、产品包装等方面,理论上的知识较多,而图形图像设计更多的体现在视频编辑、照排印刷等技术性较强的内容上,具有非常高的技术应用特点。

4结语

计算机图形图像设计与视觉传达设计都是当前较为关键的设计体系,在各自的领域中取得长足的发展与进步,并在相通的领域中得到了许多合作,计算机图形图像技术能够提高设计的精度与立体感,而视觉传达设计则更能够提高人们对设计效果的感知,二者都具有非常高的应用价值,在未来发展前景广阔。

参考文献

[1]范丽萍.计算机图形图像设计与视觉传达设计[J].电脑编程技巧与维护,2012,4(4):83-84+99.

[2]龚良彩.计算机图形图像设计与视觉传达设计[J].计算机光盘软件与应用,2012,20(20):181+232.

[3]张金龙.计算机图形图像设计与视觉传达设计研究[J].吉林广播电视大学学报,2013,1(1):117-118+153.

计算机视觉基本原理篇9

关键词:机器人;人机界面;三维可视化;图形降噪;图像处理

中图分类号:tn830.1?34;tp391文献标识码:a文章号:1004?373X(2017)12?0105?03

abstract:inordertoimprovetheoperatingperformanceof3Dvisualizationofrobothuman?computerinterface,a3Dvisualizationreconstructiondesignmethodofrobothuman?computerinterfacebasedonGpUreal?timegraphtrackingrenderingisputforward.thecomputervisionmethodisusedtosamplethevisualfeaturesofrobotman?computerinterface,andperformthesparsescatteredpointsreconstructionforthesampledvisionpixelinformation.theimageprocessingmethodisadoptedtodenoisethegraphandcorrecttheedgeinthereconstructed3Dspace,andimprovethedetailpresentationabilityof3Dvisualizationgraphofman?computerinterface.thesimulationresultsshowthatthemethodusedtodesignthe3Dvisualizationoftherobothuman?computerinterfacehasperfectvisualeffectoftheoutputgraph,stronghuman?computerinteractionability,andhighapplicationvalue.

Keywords:robot;human?computerinterface;3Dvisualization;graphnoisereduction;imageprocessing

0引言

机器人人机交互(Human?Computerinteraction,HCm)是通过图像和计算机视觉处理的方法,实现机器人系统与用户之间的交互关系和沟通,在机器人人机交互过程中,人与计算机通过计算机视觉处理和动作识别的形式实现语言沟通,完成确定的任务和计算机与机器人的信息交换[1]。机器人人机交互系统广泛应用在视景模型仿真、机器手设计和远程虚拟控制等领域,在现代工业和远程控制中具有重要的应用价值。

在机器人的人机交互中,需要通过对人机界面的三维可视化设计,提高人机交互的可视性和人工智能性,研究人机交互界面的三维可视化重构方法在机器人的人工智能优化设计领域具有重要的应用意义。对此,本文提出一种基于GpU实时图形跟踪渲染的机器人人机界面的三维可视化重构设计方法。首先采用计算机视觉方法进行机器人的人机界面视觉特征采样,采用图像处理方法实现图形降噪和边缘修正处理,提高人机交互界面的三维可视化图形细节表达能力。最后进行仿真实验分析,得出有效性结论。

1视觉特征采样与像素信息重构

1.1人机界面计算机视觉特征采样

为了实现机器人人机界面的三维可视化设计,首先进行视觉信息采样,本文采用计算机视觉方法进行机器人的人机界面视觉特征采样,在视觉信息采集中,对特征空间中的突变信息进行采集,检测提取后的轮廓线信息是否符合要求,不符合的原因是由于阈值小而提取了过多的次要轮廓线,使主要轮廓线无法突出。利用多尺度特征来提取轮廓线,并将高频与低频部分的轮廓线信号进行融合,也就是在不同尺度特征下进行轮廓线提取,因此可得到光滑的轮廓线图像,提取出的人机界面外部采集轮廓线,将外部特征通过二维流形分析[2]。机器人与人体动作的交互过程可以表征为一个高维向量,收集大量人体动作完成机器人的人机动作交互,将人机交互界面场景数据库中的交互动作数据进行三维特征扫描,扫描包括激光扫描、红外扫描和Ct扫描等方法[3],得到机器人人机界面交互的动作扫描的像素组成为:

1.2视觉像素信息稀疏散点重构

对采样的视觉像素信息进行稀疏散点重构,为进行人机界面的三维可视化设计提供数据基础,对机器人人机交互界面的视觉像素信息稀疏散点重构需要遵循以下原则:

(1)可描述性。对不同的人机交互动作,应该提取具有明显区别的特征参数,即特征参数具有较强的敏感性,能够高效地对技术姿态进行描述。

(2)可靠性。不同的动作识别系统做同一个技术动作时一定会存在差异,但这种差异不应该对特征参数造成影响,即同种类型的技术姿态的特征参数会比较相似,这就要求所提取的特征参数对位置和对象不敏感。

(3)数量少。一个动作识别特征值越多,系统的计算复杂程度就越大,因此要尽可能控制特征值的数量[5]。在像素点中,通过仿射变换,得到对应的不变矩坐标为,在不同朝向和不同尺度间进行机器人人机界面网格区域匹配,得到人机界面三维轮廓函数为:

3实验测试分析

对机器人的人机界面三维可视化实验建立在本主机配置为pentiumDCpU2.80GHz,2.79GHz,2.00GB内存的计算机硬件平台上。在机器人人机动作特征识别中,人体动作特征单元和模块子单元表示为Cell(col,row)。其中col表示行,row为列,人机交互中人体动作图像采集来自于分辨率为640×480,帧率为25f/s的aVi视频,参数设定为=0.5,=2,=2,得到机器人人机界面的三维可视化重构结果如图1所示。对图1给出的机器人人机界面三维重构结果进行降噪和修正处理,得到三维可视化优化结果如图2所示。

对比图2和图1结果得知,采用本文方法进行机器人人机界面的三维可视化设计,输出图形的视觉效果较好,人机交互能力较强,性能优越。

4结语

为了提高机器人人机界面的三维可视化操作性能,本文提出一种基于GpU实时图形跟踪渲染的机器人人机界面的三维可视化重构设计方法。采用计算机视觉方法进行机器人的人机界面视觉特征采样,在重构的三维空间中通过图像处理方法实现图形降噪和边缘修正处理,实现三维可视化设计。研究得知,采用该方法进行机器人人机界面的三维可视化设计,输出图形的视觉效果较好,人机交互能力较强,具有较高的应用价值。

参考文献

[1]董哲康,段书凯,胡小方.非线性忆阻器的串并联研究及在图像处理中的应用[J].西南大学学报(自然科学版),2015,37(2):153?161.

[2]袁健,高勃.基于openCL的三维可视化加速模型[J].小型微型计算机系统,2015,36(2):327?331.

[3]朱路,刘江锋,刘媛媛,等.基于稀疏采样与级联字典的微波辐射图像重构方法[J].微波学报,2014,30(6):41?45.

[4]HUanGY,paiSLeYJ,LinQ,etal.BayesiannonparametricdictionarylearningforcompressedsensingmRi[J].ieeetransactionsonimageprocessing,2014,23(12):5007?5019.

计算机视觉基本原理篇10

【关键词】校园网基础设施Vi设计

前言:随着高校校园计算机信息化的不断发展,校园网络建设工作也在全国范围内得以广泛开展,进而成为校园管理和获取信息资源的重要方式。在此背景下,如何以科学、合理的校园网视觉识别系统来帮助校园网用户实现对各类网络基础设施的识别,进而提高教职员工与学生上网效率和上网安全,已成为当前校园网建设的关键工作。

一、视觉形象识别系统概念

Vi,即视觉形象识别系统概念的提出源于企业视觉识别系统,起源于上世纪六十年代的欧洲,在当时,其与当时企业识别系统,即Ci的概念并不具有明显的界限,随着互联网时代的到来,视觉形象识别系统成为了一项独特的体系,即以标准字、标志、标准字体和标准色为主而展开的一项完整的视觉表达体系,又称为视觉识别系统[1]。在网络层面,Vi则是通过借助相对静态的且富有视觉化的具体传播方式,对各项网络基础设施有组织、有计划地进行标志设计,使公众能迅速了解整个网络体系,并对其产生深刻印象,进而达到准确识别各项网络基础设施目的一类视觉形象识别系统。

二、视觉形象识别系统的构成

(1)色彩。色彩是校园网基础设施Vi中的重要要素,其具有较强的视觉导向作用,通过对人的视觉器官进行刺激,从而使人产生视觉的冲动或是联想,通过将看到的色彩与大脑中存储的相应色彩对应的设施进行对比和整合,从而辨认出具体的网络基础设施。(2)造型是校园网基础设施Vi的另一重要部分,根据网络基础设施的类型、属性和特点,对其视觉识别系统的标志造型予以设计和构造,需要说明的是,对于造型的构造不仅应符合人机工程学的相关原理,还应突出以人为本的核心设计理念,在使标志造型美观、得体的同时,给人以较强的舒适度,增强视觉效果。(3)识别导向系统。对于校园网管理人员和维护人员而言,其需要依据各类设备标志符号来提高自身对设备位置确定的速度和精度,在此情况下,视觉识别系统则是在校园网这一环境中通过构建导向标志而形成的一套完整、统一和连续的符号。

三、校园网基础设施Vi设计

1、计算机机房。计算机机房是校园网的重要基础设施,其是学生上机操作和教师上机指导的重要场所,同时,也是故障发生率和维修工作量最大的校园网基础设施。因此,对其视觉识别系统的设计至关重要,不仅需要考虑网络管理与维护人员维修和学生与教职工使用时识别的便利性,而且还应注重机房平时维护与管理的效率与安全。为此,分别设计图1与图2相结合的视觉识别标识。

2、路由器。路由器是校园网中的另一核心设备,其以当前信道的具体情况跟为依据,对路由进行自动选择和设定,从而以最佳路径将网络信号发送至用户端,使得用户端能够通过登录服务器实现网络访问。相较于维修阶段计算机机房标识符的红色标识符,路由器大都是供用户上网所用,强调的是网络的畅通性,故将其视觉形象识别标识符的主色调设置为蓝色。在此设计中,不仅考虑了路由器实物的造型以及标志的整体色调,而且也对路由器的使用方法和功能做出了进一步的标注,为校园网用户的网络接入奠定了良好的视觉识别基础[3]。

3、交换机。交换机安置在校园网的数据链路层,主要负责进行数据的物理编址和错误检验,同时对帧序列进行排列控制。通常情况下,校园网的主干网大都以具有三层交换功能的吉比特以太网交换机为主,从而对校园用户的用网需求予以较好地满足。其具Vi设计形式的交换机标识符,以深蓝色和红色线为主色调,将红色连接线在各以太网交换机间进行穿插,以表示交换机的“交换之意”,即物理编址与错误检验,同时,以多根线条突出交换机的标识效果,也为校园网的管理与维护人员对交换机的日常监测、维修和养护提供了较大便利。

结论:本文通过对视觉形象识别系统的概念进行说明,在对其相关构成要素予以说明的基础上,分别对校园网基础设施的计算机机房、路由器和交换机等进行了详细的Vi设计。研究结果表明,科学的校园网基础设施Vi设计对于提高校园网的运行、维护效率和确保校园网的运行安全具有重要的作用和意义,未来,还需进一步加强对校园网基础设施的Vi设计,为促进校园网的健康、稳定发展奠定良好基础。

参考文献

[1]冷俊敏,付国,荆振宇.ipv6试验网络的设计与实现[J].计算机工程与设计,2013,08(01):1850-1852.