基于特定椭圆拟合的符号化目标轮廓跟踪方法

基于特定椭圆拟合的符号化目标轮廓跟踪方法

一、基于特定椭圆拟合的符号化目标轮廓跟踪方法(论文文献综述)

王宁[1](2021)在《单目标联合跟踪与分割算法研究与应用》文中认为视觉目标跟踪(Visual Object Tracking)旨在对视频任意目标进行轨迹追踪,是计算机视觉领域中基础研究方向。目标跟踪技术在自动驾驶、机器视觉、智能监控、军事国防等领域得到了广泛应用。深度学习技术的发展大幅提高了目标跟踪算法的性能,但在应对相似目标干扰、非刚性形变、尺度变化剧烈挑战时,依然存在鲁棒性差、准确性低的难题,无法满足实际应用场景的需求。本文基于深度学习技术,提出两种基于多任务的视觉目标跟踪算法,将分割思想引入跟踪算法。在目标跟踪任务中,为缓解跟踪器漂移、准确性低的问题,提出一种基于区域中心距离加权重叠度估计的目标跟踪算法;为进一步提升目标跟踪算法的稳定性和准确性,提出一种基于双路滤波融合定位的跟踪算法。具体研究如下:基于区域中心距离加权重叠度估计的跟踪算法将跟踪任务分解为三个子任务:目标定位、尺度估计和目标分割。在目标定位任务中,利用相关滤波算法(Correlation Filters)进行定位;在尺度估计任务中,同时将区域中心距离(Distance)和区域重叠度(IOU)作为评价动态锚框(Dynamic Anchor)质量的指标,筛选出更有利于跟踪任务的目标矩形框;目标分割任务中,将分割思想融入跟踪框架,实现在跟踪的同时获得目标精细分割掩膜(Mask),利用分割方法提升跟踪的性能,通过端到端多任务学习的方式实现对目标准确的跟踪。在权威测试集VOT2018和OTB100上进行了充分实验对比,所提算法在VOT2018数据集上的平均期望重叠率(EAO)指标达到0.459,相对2019年最佳算法Di MP提升2.0个百分点;鲁棒性指标达到0.169,准确性指标达到0.617;在OTB100上的成功率指标达到0.677,精度指标达到0.872,所提方法具有较强竞争力;将其应用在无人机红外目标跟踪任务中,与Siam Mask(CVPR2019)算法相比,性能更加显着。为进一步降低前述所提算法的冗余,提高算法鲁棒性和精度,提出一种基于双路滤波融合定位的跟踪算法。将目标跟踪过程简化为两个子任务:目标定位与分割,移除了尺度估计网络分支。在目标定位中,提出由两路独立的相关滤波器进行融合定位,能够克服相似目标干扰问题,相比单路具有更高容错性,能有效提升定位鲁棒性;在目标分割中,利用基于特征调制的编解码分割网络,结合目标定位注意力信息,能够直接输出目标精细分割掩膜,在提升跟踪准确性的同时,避免了矩形框回归分支带来的计算冗余。所提算法在公开测试数据集VOT2018、VOT2019和GOT10k上进行了充分实验,在VOT2018数据集上的平均期望重叠率EAO指标达到0.467,相对性能最佳的算法Di MP(ICCV2019)提高了2.7个百分点;在VOT2019数据集上EAO指标达到0.334;在GOT10K数据集上平均重叠(Average overlap)达到60.0;与先进算法进行对比,双路滤波融合定位跟踪算法具有较强的竞争力。

李若飞[2](2020)在《基于超像素图表示与标签预测模型的目标分割与跟踪》文中提出目标跟踪是计算机视觉和多媒体领域重要的分支。目标跟踪的任务是在一段视频中持续定位跟踪某一个或多个目标,在道路监控、人机交互、遥感影像分析等众多领域有着广泛应用。尽管研究学者们在目标跟踪领域取得了丰硕的成果,但是它依然是一个富有挑战性的课题。在自然场景中,有大量的因素困扰着目标跟踪算法的性能,包括目标形变、光照变化、部分或完全遮挡、背景杂乱等等。近年来,基于超像素的目标分割与跟踪算法已经被广泛应用于这一领域。其中,有一部分算法主要是把图像分割成若干个超像素,以超像素及其连边作为顶点和边构造成图,从而依靠图的约束和传播实现目标分割与跟踪。由于目标跟踪中存在着非刚性和形变目标难题,可能使得构建的图不准确,因此衍生出了基于图学习的算法,可以更好的挖掘图中潜在的流形结构关系。本文针对目标跟踪中的目标形变和背景杂乱等难题展开了相关研究,具体如下:(1)对于形变目标的跟踪问题,我们提出了一种基于时空一致性约束标签预测模型。首先将每一帧的候选感兴趣区域(ROI)划分成超像素,提取其特征描述符,对其构图;然后通过支持向量回归器计算得分,借助高斯核函数算出边的权重,在吸收马尔可夫链跟踪框架中计算出节点的吸收时间;最后对节点加以时间和空间一致性约束,得出节点优化后的前景概率,归一化之后实现对目标的分割与跟踪。我们在广泛使用的基准数据集上做了大量实验,结果表明提出的模型具有良好的性能。(2)对于背景杂乱的目标跟踪问题,我们提出了一种基于多视图协同学习与标签预测模型。该模型在上述模型基础上增添了图学习模块和多视图协同学习模块,在每一帧中迭代更新图结构关系。首先将图像分割成若干个超像素并提取特征;然后基于吸收马尔科夫链框架获得吸收时间;最后通过多视图协同学习与标签预测获得优化后的前景概率,实现对目标的分割与跟踪。我们在多个基准数据集上做了大量对比实验,结果表明该模型显着提升了目标分割与跟踪的性能。

刘铃[3](2019)在《基于机器视觉的计算机主机装配定位技术研究》文中指出现如今,近九成以上的计算机主机装配作业是通过人工流水线和PLC程序控制半自动装配线来完成,自动化程度低、装配精度较低、装配结果不稳定、装配效率不高是普遍存在的问题。本文针对计算机主机装配定位当中所存在的品种多,适应性差,重复定位精度低,生产效率低下和自动化程度低等问题,对计算机装配过程中CPU、内存条、散热器装配特征进行研究,设计了计算机主机装配线视觉系统,研究了多相机全局标定算法和圆、直线几何特征拟合算法。根据装配特征,开展了CPU、内存条、散热器视觉定位技术研究,并将定位技术成功应用于某计算机主机装配生产线,对计算机主机装配过程智能化具有重要的工程指导意义。具体内容包括:1、开展了计算机装配过程中CPU、内存条、散热器装配特征研究。根据实物和图像的各目标几何特征,进一步分析了定位特征区域的图像特点,联系实际生产技术要求提出了本文所需解决的难点和关键点,第一,设计满足定位精度要求的几何特征拟合算法;第二,对视野不重叠多相机参数标定;第三,选取合理视觉系统零部件以及不同打光方式获取所需高质量图像。2、在最小二乘直线拟合算法和椭圆拟合算法的基础上,对算法进行改进优化,分别根据算法原理和几何特性提出了相应的改进算法。在最小二乘法直线拟合的基础上,采用对较小的残差平方赋予较大的权重系数,对较大的残差平方赋予较小的权重系数的方式进行最小二乘直线拟合的改进,并通过实验仿真验证了改进算法在精度上优于传统算法;针对传统最小二乘法拟合椭圆过程中离群点和噪声点对椭圆方程拟合结果影响大和算法抗干扰性差的问题,提出了一种针对用于拟合曲线的点的阈值筛选方法,通过对点的筛选,剔除离群点、噪声点和对拟合贡献率低的点,从而提高拟合稳定性和精度,解决实际工程中算法稳定性差的、错误率高的问题。并且通过实验仿真,算法拟合结果在长宽比、倾斜角等几何特性参数的对比相较于传统的拟合更接近真实边缘,提升了装配精度和系统稳定性。3、提出了一种多相机视野不重叠情况下全局自标定方法。考虑现场获取多个局部特征高质量图像时需要多相机配合采集图像的情况,深入研究了现有无重叠视场的多相机标定方法的特点,提出了一种多相机视野不重叠情况下基于目标工件自身几何特征进行参数标定的自标定方法。该方法将三维参数标定简化为二维平面参数标定,通过目标工件自身某处几何特征建立各相机之间的联系,以求取相对应参数,将多相机坐标统一,继而使输出的结果方便执行。4、根据计算机主机装配要求,完成了装配生产线CPU安装、内存条安装及散热器安装工位的视觉定位系统设计。通过合理选择各工位视觉系统的光源、镜头相机、上位机等系统组成部件,设计了图像采集模式和各工位照明方式。根据不同工位的工件特征,选择与工件相适应的定位算法,并且将2、3提出的改进算法应用于实际生产中,提升了系统定位精度和稳定性,完成了计算机主机装配视觉系统。通过试运行作业,各工位精确,稳定完成了装配要求,交付使用。

吴晨睿[4](2019)在《低纹理表面零件的位姿识别与视觉伺服技术研究》文中研究说明智能制造是未来工业发展的必然趋势,工业机器人的智能化是智能制造中的核心问题。机械臂视觉伺服控制技术是一种利用视觉信息对机器人运动实施反馈控制的方法。与传统控制方法相比,这种技术能提供更高的设计灵活性、任务精度以及智能化水平,是机器人智能化的重要研究方向。现有的视觉伺服控制技术以图像特征点为控制基础,难以应用于缺少稳定图像特征点的低纹理表面零件之上。针对低纹理表面的工业零件的抓取任务,本文研究了基于几何特征的目标位姿识别与视觉伺服技术,并结合上述技术开发了视觉伺服系统,实现了具有几何特征的低纹理表面零件的精密定位与抓取。论文的主要内容包括:(1)针对特征点控制的视觉伺服在低纹理表面零件的抓取任务中难以适用的问题,提出了低纹理表面零件的视觉伺服模型,该模型以低纹理零件几何特征为视觉伺服的基本控制特征,通过对几何特征的检测、跟踪及位姿识别,为视觉伺服控制提供特征的实时状态,根据几何特征的信息应用不同的视觉伺服控制方法抓取目标零件。(2)针对低纹理表面零件的几何特征检测问题,提出了基于梯度聚类的椭圆特征检测方法,通过图像边缘的连续性保证圆的空间连续性,使用边缘聚类获得椭圆候选集合并通过几何约束的去伪过程得到最终椭圆特征。提出了先验透视不变水平集的平面特征测方法,通过将透视变换参数加入能量泛函的求解过程并交替迭代计算梯度下降方向,在获得能量泛函最小值的同时保证了当前特征与基准特征的透视不变性。最后通过实例分析验证了方法的可行性与优越性。(3)针对低纹理表面零件几何特征的姿识别问题,提出了基于锥面求交的圆特征位姿识别方法,通过分析相机模型与空间圆特征的关系,建立了锥面与球面的解析几何方程,通过因式分解得到圆特征在空间的法向量;提出了基于频域相关性分析的平面特征位姿识别方法,首先基于频域相关性分析了轮廓的仿射变换关系,再以仿射变换矩阵作为初始值代入以图像矩为基础建立单应性矩阵方程组,并通过迭代算法求解。利用奇异值分解单应性矩阵求得一般平面特征的空间位姿。(4)针对低纹理表面零件的视觉伺服控制问题,提出了基于圆特征虚轴定位的位置视觉伺服方法,通过定义圆特征平面上的虚轴,确定了圆特征的六个自由度,并通过位置视觉伺服的方法实现机械臂的抓取;提出了基于混合图像矩的视觉伺服控制方法,将传统基于图像矩的视觉伺服方法中,控制旋转自由度的三个高阶图像矩替换为旋转向量,解耦图像特征与运动变量的关系,获得更加平滑的运动轨迹,并消除了控制过程中的不稳定状态。(5)结合本文研究成果,开发了低纹理表面零件的位姿识别与视觉伺服系统并应用在具有几何特征的金属零件抓取任务中,验证了本文所提理论、方法和技术的可行性和有效性。

胡国勇[5](2016)在《基于双目视觉的焊接零件位姿误差检测方法研究》文中认为近年来,线性摩擦焊在加工领域中发挥着越来越大的作用,具有传统的焊接无法相比的优点。线性摩擦焊的焊缝强度能达到与焊件材料等强度,能实现不规则零件的焊接并且质量稳定。在零件焊接后,需要对零件的位姿情况进行测量。根据位姿情况,与理想模型比较得到位姿偏差,从而会得到多余余量,生成数控机床精加工刀轨。双目视觉测量是非接触式测量,不会损伤工件表面;并且检测时工件无需卸下,具有测量速度快和效率高等特点。计算机视觉在工厂领域中已经得到广泛的应用,主要应用于产品缺陷检测、尺寸测量、目标识别、工件定位等。论文描述了视觉空间坐标系之间的相互转化,建立了双目视觉系统和位姿解算的数学模型,结合计算机视觉和图像处理技术,设计了一种基于双目视觉对焊接零件位姿误差情况测量的方法,并以焊接叶盘为模型进行算法仿真试验。首先,论文建立了双目视觉系统的数学模型,用SVD算法对位姿求解,并对相机的内外参数进行了标定,得相机实际的参数值。然后在叶盘毛坯上精加工出用于定位的凸台结构,在焊件叶片凸台贴上标记点并对标记点进行拟合求得圆心。针对标记点提取准确性的不足,论文设计了准确的标记圆拟合方法-通过聚类对图像进行分割,然后再通过改进后的最小二乘法对椭圆进行拟合并求得椭圆的参数,并用C++程序进行了仿真与论证,能达到满意的效果。其次,在分析双目视觉成像特性的基础上,设计了特征点匹配的方法(首先基于灰度相关的特征点匹配,然后基于极线约束剔除错误匹配)。在此基础上,最后利用C++和OpenCv图像处理函数库,在Visual Studio平台上设计开发了相应的原型系统,对系统软硬件进行设计,对位姿误差情况进行了仿真实验,给出了相机立体标定结果、特征点匹配试验结果和三维坐标求解与位姿误差解算的结果,并对结果进行总结分析。

戴昌盛[6](2016)在《基于显微视觉的微球质量检测与筛选方法研究》文中进行了进一步梳理直径几十到几百微米的微球在激光核聚变、光子学、医学等领域有着广泛的应用。微球的几何参数和耐压性能是重要的质量指标,需要严格控制。目前对微球的质量检测主要依靠人工完成,检测精度和效率较低。在对合格微球的筛选过程中,传统的真空吸附和机械手夹持易对微球的表面造成损伤。本文提出了基于显微视觉的微球质量检测和筛选方法,可提高微球质量检测精度和效率,保证微球筛选的无损性。针对微球的质量检测,利用显微视觉技术,对微球的半径、圆度、缺陷、粘连情况等几何参数和耐压性能进行自动检测。在利用Canny算法获得边缘图像后,通过梯度Hough变换进行圆检测,并设计兴趣区域完成图像分割。提取微球轮廓后进行最小二乘椭圆拟合,获得微球几何参数。对于微球的耐压性能检测,采用基于Hu不变矩的图像匹配算法,将加压过程中的微球显微图像与加压前的图像进行匹配,实现微球失效的自动判别。针对微球的柔顺筛选,在疏水的操作工具上通过滴状冷凝形成稳定液滴后,利用液桥力对微球进行操作。借助显微视觉,提取液桥的轮廓,通过求解YoungLaplace方程测量液桥力,实现筛选过程中基于视觉的力反馈。此外,设计了微球柔顺筛选的视觉伺服控制系统,利用金字塔Lucas-Kanade光流法进行操作工具的跟踪,提供位置反馈。采用标准化方差作为聚焦评价函数,实现对操作工具的自动聚焦。最后,为克服微球与操作工具之间的粘着力,采用了基于压电陶瓷振动的主动释放策略。为了验证基于显微视觉的微球质量检测和筛选方法的效果,搭建了实验平台,开展了相应的实验研究。在微球几何参数检测实验中,实现100%的微球识别率,检测速率达到每分钟100个,半径检测平均误差为4.7μm,并根据圆度和表面缺陷完成了对微球的分类。在微球耐压性能自动测量实验中,实现了全部微球失效的正确识别和失效瞬间压力值的自动记录。在微球柔顺筛选实验中,实现了对直径200-800μm微球的液桥力操作,液桥力视觉检测的平均误差为1.53μN,视觉伺服的平均位置误差约为8像素。实验结果验证了基于显微视觉的微球质量检测和筛选方法的可靠性和准确性,通过对检测合格微球的柔顺筛选可有效保证核聚变靶丸的性能。

仝林林[7](2014)在《基于视频序列的行人计数算法研究与实现》文中提出行人目标的检测与跟踪作为计算机视觉的一个热点和难点,被众多学者和研究机构作为重要的课题进行研究。该课题的应用范围也得到了推广,目前较常见的应用场合如智能监控,人体异常行为监控和人流量统计等,都是以该课题为理论基础做研究的,其中,人流量的统计在实际中有很重要的研究价值,本文主要就该课题在行人计数方面的应用做了研究。针对行人运动目标而言,其作为一个特殊的非刚性的运动目标,在目标检测中有其独有的难点,比如说人体目标的非刚性,还有运动场景的复杂性,以及目标检测共同需要面对的难题等等,如光照的变化和目标之间不可避免的互相之间的遮挡问题等,都决定了传统的背景差分法难以满足其在精确度方面的要求,而精确度较高的梯度方向直方图法(Histograms of Oriented Gradients),文章中以后简称HOG特征提取法,又由于其计算度复杂而难以满足实际应用中的实时性要求。所以,本文在综合以上两个问题的基础上,提出了混合高斯背景建模法和梯度方向直方图法相结合的算法优化方法,该方法既解决了单纯利用混合高斯背景建模法的精确度低的问题,同时也提高了梯度方向直方图法的检测速度,通过实验验证,证明该算法的改进方法取得了一定的效果。在行人计数过程中,除了需要进行行人目标检测以外,检测后的跟踪问题也是需要解决的一大难题,论文首先对常见的跟踪算法进行了介绍,其中主要说明了Camshift算法的原理以及优缺点,并以该算法为基础提出适合本文场景的改进算法。研究发现,该算法主要的缺点是初始化时需要手动选定跟踪目标,其次存在多个目标相互遮挡严重时很容易出现目标跟丢现象。本文的改进算法也主要是做这两方面的优化。首先,本文的跟踪是基于目标检测的跟踪,所以初始化目标即为检测过程中的标注目标,而对跟丢现象,本文提出了自适应的搜索窗口函数参数,该方法可以自适应的调整搜索窗口,抑制将会对跟踪产生影响的噪声。具体做法是:当目标消失时,首先对目标的运动轨迹进行预测,当目标重新出现时,将能够继续完成对该目标的跟踪工作。最后,在以上算法研究的基础上,设计了基于Visual Studio2008和OpenCV2.0的行人计数系统,并对该系统进行了实现。该系统同时具有行人目标检测与跟踪计数的功能,最后对系统用三例视频进行了实验,证明了系统的可用性,同时分析了系统的缺陷,给出了该课题以后的研究方向。本论文的创新点主要是针对行人目标检测和跟踪两部分对传统算法进行了改进,并以此为基础实现了行人目标计数系统。

孟春宁[8](2013)在《人眼检测与跟踪的方法及应用研究》文中指出眼睛是人类最主要的感觉器官,也是人脸最显着的特征。对眼睛及其运动的研究是了解人类视觉机制、理解人的情感和行为以及基于眼动的人机交互等问题的关键。基于计算机视觉的人眼检测与跟踪技术具有低侵入性、高精度等优势,现已成为眼动研究的主流方法。人眼检测与跟踪是人脸识别、表情识别、眼动分析、虹膜识别等技术的必要步骤,涉及图像处理、计算机视觉、模式识别以及认知心理学等多个学科,并在工业检测、智能机器人、人机交互、公共安全、智能交通、心理学、医学诊断以及军事侦察等领域均有广泛的应用。现有的人眼检测与跟踪算法存在的客观问题是:精确定位并跟踪人眼的算法都建立在高质量的成像设备与复杂的光学系统之上,缺乏低质量人脸图像中精确获取人眼位置的有效算法,导致精确记录眼动信息的系统价格昂贵且对用户束缚较多,应用范围受到很大的限制。针对这个问题,本文在现有成果的基础上,通过深入研究低质量图像中的眼睛特点,提出了一系列基于低质量图像的人眼检测与跟踪算法,通过设计和搭建低成本的图像采集系统,对本文提出的基于眼动分析的行为识别及注视估计算法的性能进行了系统分析。本文的主要创新点包括:1.为解决现有人眼区域分割方法难以剔除眉毛区域的问题,提出一种基于尺度不变梯度积分投影函数的人眼分割方法。该方法充分考虑到人眼区域图像局部灰度变化丰富的特点,并继承了投影方法计算量小的优点。对不同分辨率、不同光照条件及不同姿态的人脸图像的眼部分割结果表明,该算法能够在保证检测正确率和速度的同时,有效地去除眉毛的干扰。2.为提高低质量人脸图像中人眼检测的精度,提出了一种梯度积分投影结合最大期望算法的人眼检测算法。该方法通过引入最大期望算法进一步缩小了人眼窗口的范围,然后在精确的人眼窗口的基础上采用一种加权质心法获取人眼位置。对YaleB及自采数据库中图像的测试结果表明,该算法对光照、姿态、眼镜及不同的眼睛状态都有很好的鲁棒性,对比实验结果显示该方法的检测精度优于现有的四种投影方法。3.针对现有的虹膜精确定位算法难以用于低质量人脸图像的问题,提出了一种基于矩形积分方差算子的虹膜定位算法,该算法可以在低质量人脸图像中实现快速精确的虹膜定位。在YaleB及FERET人脸库上的实验结果证明该算法对眼睑遮挡、尺度变化、轻微头部转动及光照变化有较好的鲁棒性,在严格的评价标准下正确率达到了百分之九十以上,远高于经典虹膜定位算法的结果。4.为了对低质量视频图像中的眼睛运动进行跟踪,提出了一种基于差分指导的重要性采样虹膜跟踪算法,并根据梯度投影积分函数设计了一种眨眼检测方法以避免眨眼导致的跟踪漂移。采用本文提出的虹膜跟踪方法获取的眼动信号经小波去噪后用于视觉行为识别,取得了理想的效果。5.首次利用单个普通网络摄像头实现了基于眼动分析的行为识别。采用一个置于计算机监视器附近的网络摄像头采集测试者阅读电子文档、浏览网页、观看视频等行为的视频图像,针对低质量视频图像中不同行为的眼动特点,从眼动信号中提取了十种眼动特征,利用支持向量机实现了对不同注视行为的分类。针对不同的应用背景设计了三组验证实验,实验结果证明了基于普通视频图像的眼动分析在行为识别领域应用的可行性。6.为扩展眼动跟踪技术的应用范围,设计了一种低成本、低侵入性的耳麦式眼动记录系统,该系统主要由两个普通CMOS摄像机构成。针对该系统采集的图像特点,提出了一种分段加权环形Hough变换算法用于提取虹膜轮廓中心。最后设计了一种简便的注视点标记方法,利用支持向量回归机实现了对注视方向的估计,实验结果表明低成本眼动仪可以满足日常交互需求。

徐悦[9](2012)在《民机ISS系统中红外/可见光的跑道监视算法研究》文中研究表明随着航空科技水平的提高,民用飞机的安全度大幅提升。尤其是飞机综合环境监视系统(Integrated Surveillance System, ISS)的出现,在飞机飞行过程中为机组人员提供综合化的交通、气象、地形等信息,增强其对空中环境的感知能力,极大地提高了飞行的安全性。ISS很好地解决了飞机在空中的安全问题,但飞机在低能见度进近着陆和位于跑道上时的安全性则没有得到足够的保障。一方面,飞机在着陆时的事故占整个飞行过程的绝大多数。飞行在降落到决断高度时,必须满足飞行员看清跑道和飞行状态正常两个条件才能正常着陆,否则就要复飞。现有的ISS可以帮助飞行员正确判断飞行状态是否正常,但不能协助飞行员看清跑道。另一方面,ISS的TCAS功能使得飞机在空中相撞的事故几乎消失,但飞机在跑道上与其他飞机、地勤车辆等物体相撞以及地勤人员被吸入发动机致死的事故频频发生。TCAS的垂直避撞策略和危害人员安全的高辐射功率等特点使得其现在和将来都不可能解决飞机在跑道上与其他物体相撞的问题。ARINC 768对ISS制定了接口和功能上的设计规范,并提出了新功能的建议,其中一项为:应具备跑道监视与警告功能,该功能向机组提供与跑道相关的通告信息,从而增强飞行员对跑道环境态势的感知能力。因此,本文针对飞机进近着陆时飞行员在低能见度条件下提升跑道监视能力,以及飞机在跑道上滑行时防止与其他物体相撞两个应用需求,开展了ISS中跑道监视方法研究。论文的主要内容和创新点:(1)针对飞机进近着陆时飞行员在低能见度条件下提升跑道监视能力的问题,提出了ISS跑道识别辅助进近(Runway Recognition and Approach Assistance)功能。通过对飞机进近时前方红外图像中跑道进行检测和识别,协助飞行员在低能见度下看清跑道,提高飞行安全性。详细介绍了机场跑道图像预处理中需要用到的图像处理技术,并给出了处理对比结果。实现了跑道检测与识别算法,设计了跑道边缘筛选、线段筛选和区域筛选的规则,考虑了跑道检测中可能出现漏检和干扰以及误检,分别进行讨论,并给出相应的解决方案,实现了鲁棒的跑道检测算法。(2)针对飞机在跑道上与其他物体相撞的问题,本文提出了ISS跑道交通防撞(Runway Traffic Collision Avoidance)功能。使用机载成像设备跟踪监视跑道上其他飞机、车辆和人员等物体,协助飞行员避免物体相撞事故。第一种监视方法是基于自适应时空码书模型的粒子滤波的跟踪算法,在时空码书的基础上加入自适应过程,能有效检测出前景目标,并抑制噪声。将检测结果与粒子滤波跟踪算法结合,提高了跟踪算法的可靠性。与现有码书算法相比,自适应时空码书的检测对干扰噪声等具有鲁棒性,基于检测的粒子滤波跟踪算法能快速捕获运动目标,跟踪效果可靠。第二种监视方法是使用变分贝叶斯推论理论框架的均值偏移跟踪算法。仅需使用前一帧的目标位置和椭圆的形状作为当前帧的初始值,通过简单的迭代算法就能得到后验的无偏估计。实验证明该算法能够随着目标的改变自适应地调整椭圆尺寸和形状即核函数的窗宽,在不同的情况下获得鲁棒的跟踪结果。上述两个功能共同组成了ISS跑道监视功能(ISS Runway Surveillance),弥补了ISS只能保障飞机在空中的安全的缺点,实现ISS对飞机从滑行出航站楼、起飞、巡航、降落和滑行回航站楼的全过程安全保障。

吕丹凤[10](2012)在《基于图像的酵母菌生长分析与筛选技术研究》文中指出酵母,在酿酒工业、医药制造以及农业发酵等领域,均起着重要的作用。酵母菌的发酵能力由酵母的出芽率、强壮性和存活率等参数体现。在筛选优良酵母的研究中,形态分析和计数统计是最常用的手段。传统的方法主要靠人眼观察、分析和计数统计来实现。这种方法劳动强度大、因缺乏定量分析手段,而且依赖人工经验计数容易出错,致使效率低下。本文根据工程酵母菌的生长、生理特点和筛选要求,开展了基于数字图像处理技术的酵母菌生长与筛选分析技术的研究。具体工作有:(1)基于对酵母菌生长和生理特点的分析,研究了酵母菌生长与筛选的三项主要评判依据,即酵母菌的出芽率分析、酵母菌的存活性判断、以及酵母菌的强壮性分析。为建立基于数字图像处理技术的酵母菌分析筛选技术奠定基础。(2)研究建立了一种对酵母菌出芽率的自动检测和分析方法。根据酵母菌生长规律以及酵母菌的形态特征,提出了一种基于凹点检测的椭圆拟合方法,通过酵母菌生长过程中的轮廓特征,分析判断酵母的出芽情况。该算法可以准确的检测存在堆积现象图像中的酵母菌出芽率,与传统的检测方法相比较不仅速度快,而且更准确。(3)研究建立了一种对酵母菌存活率的自动检测方法,该方法基于酵母菌的死亡菌体被生物试剂染色的特性,提出了基于颜色相似性的分析判别方法。通过统计不同颜色的菌体数目对酵母菌的存活率进行计算。实验证明该算法具有较好的准确性,相比传统的酵母菌存活性方法具有较大的优势。(4)研究建立了一种优良酵母菌筛选种的方法。根据强壮细胞和衰老细胞在细胞内部组织结构上的差异,采用灰度共生矩阵的方法分别提取强壮细胞和死亡细胞的二阶角矩、相关性、熵、对比度信息,通过分析对比这些数据可以较好的辨别优良菌种与劣质菌种。论文通过大量实验和分析比较,验证了该方法的可行性和有效性。

二、基于特定椭圆拟合的符号化目标轮廓跟踪方法(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、基于特定椭圆拟合的符号化目标轮廓跟踪方法(论文提纲范文)

(1)单目标联合跟踪与分割算法研究与应用(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 基于目标检测的跟踪算法
        1.2.2 基于孪生网络的跟踪算法
        1.2.3 基于相关滤波的跟踪算法
        1.2.4 视频目标分割算法
    1.3 论文研究内容
    1.4 论文组织结构
第二章 预备知识
    2.1 目标跟踪基本框架
        2.1.1 特征提取网络
        2.1.2 相关滤波
        2.1.3 尺度估计
    2.2 图像分割深度学习方法
        2.2.1 全卷积图像分割法
        2.2.2 DeepMask分割法
        2.2.3 编-解码分割法
    2.3 相关数据集
    2.4 评价数据与指标
    2.5 多任务学习
    2.6 本章总结
第三章 基于距离加权重叠度的目标跟踪与分割算法
    3.1 引言
    3.2 基于距离加权重叠度的目标跟踪与分割算法
        3.2.1 特征提取主干网络
        3.2.2 距离加权的重叠度分数预测网络
        3.2.3 目标分割网络
        3.2.4 椭圆拟合优化输出
        3.2.5 滤波器更新策略
    3.3 实验结果与分析
        3.3.1 实验数据处理
        3.3.2 实验平台参数
        3.3.3 VOT2018 评测结果
        3.3.4 OTB100 评测结果
        3.3.5 实验可视化分析
    3.4 算法实际应用效果
    3.5 本章总结
第四章 双路滤波融合定位的目标跟踪与分割算法
    4.1 引言
    4.2 双路滤波融合定位的目标跟踪与分割算法
        4.2.1 定位算法原理
        4.2.2 跟踪算法网络框架
        4.2.3 双路滤波定位网络
        4.2.4 目标精细分割网络
    4.3 实验结果与分析
        4.3.1 实验设置
        4.3.2 VOT2018 评测结果
        4.3.3 VOT2019 评测结果
        4.3.4 GOT10k评测结果
        4.3.5 实验可视化分析
    4.4 本章总结
第五章 总结与展望
    5.1 工作总结
    5.2 研究展望
致谢
参考文献
作者简介

(2)基于超像素图表示与标签预测模型的目标分割与跟踪(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
    1.3 本文的工作与安排
第二章 目标跟踪方法简介
    2.1 基于检测的目标跟踪方法
        2.1.1 外观表达方法
        2.1.2 搜索方法
        2.1.3 相关滤波方法
        2.1.4 深度学习方法
    2.2 基于分割的目标跟踪方法
        2.2.1 自下而上的方法
        2.2.2 联合方法
第三章 基于时空一致性约束标签预测模型的目标分割与跟踪
    3.1 引言
    3.2 时空一致性约束标签预测模型
        3.2.1 线性标签预测
        3.2.2 时空一致性约束
        3.2.3 前景先验正则化
        3.2.4 模型求解
    3.3 目标分割与跟踪算法
        3.3.1 图的构建
        3.3.2 目标分割与跟踪
    3.4 实验结果与分析
        3.4.1 数据集和评价指标
        3.4.2 模型参数与细节
        3.4.3 实验结果分析
        3.4.4 消融实验
    3.5 本章小结
第四章 基于多视图协同学习与标签预测模型的目标分割与跟踪
    4.1 引言
    4.2 多视图协同学习与标签预测模型
        4.2.1 图学习
        4.2.2 多视图协同学习
        4.2.3 整体模型分析
    4.3 目标函数优化与求解
        4.3.1 多阶段目标函数求解
        4.3.2 收敛性分析
    4.4 目标分割与跟踪算法
        4.4.1 图的构建
        4.4.2 目标分割与跟踪
    4.5 实验结果与分析
        4.5.1 数据集和评价指标
        4.5.2 模型参数与细节
        4.5.3 实验结果分析
        4.5.4 消融实验
    4.6 本章小结
结论
参考文献
攻读硕士学位期间取得的学术成果
致谢

(3)基于机器视觉的计算机主机装配定位技术研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 课题来源
    1.2 研究背景及意义
    1.3 装配定位关键技术研究现状
        1.3.1 装配领域视觉应用
        1.3.2 视觉定位算法
        1.3.3 视觉系统全局标定
    1.4 主要工作内容与安排
第二章 计算机主机装配视觉定位特征研究
    2.1 计算机主机装配特征研究
        2.1.1 CPU定位特征研究
        2.1.2 内存条定位特征研究
        2.1.3 CPU散热器特征研究
    2.2 小结
第三章 定位算法研究
    3.1 图像预处理
        3.1.1 图像滤波
        3.1.2 图像二值化
    3.2 边缘检测算法
        3.2.1 边缘检测算法特点
        3.2.2 边缘检测算法应用
    3.3 轮廓提取与轮廓筛选
    3.4 最小二乘直线拟合及其改进算法
        3.4.1 最小二乘直线拟合算法
        3.4.2 最小二乘直线拟合算法的改进
        3.4.3 改进最小拟合二乘法仿真
    3.5 最小二乘椭圆拟合算法及其改进
        3.5.1 最小二乘椭圆拟合算法
        3.5.2 最小二乘椭圆拟合算法的改进
        3.5.3 改进椭圆拟合算法仿真
    3.6 小结
第四章 一种基于目标自身特征多相机全局自标定方法
    4.1 多相机全局自标定方法
    4.2 实验验证
    4.3 小结
第五章 装配技术实现
    5.1 视觉定位系统设计
        5.1.1 光源以及照明方式选择
        5.1.2 光学镜头选择
        5.1.3 摄像机选择
    5.2 计算机主机各视觉定位工位视觉系统设计
    5.3 CPU散热装置装配定位技术实现
    5.4 CPU装配定位视觉系统设计及实现过程
    5.5 内存条装配定位视觉系统设计及实现过程
    5.6 小结
第六章 总结和展望
    6.1 总结
    6.2 展望
参考文献
致谢
攻读硕士期间发表论文和专利

(4)低纹理表面零件的位姿识别与视觉伺服技术研究(论文提纲范文)

致谢
摘要
Abstract
1 绪论
    1.1 引言
    1.2 目标位姿识别研究现状
        1.2.1 一般目标的位姿识别
        1.2.2 面向工业应用的位姿识别
    1.3 视觉伺服技术研究现状
        1.3.1 基于特征点的视觉伺服方法
        1.3.2 基于图像矩的视觉伺服方法
    1.4 现有技术的不足及论文组织结构
        1.4.1 现有位姿识别与视觉伺服技术在工业场景下的不足
        1.4.2 论文组织结构
    1.5 本章小结
2 低纹理表面零件的视觉伺服原理与模型
    2.1 引言
    2.2 视觉伺服原理
        2.2.1 视觉伺服的基本思想
        2.2.2 基于图像与基于位置的视觉伺服
    2.3 视觉伺服模型
        2.3.1 视觉伺服模型的建立
        2.3.2 伺服控制流程分析
    2.4 本章小结
3 低纹理表面零件的几何特征检测方法
    3.1 引言
    3.2 基于轮廓梯度分类的椭圆检测
        3.2.1 图像预处理
        3.2.2 基于灰度梯度的边缘分类
        3.2.3 基于边缘凹凸性的圆弧细分
        3.2.4 基于几何约束与凸多边形辨识的圆弧集合筛选
    3.3 基于先验水平集的平面图形检测
        3.3.1 Chan-Vese模型
        3.3.2 基于透视先验不变的轮廓分割
    3.4 实验验证
        3.4.1 椭圆检测方法实验验证
        3.4.2 一般平面特征检测方法实验验证
    3.5 本章小结
4 低纹理表面零件的目标位姿识别方法
    4.1 引言
    4.2 基于圆锥求交的圆特征姿态识别
        4.2.1 空间圆特征的姿态估计
        4.2.2 空间圆特征的位置估计
    4.3 基于频域相关性分析的一般平面特征位姿识别
        4.3.1 基于相关性分析的位姿初始估计
        4.3.2 基于Levenberg-Marquard算法的位姿迭代求解
    4.4 实验验证
        4.4.1 圆特征的位姿识别实验验证
        4.4.2 一般平面特征的位姿识别实验验证
    4.5 本章小结
5 低纹理表面零件的视觉伺服方法
    5.1 引言
    5.2 基于虚拟轴系的圆特征零件位置视觉伺服
        5.2.1 基于虚拟轴系的相对位姿计算
        5.2.2 基于位置视觉伺服的圆特征零件抓取
    5.3 基于混合图像矩的一般平面特征视觉伺服
        5.3.1 传统图像矩视觉伺服
        5.3.2 混合图像矩视觉伺服
    5.4 实验验证
        5.4.1 圆特征位置视觉伺服实验验证
        5.4.2 混合图像矩特征视觉伺服实验验证
    5.5 本章小结
6 低纹理表面零件的视觉伺服系统与应用验证
    6.1 引言
    6.2 系统体系架构
    6.3 系统功能模块
    6.4 零件位姿识别与视觉伺服抓取应用实例
    6.5 本章小结
7 总结与展望
    7.1 全文总结
    7.2 工作展望
参考文献
作者简历及在学期间所取得的科研成果

(5)基于双目视觉的焊接零件位姿误差检测方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 背景及意义
        1.1.1 课题研究背景
        1.1.2 课题研究目的及意义
    1.2 双目视觉位姿检测国内外研究现状
        1.2.1 基于双目视觉的三维测距方法
        1.2.2 基于双目视觉的位姿测量方法
    1.3 课题的研究内容及章节安排
第2章 双目立体视觉定位模型与相机标定
    2.1 双目立体视觉成像模型
        2.1.1 单个相机的双目系统模型
        2.1.2 相机成像模型
        2.1.3 双目立体视觉测量原理
    2.2 双目视觉对零件位姿检测问题的描述
        2.2.1 双目视觉对零件位姿检测问题的描述
        2.2.2 凸台坐标系与相机坐标系的外参数求解
        2.2.3 位姿的定义
        2.2.4 基于SVD分解法求解位姿
    2.3 相机的标定
        2.3.1 相机内参数标定分析
        2.3.2 相机内参数标定
        2.3.3 双目参数的标定
    2.4 本章总结
第3章 三维测量中的特征提取与匹配
    3.1 图像预处理与边缘检测
        3.1.1 高斯滤波和Canny边缘检测
        3.1.2 图像预处理算法仿真
    3.2 标记圆识别
        3.2.1 直接用最小二乘法对标记圆进行拟合
        3.2.2 改进后的最小二乘法椭圆拟合
        3.2.3 尺寸准则与圆心提取
        3.2.4 标记圆识别仿真实验
    3.3 标记圆的匹配
        3.3.1 基于灰度相关的特征点匹配
        3.3.2 基于极线约束剔除错误匹配
        3.3.3 匹配算法仿真
    3.4 基于工艺结构的特征识别与匹配
        3.4.1 识别工艺结构的角点
        3.4.2 凸台工艺结构角点的匹配
    3.5 本章总结
第4章 面向焊接零件的视觉位姿误差检测系统的研发设计
    4.1 摩擦线性焊设备介绍与需求分析
    4.2 双目视觉位姿误差测量系统设计与实现
        4.2.1 总体方案
        4.2.2 系统开发方法
        4.2.3 系统开发环境
        4.2.4 系统软硬件设计
    4.3 系统运行实验与误差分析
        4.3.1 位姿误差检测系统精度试验方案
        4.3.2 试验结果及分析
    4.4 本章小结
第5章 总结与展望
    5.1 总结
    5.2 展望
参考文献
附录
致谢
攻读硕士学位期间的研究成果

(6)基于显微视觉的微球质量检测与筛选方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题研究的背景和意义
    1.2 国内外研究现状与分析
        1.2.1 靶丸微球几何参数检测国内外研究现状
        1.2.2 靶丸微球耐压性能检测国内外研究现状
        1.2.3 微球柔顺筛选国内外研究现状
        1.2.4 研究现状总结分析
    1.3 主要研究内容
第2章 基于显微视觉的微球质量检测方法研究
    2.1 引言
    2.2 靶丸微球几何参数检测方法研究
        2.2.1 方法概述
        2.2.2 图像预处理与边缘检测
        2.2.3Hough圆检测
        2.2.4 图像分割与轮廓提取
        2.2.5 椭圆拟合
        2.2.6 算法仿真
    2.3 靶丸微球耐压性能检测方法研究
    2.4 本章小结
第3章 基于显微视觉的微球柔顺筛选方法研究
    3.1 引言
    3.2 基于液桥力的柔顺筛选原理
    3.3 柔顺筛选中的液滴形成热力学模型
    3.4 柔顺筛选中的液桥力操作力学模型
    3.5 液桥力视觉检测方法
        3.5.1 液桥区域的确定
        3.5.2 轮廓提取
        3.5.3 角点检测
        3.5.4 最小二乘抛物线拟合
    3.6 靶丸微球的视觉伺服操作方法
        3.6.1 相机成像模型和雅克比矩阵
        3.6.2 基于Lucas-Kanade光流算法的操作工具跟踪
        3.6.3 基于标准化方差的操作工具自动聚焦
        3.6.4 微球柔顺筛选的视觉伺服控制系统设计
    3.7 靶丸微球释放策略研究
    3.8 本章小结
第4章 基于显微视觉的微球质量检测与筛选实验研究
    4.1 引言
    4.2 靶丸微球几何参数检测实验研究
        4.2.1 实验平台
        4.2.2 微球几何参数检测实验
    4.3 靶丸微球耐压性能检测实验研究
        4.3.1 实验平台
        4.3.2 微球耐压性能检测实验
    4.4 靶丸微球柔顺筛选实验研究
        4.4.1 操作工具的疏水处理
        4.4.2 实验平台
        4.4.3 液桥力视觉测量实验
        4.4.4 操作工具自动聚焦实验
        4.4.5 操作工具视觉伺服实验
        4.4.6 微球柔顺筛选实验
    4.5 本章小结
结论
参考文献
攻读学位期间发表的学术论文
致谢

(7)基于视频序列的行人计数算法研究与实现(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 课题研究的背景和意义
    1.2 行人计数算法研究现状
        1.2.1 研究现状
        1.2.2 行人计数算法的常用方法
        1.2.3 行人计数算法的难点
    1.3 论文章节安排
第二章 常用的目标检测与跟踪算法
    2.1 引言
    2.2 行人目标检测流程
        2.2.1 运动目标常用检测方法
        2.2.1.1 背景差法
        2.2.1.2 光流法
        2.2.1.3 帧间差分法
        2.2.2 行人目标检测一般流程
    2.3 行人目标检测的常用方法
        2.3.1 基于运动特征的方法
        2.3.2 基于形状特征的方法
        2.3.3 基于颜色特征的方法
    2.4 运动目标跟踪方法简介
        2.4.1 运动目标常用跟踪方法
        2.4.1.1 基于目标特征的跟踪
        2.4.1.2 基于主动轮廓的跟踪
        2.4.1.3 基于模型的跟踪
        2.4.1.4 基于区域的跟踪
        2.4.2 行人目标常用跟踪方法研究
        2.4.2.1 Meanshift的基本思想
        2.4.2.2 Meanshift算法的定义
    2.5 本章小结
第三章 混合高斯背景建模法和HOG法相结合的行人检测方法
    3.1 高斯背景建模法
        3.1.1 混合高斯背景建模法及其优化
        3.1.2 形态学操作
    3.2 梯度方向直方图方法
    3.3 改进的行人目标检测方法
        3.3.1 改进算法的结构流程图及实验过程
        3.3.2 基于Visual studio 2008的实验结果
        3.3.3 实验结果分析
    3.4 本章小结
第四章 改进的行人目标跟踪算法
    4.1 Camshift算法概述
        4.1.1 Camshift算法原理
        4.1.2 Camshift算法步骤
        4.1.2.1 传统Camshift算法的跟踪结果
        4.1.3 Camshift算法的优缺点
        4.1.4 常用的Camshift改进算法分析
        4.1.4.1 Camshift算法与Kalman滤波器相结合的方法
        4.1.4.2 参数修正
    4.2 基于行人计数的Camshift算法改进
        4.2.1 算法的实现
        4.2.1.1 目标初始化的改进
        4.2.1.2 目标跟踪方法的改进
        4.2.2 实验结果分析
    4.3 本章小结
第五章 基于VS2008和OpenCV2.0的行人计数系统的实现
    5.1 OpenCV简介
    5.2 行人计数系统的设计
    5.3 行人计数实验结果及分析
    5.4 本章小结
第六章 总结与展望
    6.1 工作总结
    6.2 工作展望
参考文献
致谢
攻读硕士学位期间发表的论文和科技成果

(8)人眼检测与跟踪的方法及应用研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    第一节 人眼检测及跟踪的背景、意义及其应用
    第二节 人眼结构与眼动
        1.2.1 人眼剖面结构及视觉形成
        1.2.2 人眼表观结构
        1.2.3 眼睛运动
    第三节 人眼检测及跟踪研究现状
        1.3.1 人眼检测方法综述
        1.3.1.1 人眼区域分割
        1.3.1.2 精确的人眼检测方法
        1.3.2 目前人眼检测研究存在的问题
        1.3.3 人眼跟踪方法概述
        1.3.3.1 基于Mean-shift的方法
        1.3.3.2 基于状态空间的方法
        1.3.3.3 其他方法
    第四节 本文研究内容及结构安排
第二章 基于梯度积分投影的人眼检测
    第一节 人脸检测
        2.1.1 人脸检测概述
        2.1.2 AdaBoost算法
        2.1.3 Haar-like特征及积分图
        2.1.4 基于AdaBoost的人脸检测
    第二节 基于梯度积分投影的人眼区域分割
        2.2.1 尺度不变梯度积分投影算法
        2.2.2 低质量人脸图像中的人眼区域分割
        2.2.3 分割结果与分析
    第三节 基于梯度积分投影和最大期望算法的人眼定位
        2.3.1 最大期望算法
        2.3.2 梯度积分投影曲线拟合
        2.3.3 加权质心法及人眼定位
        2.3.4 实验结果与分析
    第四节 小结
第三章 基于矩形积分方差算子的虹膜定位
    第一节 矩形积分方差算子
    第二节 基于投影极值和矩形积分方差算子的虹膜定位
        3.2.1 虹膜垂直边界位置估计
        3.2.2 虹膜精确定位
        3.2.3 虹膜确认
        3.2.4 实验结果与分析
        3.2.4.1 FERET人脸库中的测试结果
        3.2.4.2 YaleB人脸库中的测试结果
        3.2.4.3 与普通人眼定位算法的比较
    第三节 基于人眼位置估计与矩形积分方差算子的虹膜定位
    第四节 小结
第四章 虹膜跟踪及眼动记录
    第一节 虹膜检测
    第二节 眨眼检测
    第三节 虹膜跟踪
        4.3.1 基于状态空间理论的虹膜跟踪实验
        4.3.2 基于差分指导的重要性采样方法的虹膜跟踪
    第四节 结果与分析
    第五节 眼动信号噪声去除
        4.5.1 小波变换
        4.5.2 基于小波变换的眼动信号去噪
    第六节 小结
第五章 单摄像机下基于眼动分析的行为识别
    第一节 行为识别研究概述
    第二节 传统的眼动分析方法
        5.2.1 基本眼动模式检测
        5.2.2 眼动编码
    第三节 支持向量机
        5.3.1 统计学习理论概述
        5.3.2 线性可分支持向量机
        5.3.3 线性不可分支持向量机
        5.3.4 支持向量回归机
    第四节 单摄像机下基于眼动分析的行为识别
        5.4.1 系统设计及算法流程
        5.4.2 特征提取及特征选择
        5.4.3 基于SVM的行为识别
        5.4.4 实验结果与分析
        5.4.4.1 留—交叉验证实验
        5.4.4.2 k折交叉验证实验
        5.4.4.3 单独校准后对环境变化的鲁棒性测试实验
    第五节 小结
第六章 低成本眼动记录系统的设计与注视估计
    第一节 眼动记录技术概述
        6.1.1 眼动记录方法
        6.1.2 视频图像中眼动特征提取与注视估计算法
        6.1.3 眼动仪开发现状
        6.1.4 眼动研究的挑战及发展前景
    第二节 系统原理与硬件设计
    第三节 基于分段加权环形Hough变换的虹膜定位
        6.3.1 人眼窗口检测
        6.3.2 改进的Hough变换
        6.3.3 虹膜定位与跟踪算法实现
    第四节 视线估计模型
    第五节 视线估计结果与分析
    第六节 小结
第七章 总结与展望
参考文献
致谢
个人简历
攻读博士学位期间发表的论文

(9)民机ISS系统中红外/可见光的跑道监视算法研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 本文研究背景及意义
    1.2 机场跑道检测的发展和研究现状
    1.3 论文的结构
第二章 机场跑道图像处理
    2.1 图像增强
    2.2 空间域图像增强
        2.2.1 灰度变换
        2.2.2 图像噪声
        2.2.3 平滑空间滤波器
        2.2.4 锐化空间滤波器
    2.3 频域图像增强
        2.3.1 频域平滑滤波器(低通滤波器)
        2.3.2 频域锐化滤波器(高通滤波器)
        2.3.3 同态滤波器
    2.4 图像分割
        2.4.1 间断检测
        2.4.2 边缘连接和边界检测
    2.5 本章小结
第三章 机场跑道检测与识别
    3.1 跑道检测与识别算法分析
    3.2 跑道图像预处理
        3.2.1 跑道图像增强
        3.2.2 图像开运算
        3.2.3 跑道边缘检测
        3.2.4 跑道边缘筛选
    3.3 线段检测
        3.3.1 Hough 变换
        3.3.2 线段匹配
        3.3.3 线段筛选
    3.4 跑道识别
        3.4.1 跑道线段搜索
        3.4.2 跑道线段筛选
        3.4.3 跑道区域筛选
    3.5 本章小结
第四章 跑道及运动目标检测
    4.1 运动目标检测技术
        4.1.1 点检测器
        4.1.2 背景减除
        4.1.3 区域分割
        4.1.4 有监督学习
    4.2 跑道检测算法
        4.2.1 标准码书前景检测
        4.2.2 时空码书前景检测
        4.2.3 自适应时空码书前景检测
        4.2.4 自适应时空码书前景检测实验结果与分析
    4.3 本章小结
第五章 机场跑道监视算法
    5.1 运动目标跟踪技术
        5.1.1 点跟踪
        5.1.2 确定性点对应方法
        5.1.3 核跟踪
        5.1.4 基于轮廓的跟踪
        5.1.5 评估
    5.2 基于自适应时空码书的粒子滤波跟踪监视
        5.2.1 蒙特卡罗方法
        5.2.2 粒子滤波算法
        5.2.3 基于自适应时空码书的粒子滤波跟踪算法
        5.2.4 基于自适应时空码书的粒子滤波跟踪算法实验结果与分析
    5.3 基于变分贝叶斯推论的Mean Shift 跟踪监视
        5.3.1 变分的贝叶斯推论
        5.3.2 Mean Shift 跟踪算法
        5.3.3 基于变分贝叶斯推论的Mean Shift 跟踪算法
        5.3.4 基于变分贝叶斯推论的Mean Shift 跟踪实验结果与分析
    5.4 本章小结
第六章 总结与展望
    6.1 本文研究背景及意义
    6.2 展望
参考文献
攻读硕士学位期间已发表或录用的论文
致谢

(10)基于图像的酵母菌生长分析与筛选技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 课题背景和意义
    1.2 国内外研究现状
    1.3 本论文的研究内容
        1.3.1 主要研究内容
        1.3.2 章节安排
        1.3.3 主要创新点
第二章 酵母菌生理特性及分析要点
    2.1 酵母菌的生长过程
        2.1.1 酵母菌的繁殖过程
        2.1.2 新生酵母的判别
    2.2 酵母菌的存活性分析
        2.2.1 酵母菌的生长与死亡
        2.2.2 酵母菌存活的判别
    2.3 优良酵母的筛选
    2.4 本章小结
第三章 基于椭圆检测的酵母菌生长繁殖研究
    3.1 基于图像的酵母菌出芽率分析思路
    3.2 椭圆检测常用的方法
        3.2.1 基于 hough 变换的椭圆检测
        3.2.2 基于椭圆性质的检测方法
        3.2.3 椭圆拟合算法
    3.3 椭圆拟合方法的改进及其对酵母菌出芽率的分析
        3.3.1 凹区域轮廓的提取
        3.3.2 基于凹点检测的椭圆拟合方法
    3.4 实验与分析
    3.5 本章小结
第四章 基于颜色相似性的酵母菌存活性分析研究
    4.1 颜色处理常用的方法
        4.1.1 颜色直方图
        4.1.2 颜色矩
        4.1.3 颜色量化算法
        4.1.4 颜色相似性
    4.2 基于颜色相似性的存活率计算方法
        4.2.1 基于八邻域链码的细胞轮廓提取
        4.2.2 基于颜色相似性的存活率计算
    4.3 实验与分析
    4.4 本章小结
第五章 基于纹理特征的酵母菌强壮性分析研究
    5.1 纹理分析常用方法
        5.1.1 自相关函数法
        5.1.2 基于灰度直方图中心矩的方法
        5.1.3 统计矩描述
        5.1.4 小波纹理特征
        5.1.5 不变性直方图
        5.1.6 灰度共生矩阵处理纹理特征
    5.2 基于灰度共生矩阵的强壮细胞筛选
        5.2.1 图像背景色的去除
        5.2.2 酵母菌细胞的灰度共生矩阵计算
    5.3 实验与分析
    5.4 本章小结
第六章 总结与展望
    6.1 论文工作总结
    6.2 讨论和展望
致谢
参考文献
附录

四、基于特定椭圆拟合的符号化目标轮廓跟踪方法(论文参考文献)

  • [1]单目标联合跟踪与分割算法研究与应用[D]. 王宁. 南京信息工程大学, 2021(01)
  • [2]基于超像素图表示与标签预测模型的目标分割与跟踪[D]. 李若飞. 安徽大学, 2020(07)
  • [3]基于机器视觉的计算机主机装配定位技术研究[D]. 刘铃. 湖南科技大学, 2019(05)
  • [4]低纹理表面零件的位姿识别与视觉伺服技术研究[D]. 吴晨睿. 浙江大学, 2019(08)
  • [5]基于双目视觉的焊接零件位姿误差检测方法研究[D]. 胡国勇. 深圳大学, 2016(05)
  • [6]基于显微视觉的微球质量检测与筛选方法研究[D]. 戴昌盛. 哈尔滨工业大学, 2016(02)
  • [7]基于视频序列的行人计数算法研究与实现[D]. 仝林林. 太原理工大学, 2014(02)
  • [8]人眼检测与跟踪的方法及应用研究[D]. 孟春宁. 南开大学, 2013(06)
  • [9]民机ISS系统中红外/可见光的跑道监视算法研究[D]. 徐悦. 上海交通大学, 2012(07)
  • [10]基于图像的酵母菌生长分析与筛选技术研究[D]. 吕丹凤. 杭州电子科技大学, 2012(10)

标签:;  ;  ;  ;  ;  

基于特定椭圆拟合的符号化目标轮廓跟踪方法
下载Doc文档

猜你喜欢