第44卷第5期 2017年5月 计算机科学 Vo1.44 No.5 May 2017 COMPUTER SCIENCE 基于目标识别与显著性检测的图像场景多对象分割 李青 袁家政 刘宏哲。 (北京联合大学计算机技术研究所北京100101) (北京联合大学北京市信息服务工程重点实验室 北京100101)。 摘要提出了一种基于目标识别与显著性检测的图像场景多对象分割方法。该方法的步骤包括:在图像训练集上 训练语义对象的检测器,用来检测输入图像中对象的位置,标定对象的包围盒;对输入的图像进行过分割处理,得到超 像素集合,根据包围盒的位置和超像素的语义概率值计算兴趣区域;在3种稠密尺度上进行场景显著性检测,得到输 入图像的显著图;在兴趣区域内计算超像素的邻接关系,形成邻接矩阵,构建条件随机场模型,将多对象分割问题转化 成多类别标记问题,每一个对象是一种类别;以每个超像素作为场模型的节点,超像素的邻接关系对应场模型中节点 之间的连接关系,将显著性和图像特征转化为节点和边的权重值;利用图割算法,在条件随机场模型上进行优化,迭代 终止时得到像素的对象标记结果,从而实现对多个对象的分割。实验结果表明该方法效果较好。 关键词 图像分割,语义标记,对象推理 中图法分类号TP391 文献标识码A DOI 10.11896/j.issn.1002—137X 2017.05.057 Muiti-object Segmentation of Image Scene Based Oil Object Recognition and Saliency Detcteion LI Qing YUAN Jia-zheng LIU Hong-zhez (Institute of Computer Technology,Beijing Union University,Beijing 100101,China) (Beijing Key Laboratory of Information Service Engineering,Beijing Union University,Beijing 100101,China) Abstract This paper proposed a multi-object segmentation method of image scene based on object recognition and salien- cy detection.The object detector is learned on the training set,and then is used to locate the object in the test image with visualization of its bounding box.The test image is over-segmented into a set of superpixels.According to the loca— tion of bounding box and the superpixel-level propobilities,the region of interest is fixed.Then,a saliency map is ob— tained through a three-scale saliency detection.In the region of interest,a eR1c model is established among the neighbo- ring superpixels,whose nodes indicate the superpixels and edges indicate their neighborhood.The saliency of a superpk xel is embedded into the weight of relative node,and the feature difference between two neighboring superpixels is em— bedded into the weight of relative edge.Thus,the multi-object segmentation task is transformed into a multi—labeling task.Finally,the CRF formulation is optimized usig ngraph cut algorithm tO get the multkobject segmentation result. The experimental results show the good performance of our method. Keywords Image segmentation,Semantic labeling,Object reasoning 1 引言 在科技发展的推动下,图像场景内容的理解、处理、加工 逐渐发展为计算机视觉、模式识别、人工智能、虚拟现实等领 种语义类别的对象有可能表现出不相似的外观特征,不同语 义类别的对象也有可能表现出相似的外观特征,这为计算机 识别出不同语义类别的对象并准确分割出对象的轮廓区域带 来了挑战。 图像场景语义分割的准确定义是为图像中的每一个像素 赋予一个语义类别的标记,从而将图像场景中不同的对象内 容识别并且分割出来,它是建立在识别的基础上的。2006 年,微软剑桥研究院的Shotton等提出了语义标记的概念,并 域及其交叉方向的国际前沿研究热点。其中,图像场景语义 分割是图像场景内容理解的关键问题,它涉及到很多应用行 业,如智慧旅游、智能交通、公共安全、影视娱乐等;同时它也 是难点问题,表现在:由于图像内容外观特征变化多样,同一 到稿日期:2016—08—07返修日期:2016—11—13 本文受国家自然科学基金(61502036),北京市教委科技计划一般项目(KM201611417015), 北京市信息服务工程重点实验室开放课题(Zk20201502)资助。 李青(1983一),女,博士,讲师,CCF会员,主要研究方向为计算机视觉、图像处理,E-mail:liqingl0@buu.edu.cn(通信作者);袁家政(1971一), 男,博士,教授,主要研究方向为图形图像处理、文物遗迹的数字化处理、数字博物馆等;刘宏哲(1971一),女,博士,教授,主要研究方向为图像 处理、多媒体语义计算等。 第5期 李青。等:基于目标识别与显著性检测的 像场景多对象分割 作用,并且对象通常具有一定的形状,以此与场景卡于质类}jlj逊 行区分。 实现r将对象识别、分割与标记集于一体的场景类别级语义 分割算法 ,该算法开创了场景语义分割的里程碑.并形成r 基于参数学习的语义分割模式。随后,许多研究工作都着力 于这种有参数的方式,涉及到街景 、白然场景 、审内场 景 等众多种类的图像场景。 随着互联网图像的爆发式增长,对图像场景内容弹解的 需求也往小断提高。传统的有参数学习方式需要固定的数据 集(包括图像数量固定和语义类别同定),住叫对海量冈像数 据时.这种方式存在着一定的局限,对于新的语义类刖,需要 重新学习模型参数。2009年,麻省理工学院的Liu等提出_r_ (a)输入图像 (b)语义分割臼标(这里只 示r马这种剥 象类别.其他类别作 为背景没有 示) (c)对象分割¨标(不同 的灰度代表不同的 对象) 一种非参数的场景解析方法,并首次将这种方法定义为语义 迁移方法 。它的思想足。利用已经标注语义信息的相似图 像将语义信息迁移到待分析的冈像上。冈此.语义迁移的关 键点足如fn『准确实现待分析图像和已标记图像之间的像素级 配。后续关于语义迁移的研究工作也主要集中在这一点 上 :。 口前, 管足有参数学习还足非参数解析,大多数场景语 义分割方法都还处于场景类别 次的语义分割阶段,即划分 出场景『14小同语义类别内容的 域,而对场景 对象的语义 分割的关注较少。当场景中出现同一类别的多个对象时,场 景类别层次的语义分割将这多个对象划分为“一个对象”。口 前.在单个对象分割领域,国内外学者提出r一些较为有效的 场景对象分割方法,包括对象抠取算法 “ ”。、对象共分割算 法 等。例女u,微软剑桥研究院的Rother等提出r对象共 分割的概念l12 13],即将多张图像中的相似对象同时分割出 来;明尼苏达大学的Bai等提出1广一系列图像和视频对象的 抠取算法 ”J.它们通过用户交互提供潜在的对象先验信 息。但是这些方法基本上都足 绕着冈像If1的视觉内容进行 划分的,缺少语义信息,继而也缺少语义所对应的先验信息, 即无法识别和理解所分割对象的语义。 随着行业技术的发展,这种类别级的划分越来越难以满 足实际应用对场景内容和对象lxi域的需求。例如.存在这样 的需求:住安仝监控系统lfJ,当场景IIl有多个人出现时,需要 算法把每个人都划分出来,以便于进一步分析。然而对于同 一个场景r{1出现多个同类别对象的情况,目前村I火的研究工 作还比较少。这种情况已经引起J 同内外学者们的关注,因 此口前的研究工作开始逐步转 向场景对象的语义分割。 例女u,澳大利亚同立大学的Gould等提出r一种基于样例随 机场模型的罔像多对象分割方法 ,北g-罗莱纳大学教堂… 分校的 I'ighe等提出_r一种基于样例检测的 域级图像解析 方法 ¨u。由于对象的语义分割难度非常大,陔方向的研究工 作还处于初始阶段,场景中对象的语义分割还有很大的提升 空间。 针对上述研究现状与存在的问题.本文提出一种基于口 标识别与 酱性检测的图像场景多对象分割方法.旨在提供 7佧确的具有语义类别信息的多对象 域划分,如陶1所示,即 住识别出对象类别的同时还划分出同一类别不同对象的区 域。本史【f】所使用的对象的定义与文献[18 19]类似,对象所 属类别在场景中所占区域较少,但足对场景 解具有重要的 图1本方法的目标。 2方法 本方法的总体流程如图2所示。对输入的冈像进 过分 割处理,得到图像的超像素集合;另一方面,对输入的 像进 行目标检测和场景语义识别,得到测试图像的对象以”《fIl定 位包 盒,根据包 盒和语义概率值计算对象的兴趣Ix域;然 后,对测试图像进行3种稠密尺度的显善性检an.I.得到像素城 显著图,并将其转化成超像素的显著性值;住兴趣 域 .构 建条件随机场模型,将多对象分割问题转化成多类刖标 川 题,兴趣 域内的超像索对应模型的节点,超像素的邻接父系 对应模型的边;利用图割算法,在条件随机场模_}}l』}。进 优 化,迭代终止时得到像素的对象标记结果,从而实 r多1、对 象的分割。 叫豫诸t ;粜 图2方法总体流程图 对于输入图像,首先进行过分割、对象检测和l}JJ始 辽fI11 计,确定对象分割的兴趣 域;另一方皿,根据 像特 计算 对象显酱性:结合兴趣 域和 著性构建图像的条件随机场 模型,并优化求解。得到带有语义信息的对象分割结果。 {玎 始语义识别的可视化效果l}】,小同灰度对应不同的语辽炎刖; 住对象语l艾分割结果可视化效果lfl,不同灰度时应小同的” 象。 2.1 基于对象识别的兴趣区域检测 为实现带有语义信息的对象分割,语义类别的 1)jIJ足小 可缺少的.它为对象分割提供了一个初始的语l义信息。利jit 31O 计算机科学 scale2.每隔3个像素点取一个像素点作为滑动窗的中心点; ale3.每隔2个像素点取一个像素点作为滑动窗的中心点。 滑动窗口的大小为7*7,在图像上进行从左至右、从上至下 的滑动检测。对于每一个窗口内的块结构 h,计算其 RGB颜色空间f}l 3个通道的颜色均值(见式(1)),并将其作 为}亥块结构中心点像素的特征值F (i, )。 R(i,j)一 f;( , )一 经典的"l'extonl ̄ost算法 在已经标注J 语义信息的训练集 图像上学习多类别识别分类器,将这些多个类别的分类器分 别作用于测试图像,得到每一个像素点属于每一种类别的概 率值,即得到测试图像的像素级语义类别概率图,其可视化效 果对应图2中的初始语义识别图。 为检测罔像【f1对象的数量,并为后续时象分割提供数量 信息,通过对象检测得到图像中对象的数量,为后续对象对割 提供数量信息,并缩小计算J 域。住训练集罔像上,利用Exetrr 1 . ( 一3:i+3,J一3:j+35 ( 一3:i-+-3, 一3: + plar-SVM j算法训练小同类别对象的分类器。针对每一种 1 , 类别的分类器,将该分类器作用于测试图像,输出多个对象包 盒,其可视化效果对应罔2中的对象检测图,可以看到部分 包 盒之间有重叠的区域。对于输出的多个对象包 盒,按 照分值进行排序,选择分值最高的前 个包围盒作为候选集。 的选取方式如下:由于待分割的对象的个数由对象检测器 确定,对于检测器所定位的对象包闱盒,如果其分值大于设定 阈值拍,一1,则认为场景rfl存在一个与之对应的对象;否则含卉 该包嗣盒。通过阈值thr1筛选,得到的包 盒数量即为k。 由于每张图像中对象的数量不同, 同的罔像具有小同的 值,为确保尽可能的准确,根据数据集的先验信息。住训练集 像上学习得到阈值 ,‘1的设定值。 为提高算法的计算效率,对图像进行过分割处理.利用 gPb算法 得到超像素集合.超像素数量级为1000左右。 住超像素级别的测试图像上确定对象的兴趣 域.兴趣 域 以外的区域小作为计算范 。对于对象c, 及其类别C,兴 趣 域的确定麻符合以下的原则: (1)语义类别C的超像素区域属于兴趣 域; (2)对象obj的超像素区域属于兴趣区域。 根据对象检测结果,遍历k个包嗣盒,选择包 盒的超像 素集合;根据初始语义概率图巾C类别的概率分布,选择概 率值大于一定阈值thr2的超像素 域;这两种 域的合集构 成厂兴趣区域。阈值thr2的取值通过学习得到:住训练集罔 像的初始语义概率图上学习C类别概率值分布,选取满足 95 以上C类刖正样本的概率值记为thr2。如罔2所/1÷,住 兴趣区域图lfl,符合条件的包围盒只有两个,分别将其椎出, 同时对象类别概率值符合条件的区域用、 透明状念标识。 rf1于包匍盒的边界与超像素的边 存住一定的间距,为 防止包围盒边界将一个超像素划分为两个 域.需要对其进 行以下处理:当包 盒的分值大于设定阈值thrl时,认为陔 包 盒足高可靠性的包嗣盒,确定处于该包围盒范 内的超 像素子集。如果一个超像素中超过一定比例的像素点处于陔 包围盒范围内,则认为该超像素处于该包嗣盒范围,在本义 中.比例值设定为80 。 2.2显著性检测 显著性反映r视觉对 菩对象的父注,在一定程度E反 映了对象的Ⅸ域,近年来湿酱性检测与对象分割的结合越来 越紧密 本文使用一种coarse-to-fine的二三级稠密尺度 著性检测,3种尺度由糟1至细分别记为 ale1. ale2.seale3。 alel,每隔4个像素点取一个像素点作为滑动窗的『Ij心点; , f1) 1 t3(i, )一 (i--3: +3,J一3: +3) , Fp (i, )一(尺(i. ),G(i,. ),B(i, )) 其一ft,size(P)为滑动窗口大小.(i, )表示 前patch的中心 点。 住3个尺度上滑动扫描,形成块结构集合{P},对所有块 结构进干亍颜色值归一化处理。如图3所示.其l}1网(a)为 atel的显著性可视化效果,图(b)为scale2的 著性可视化 效果,罔(c)为scale3的显著性可视化效果。针对 前窗口块 结构patch( , ),计算所有块结构到patch(i, )在颜色空间的 欧氏距离值并排序,在3个尺度上选择距离最近的M个块结 构.以此M个块结构的颜色平均值作为该块结构中心点像素 的 酱性值S(i,J)。根据图像的分辨率和块结构的数量级. 实验rlI M取值6O。 (a) ‘b) (c) 注:颜色越浅代表对象显著性越高.颜色越深代表对象 著性越低。 图3多尺度对象显著性检测示意网 对于滑动窗口未采样的点,它的显著性值足根据它的颜 色值以及它周围像素点的显著性值进行线性插值得到的,计 算过程如式(2)所示: s(i, )一∑l color(i,J)--color(x, )I {1一 c r,v)∈ dis(x, )} (2) 其rII.N为(i,J)的邻域集,color(・)为像素点的颜色值.dis ( Lv)为邻域点( ,Lv)到该点的距离。所有度量都进行r归 一化处理。 通过滑动窗口扫描得到的是像素级显著性,根据像素点 与超像素的对应关系,以超像素巾所有像素的 著性均值作 为该超像素的显著性值,将像素级显著性转化成超像素级 善性,为后续构建超像素级条件随机场模型提供了基础。 2.3条件随机场模型 传统语义分割方 大多通过构建条件随机场模型 (CRF)将语义分割问题转化为多类别标记问题。多对象分割 【j王可看作一个多类别标记问题,不同于语义分割的足:每一个 对象是一种标签,非对象的图像区域默认为“其他”标签。在 兴趣 域的范围内,构建超像素级条件随机场模型.每一个超 像素对应场模型的一个节点,超像素之间的邻接_火系对应场 第5期 李青,等:基于目标识别与显著性检测的图像场景多对象分割 311 模型中相应的边。条件随机场模型的能量定义如式(3)所示, 其中【,为能量单一项(Unary Term),B为能量二元项(Binary Fen'n),U包括 和U0。 (3) 度表示了不同的语义类别,颜色最深表示不确定类别的区域, 记为“void”。『=}1于本方法处理的是对象的语义标记,该数据 集没有提供相应的对象标记,因此需要对数据集中的图像进 行标注处理,手工标记同一类别的不同对象,如图4(c)所示, 不同灰度标记不同的对象,非对象区域为背景。同时,为训练 对象识别器,还需要对图像中的对象进行包围盒的标注,如图 E( )一U 。}(r)+B(r, ) 根据对象检测并处理后得到的包围盒能够确定场景中对 象的个数,即场模型的多类别标记数。超像素的显著性值反 映了它是对象的可能性,但没有反映出它属于哪一个对象。 因此,能量单一项的计算方式为:计算每个超像素属于每个对 象(包括“其他”对象)的概率值,如果超像素的显著性值大于 设定阈值thr3,则该超像素属于每个对象的概率值由3部分 构成,即该超像素的显著性值、该超像素是否属于对象的包围 盒以及该包围盒的分值,否则该超像素属于每个对象的概率 值为零;如果超像素的显著性值小于设定阈值thr3,则该超像 素属于“其他”对象,其概率值由它的显著性确定,否则概率值 为零,如式(4)所示。阈值thr3同样是通过学习选取的,在训 4(d)所示,矩形包围盒框标记了对象的范围。 (a)原始图像 (b)对象语义标记gmund t nlth 练集图像上学习对象样本区域的显著性值概率分布,选取满 足9O 以上对象区域的显著性值记为thr3。 f exp(S(r)+inbox(,‘,矗)*、,(是)), if S(,‘)>thr3 1【,0. else (c)对象分割标记ground truth (d)对象检测包围盒gmund truth 图4训练集图像标注信息 L cr 一{【。0 p‘——s‘r ’ei lsse‘r < 而坞 (4) 3.2语义识别 以马这种类别为例,在训练数据集上训练对象识别的分 类器来检测对象。根据Exemplar-SVM[ ,从8O张训练图像 中选择1O张样例图像作为training样本,这1O张图像包含 多个角度、多种颜色的对象实例。70张训练集图像作为vali— 其中, (r)代表超像素r属于对象标签k的概率值; (r)代 表超像素r属于“其他”对象标签0的概率值;S(r)为超像素 的显著性;inbox(r,k)是指示函数,指示超像素r是否处于对 象k的包围盒范围; (忌)为对象是的包围盒分值。 CRF场模型二元项的计算方式如式(5)所示。B(r, )由 该边所连接的两个超像素之间的特征差异决定;Nei(r, )指 dation,在237张测试图像上进行具有语义识别的对象检测。 在对象识别和兴趣区域检测实验中,阈值thrl设置为0.12.k 的取值不超过7,thr2设置为0.4。语义识别的准确率如表1 所列,与经典方法Ⅲ相比,本方法具有一定的优势。 表l类别识别的语义标记准确率/ 示邻接关系,取值为{1,0};超像素特征向量Fea(r)的组成包 括颜色滤波特征 ]、边界特征 ]、HOG梯度特征以及形状先 验,这些特征均为像素级;需要将其转化为超像素级;特征差 异为两个超像素在特征空间的欧氏距离; 和 是调节参数。 B(r,s)一Nei(r,s)*Smooth(r,5) 3.3对象分割 Smooth(r, )一exp(一 *l}Fea(r)一Fea( )ll+ log(II Fea(r)一Fea(s)【l+1)+c (5) 对象标记为每一个像素赋予唯一的对象标记,而语义标 记为每一个像素赋予唯一的类别标记,对象标记准确率的计 算方式与语义标记不同。将错误的语义标记赋予一个像素 时,会导致整个场景的理解出现偏差;但是将错误的对象标记 赋予一个对象的像素时,不会改变它是一个对象的事实,对象 标记的目的在于将不同的对象划分开。 利用图割(Graph-cut)算法E24-25]将CRF模型能量最小 化,待标记的对象标签包括对象检测包围盒确定的对象以及 一个“其他”标签,“其他”标签用于将兴趣区域中不属于对象 的超像素标记“剔除”。当图割优化终止时,每一个超像素都 被标记为一个对象标签。 根据对象标记的特点,采用如下方式对对象标记准确率 进行计算:1)在所有基准对象上的像素级平均准确率(Mi— AR);2)在所有识别像素上的总体像素级准确率(Ma-AP); 3)在所有基准像素上的总体像素级准确率(Ma—AR)。为计 算准确率,基于收益最大化的原则,将对象标记结果按照数据 集中的对象标记顺序进行序号转化,以便与groundtruth进行 匹配,找到对应的匹配对。表2所列为本方法与文献[18]中 方法在准确率方面的对比,可以看到,虽然Ma-AP指标比采 用文献E183中方法所得的低1O个百分点,但是在Mi-AR和 Ma—AR这两个指标上本方法优于文献E183中的方法。 3实验 3.1数据集 为验证本方法的有效性,在公共数据集poloF ”]上进行 测试。该数据集有317张图像,其中包括80张训练图像和 237张测试图像;包含6种语义类别,分别是天空、草地、人、 马、地面、树木。其中对象类别是人和马,每一张图像中至少 包含一个以上的人或者马的对象实例。该数据集提供了原始 图像和对应的语义标记图,如图4(a)和图4(b)所示.不同灰 3】2 表2性能对比与分析/ 计算机科学 2017正 [3] YAO J,FIDI ER S,URTASUN R.Describig the scene as a nwh0le:Joint obiect detection,scene classification and semantic segmentation[c]∥IEEE Conference on Computer Vision and Pattern Recognition.2O 1 2:702—709. 在实验中,条件随机场模型的 和c分别设置为10和 一[4]REN X,130 L,FOX n RGB-(D)scene labelig:nFeatures and algorithms[c]∥IEEE onfCerence on omputCer Vision and Pat— tern Recognition.2012:2759—2766. 1.3,thr3设置为0.3。图5所永为本方法的部分实验结 果,左图为输入测试图像,右图为图割算法迭代1000次后的 对象分割结果。图5中,以不同的灰度标识不同的对象,以此 类推。可以看到,在多个同类别对象出现并存在遮挡的情况 下,或者对于不同分辨尺度的对象,本方法都能较好地进行识 别和分割。 [5]LIU C,YUEN J,TORRAI BA A.Nonparametrie scene parsing: I.abel transfer via dense scene alignment[c]∥IEEE onfCerence on omputer CVision and Pattern Recognition.IEEE,2009:1972一 l979. [6] ZHANG H,XIA0 J,QUAN I .Supervised label transfer for se- mantic segmentation of street scenes[C]∥Proceedings of Euro- pean conferenee on Computer Vision.2010:561—574. [7]TIGHE J,I.AZEBNIK S.Superparsing:Scalable nonparametric image parsig winth superpixels Ec]} Proceedigs ofn European Conference on omputerC Vision.2010:352—365. [83 CHEN X,LI Q,SONG Y,et a1.Supervisd egeodesic propagation for seantmic label transfer[C]f?Proceedings of European con— ferenee on Computer Vision.2012:553—565. -19] ZHANG H,FANG T,CHEN X,et a1.Partial similarity based nonparametric scene parsing in certain environment[C]∥IEEE onfCerence on omputer CVision and Pattern Recognition.201 1: 224卜2248. [1O]PRICE B I ,MORSE B S,COHEN S Geodesic graph cut for in- teractive image segmentation[C]∥IEEE Conference on Com— puter Vision and Pattern Recognition.2010:316l一3168. [11]WU J,ZHA0 Y,ZHU J,et a1.Milcut:A sweepig lnine multiple instance larnieng paradigm for interactive image segmentation 注:以“马”这种类别为例,不同的灰度表不不同的“马”对象,其他 [C]∥IEEE Conference on Computer Vision and Pattern Recog- nition.2O14:256-263. 语义类别作为背景.没有照示。 图5实验结果图 [12]ROTHER C,MINKA T P,BLAKE A,at a1.Cosemegntation of iage pmairs by histogram matchig-inncorporating a global con— 本文实验所用的计算机性能配置:Intel i5 3.2GHz CPU; 4GB内存;64位Windows7操作系统;软件开发平台的主程 straint into turfs Ec]}}IEEE Conference on Computer Vision and Pattern Recognition.2006:993—1000. 序为Matlab2010b,调用TextonIx ̄ostl 算法的程序Vi1sual [13]VICENTE S,KOI M( ̄A)ROV V,ROTHER C.Cosegmenta- tion revisited Models and optimization Ec]f}1lth European onfCerence on Computer Vision.2010:465—479. Studio2008。Polo数据集图像分辨率约为500*350像素,本 方法在语义识别和对象分割过程中平均一张图像的处理时间 约为24s。 [-14 ̄VICENTE S,ROTHER C,KOLMC ̄OROV Object coseg- 结束语本文提出r一种基于目标识别与显著性检测的 mentation[c]∥IEEE Conference on omputer ViCsion and Pat- tern Recognition.201 1:2217—2224. 图像场景多对象分割方法,该方法将语义识别和对象分割集 成一体,同时实现了语义标记和同类别多对象的分割。未来 工作中,将会加大对象形状特征的约束作用,提高语义标记和 对象分割的准确率。 [-15 ̄BATRA D,KOWDI E A,PARIKH D,et a1.Interactively co- segmentating topically related images with intelligent scribble guidance[J].International Journal of Computer Vision,201 I, 93(3):273—292. 参考文献 -113 SH0TTON J,W1NN J M,RaTHER c,et a1.Textonboost for image understanding:Multi—class obieet recognition and segmen- [16]BAI X,wANG J,SAPIR0 G.Dynamic Color Flow:A Motion- Adaptive olCor Model for Object Segmentation in Video[C]I Proceedigs of nEuropean onfCerenee on omputer CVision.2010: 617—630. tation by jointly modeling texture,layout,and context[J].Inter— national Journal of Computer Vision,2009,81(1):2-23. [17]BAI X,WANG J,SAPIRO G.Towards tmpeorally-coherent ivdeo mattig[C]fn,International Conference on Computer Vision/ Graphics Collaboration Techniques and Applications.Mirage 2Ol1:63—74. -12] XIAO J,QUAN I Multiple view semantic segmentation for street view images[c]∥The 12th International Conference on omputer CVision.2009:686—693. 第5期 李青,等:基于目标识别与显著性检测的图像场景多对象分割 313 (上接第298页) Human Detection[-C]//IEEE Conference on Computer Vision &Pattern Recognition.2005:886—893. 在得到初步检测结果之后,利用基于区域窗口的鬼影消除提 高了算法的准确率。实验表明,与传统PBAS算法相比,改进 算法具有更好的检测效果,并具有良好的鲁棒性,适用于检测 前景的实时监控系统。 下一步工作将围绕通过减少参数和设计区域背景复杂度 以获得更好的检测结果展开。 E83 LIU X,LIU H,QIANG Z P,et a1.Adaptive Background Mode- lig Bnased on Mixture Gaussian Model口].Journal of Image and Graphics,2008,13(4):729—734.(in Chinese) 刘鑫,刘辉,强振平,等.混合高斯模型和帧间差分相融合的自适 应背景模型[J].中国图象图形学报,2008,13(4):729—734. [9]FAN W C,LI X Y,WEI K,et a1.Movig nTarget Detection Based On Improved Gaussion Mixture Model EJ].Computer Science, 2015,42(5):286—288,319.(in Chinese) 参考文献 Eli spfff 上 , ( 二4NT A A comprehensive review of back- ground subtraction algorithms evaluated with synthetic and real 范文超,李晓宇,魏凯,等.基于改进的高斯混合模型的运动目标 检 ̄ltEJ].计算机科学,2015,42(5):286—288,319. r1O]ILtYAS A,SCUTURICI M,MIGUET S Real Time Foreground- ackgrBound Segmentation Usig a Modinfied Codebook Model videosFJ].Computer Vision&Image Understanding,2014,122 (5):4—21. E2]YE F F,Xu I Real—time detection and discrimination of static objects and ghostsfJ3.Journal of Zhejiang University(Enginee- rig Scinence),2015,49(1):181—185.(in Chinese) [C]∥Proceedigsn of the 2009 Sixth IEEE International Conf-e rence on Advanced Video and Signal Based Surveillance.IEEE omputer SCociety,2009:454—459. 叶芳芳,许力.实时的静止目标与鬼影检测及判别方法EJ].浙江 大学学报(工学版),2015,49(1):181—185. [113 HOFMANN M,TIEFENBAcHER P,RIGOLL G.Backgr0ur1d segmentation with feedback:The Pixel-Based Adaptive Segmen- [3]wu D P,CHENG W P,YU S L.Camshift Object Tracking A1一 gorithm Based on inter-frame Difference and Motion Prediction ter[c]//IEEE Computer ocSiety Conference on Computer Vi— sion&Pattern Recognition Workshops.IEEE,2012:38—43. EJ].Opto-Eleetronic Engineerig,2010,37(1):55—60.(inn Chi— nese) [12]WANG H,SUTER n Bacl ̄round Subtraction Based on a Ro— bust onsCensus MethodiC]//International onfCerence on Pat— tern Recognition.2006:223—226. 邬大鹏,程卫平,于盛林.基于帧间差分和运动估计的Camshift 目标跟踪算法口].光电工程,2010,37(1):55—60. E43 BARNICH O.VAN DR0OGENBROD0K M ViBe:a universal background subtraction algorithm for video sequencesFJ].IEEE Transactions on Image Processig A Publnication of the IEEE El3]BARNICH O,VAN DR ̄ENBROEK M.Vibe:A universal background subtraction algoritm hfor video sequences[J].IEEE Transactions on Image Processig,2011,20(6):1709—1724.n r14]LI P,WU X H,HE X H,et a1.An Improved PBAS For Movig nSignal Processig Socinety,2011,20(6):1709—1724. Object Detection[J].Science Technology and Eiginee-rig,n 2015,15(27):48—53.(in Chinese) f53 CRISTANI M。MURINO Bael ̄round Subtraction with A- daptive Spatic ̄Temporal Neighborhood Analysis[-C]//The 3rd Intemational Conference on Computer Vision Theory and Appli— cations.2008:484-489. 李棚,吴晓红,何小海,等.一种改进的PBAS运动目标检测算法 口].科学技术与工程,2015,15(27):48—53. El5]KRY]AK T,KOMORKIEWICZ M,GORGON M.Real-time Foreground Object Detection Combinig the PBAS Bnackground Modelling Algorithm and Feedback from Scene Analysis Mo- [6] WEI G J,HOU z Q,LI W,et a1.Objecet trackig anlgoritm hfused itwh optical lfow detection and template matching[J].Ap— plicationReasearch of Computer,2014,31(11):3498—3501(in Chinese) dule[J].International Journal of Electronics&Telecommunica— tions,2014,60(1):53—64. 魏国剑,侯志强,李武,等.融合光流检测与模板匹配的目标跟踪 [16]WANG H,SUTER n Background Subtraction Based on a Ro— 算法EJ].计算机应用研究,2014,31(11):3498—3501 [7]DALAL N,TRIGGS R Histograms of Oriented Gradients for bust Consensus Method[C]//Internatioaln Conference on Pat— tern Recognition.IEEE Computer Society,2006:223—226.