什么是图像显著性检测测里groundtruth图片怎么得到

工具类服务
编辑部专用服务
作者专用服务
一种基于深度学习的自然图像中显著区域的检测方法
申请(专利)号:
申请日期:
公开(公告)日:
公开(公告)号:
主分类号:
G06K9/66,G06K9/00,G,G06,G06K,G06K9
G06K9/66,G06K9/00,G,G06,G06K,G06K9,G06K9/66,G06K9/00
申请(专利权)人:
西北工业大学
发明(设计)人:
韩军伟,闻时锋,张鼎文,郭雷
主申请人地址:
710072 陕西省西安市友谊西路127号
专利代理机构:
西北工业大学专利中心 61204
国别省市代码:
一种基于深度学习的数据图像中显著区域的检测方法,其特征在于步骤如下:步骤1、提取任意一幅待检测图像数据的视觉特征:对任意一幅待检测图像数据进行下采样,然后进行N维特征的提取:1.对下采样后的图像数据提取图像RGB通道的每个通道的特征值;2.将下采样后的图像数据从RGB颜色空间转换到LAB颜色空间,并提取LAB颜色空间三个通道中每个通道的特征值;分别计算L通道在灰度级参数bin1=8的直方图HL,A通道在灰度级参数bin2=16时的直方图HA,B通道在灰度级参数bin3=16时的灰度分布直方图HB,利用下述公式计算HL,HA,和HB三个直方图融合后的LAB颜色直方图Q:Q=(HL-1)*bin2*bin3+(HA-1)*bin3+HB+13.将下采样后的图像数据从RGB颜色空间转换到HSV颜色空间,分别计算H通道在灰度级参数bin=8和S通道在灰度级参数bin=8下的直方图;4.采用ITTI算法提取图像数据的方向,亮度,颜色对比度三类特征;5.计算下采样后图像数据在4个方向3个尺度下的可控金字塔子频带特征;6.采用SR,MZ,GBVS算法计算下采样后图像数据的显著图,并以显著图为显著特征;7.对下采样后图像数据提取紧密度特征;8.将下采样后图像数据用窗口为[w,w],偏差为x的高斯低通滤波器平滑,然后采用的Leung-Malik滤波器算法,计算平滑后图像的Leung-Malik滤波器最大响应特征;所述整数w为5~10;所述x为0.25~2.5;9.计算下采样后图像数据中各个像素点到图像中心像素点的欧氏距离,然后归一化到[0,1]之间得到中心偏置特征;10.采样水平线检测算法计算下采样后图像数据的水平线特征;11.采样人脸检测算法提取下采样后图像数据的人脸特征;12.采样目标银行特征提取算法提取下采样后图像数据的在行人,汽车,花朵,交通标志四种滤波模板下的特征;将以上提取的特征构成特征矩阵[P,P,N],并将特征矩阵中每一维特征对应的二维矩阵[P,P]转化为长度为P*P的列向量,由此得到新的二维特征矩阵的维数为[P*P,N];其中:P为下采样后图像的长或者宽;步骤2:利用深度学习中的深度玻尔兹曼机模型,以步骤1得到的二维特征矩阵为输入样本,并提取深度玻尔兹曼机学习的高层特征,并送入softmax分类器进行分类,以分类器对每一个像素点预测为正样本的概率值作为此像素点的显著值,由此得到长度为P*P的显著值列向量,缩放回采样后测试图像的大小,此采样后测试图像的显著图大小为[P,P];最后对得到的显著图像进行归一化操作,并缩放到采样前测试图像的尺度,得到此测试图像的最终显著图;所述深度玻尔兹曼机和softmax分类器训练:随机选取Z幅图像样本,参照步骤1的特征提取过程,对每幅下采样后的样本图像进行特征提取,得到每幅样本图像的特征矩阵维数为[P&sub&y&/sub&,P&sub&y&/sub&,N&sub&y&/sub&];按照采样后每幅样本图片的Ground Truth中像素点的显著值大小进行由大到小的排序,在排序结果的前q%中随机选择数量在10~40之间的正样本点,在排序结果的后k%随机选取数量在10~40之间的负样本点;其中q取值为5~20,k取值为30~70;对于每一个随机选取的样本点来说,它对应N维的特征向量,每个样本的长度为N,得到矩阵维度为[R,N]的样本矩阵,R为样本的数量;并对样本矩阵采用ZCA白化对样本矩阵进行去冗余处理,然后用处理后的样本训练具有多个隐层的深度玻尔兹曼机以进行高层特征学习,并将带有标签信息的高层特征送入softmax分类器进行训练,并利用反向传播算法反向调整深度玻尔兹曼机和softmax分类器的学习参数,以此来实现模型较高的预测和分类能力。
法律状态:
公开,公开
相关检索词
万方数据知识服务平台--国家科技支撑计划资助项目(编号:2006BAH03B01)(C)北京万方数据股份有限公司
万方数据电子出版社 上传我的文档
 下载
 收藏
这是一个分类齐全的医学资料库:包括内科;外科;其他临床学科;中医科;基础医学;及辅助科室(影像学、医学检验科)等等
 下载此文档
正在努力加载中...
基于生成模型与判别模型的联合显著性检测
下载积分:1700
内容提示:基于生成模型与判别模型的联合显著性检测
文档格式:PDF|
浏览次数:7|
上传日期: 01:39:15|
文档星级:
该用户还上传了这些文档
基于生成模型与判别模型的联合显著性检测
官方公共微信君,已阅读到文档的结尾了呢~~
图像显著性计算模型的研究
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
图像显著性计算模型的研究
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer--144.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口多核学习框架下多线索融合的显著性区域检测算法
徐丹, 于化龙, 段先华, 张绛丽, 左欣. 多核学习框架下多线索融合的显著性区域检测算法[J]. 江苏科技大学学报(自然科学版), 1-598
XU Dan, YU Hualong, DUAN Xianhua, ZHANG Jiangli, ZUO Xin. Saliency region detection method based on multi cuesfusion and multi kernel learning[J]. Journal of Jiangsu University of Science and Technology (Natural Science Edition),2016,(6): 591-598&&
DOI:10.3969/j.issn.16.06.014
Permissions
多核学习框架下多线索融合的显著性区域检测算法
江苏科技大学 计算机科学与工程学院, 镇江 212003
作者简介: 徐丹(1981-),女,博士,讲师,研究方向为模式识别、显著性检测.E-mail:
基金: 国家自然科学基金资助项目(); 江苏省自然科学基金资助项目(BK,BK); 江苏省高校自然科学研究面上项目(16KJB52009,15KJB520008).
针对自底向上的显著性检测算法中存在的底层特征表达力弱、产生的显著图存在噪声等问题,提出了一种多核学习框架下多线索融合的显著性区域检测算法.首先,提出全局对比度和层次空间两种自底向上的显著性线索,产生的显著图为弱显著图;其次,以弱显著图为基础,得到正样本和负样本,每个样本用颜色和纹理特征表示;最后,在多核学习框架下进行多线索融合,得到自上而下的强显著图.在公开数据集上进行的实验结果表明,文中算法优于流行的显著性检测算法,可得到更高的准确率和查全率.
显著性检测;
全局对比度;
层次空间显著性;
中图分类号:TP391
文献标志码:A
文章编号:16)06-0591-08
Saliency region detection method based on multi cuesfusion and multi kernel learning
YU Hualong,
DUAN Xianhua,
ZHANG Jiangli,
School of Computer Science and Engineering, Jiangsu University of Science and Technology, Zhenjiang 212003, China
The bottom-up saliency detection methods suffer from two problems: weak discriminative ability of image low-level features and noisy saliency maps. To overcome the problems, we proposed a multi kernel saliency detection framework in which multi cues are fused. First, two bottom-up saliency detection methods, global contrast and hierarchy spatial, are proposed to ge then the training samples are obtained from the weak saliency maps and are expressed by low-level color
finally, the bottom-up saliency cues are fused in the multi kernel saliency detection framework and a strong and top-down saliency map is obtained. The experiments on public datasets show that our method achieves better results with higher precision and recall compared to other popular saliency detection methods.
saliency detection;
global contrast;
hierarchy spatial saliency;
multi kernel learning
显著性是组成场景的成分吸引人类视觉注意的能力.根据信息处理层次, 可将显著性区域检测算法分为自底向上和自上而下两类[].自底向上的显著性检测利用图像底层特征模拟、刻画人类视觉注意机制的不可预测性、独特性和可区分性.文献[]使用稀疏直方图简化图像颜色, 计算Lab颜色空间中像素间的颜色距离, 提出了基于直方图对比度(HC)的显著性算法, 接着利用基于图的分割方法将图像划分为区域, 用稀疏直方图计算区域对比度, 实现RC算法.文献[]提出上下文感知(context-aware, CA)的显著性检测方法, 通过计算图像块与最为相似的K个图像块的颜色和空间位置的距离, 得到该图像块的显著值.文献[]介绍了一种基于对比度的显著性检测滤波器, 通过区域唯一性以及空间分布来估计图像的显著性.尽管自底向上的显著性检测算法在对简单图像的场景分析、内容感知编辑等方面取得了很大成功.但该类方法对复杂图像的检测结果并不理想, 主要在于缺乏先验知识的引导, 底层特征表达能力有限; 此外, 此方法过分依赖底层细节特征, 导致显著图中噪声较多[].自上而下的显著性检测也称任务驱动的显著性目标检测算法, 该算法依赖于场景内部的结构、事物本身的先验知识等[, ].文献[]提出了一种基于贝叶斯模型的自上而下的方法, 通过融合自上而下以及自底向上两种信息计算局部显著性.文献[]构建了一种统一的显著性检测模型, 该模型基于低秩矩阵理论, 结合了底层特征与高层先验信息.文中提出一种多核学习框架下多线索融合的显著性检测方法:将由自底向上的算法产生的显著图称为显著性线索, 将其作为自上而下显著性学习训练样本; 在自上而下的显著性学习过程中采用多核学习方法得到分类器, 将图像分为前景和背景区域.该方法同时考虑了自底向上和自上而下的显著性, 克服了底层特征表达能力有限和由于过度关注底层特征而引起的显著图噪声问题.1 算法文中所提算法流程如.首先采用全局对比度和层次空间这两种显著性检测算法得到自底向上的弱显著图, 也称显著性线索.在此基础上得到训练样本, 每个样本用颜色特征Lab和纹理特征LBP(local binary patterns)表示, 分类器的核函数采用线性核和高斯核, 由此得到4种单分类器.通过多核学习将单分类器融合成强分类器作用于原图, 得到自上而下的强显著图, 即为最终的显著图.图1Fig.1 图1 算法流程Fig.1 Flowchart of the proposed method1.1 全局对比度显著性全局对比度度量了某一区域和图像整体在特征空间中的距离, 反映了区域的稀缺性.文中采用颜色属性描述子进行区域表示.1) 颜色属性描述子颜色属性是人类为自然界中的颜色赋予的名称, 即Color Name (CN).Berlin和Kay[]在语言学研究中认为英语包含了11种基本颜色, 即黑色、蓝色、棕色、灰色、绿色、橙色、粉色、紫色、红色、白色和黄色.CN描述子是一个11维的向量, 表示对于给定的像素值, 11种颜色属性出现的概率.区域R的CN描述子是区域中所有像素的颜色属性的平均值, 其定义如下:CN={p(cn1|R), p(cn2|R), …, p(cn11|R)} (1)p(cni|R)= 1N∑x∈Rp(cni|f(x)) (2)式中:x是区域R中的像素; f(x)是x在Lab空间的像素值, 像素总数为N; p(cni|f(x))是给定f(x)时, 颜色属性i出现的条件概率, 这种颜色属性和像素值之间的对应关系的训练过程详见文献[].是图像的CN特征表示, 其中横轴为11种颜色属性, 纵轴为颜色属性出现的概率.图2Fig.2 图2 图像的CN特征表示Fig.2 CN features of an image2) 全局对比度计算以区域为单位计算该区域相对于图像中其他区域在颜色属性特征空间中的对比度.文中采用基于像素分配的分割方法:给定像素x, 根据颜色属性训练中获得的p(cni|f(x))可知x属于不同颜色属性的概率为{p(cn1|x), p(cn2|x), …, p(cn11|x)}, 将x分配至具有最大概率的颜色中.像素分配后在图像中形成11(或更少)个颜色聚簇, 将每个聚簇转化为二值图, 完成区域分割, 过程如.图3Fig.3 图3 基于颜色分配的图像分割Fig.3 Image segmentation based on pixel assignment区域ri的全局对比度记为该区域的显著值, 定义为它和图像中其他区域在颜色属性特征空间中的距离. Sri= ∑rj≠riDc(rj, ri), Dc(r1, r2)=D(CN1, CN2) (3)全局对比度产生的显著图实例如.图4Fig.4 图4 全局对比度产生的显著图实例Fig.4 Saliency maps produced by global contrast1.2 层次空间显著性全局对比度只考虑了同一尺度区域间颜色特征的差异; 若在不同层次上结合空间分布与颜色特征, 则会取得更优的显著性检测效果[].层次空间显著性算法将图像划分为像素→ 超像素→ 类→ 背景区域4个层次, 考虑不同层次上的显著性度量, 层次空间结构如.图5Fig.5 图5 层次空间结构Fig.5 Architecture of hierarchy spatial saliency1) 层次划分首先, 采用Quick shift核密度估计算法进行超像素划分, 结果如(b)所示; 接着, 采用仿射传播聚类将所有超像素作为初始聚类中心, 构造各超像素在Lab颜色空间的相似度矩阵, 通过迭代不断自适应地产生颜色聚类, 如(c); 然后, 根据聚类的类内、类间离散度和接触边界的超像素的个数, 得到属于背景区域的聚类, 如(d)、(e); 最后, 计算超像素和背景类之间的颜色距离, 得到每个超像素的显著值, 分配至其中的每个像素, 从而得到全分辨率的显著图, 如(f).图6Fig.6 图6 层次空间显著性示意图Fig.6 Visual examples of hierarchy spatial saliency2) 背景区域估计边界背景假设:根据大部分图像边界属于背景这一现象, 设定超像素包含的像素点与图像边界的最短距离在10个像素以内的为边界超像素, 即背景超像素, 由此产生的背景区域如(d)所示.类内空间离散度:假设经过仿射传播聚类后, 图像中第k个类为Ck, 其中包含n个超像素.则类Ck的类内空间离散度为该类中的所有超像素的空间中心spi和Ck的空间中心uk的距离之和, 引入超像素中的像素个数w作为权重:V(Ck)= 1|Ck|∑i=1nwi(spi-uk)2, |Ck|= ∑i=1nwi (4)类间空间离散度, 也称类间相对离散度:假设类Cl的空间中心为ul, 则类Ck相对于Cl的类间离散度为Ck中所有超像素的空间中心和Cl的空间中心的距离之和:VR(Ck, Cl)= 1Ck∑i=1nwi(spi-ul)2(5)设N为图像中聚类的个数, 则类Ck的类间相对离散度为:VR(Ck)= 1N-1∑k≠lVR(Ck, Cl) (6)综合考虑以上3个要素, 如果Ck的类内空间离散度、类间空间离散度和接触到图像边界的超像素数目大于所有类的均值, 则初步认定Ck属于背景类, 所有的背景类组成先验背景B, 如(e)所示.3) 显著性计算同一聚类中的超像素在吸引视觉注意时略有不同, 因此, 文中以超像素为单位计算显著值.计算超像素sp与背景超像素在CIELab颜色空间的距离, 距离越大, 表明sp相对于背景B越显著.将sp的显著值分配至其中的各像素, 得到全分辨率的显著图, 如(f)所示.1.3 多线索融合的显著性检测不同显著性线索的融合是一个值得深入探讨的问题.线性融合的方式简单易行, 但无法达到最优效果.文献[]为了增加空间显著性的权重, 将其进行指数变换后再与颜色特征显著性融合.文中提出自上而下的学习框架, 将自底向上的显著性线索产生的弱显著图作为训练样本进行分类器的训练, 继而将分类器应用到输入图像中, 得到强显著图.在此过程中, 一方面完成了多显著性线索的融合, 另一方面弥补了自底向上的显著性中底层特征表达能力弱、显著图存在噪声的问题.将全局对比度、层次空间算法得到的显著图作为弱显著图, 提取其中的目标区域作为正样本, 随机采样背景区域作为负样本, 样本的生成方法参见文献[].综合利用多种不同的特征可增强对区域的表达能力, 进而提高检测和分类的精确度.文中同时利用Lab和LBP进行样本表示.核函数的选择是利用SVM分类的难点问题, 特别是在数据集庞大、图像各异性强、目标类不确定的情况下尤为突出.为解决这一问题, 本文采用多核学习方法, 即将每个单核、单特征的SVM作为弱分类器, 通过多核融合得到强SVM分类器.假设由弱显著图得到的训练样本集合为{ri, li }i=1H, 其中ri为训练样本, li为对应的二值标签, H为训练样本数量.多核学习是对单核分类器的加权组合, 则多个SVM核函数{km }m=1M的线性加权可表示为:k(r, ri)= ∑m=1Mβ mkm(r, ri),
∑m=1Mβ m=1 (7)式中:M为单分类器的数量, 由于文中采用两种特征表示和两种核函数, 因此M=2× 2=4; β m为对应核函数的权重.对于不同的特征集合, 目标函数可转换为:Y(r)= ∑m=1Mβ m ∑i=1Hailikm(r, ri)+ b?(8)式中:α i为拉格朗日乘子;
b?为标准SVM中的偏置常数; 参数{α i}、{β m}以及
b?可以通过联合优化过程求解.将该分类器应用于超像素分割后的图像, 可得到最终的显著图.由本文算法得到的各组成成分产生的显著图以及最终的显著图如, 图中第1列为原图, 第2列为全局对比度产生的显著图, 第3列为层次空间产生的显著图, 第4列为多核融合算法产生的强显著图, 第5列为真值图.图7Fig.7 图7 显著性检测结果Fig.7 Visual examples of saliency detection2 结果与分析为了验证算法的有效性, 文中在两个Benchmark数据库MSRA-1000和SOD上进行了实验.MSRA-1000是评价显著性目标检测效果优劣最常用的数据库[], 是MSRA数据库的子集.SOD则来自于Berkeley图像分割数据库[], 每幅图像包含一个或者多个显著性目标, 且目标尺寸差别较大, 被公认为是最具挑战性的数据库.这2个数据库中所有的图像都由人工标注出真实值(Ground Truth), 以便能进行客观的性能评估.将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[]、PCAS[]、SF[]、GS-GD[]、SVO[]、RC[]、RA[]、MSSS[]、CA[]、FT[](按发表时间顺序由新到旧排列))作比较, 其中有些方法的结果由原作者提供, 有些结果则通过运行作者公开的源码后得到.2.1 MSRA-1000数据集比较由于MSRA-1000数据库使用最为广泛, 文中详细比较了所提算法与10种显著性目标检测方法在该数据集上的准确率-查全率(PR)曲线、自适应阈值分割后的F-measure值、平均绝对误差MAE柱状图等3种指标.本文的最终算法记为MKF(multi kernel fusion), 其中基于颜色属性的全局对比度产生的显著性记为CNGC(global contrast based on color name)、层次空间算法产生的显著性记为HSS(hierarchy spatial saliency).1) PR曲线比较采用固定阈值法获得二值图, 与人工标注的显著性区域比较, 得到准确率和查全率, 改变阈值的取值(0≤ T&#x0)形成准确率-查全率曲线.由可知, HSS算法的结果明显优于CNGC算法, 这是因为CNGC算法仅考虑颜色特征之间的对比度, 对颜色特征不显著的目标检测效果不理想; 而HSS算法同时考虑了超像素、聚类和背景区域等不同层次上的空间分布特征以及超像素与背景的颜色差异, 因此可得到更好的检测结果.MKF算法相较两种自底向上的显著性检测方法有明显提升, 这主要有两个原因:一是在样本提取阶段, 设置阈值Th和Tl, 在显著值大于Th的区域提取正样本, 在显著值小于Tl的区域产生负样本, 从而排除了弱显著图中的不确定部分; 二是在训练阶段采用多核融合的方式, 弥补了单独使用线性核或高斯核的不足.在与其他算法的比较中, 本文最终算法MKF在PR曲线图上的结果优于其他算法, 当查全率低于0.9时, 在同样的查全率处, MKF比其余所有算法的准确率都高.值得注意的是, 当查全率在[0.9, 1]时, MKF的准确率略低于近年来表现较优的几种算法(GC、PCAS、SF和GS-GD); 查全率从1变化为0.9时, MKF的准确率一直以很陡峭的斜率攀升, 而不像上述较优的几种算法, 准确率上升变化是平缓的.图8Fig.8 图8 本文算法和其余10种算法在MSRA-1000数据集上的PR曲线比较Fig.8 Precision-Recall curves on MSRA-1000 dataset compared with ten state-of-the-art methods2) F-measure比较采用自适应分割策略, 将阈值T设置为图像中所有像素点的平均显著值的2倍, 将分割后的图像与真值图比较, 得到平均准确率、查全率和F-measure.计算F-measure时, 使准确率的权重高于查全率, 即:F-measure=
(1+0.3)×准确率×查全率0.3×准确率+查全率(9)如, MKF的F-measure值最高, 为0.879 5; HSS的次之, 为0.846 9; CNGC的F-measure值为0.7916.经分析可知, F-measure度量与PR曲线基本一致, 即HSS的检测效果明显优于CNGC, 而MKF的效果在所有算法中最优.图9Fig.9 图9 本文算法和其余10种算法在MSRA-1000数据集上的F-measure值比较Fig.9 F-measure on MSRA-1000 dataset compared with ten state-of-the-art methods3) 平均绝对误差MAE比较PR曲线和F-measure指标关注于查准率和查全率, 使能够给目标区域正确分配更高显著值的方法获得更高的评价结果, 却没有评估算法对非显著性区域的检测效果.文中采用平均绝对误差MAE进行了更为全面的衡量[].MAE计算了每个显著图相对于真值的平均绝对误差, MAE值越大, 说明显著图和对应的真值整体(包括显著性区域和背景区域)的误差越大; 反之, 则说明显著图与真值整体的误差越小.如, MKF的MAE值仅为0.1014, 说明MKF生成的显著图与真值图有极高的相似性.00
MKF与其余10种算法在MSRA-1000 数据集上的MAE比较 MAE on MSRA-1000 dataset compared with ten state-of-the-art methods2.2 SOD数据集比较该数据库背景较为复杂, 很多算法生成的显著图都不太理想, 各项性能评价指标均偏低.文中选取了表现较好的5种state-of-the-art算法(GC、PCAS、GS-GD、LR[]和RC)与MKF进行比较.PR曲线如1, 从图中可看出, MKF的曲线与表现最好的GS-GD方法较为接近.当查全率位于[0.3, 0.7]时, MKF的准确率最高; 而当查全率位于[0.7, 1]时, MKF的准确率略低于近年来表现较好的几种算法.11 1 本文算法和其他算法在SOD 数据集上的PR曲线比较 Precision-recall curves on SOD dataset compared with other methods22
本文算法和其他5种算法在SOD数据集上的F-measure值比较 F-measure on SOD dataset compared with other five methods如所示, 自适应阈值分割后, MKF的F-measure为0.629 2, 小于GS-GD, 但其准确率高达0.711 7, 是所有算法中最高的.3 结论文中提出一种多核多线索融合的显著性检测算法:首先提出基于全局对比度和基于层次空间的显著性线索, 然后将这两种自底向上的显著性线索在自上而下的多核学习框架下进行融合, 得到最终的显著图.在公开数据集MSRA-1000和SOD上进行的实验结果表明:本文算法产生的显著图的PR曲线、F-measure以及MAE等指标优于或接近于流行的显著性检测算法.通过对算法各组成成分的性能分析可知, 本文算法仍有改进空间, 如进一步优化全局对比度算法可使算法的总体性能得到提升.
The authors have declared that no competing interests exist.
参考文献(References)
ITTI L, KOCH C, NIEBUR E.
A model of saliency-based visual attention for rapid scene analysis[J].
[本文引用:1]
CHENG M M, ZHANG G X,
MITRA N J, et. al. Global contrast based salient region detection[C]//IEEE Conference on Computer Vision and
Pattern Recognition. Providence, RI, United States: IEEE, 2011: 409-416.
[本文引用:2]
GOFERMAN S, ZELNIK-MANOR L, TAL A.
Context-aware saliency detection[J].
[本文引用:2]
PERAZZI F, KRAHENBUHL P, PRITCH Y, et al.
Saliency filters: contrast based filtering for salient region detection[C]//IEEE Conference on Computer Vision and
Pattern Recognition. Providence, RI, United States: IEEE, 2012: 733-740.
[本文引用:4]
TONG N, LU H, RUAN X, et al.
Salient object detection via bootstrap learning[C]//IEEE Conference on Computer Vision and
Pattern Recognition. Boston, MA, United States: IEEE, 2015: 1884-1892.
[本文引用:2]
ZHANG D, HAN J, LI C, et al.
Co-saliency detection via looking deep and
wide[C]//IEEE Conference on Computer Vision and
Pattern Recognition. Boston, MA, United States: IEEE, 2015: 2994-3002.
[本文引用:1]
ZhAO R, OU Y W, LI H, et al.
Saliency detection by multi-context deep learning[C]//IEEE Conference on Computer Vision and
Pattern Recognition. Boston, MA, United States: IEEE, 2015: 1265-1274.
[本文引用:1]
ZHANG L, TONG M H, MARKS T K, et al.
SUN: a bayesian framework for saliency using natural statistics[J]. Journal of Vision, 2008, 8(7): 1-20.
[本文引用:1]
SHEN X H, WU Y.
A unified approach to salient object detection via low rank matrix recovery[C]//IEEE Conference on Computer Vision and
Pattern Recognition. Providence, RI, United States: IEEE, 2012: 853-860.
[本文引用:2]
BERLIN B, KAY P. Basic color terms: their universality and
evolution[M]. Berkeley, CA: University of California Press, 1969: 52-55.
[本文引用:1]
XU D, TANG Z, XU W.
Salient object detection based on regional contrast and
relative spatial compactness[J].
[本文引用:1]
徐威, 唐振民.
利用层次先验估计的显著性目标检测[J]. XU Wei, TANG Zhenmin.
Exploiting hierarchical prior estimation for salient object detection[J].
[本文引用:1]
ACHANTA R, HEMAMI S, ESTRADA F, et al.
Frequency-tuned salient region detection[C]//IEEE Conference on Computer Vision and
Pattern Recognition. Miami, FL, United States: IEEE, 2009: 1597-1604.
[本文引用:2]
MOVAHEDI V, ELDER J H.
Design and
perceptual validation of performance measure for salient object segmentation[C]//IEEE Conference on Computer Vision and
Pattern Recognition-Workshops. San Francisco, CA, United States: IEEE, 2010: 49-56.
[本文引用:1]
CHENG M M, JONATHAN W, LIN W Y, et al.
Efficient salient region detection with soft image abstraction[C]//Proceedings of IEEE International Conference on Computer Vision. Sydney, NSW, Australia: IEEE, 2013: 1529-1536.
[本文引用:1]
JIANG P, LING H B, YU J Y, et al.
Salient region detection by UFO: uniqueness, focusness and
objectness[C]//Proceedings of IEEE International Conference on Computer Vision. Sydney, NSW, Australia: IEEE, 2013: 1976-1983.
[本文引用:1]
WEI Y C, WEN F, ZHU W J, et al.
Geodesic saliency using background priors[C]//Proceedings of the European Conference on Computer Vision. Florence, Italy: Springer, 2012: 29-42.
[本文引用:1]
CHANG K, LIU T, CHEN H, et al.
Fusing generic objectness and
visual saliency for salient object detection[C]//Proceedings of IEEE International Conference on Computer Vision. Barcelona: IEEE, 2011: 914-921.
[本文引用:1]
RAHTU E, KANNALA J, SALO M, et al.
Segmenting salient objects from images and
videos[C]//Proceedings of the European Conference on Computer Vision. Heraklion, Crete, Greece: Springer, 2010: 366-379.
[本文引用:1]
ACHANTA R,
S&#x000SSTRUNK S. Saliency detection using maximum symmetric surround[C]//Proceedings of IEEE International Conference on Image Processing. Hong Kong: IEEE, 2010: 2653-2656.
[本文引用:1]
... 根据信息处理层次,可将显著性区域检测算法分为自底向上和自上而下两类[1] ...
... 文献[2]使用稀疏直方图简化图像颜色,计算Lab颜色空间中像素间的颜色距离,提出了基于直方图对比度(HC)的显著性算法,接着利用基于图的分割方法将图像划分为区域,用稀疏直方图计算区域对比度,实现RC算法 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
... 文献[3]提出上下文感知(context-aware, CA)的显著性检测方法,通过计算图像块与最为相似的K个图像块的颜色和空间位置的距离,得到该图像块的显著值 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
... 文献[4]介绍了一种基于对比度的显著性检测滤波器,通过区域唯一性以及空间分布来估计图像的显著性 ...
... 文献[4]为了增加空间显著性的权重,将其进行指数变换后再与颜色特征显著性融合 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
... 文中采用平均绝对误差MAE进行了更为全面的衡量[4] ...
... 此外,此方法过分依赖底层细节特征,导致显著图中噪声较多[5] ...
... 将全局对比度、层次空间算法得到的显著图作为弱显著图,提取其中的目标区域作为正样本,随机采样背景区域作为负样本,样本的生成方法参见文献[5] ...
... 自上而下的显著性检测也称任务驱动的显著性目标检测算法,该算法依赖于场景内部的结构、事物本身的先验知识等[6,7] ...
... 自上而下的显著性检测也称任务驱动的显著性目标检测算法,该算法依赖于场景内部的结构、事物本身的先验知识等[6,7] ...
... 文献[8]提出了一种基于贝叶斯模型的自上而下的方法,通过融合自上而下以及自底向上两种信息计算局部显著性 ...
... 文献[9]构建了一种统一的显著性检测模型,该模型基于低秩矩阵理论,结合了底层特征与高层先验信息 ...
... 文中选取了表现较好的5种state-of-the-art算法(GC、PCAS、GS-GD、LR[9]和RC)与MKF进行比较 ...
... Berlin和Kay[10]在语言学研究中认为英语包含了11种基本颜色,即黑色、蓝色、棕色、灰色、绿色、橙色、粉色、紫色、红色、白色和黄色 ...
... p(cni|f(x))是给定f(x)时,颜色属性i出现的条件概率,这种颜色属性和像素值之间的对应关系的训练过程详见文献[11] ...
徐威, 唐振民.
利用层次先验估计的显著性目标检测[J]. XU Wei, TANG Zhenmin.
Exploiting hierarchical prior estimation for salient object detection[J].
Effective salient object detection is still a challenging problem in computer vision. In this paper, images are processed by tree filter firstly. Then quick shift is adopted to decompose images into perceptually homogeneous superpixels. This is followed by using affinity propagation clustering to aggregate all the superpixels into representative clusters. Different from previous methods, this paper proposes a novel adaptive background prior estimation strategy. The intra-cluster and inter-cluster spatial variances of superpixels owned by some cluster are calculated, and the numbers of superpixels located along the image boundary are counted to complete the processing. Also, the strip regions of background are extracted. The objectness measure is employed to get a coarse foreground scope, which is then used to compute the spatial interactive information with all the clusters, so as to get the foreground prior. After the optimization based on connected regions, A final foreground and background prior are confirmed. A saliency map is generated by measuring the differences of CIELab color space between all the superpixels and the background and foreground prior, enhanced by salient center weighting. Experimental results on MSRA-1000 and complicated SOD databases show that the proposed method can accurately detect the whole salient object. It is superior to the 21 state-of-the-art methods, including the methods partially based on similar principles.
有效的显著性目标检测在计算机视觉领域一直是具有挑战性的问题.本文首先对图像进行树滤波处理,采用Quick shift方法将其分解为超像素,再通过仿射传播聚类把超像素聚集为代表性的类.与以往方法不同,本文提出根据各类中拥有的超像素的类内和类间的空间离散程度及其位于图像边界的数目,自适应地估计先验背景,并提取条状背景区域;由目标性度量(Objectness measure)粗略地描述前景范围后,通过与各类之间的空间交互信息,估计先验前景;再经过连通区域优化前景与背景信息.最后,综合考虑各超像素与先验背景和前景在CIELab颜色空间的距离,并进行显著性中心加权,得到显著图.在MSRA-1000和复杂的SOD数据库上的实验结果表明,本文算法能准确、完整地检测出显著性目标,优于21种State-of-the-art算法,包括基于部分类似原理的方法.
... 若在不同层次上结合空间分布与颜色特征,则会取得更优的显著性检测效果[12] ...
... MSRA-1000是评价显著性目标检测效果优劣最常用的数据库[13],是MSRA数据库的子集 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
... SOD则来自于Berkeley图像分割数据库[14],每幅图像包含一个或者多个显著性目标,且目标尺寸差别较大,被公认为是最具挑战性的数据库 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
... 将文中所提方法与10种state-of-the-art显著性目标检测方法(包括GC[15]、PCAS[16]、SF[4]、GS-GD[17]、SVO[18]、RC[2]、RA[19]、MSSS[20]、CA[3]、FT[13](按发表时间顺序由新到旧排列))作比较,其中有些方法的结果由原作者提供,有些结果则通过运行作者公开的源码后得到 ...
多核学习框架下多线索融合的显著性区域检测算法
[徐丹, 于化龙, 段先华, 张绛丽, 左欣]

我要回帖

更多关于 什么是图像显著性检测 的文章

 

随机推荐