标题 | 基于加权霍夫投票的多视角车辆检测方法 |
范文 | 李冬梅 李涛 向涛 摘 要: 针对复杂场景中车辆由于视角变化引起的检测精确度过低的问题,改进霍夫投票目标检测模型,提出一种在统一框架下通过不同权重组合发现目标最优视角并进行精确定位的方法。首先,利用一种无监督方法实现多视角车辆的子视角划分;其次,利用子视角划分结果定义霍夫投票过程中各正例样本在不同视角下的投票权重;最后,利用子视角划分和投票权重,提出一种新的适用于多视角目标检测的加权霍夫投票模型。在MITStreetScene Cars和PASCAL VOC2007 Cars兩个常用数据集上的实验结果表明,所提方法在不增加模型复杂度的前提下,有效提升了多视角目标检测精确度。 关键词: 复杂场景; 霍夫投票; 最优视角; 多视角目标检测; 子类划分; 局部线性嵌入(LLE) 中图分类号: TN911.73?34; TP391.4 文献标识码: A 文章编号: 1004?373X(2018)15?0073?06 Multi?view vehicle detection method based on weighted Hough voting LI Dongmei1, LI Tao1, XIANG Tao2 (1. School of Information Engineering, Henan Radio & Television University, Zhengzhou 450008, China; 2. School of Computer Science and Engineering, University of Electronic Science and Technology of China, Chengdu 611731, China) Abstract: For the low detection accuracy of vehicles in complex scene caused by view variation, the target detection model based on Hough voting is improved to propose an accurate location method to find the object optimal view by means of different weights combination in the unified framework. An unsupervised method is used to realize the sub?view division for the multi?view vehicles. According to the sub?view division result, the voting weight of each positive example under different views is defined in the process of Hough voting. The sub?view division and voting weight are used to propose a weighted Hough voting model suitable for multi?view target detection. The experimental results are obtained by two commonly?used datasets of MITStreetScene Cars and PASCAL VOC2007 Cars. The experimental results demonstrate that the method can improve the multi?view target detection accuracy without increasing the model complexity. Keywords: complex scene; Hough voting; optimal view; multi?view object detection; sub?class division; local linear embedding0 引 言 在现实场景中,由于目标自身移动或者拍摄位置不同,导致最终目标在图像中以不同视角呈现,这将引起目标的外观特征出现很大差异,检测此类目标也变得极度困难,如图1所示。虽然多数目标都会出现多视角问题,但基于研究价值和实用价值,本文着重考虑复杂场景中的多视角车辆检测(以轿车为例)。多视角特征在车辆上的体现最为明显,车辆检测又是智能交通相关应用的重要组成部分,为解决这个问题,研究者们提出了以下三类方法: 1) 利用手工方法或基于样本长宽比(Aspect Ratio)将训练集划分成不同子类,每个子类包含某一范围的视角变化,并为每个子类独立地建立检测模型,常见的如基于划分的每个子集训练一个HOG+SVM检测器[1?2]。目标检测领域最知名的DPM模型[3]也没有很好地解决这个问题,它依旧是利用多个组件(Component)建立一种包含多子类的混合模型,每个组件对一种视角子类负责。文献[4]对DPM做出改进,多组件之间可以共享局部部件,但前提是需预先划分样本子类。总之,此类方法成倍增加模型复杂度,并且手工划分样本是一个耗时、主观性强的工作,不同人可能对样本有不同的划分标准,这种不确定性将最终影响检测性能。 2) 基于自动子类划分方法或在学习检测器过程中嵌入无监督聚类过程。文献[5]利用目标轮廓和层次聚类算法对目标进行子类划分。文献[6]提出利用图像HOG特征和局部线性嵌入(Locally Linear Embedding,LLE)对样本进行聚类。文献[7]提出一种嵌套的Adaboost算法,外层选择某视角下有代表性的样本原型进行视角划分,内层选择有区分性的特征进行目标分类。文献[8]提出一种基于Boosting算法的树结构分类模型,在逐层划分样本特征空间的同时不断利用无监督聚类算法对样本进行聚类。该类检测算法取得了较好效果,但没有解决同类目标间视觉信息共享的问题,训练中需要大量样本。 3) 在模型中嵌入3D视角信息,并利用它估计目标视角。PSM(Partial Surface Models)[9]利用图模型将多视角下的目标部件连接起来,检测过程中通过图推理算法验证部件组合关系和整体视角的合理性。文献[10]结合标定的2D视角信息和3D合成模型中的几何信息学习多视角目标的外观模型。文献[11]结合3D模型和基于外观的投票检测模型,在投票过程中同时确定目标类别和整体视角。文献[12]利用视角标注的目标图像修正已有的3D模型,然后將其用于目标检测。上述方法能有效提高多视角目标检测性能,但3D视角信息和3D目标模型通常很难得到。 上述三类方法从不同角度解决了多视角目标检测问题,但各自均存在明显的缺陷或局限性,主要表现在: 1) 通过手工或自动聚类划分样本,并为每个视角子类学习分类模型,这样做只考虑了不同视角下目标外观特征的差异,没有有效利用多视角目标的特征共性; 2) 基于全局特征的目标模型很难表达由于视角差异引起的类内变化,基于局部部件的目标模型才是解决多视角目标检测的关键; 3) 在实际应用中,由于设备限制,3D视角信息很难采集。 针对存在的问题,本文方法以无监督子视角聚类和霍夫投票目标检测框架[13]为基础,提出一种既能体现多视角目标外观差异,又能解决多视角目标局部特征共享的加权霍夫目标检测方法,所提方法的主要创新点包括: 1) 基于局部线性嵌入(LLE)和k?means算法的车辆视角子类自动划分方法; 2) 在子视角划分基础上,定义正样例对不同视角的投票权重; 3) 结合投票权重,提出一种能自动发现最优目标视角,并进行精确定位的霍夫投票方法。 本文方法在一个统一的框架实现了多视角目标检测,同时还有效利用了不同视角目标的共享信息。 基于本文提出的加权霍夫投票目标检测方法,解决了单一模型下的多视角目标检测问题,大大提高了检测速度,并且通过有效利用不同视角子类间的共享信息,使得检测精度也得到提升,在MITstreetscene Cars[14]和PASCAL VOC2007 Cars[15]两个车辆检测数据集上的实验结果验证了所提方法的可行性和有效性。1 基于霍夫投票的目标检测框架 由于所提算法建立在霍夫投票目标检测框架上,该框架主要包括以下3部分内容: 1) 图像块集合生成和标注:收集目标图像训练集,定义局部图像块大小,并在每个训练样本中抽取若干图像块以构成局部图像块集合。注意,正样例中抽取的局部图像块需定义该图像块中心到正样例图像中心的几何偏移向量,用于构建投票单元; 2) 视觉单词训练和表达:根据局部图像块外观特征相似和正样例图像块相对目标中心几何偏移一致的原则对局部图像块集进行聚类,每个子类对应一个视觉单词,每个视觉单词记录了分类信息和目标中心位置信息; 3) 投票和检测:在测试图像中采样同样大小的图像块,并与视觉单词集匹配,根据匹配的视觉单词记录的分类信息和目标中心位置信息对可能出现目标的位置和概率进行投票,生成关于候选目标中心位置的霍夫图,并最终利用mean?shift[13]算法确定真正的目标中心。 视觉单词集可通过聚类算法[13]或随机森林[16]训练得到,本文采用随机森林生成视觉单词集。由于改进算法主要针对霍夫投票检测框架,因此需先对其通用流程做详细描述。在视觉单词集生成后,对于测试图像[G],霍夫投票检测流程为: 1) 提取预先定义大小的局部图像块[pt∈G],并利用[pt]与视觉单词匹配关系生成投票单元。[pt]对一个候选目标中心位置[h]的投票分值为[V(hpt)],其中,[h]由像素坐标和尺度大小构成,投票分值[V(hpt)]可通过与[pt]匹配关联的视觉单词所记录的分类信息和目标中心位置信息确定; 2) 遍历测试图像[G]中所有局部图像块[pt],候选目标中心位置[h]的最终投票分值为: [S(h)=pt∈GV(hpt)] (1) 3) 利用mean?shift算法在由位置坐标和尺度构成的三维霍夫投票空间找到超过阈值的极值点,并在相应的测试图像中标定目标。 由上述投票检测流程可以看出,因为视角变化会使得目标相近位置的局部图像块外观特征和相对几何偏移向量不一致,所以该方法不能解决多视角目标检测问题。2 本文方法 针对霍夫投票检测框架在解决多视角目标时遇到的问题,本文首先采用一种无监督方法对训练样本集中的正样本图像进行视角子类划分;然后给出基于划分子类计算每个正样本图像视角贡献权重的方法;最后利用视角子类划分和权重矩阵改进霍夫投票检测框架,提出适用于多视角车辆的加权霍夫投票检测方法。2.1 多视角划分及权重矩阵生成 假定训练样本图像集标记为[D=Ii=(fi,yi)Ni=1],其中,[fi]为图像特征表达(本文在进行多视角划分时采用HOG特征[1],训练视觉单词和霍夫投票时采用多通道像素特征[16]);[yi∈{-1,1}]为样本标签,[yi=-1]时,[Ii]为背景样本,[yi=1]时,[Ii]为目标样本;[N]为样本集大小。收集样本过程中,背景图像和目标图像大小一致,数量接近,且应尽量保证样本的多样性,即背景图像应包括目标可能出现的各种场景,目标图像应包括目标可能呈现的各种形态(重点考虑视角)。 为了实现多视角车辆检测,首先需要解决车辆视角划分问题,即对样本集[D]中正样本集合[D+=][Γj=(fj,yj)N+j=1]进行视角子类划分,[N+]表示正样本个数。常用的手工方法费时耗力,且主观性强,本文提出一种局部线性嵌入(LLE)[6]和k?means算法相结合的方式对多视角车辆进行视角划分,其核心思想是先利用LLE算法将图像的高维HOG特征嵌入到低维空间,然后在低维空间依据相对角度对样本进行投影和聚类,具体做法是: 1) 利用LLE算法将样本集[D+]中HOG特征表达的正样本图像(车辆)嵌入到二维空间。结果表明,HOG特征表达的多视角车辆被嵌入到二维空间后,样本点分布形成环状,沿着该环,车辆视角平稳变化; 2) 根据嵌入样本分布,在二维空间选择一个中心点,基于样本点到该中心点的相对角度,将所有样本规则化到一个圆形上,圆上相近区域样本有接近的视角; 3) 利用k?means算法对圆上样本进行聚类,最终视角相近的样本被划分到圆的同一段弧上,如图2所示,圆上每段弧代表有相近视角的一个子类。结合具体问题,本文将视角子类数K设置为8。 相比直接利用HOG特征在高维空间进行无监督聚类的做法,所提方法有两点好处:高维特征聚类困难,缺乏稳定性;聚类生成的子类不能保证视角上的一致性。通过将LLE和k?means算法相结合,既保证了生成子类中样本外观特征上的相似,也保证了它们视角的相近。 当正样本图像集的K个视角子类划分确定后,便可计算每个正样本对每个视角子类的贡献权重,以体现出各视角子类间信息的共享性和差异性。在LLE嵌入空间中,假定已划分的第[k∈{1,2,…,K}]个视角子类样本集的聚类中心为[ok],[D+]中正样本[Γj]在该空间的表达式为[f′j],则[Γj]对视角[k]的贡献权重[wjk]定义为: [wjk=1d(f′j,ok)] (2) 式中[d(f′j,ok)]为LLE嵌入空间中[f′j]与[ok]间的距离。为了保证计算的正确性,需要对正样本[Γj]在各视角子类下的贡献权重[wjk]进行归一化,以确保: [k=1Kwjk=1] (3) 可以看出,通过直接划分视角子类,并为每个子类分别建模的方法中,[wjk]取值为0或1,可视为本文所提[wjk]定义的特例,这样做最大的缺点是没有利用样本图像在多个视角子类间的信息共享,提高样本收集难度,增加处理时间。2.2 加权霍夫投票方法 传统霍夫投票方法的关键是如何在给定视觉单词集的条件下,求解测试局部图像块[pt]在候选位置[h]的投票分值[V(hpt)]。假定与[pt]匹配的视觉单词为[L],[L]中包含正样例图像块偏移向量集合[EL],通过统计[L]中包含正样例图像块所占比例得出分类概率[CL],则: [V(hpt)=1ELe∈EL12πδ?exp-(h-qt)-e22δ2?CL] (4) 式中:[EL]中每个偏移向量[e]对候选位置[h]的投票是利用高斯Parzen窗來估计,[EL]表示集合大小;[qt]为图像块[pt]的中心位置。 根据式(4),在视觉单词[L]生成后,其对应的分类概率[CL]已确定,局部图像块[pt]在候选位置[h]的投票分值主要取决于偏移向量集合[EL]中的投票单元[e],而这些投票单元是基于正样本集[D+]中图像定义的,故可建立局部图像块[pt]到[D+]中图像的映射关系。因此,利用霍夫投票分值线性累加特性,可将[V(hpt)]的定义由累加[EL]中各投票单元对位置[h]投票分值的形式改写为累加与[EL]中投票单元相关联的正样本图像[Γj]对位置[h]投票分值的形式,即: [V(hpt)=Γj∈D+Φ(hΓj,pt)] (5) [Φ(hΓj,pt)= 1ELe∈EL,e⊕Γj12πδ?exp-(h-qt)-e22δ2?CL] (6) 式中[e⊕Γj]表示[EL]中的投票单元[e]来自于[D+]中图像[Γj]。遍历测试图像[G]中所有局部图像块[pt],候选目标中心位置[h]的最终投票分值为: [S(h)=Γj∈D+ pt∈GΦ(hΓ,pt)] (7) 在式(7)中,候选位置[h]的最终投票分值是通过累计正样本集[D+]中每张图像对[h]的贡献得到的,但这种计算方法有效的前提是[D+]中样本目标视角基本一致。对于多视角目标检测,尽管来自样本集[D+]中同一张图像的所有投票单元会指向相对一致的候选位置,但由于[D+]中各样本图像视角差异过大,会导致最终投票生成的霍夫图混乱,亮点不够集中,无法准确确定目标中心位置。为了解决上述多视角霍夫投票存在的问题,本文提出在式(7)定义的投票模型中引入视角变量[k∈][{1,2,…,K}],以保证对候选位置投票的视角一致性,即: 参考2.1节定义,[K]为正例样本被划分视角子类数(本文中[K=8])。通过式(8)可知,对某一候选位置的投票都被限定在相同的视角下,解决了霍夫图混乱、亮点不够集中的问题。 求解式(8)最直观的思路是对[D+]中样本进行子视角划分,并利用每个子视角类样本分别进行投票,最大投票分值视角子类下的候选位置为最终目标中心位置。这种做法不但没有有效利用不同视角样本间的共享信息,还成倍增加计算开销。本文结合2.1节给出的[D+]中样本视角子类划分算法和视角权重定义方法,给出式(8)的计算流程如下:首先利用视角子类划分方法为[D+]中每张图像标记一个视角子类[k∈{1,2,…,K}];然后利用式(2)和式(3)计算每张图像的视角贡献权重[wjk,j∈{1,2,…,N+}];最终通过标定视角和视角贡献权重的样本集[D+],式(8)被重新定义为: [S(h,W)=maxk∈KΓj∈D+wjkpt∈GΦ(hΓj,pt)] (9) 式中[W]为[wjk]构成的大小为[N+×K]的权重矩阵。 式(9)给出了适合于多视角目标检测的候选目标中心位置分值计算模型,基于此模型,在测试图像中确定最终目标检测框的步骤为: 1) 对于一张测试图像,首先将图像进行尺度分解,假定图像尺度空间定义为[Λ=λmMm=1],[M]为离散尺度的个数; 2) 在尺度为[λm]的测试图像中密集抽样同大小的局部图像块,找到与每个局部图像块匹配的视觉单词,然后利用式(9)计算并生成该尺度上的霍夫投票图; 3) 在[(h,λm)]构成的三维霍夫空间([h=(hx,hy)],包含图像横、纵坐标位置)中,利用mean?shift算法和判定阈值确定最终目标中心位置[(h,λ′m)],并在原测试图的[h′xλ′m,h′yλ′m]位置标记大小为[Widthλ′m?Heightλ′m]的检测框。3 实 验 为了验证方案的可行性和有效性,在MITStreetScene Cars[15]和PASCAL VOC2007 Cars[15]两个包含现实场景中多视角车辆的数据库上进行相关实验,计算相应性能统计指标并与相关算法(ACF[17],DPM[3],Xiang[18],HF[16],HC[19])进行比较。实验结果表明,对于多视角车辆检测问题,相比其他方法,本文方法能取得更好的结果,特别地,所提算法改进了传统投票检测框架中投票计算量大、生成的霍夫图能量过于分散等问题。 本文算法用到的樣本图像大小都标准化为128×64,视角子类数定义为8。为了生成图像块集,在训练集中每个样本图像上随机抽取50个大小为16×16的图像块,并为每个图像块标定类别标签和相对目标中心的偏移向量(只对正样本)。利用随机森林生成视觉单词时,森林中树的棵数为20,森林的最大深度为15。在树节点分裂终止条件中,分裂节点中最少图像块个数为20,最大类纯度为99.5%,节点中正样例图像块偏移向量的偏离平方差最小为30。对于多尺度问题,每张测试图的尺度空间设定在0.1~0.8的20个尺度上。本文实验平台为:Intel CoreTM i5 3.2 GHz CPU,16 GB RAM,Matlab 2012,Window 64?bit OS。 在检测过程中,对于超过检测阈值的候选检测框,遵循PASCAL协议[3],即该检测框与目标真实区域(通过测试集的标注信息给出)交并比要超过50%,则认为是一次成功的检测。3.1 数据集 MITStreetScene Cars:该数据集包含3 547幅图像,并从中标定出5 799辆车。这些图像包含车辆可能出现的各种场景,同时光照条件也有变化。在标定的车辆中,基本都是常见轿车,但是形状会有些差别,其成像视角也基本包括了可能出现的所有角度。数据集一半用于训练,一半用于测试,所需负样本图像从PASCAL VOC2007中抽取。 PASCAL VOC2007 Cars: PASCAL VOC被公认是目标检测领域最难的数据集,在该数据库的2007版本中总共有10 000幅图像,包含20种生活中常见的目标。对于车辆,该数据集中各有625个样本用于训练和检测。为了使训练样本覆盖更多视角范围,将每个训练样本进行水平翻转,并将翻转得到的图像放入训练集中。 两测试集上检测实例如图3所示。3.2 实验结果 对于MITStreetScene Cars数据集,各算法性能通过精度(Precision)?召回率(Recall)曲线描述(简称PR曲线)。准确率和召回率是两个相互关联但又相互制约的统计指标,单个指标无法衡量算法性能,须计算出每条PR曲线下的面积(Area Under Curve,AUC),并以此作为算法性能度量指标,曲线AUC越大,算法效果越好。图4给出了各算法的检测性能曲线,可以看出,所提方法达到较好的检测性能,超过著名的DPM[3]和HF[16]算法,以及最近提出的HC[19],Xiang[18]和ACF[17]方法。DPM利用多组件来解决多视角问题,但组件划分只是通过目标长宽比进行,相似做法还包括Xiang。HF,HC方法和所提方法都属于霍夫投票检测框架,但它们在模型中没有特别加入视角因子。 PASCAL VOC2007 Cars数据集上相关算法的比较沿用已有方法通用的指标,即平均准确率(Average Precision,AP),AP通过统计不同Recall下,Precision的平均值(即AP)来衡量算法好坏,AP越高,算法性能越好。相关算法比较结果见表1,可以看出,所提方法检测性能接近HC方法,相比于DPM,HF方法,所提算法检测性能则有明显优势。关于与HC之间的差距,其主要原因是PASCAL VOC2007 Cars数据集中车辆除了各种视角变化,还包含大量被遮挡、被截断的车辆,HC方法利用上下文信息,增强了对遮挡、截断车辆的识别能力。4 结 论 本文在统一框架下,利用正例样本对不同视角下目标的贡献权重提出一种适用于多视角车辆的霍夫投票检测模型。对于样本视角划分问题,不同于手工划分或基于长宽比划分的方法,所提LLE+k?means划分方法避免了人工划分的主观性,有效利用了目标外观特征和视角信息。在投票过程中,通过正样例图像投票加权和视角寻优,在一个框架下解决了多视角目标检测问题,同时还有效利用了多个视角目标提供的信息。实验结果表明,本文方法在不增加时间开销的情况下,显著提高了多视角车辆检测的准确性。 参考文献 [1] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection [C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition. San Diego: IEEE, 2005: 886?893. [2] WANG X, HAN T X, YAN S C. An HOG?LBP human detector with partial occlusion handling [C]// 2009 IEEE International Conference on Computer Vision. Kyoto: IEEE, 2009: 32?39. [3] FELZENSZWALB P F, GIRSHICK R B, MCALLESTER D, et al. Object detection with discriminatively trained part?based models [J]. IEEE transactions on pattern analysis and machine intelligence, 2010, 32(9): 1627?1645. [4] PIRSIAVASH H, RAMANAN D. Steerable part models [C]// 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence: IEEE, 2012: 3226?3233. [5] SEEMANN E, LEIBE B, SCHIELE B. Human multi?aspect detection of articulated objects [C]// 2006 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2006: 1582?1588. [6] KUO C H, NEVATIA R. Robust multi?view car detection using unsupervised sub?categorization [C]// 2009 IEEE Workshop on Applications of Computer Vision Workshop. Snowbird: IEEE, 2009: 1?8. [7] SHAN Y, HAN F, SAWHNEY H, et al. Learning exemplar?based categorization for the detection of multiview multi?pose objects [C]// 2006 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2006: 1431?1438. [8] WU Bo, NEVATIA R. Cluster boosted tree classifier for multi?view, multi?pose object detection [C]// 2007 IEEE International Conference on Computer Vision. Rio de Janeiro: IEEE, 2007: 1?8. [9] KUSHAL A, SCHMID C, PONCE J. Flexible object models for category?level 3D object recognition [C]// 2007 IEEE Confe?rence on Computer Vision and Pattern Recognition. Minneapolis: IEEE, 2007: 1?8. [10] SHRIVASTAVA A, GUPTA A. Building part?based object detectors via 3D geometry [C]// 2013 IEEE International Confe?rence on Computer Vision. Sydney: IEEE, 2013: 1745?1752. [11] GLASNER D, GALUN M, ALPERT S, et al. Viewpoint?aware object detection and pose estimation [C]// 2011 IEEE International Conference on Computer Vision and Pattern Re?cognition. Barcelona: IEEE, 2011: 1745?1753. [12] HAO S, MIN S, LI F F, et al. Learning a dense multi?view representation for detection, viewpoint classification and synthesis of object categories [C]// 2009 IEEE International Conference on Computer Vision and Pattern Recognition. Kyoto: IEEE, 2009: 213?220. [13] LEIBE B, LEONARDIS A, SCHIELE B. Robust object detection with interleaved categorization and segmentation [J]. International journal of computer vision, 2008, 77(1/3): 259?289. [14] BILESCHI S M. StreetScenes: towards scene understanding in still images [D]. Cambridge: Massachusetts Institute of Technology, Department of Electrical Engineering and Computer Science, 2006. [15] EVERINGHAM M, VAN GOOL L, WILLIAMS C K I, et al. The PASCAL visual object classes challenge [DB/OL]. [2007?02?12]. http://host.robots.ox.ac.uk:8080/pascal/VOC/voc2007/index.html,2007. [16] GALL J, LEMPITSKY V. Class?specific Hough forests for object detection [C]// 2009 IEEE International Conference on Computer Vision and Pattern Recognition. Miami: IEEE, 2009: 1022?1029. [17] APPEL R, PERONA P, BELONGIE S. Fast feature pyramids for object detection [J]. IEEE transactions on pattern analysis and machine intelligence, 2014, 36(8): 1532?1545. [18] 向涛,李涛,赵雪专,等.基于随机森林的精确目标检测方法[J].计算机应用研究,2016,33(9):2837?2840. XIANG T, LI T, ZHAO X Z, et al. Random forests for accurate object detection [J]. Application research of computers, 2016, 33(9): 2837?2840. [19] LI T, YE M, DING J. Discriminative Hough context model for object [J]. Visual computer, 2014, 33(11): 59?69. |
随便看 |
|
科学优质学术资源、百科知识分享平台,免费提供知识科普、生活经验分享、中外学术论文、各类范文、学术文献、教学资料、学术期刊、会议、报纸、杂志、工具书等各类资源检索、在线阅读和软件app下载服务。