标题 | 基于改进的差异演化算法求解SVM反问题的研究 |
范文 | 樊永生+熊焰明+余红英 摘 要: 针对求解支持向量机反问题的效率较低,算法复杂度高以及运用传统方法求解该问题容易陷入局部最优出现早熟收敛的问题,提出一种基于改进差异的差异演化算法。该算法在标准差异演化算法的基础上利用种群分类机制对算法进行改进,对改进后的算法与标准差异演化算法和K?means聚类算法进行实验设计,并对算法最终实验结果进行分析,改进的差异演化算法除在运行时间外,结果对比以及最大间隔次数比都有明显的提升,有效地保护处于最优解区域但是适应值低的个体,能够提高算法局部搜索能力,有助于算法实现全局收敛。实验结果表明,改进的差异演化算法在求解SVM反问题上能有明显的提升。 关键词: 支持向量机; 局部最优; 差异演化算法; 全局收敛; 种群分类机制; IRIS数据库 中图分类号: TN911?34; TP301.6 文献标识码: A 文章编号: 1004?373X(2018)06?0141?04 Abstract: Since the traditional algorithm has the problems of low efficiency of support vector machine (SVM) inverse problem solving and high algorithm complexity, is easily to fall into local optimum, and is prone to the premature convergence, a new differential evolutionary algorithm based on improved difference is proposed. On the basis of normative differential evolution algorithm, the population classification mechanism is used to improve the algorithm. The experimental design was carried out for the improved algorithm, normative differential evolution algorithm and K?means clustering algorithm. The final experimental results of the algorithm are analyzed. The maximum interval numbers and average interval numbers of the changed differential evolution (CDE) algorithm beyond operation time are improved greatly. The algorithm can effectively protect the individual within the optimum solution region but with low adaptive value, improve the local search ability of the algorithm, and is conductive to the realization of global convergence. The experimental results show that the performance of the CDE algorithm is improved obviously for SVM inverse problem solving. Keywords: support vector machine; local optimum; differential evolution algorithm; global convergence; population classification mechanism; IRIS database 0 引 言 支持向量机(Support Vector Machine,SVM)是机器学习领域中一个重要的研究热点,因其具有优秀的泛化能力和学习能力被广泛地应用在模式识别、文本分类、信号处理、回归分析等领域[1?3]。SVM是在统计学习理论的基础上,提出最优超平面间隔理论。该理论结合结构风险最小化原理,将原始训练样本进行提取压缩,得到支持向量集合,通过这些支持向量子集学习新的知识。SVM出发点是根据已经给定的正负标签的类别信息,寻找两类样本之间的最优超平面。在寻找过程中,靠近当前最优超平面最近的样本点到超平面的距离尽可能的大,不同类别的样本之间的间距也会越大,分类器的泛化能力也就越强。所以,SVM是一个在训练样本训练之前赋予其标签信息的典型监督学习问题。 然而,如果训练之前没有已给定的任何类别信息,根据上述的SVM问题难以快速找到最优超平面,为此,出现了SVM反问题,即无监督学习。SVM反问题是一种训练样本在训练之前不含有任何类别信息的无监督学习问题,通过寻找样本之间的最大间距(margin),完成学习[4?7]。差分演化算法是解决研究无监督学习这一问题的最先进的算法之一[8?9],本文提出应用改进的差异演化算法与聚类算法及标准差异演化算法进行实验分析,结果表明,所提出的算法在总体上优于其他最先进的进化算法。 1 算法设计 1.1 概 述 定义1 (SVM反问题) 假设存在数据集合[S=x1,x2,…,xn,]并且[xi∈Rni=1,2…,N,][Ω=][ff是从S到 [-1,1] 的映射函数]。给定函数[f∈Ω],数据集分为两个子类,然后计算间隔(margin)。用margin(f)表示某个分类方法的类间隔[10],SVM反问题为:[maxf∈Ωmarginf]。 |
随便看 |
|
科学优质学术资源、百科知识分享平台,免费提供知识科普、生活经验分享、中外学术论文、各类范文、学术文献、教学资料、学术期刊、会议、报纸、杂志、工具书等各类资源检索、在线阅读和软件app下载服务。