特征比数据量还大时,选择什么样的分类器的选择

完成一个数据挖掘的分类任务应该注意哪些问题_百度知道
完成一个数据挖掘的分类任务应该注意哪些问题
解决方案1:M,且与类域边界的沿垂直于该超平面方向的距离最大,其归于cj类的类条件概率是P(X/;T2,具有相对优良的性能指标(1)决策树决策树归纳是经典的分类算法,…。另外,M,类别总体的概率分布和各类样本的概率分布函数(或密度函数)常常是不知道的,由此构造出的分类器可以最大化类与类的间隔,Bayes分类方法在理论上论证得比较充分,因此该方法往往在效果上难以达到理论上的最大值,记为C={c1;ci)P(ci)=Maxj[P(x/,这样的条件在实际文本中一般很难满足,而那些样本容量较小的类域采用这种算法比较容易产生误分:若P(x/,因为对每一个待分类的文本都要计算它到全体已知样本的距离。因此:D=D(T1,因此对于类域的交叉或重叠较多的待分样本集来说,由Salton等人于60年代末提出,待分样本的分类结果取决于各类域中样本的全体;…,VSM法相对其他分类方法而言;P(x)(1)若P(ci/,…,其包含的每个特征项对于类别的表达能力越弱,Bayes法要求表达文本的主题词相互独立,采用这种方法可以较好地避免样本的不平衡问题:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别。为了获得它们,只与极少量的相邻样本有关,则有x∈ci(2)式(2)是最大后验概率判决准则,ci,…,只需要计算待分样本和每一个类别向量的相似度即内积。该方法的思路非常简单直观。当需要对一篇待分样本进行分类的时候,2,是一个理论上比较成熟的方法。设训练样本集分为M类;x)=P(x/。KNN方法虽然从原理上也依赖于极限定理,故SVM法亦被称为最大边缘(maximum margin)算法,移去或者减少这些样本对分类结果没有影响,事先去除对分类作用不大的样本,则该样本也属于这个类别。当文本被表示为空间向量模型的时候,则x∈ci这就是常用到的Bayes分类判决准则,Wn)。另外,就要求样本足够大。可以从生成的决策树中提取规则。Bayes方法的薄弱环节在于实际情况下,但在类别决策时;X)=MaxjP(cj/,2,可得到cj类的后验概率P(ci/,i=1,而不是靠判别类域的方法来确定所属类别的,由于KNN方法主要靠周围有限的邻近的样本。当样本集非常大时,由Vapnik等人于1995年提出;ci),i=1,能降低KNN算法的计算复杂度。因此,i=1,…,SVM可以自动寻找出那些对分类有较好区分能力的支持向量,则有,…,提高分类的效率,在应用上也是非常广泛的;总样本数,KNN方法较其他方法更为适合。待分样本集中的大部分样本不是支持向量。目前常用的解决方法是事先对已知样本点进行剪辑。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。根据研究发现。经过长期的研究。该算法比较适用于样本容量比较大的类域的自动分类。该方法只需要由各类域的边界样本的类别来决定最后的分类结果。通过学习算法。它采用自顶向下递归的各个击破方式构造决策树,而该空间向量的建立又很大程度的依赖于该类别向量中所包含的特征项,文本的相似度就可以借助特征向量之间的内积来表示。(4) VSM法VSM法即向量空间模型(Vector Space Model)法。这是最早也是最出名的信息检索方面的数学模型。由于VSM法中需要事先计算类别的空间向量,SVM法对小样本情况下的自动分类有着较好的分类结果。 (3) SVM法SVM法即支持向量机(Support Vector Machine)法。在实际应用中,j=1,M,j=1。另外还有一种Reverse KNN法;Tn;ci)·P(ci)/,因而有较好的适应能力和较高的分准率,W1:P(ci/,M,然后选取相似度最大的类别作为该待分样本所对应的类别,VSM法一般事先依据语料库中的训练样本和分类体系建立类别向量空间,则根据Bayes定理。该方法的不足之处是计算量较大,类别中所包含的非零特征项越多,最初由Cover和Hart于1968年提出的。树的每一个结点上使用信息增益度量选择测试属性;X)。支持向量机算法的目的在于寻找一个超平面H(d),…cM},2,将式(1)代入式(2)。对于一个待分样本X,然后通过计算文本相似度的方法来确定待分样本的类别,2,2,该超平面可以将训练集中的数据分开。该方法是建立在统计学习理论基础上的机器学习方法,每类的先验概率为P(ci),W2,…。(5) Bayes法Bayes法是一种在已知先验概率与类条件概率的情况下的模式分类方法;cj)P(cj)],更适合于专业文献的分类,才能求得它的K个最近邻点。 (2) KNN法(K-Nearest Neighbor)KNN法即K最近邻法,M;X),可以认为P(ci)=ci类样本数/。其基本思想是将文档表示为加权的特征向量
其他类似问题
为您推荐:
提问者采纳
(1)决策树决策树归纳是经典的分类算法。它采用自顶向下递归的各个击破方式构造决策树。树的每一个结点上使用信息增益度量选择测试属性。可以从生成的决策树中提取规则。 (2) KNN法(K-Nearest Neighbor)KNN法即K最近邻法,最初由Cover和Hart于1968年提出的,是一个理论上比较成熟的方法。该方法的思路非常简单直观:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。因此,采用这种方法可以较好地避免样本的不平衡问题。另外,由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。该方法的不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。另外还有一种Reverse KNN法,能降低KNN算法的计算复杂度,提高分类的效率。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。 (3) SVM法SVM法即支持向量机(Support Vector Machine)法,由Vapnik等人于1995年提出,具有相对优良的性能指标。该方法是建立在统计学习理论基础上的机器学习方法。通过学习算法,SVM可以自动寻找出那些对分类有较好区分能力的支持向量,由此构造出的分类器可以最大化类与类的间隔,因而有较好的适应能力和较高的分准率。该方法只需要由各类域的边界样本的类别来决定最后的分类结果。支持向量机算法的目的在于寻找一个超平面H(d),该超平面可以将训练集中的数据分开,且与类域边界的沿垂直于该超平面方向的距离最大,故SVM法亦被称为最大边缘(maximum margin)算法。待分样本集中的大部分样本不是支持向量,移去或者减少这些样本对分类结果没有影响,SVM法对小样本情况下的自动分类有着较好的分类结果。(4) VSM法VSM法即向量空间模型(Vector Space Model)法,由Salton等人于60年代末提出。这是最早也是最出名的信息检索方面的数学模型。其基本思想是将文档表示为加权的特征向量:D=D(T1,W1;T2,W2;…;Tn,Wn),然后通过计算文本相似度的方法来确定待分样本的类别。当文本被表示为空间向量模型的时候,文本的相似度就可以借助特征向量之间的内积来表示。在实际应用中,VSM法一般事先依据语料库中的训练样本和分类体系建立类别向量空间。当需要对一篇待分样本进行分类的时候,只需要计算待分样本和每一个类别向量的相似度即内积,然后选取相似度最大的类别作为该待分样本所对应的类别。由于VSM法中需要事先计算类别的空间向量,而该空间向量的建立又很大程度的依赖于该类别向量中所包含的特征项。根据研究发现,类别中所包含的非零特征项越多,其包含的每个特征项对于类别的表达能力越弱。因此,VSM法相对其他分类方法而言,更适合于专业文献的分类。(5) Bayes法Bayes法是一种在已知先验概率与类条件概率的情况下的模式分类方法,待分样本的分类结果取决于各类域中样本的全体。设训练样本集分为M类,记为C={c1,…,ci,…cM},每类的先验概率为P(ci),i=1,2,…,M。当样本集非常大时,可以认为P(ci)=ci类样本数/总样本数。对于一个待分样本X,其归于cj类的类条件概率是P(X/ci),则根据Bayes定理,可得到cj类的后验概率P(ci/X):P(ci/x)=P(x/ci)·P(ci)/P(x)(1)若P(ci/X)=MaxjP(cj/X),i=1,2,…,M,j=1,2,…,M,则有x∈ci(2)式(2)是最大后验概率判决准则,将式(1)代入式(2),则有:若P(x/ci)P(ci)=Maxj[P(x/cj)P(cj)],i=1,2,…,M,j=1,2,…,M,则x∈ci这就是常用到的Bayes分类判决准则。经过长期的研究,Bayes分类方法在理论上论证得比较充分,在应用上也是非常广泛的。Bayes方法的薄弱环节在于实际情况下,类别总体的概率分布和各类样本的概率分布函数(或密度函数)常常是不知道的。为了获得它们,就要求样本足够大。另外,Bayes法要求表达文本的主题词相互独立,这样的条件在实际文本中一般很难满足,因此该方法往往在效果上难以达到理论上的最大值。
数据挖掘的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁您所在位置: &
&nbsp&&nbsp&nbsp&&nbsp
分类器设计中特征选择问题的研究.pdf76页
本文档一共被下载:
次 ,您可全文免费在线阅读后下载本文档。
文档加载中...广告还剩秒
需要金币:200 &&
分类器设计中特征选择问题的研究
你可能关注的文档:
··········
··········
上海交通大学 硕士学位论文
分类器设计中特征选择问题的研究 姓名:王振晓 申请学位级别:硕士 专业:模式识别与智能系统 指导教师:杨杰
附件四 上海交通大学 学位论文原创性声明 本人郑重声明:所呈交的学位论文,是本人在导师的指导下,
独立进行研究工作所取得的成果。除文中已经注明引用的内容外,
本论文不包含任何其他个人或集体已经发表或撰写过的作品成果。
对本文的研究做出重要贡献的个人和集体,均已在文中以明确方式
标明。本人完全意识到本声明的法律结果由本人承担。 …一虢砰船 日期:印乡年f月/疥日
附件五 上海交通大学 学位论文版权使用授权书 本学位论文作者完全了解学校有关保留、使用学位论文的规定, 同意学校保留并向国家有关部门或机构送交论文的复印件和电子
版,允许论文被查阅和借阅。本人授权上海交通大学可以将本学位
论文的全部或部分内容编入有关数据库进行检索,可以采用影印、
缩印或扫描等复制手段保存和汇编本学位论文。 保密口 年解密后适用本授权书。 本学位论文属于 不保密 请在以上方框内打“4” 学位论文作者签名:概 剧 溯胳摊名 日
拐。∥≠一日 日期:7。哆年f月锣日 哆瞬 分类器设计中特征选择问题的研究 摘要 《 l特征选择在分类器的设计中是一个非常重要的步骤,一个有效的特征选择
算法能成功的选择出对于分类最有用、没有冗余的那些特征,从而减少分类器
的学习时间,同时提高它的分类正确率。一个特征选择的过程在原理上可以看
成是一个组合优化过程:在原有的特征中选择其中的一部分,使某个给定的评
价函数最优。搜索是解决优化问题的一个主要方法。在
正在加载中,请稍后... 上传我的文档
 下载
 收藏
该文档贡献者很忙,什么也没留下。
 下载此文档
正在努力加载中...
分类器设计中特征选择问题的研究
下载积分:600
内容提示:分类器设计中特征选择问题的研究
文档格式:PDF|
浏览次数:102|
上传日期: 15:15:28|
文档星级:
该用户还上传了这些文档
分类器设计中特征选择问题的研究
官方公共微信什么是svm分类数据挖掘_百度知道_百度知道
什么是svm分类数据挖掘_百度知道
提问者采纳
数据仓库数据库或者其信息库隐藏着许商业、科研等决策提供所需要知识类与预测两种数据析形式用抽取能够描述重要数据集合或预测未数据趋势模型类(Classification)用于预测数据象离散类别(Categorical Label);预测(Prediction )用于预测数据象连续取值类技术领域都应用例通客户类构造类模型银行贷款进行风险评估;前市场营销重要特点强调客户细客户类别析功能于采用数据挖掘类技术客户同类别比呼叫设计:呼叫频繁客户、偶量呼叫客户、稳定呼叫客户、其帮助呼叫寻找些同种类客户间特征类模型让用户解同行类别客户布特征;其类应用文献检索搜索引擎自文本类技术;安全领域基于类技术入侵检测等等机器习、专家系统、统计神经网络等领域研究员已经提许具体类预测面类流程作简要描述:训练:训练集——&特征选取——&训练——&类器类:新本——&特征选取——&类——&判决初数据挖掘类应用都些及基于内存基础所构造算目前数据挖掘都要求具基于外存处理规模数据集合能力且具扩展能力面几种主要类做简要介绍:(1)决策树决策树归纳经典类算采用自顶向递归各击破式构造决策树树每结点使用信息增益度量选择测试属性决策树提取规则(2) KNN(K-Nearest Neighbor)KNN即K近邻初由CoverHart于1968提理论比较熟该思路非简单直观:本特征空间k相似(即特征空间邻近)本数属于某类别则该本属于类别该定类决策依据邻近或者几本类别决定待本所属类别KNN虽原理依赖于极限定理类别决策与极少量相邻本关采用种较避免本平衡问题另外由于KNN主要靠周围限邻近本靠判别类域确定所属类别于类域交叉或重叠较待本集说KNN较其更适合该足处计算量较每待类文本都要计算全体已知本距离才能求K近邻点目前用解决事先已知本点进行剪辑事先除类作用本另外种Reverse KNN能降低KNN算计算复杂度提高类效率该算比较适用于本容量比较类域自类些本容量较类域采用种算比较容易产误(3) SVMSVM即支持向量机(Support Vector Machine)由Vapnik等于1995提具相优良性能指标该建立统计习理论基础机器习通习算SVM自寻找些类较区能力支持向量由构造类器化类与类间隔较适应能力较高准率该需要由各类域边界本类别决定类结支持向量机算目于寻找超平面H(d),该超平面训练集数据且与类域边界沿垂直于该超平面向距离故SVM亦称边缘(maximum margin)算待本集部本支持向量移或者减少些本类结没影响SVM本情况自类着较类结(4) VSMVSM即向量空间模型(Vector Space Model)由Salton等于60代末提早名信息检索面数模型其基本思想文档表示加权特征向量:D=D(T1W1;T2W2;…;TnWn)通计算文本相似度确定待本类别文本表示空间向量模型候文本相似度借助特征向量间内积表示实际应用VSM般事先依据语料库训练本类体系建立类别向量空间需要篇待本进行类候需要计算待本每类别向量相似度即内积选取相似度类别作该待本所应类别由于VSM需要事先计算类别空间向量该空间向量建立程度依赖于该类别向量所包含特征项根据研究发现类别所包含非零特征项越其包含每特征项于类别表达能力越弱VSM相其类言更适合于专业文献类(5) BayesBayes种已知先验概率与类条件概率情况模式类待本类结取决于各类域本全体设训练本集M类记C={c1…ci…cM}每类先验概率P(ci)i=1<img class="word-replace" src="/api/getdecpic?picenc=0ad…M本集非认P(ci)=ci类本数/总本数于待本X其归于cj类类条件概率P(X/ci)则根据Bayes定理cj类验概率P(ci/X):P(ci/x)=P(x/ci)·P(ci)/P(x)(1)若P(ci/X)=MaxjP(cj/X)i=1<img class="word-replace" src="/api/getdecpic?picenc=0ad…Mj=1<img class="word-replace" src="/api/getdecpic?picenc=0ad…M则x∈ci(2)式(2)验概率判决准则式(1)代入式(2)则:若P(x/ci)P(ci)=Maxj〔P(x/cj)P(cj)〕i=1<img class="word-replace" src="/api/getdecpic?picenc=0ad…Mj=1<img class="word-replace" src="/api/getdecpic?picenc=0ad…M则x∈ci用Bayes类判决准则经期研究Bayes类理论论证比较充应用非广泛Bayes薄弱环节于实际情况类别总体概率布各类本概率布函数(或密度函数)知道获要求本足够另外Bayes要求表达文本主题词相互独立条件实际文本般难满足该往往效难达理论值神经网络类算重点构造阈值逻辑单元值逻辑单元象输入组加权系数量进行求达或者超某阈值输量输入值X1, X2, ..., Xn 权系数:W1, W2, ..., Wn求计算 Xi*Wi 产激发层 a = (X1 * W1)+(X2 * W2)+...+(Xi * Wi)+...+ (Xn * Wn)其Xi 各条记录现频率或其参数Wi实特征评估模型权系数神经网络基于经验风险化原则习算些固缺陷比层数神经元数难确定容易陷入局部极习现象些本身缺陷SVM算解决
其他类似问题
为您推荐:
svm的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁特征选择算法综述及基于weka的性能比较_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
特征选择算法综述及基于weka的性能比较
上传于||文档简介
&&关&#8203;于&#8203;特&#8203;征&#8203;选&#8203;择&#8203;算&#8203;法
阅读已结束,如果下载本文需要使用0下载券
想免费下载更多文档?
下载文档到电脑,查找使用更方便
还剩5页未读,继续阅读
你可能喜欢

我要回帖

更多关于 特征分类器 的文章

 

随机推荐